Artigos

6.4.1: Equações de Euler de pontos singulares regulares (exercícios) - Matemática


Q6.4.1

Em Exercícios 7.4.1-7.4.18 encontre a solução geral da equação de Euler dada em ((0, infty) ).

1. (x ^ 2y '' + 7xy '+ 8y = 0 )

2. (x ^ 2y '' - 7xy '+ 7y = 0 )

3. (x ^ 2y '' - xy '+ y = 0 )

4. (x ^ 2y '' + 5xy '+ 4y = 0 )

5. (x ^ 2y '' + xy '+ y = 0 )

6. (x ^ 2y '' - 3xy '+ 13y = 0 )

7. (x ^ 2y '' + 3xy'-3y = 0 )

8. (12x ^ 2y '' - 5xy '' + 6y = 0 )

9. (4x ^ 2y '' + 8xy '+ y = 0 )

10. (3x ^ 2y '' - xy '+ y = 0 )

11. (2x ^ 2y '' - 3xy '+ 2y = 0 )

12. (x ^ 2y '' + 3xy '+ 5y = 0 )

13. (9x ^ 2y '' + 15xy '+ y = 0 )

14. (x ^ 2y '' - xy '+ 10y = 0 )

15. (x ^ 2y '' - 6y = 0 )

16. (2x ^ 2y '' + 3xy'-y = 0 )

17. (x ^ 2y '' - 3xy '+ 4y = 0 )

18. (2x ^ 2y '' + 10xy '+ 9y = 0 )

Q6.4.2

19.

  1. Adapte a prova do Teorema 7.4.3 para mostrar que (y = y (x) ) satisfaz a equação de Euler [ax ^ 2y '' + bxy '+ cy = 0 tag {A} ] em (( - infty, 0) ) se e somente se (Y (t) = y (-e ^ t) ) [a {d ^ 2Y over dt ^ 2} + (ba) {dY over dt } + cY = 0. nonumber ] on ((- infty, infty) ).
  2. Use (a) para mostrar que a solução geral da Equação A em ((- infty, 0) ) é [ begin {alinhados} y & = c_1 | x | ^ {r_1} + c_2 | x | ^ { r_2} mbox {se $ r_1 $ e $ r_2 $ são números reais distintos; } y & = | x | ^ {r_1} (c_1 + c_2 ln | x |) mbox {if $ r_1 = r_2 $; } y & = | x | ^ { lambda} left [c_1 cos left ( omega ln | x | right) + c_2 sin left ( omega ln | x | right) direita] mbox {if $ r_1, r_2 = lambda pm i omega $ com $ omega> 0 $}. end {alinhado} nonumber ]

20. Use a redução da ordem para mostrar que se

[ar (r-1) + br + c = 0 não numérico ]

tem uma raiz repetida (r_1 ) então (y = x ^ {r_1} (c_1 + c_2 ln x) ) é a solução geral de

[ax ^ 2y '' + bxy '+ cy = 0 nonumber ]

em ((0, infty) ).

21. Uma solução não trivial de

[P_0 (x) y '' + P_1 (x) y '+ P_2 (x) y = 0 não numérico ]

é dito ser oscilatório em um intervalo ((a, b) ) se houver infinitos zeros em ((a, b) ). Caso contrário, (y ) é considerado não oscilatório em ((a, b) ). Mostre que a equação

[x ^ 2y '' + ky = 0 quad (k = ; mbox {constante}) nonumber ]

tem soluções oscilatórias em ((0, infty) ) se e somente se (k> 1/4 ).

22. No Exemplo 7.4.2, vimos que (x_0 = 1 ) e (x_0 = -1 ) são pontos singulares regulares da equação de Legendre

[(1-x ^ 2) y '' - 2xy '+ alpha ( alpha + 1) y = 0. tag {A} ]

  1. Apresente as novas variáveis ​​ (t = x-1 ) e (Y (t) = y (t + 1) ), e mostre que (y ) é uma solução de (A) se e somente se (Y ) é uma solução de [t (2 + t) {d ^ 2Y over dt ^ 2} +2 (1 + t) {dY over dt} - alpha ( alpha + 1) Y = 0, nonumber ] que tem um ponto singular regular em (t_0 = 0 ).
  2. Apresente as novas variáveis ​​ (t = x + 1 ) e (Y (t) = y (t-1) ), e mostre que (y ) é uma solução de (A) se e somente se (Y ) é uma solução de [t (2-t) {d ^ 2Y over dt ^ 2} +2 (1-t) {dY over dt} + alpha ( alpha + 1) Y = 0, nonumber ] que tem um ponto singular regular em (t_0 = 0 ).

23. Sejam (P_0, P_1 ), e (P_2 ) polinômios sem fator comum, e suponha que (x_0 ne0 ) seja um ponto singular de

[P_0 (x) y '' + P_1 (x) y '+ P_2 (x) y = 0. tag {A} ]

Seja (t = x-x_0 ) e (Y (t) = y (t + x_0) ).

  1. Mostre que (y ) é uma solução de (A) se e somente se (Y ) é uma solução de [R_0 (t) {d ^ 2Y over dt ^ 2} + R_1 (t) {dY over dt} + R_2 (t) Y = 0. tag {B} ] onde [R_i (t) = P_i (t + x_0), quad i = 0,1,2. nonumber ]
  2. Mostre que (R_0 ), (R_1 ) e (R_2 ) são polinômios em (t ) sem fatores comuns, e (R_0 (0) = 0 ); assim, (t_0 = 0 ) é um ponto singular de (B).

6.4.1: Equações de Euler de pontos singulares regulares (exercícios) - Matemática

Você está prestes a apague seu trabalho nesta atividade. Você tem certeza de que quer fazer isso?

Versão atualizada disponível

Há um versão atualizada desta atividade. Se você atualizar para a versão mais recente desta atividade, seu progresso atual nesta atividade será apagado. Independentemente disso, seu registro de conclusão permanecerá. Como você gostaria de proceder?

Editor de Expressão Matemática

Transformação de equações homogêneas em equações separáveis

Equações não lineares que podem ser transformadas em equações separáveis

Vimos que a equação não linear de Bernoulli pode ser transformada em uma equação separável pela substituição se for escolhida adequadamente. Agora vamos descobrir uma condição suficiente para uma equação diferencial não linear de primeira ordem

para ser transformável em uma equação separável da mesma maneira. Substituindo em (eq: 2.4.4) resulta que é equivalente a If para alguma função, então (eq: 2.4.5) torna-se que é separável. Depois de verificar as soluções constantes, podemos separar as variáveis ​​para obter

Equações não lineares homogêneas

No texto, consideraremos apenas a classe de equações mais amplamente estudada para a qual o método do parágrafo anterior funciona. Outros tipos de equações aparecem em Exercícios exer: 2.4.44 – exer: 2.4.51.

A equação diferencial (eq: 2.4.4) é considerada homogêneo se e ocorrer de tal forma que depende apenas da proporção que é, (eq: 2.4.4) pode ser escrito como

onde é uma função de uma única variável. Por exemplo, e têm a forma (eq: 2.4.7), com, respectivamente. O método geral discutido acima pode ser aplicado a (eq: 2.4.7) com (e, portanto. Assim, substituir em (eq: 2.4.7) rendimentos e separação de variáveis ​​(após verificar as soluções constantes de tal forma que) rendimentos

Antes de voltar aos exemplos, apontamos algo que você já deve ter notado: a definição de equação homogênea dada aqui não é a mesma que a definição dada na Seção 2.1, onde dissemos que uma equação linear da forma é homogênea. Não nos desculpamos por essa inconsistência, uma vez que não a criamos! Historicamente, homogêneo tem sido usado dessas duas maneiras inconsistentes. O que tem a ver com equações lineares é o mais importante. Esta é a única seção do livro onde o significado definido aqui se aplicará.

Uma vez que é geralmente indefinido se, consideraremos soluções de equações não homogêneas apenas em intervalos abertos que não contêm o ponto.

Substituindo em (eq: 2.4.8) resulta Simplificar e separar variáveis ​​resulta em Integrar rendimentos. Portanto e.

Figura figura: 2.4.2 mostra um campo de direção e curvas integrais para (eq: 2.4.8).


6.4.1: Equações de Euler de pontos singulares regulares (exercícios) - Matemática

Você está prestes a apague seu trabalho nesta atividade. Você tem certeza de que quer fazer isso?

Versão atualizada disponível

Há um versão atualizada desta atividade. Se você atualizar para a versão mais recente desta atividade, seu progresso atual nesta atividade será apagado. Independentemente disso, seu registro de conclusão permanecerá. Como você gostaria de proceder?

Editor de Expressão Matemática

Método de Euler

Introdução

Em ciências e matemática, encontrar soluções exatas para equações diferenciais nem sempre é possível. Já vimos que os campos de declive nos fornecem uma maneira poderosa de entender as características qualitativas das soluções. Às vezes, precisamos de uma compreensão quantitativa mais precisa, o que significa que gostaríamos de aproximações numéricas das soluções.

Se um problema de valor inicial

não pode ser resolvido analiticamente, é necessário recorrer a métodos numéricos para obter aproximações úteis para uma solução.

O método numérico mais simples para resolver (eq: 3.1.1) é o método de Euler. Este método é tão rudimentar que raramente é usado na prática, entretanto, sua simplicidade o torna útil para fins ilustrativos.

O método de Euler é baseado na suposição de que a linha tangente à curva integral de (eq: 3.1.1) se aproxima da curva integral ao longo do intervalo. Uma vez que a inclinação da curva integral de (eq: 3.1.1) em é, a equação da linha tangente à curva integral em é

como uma aproximação de. Uma vez que é conhecido, podemos usar (eq: 3.1.3) com para calcular No entanto, a configuração em (eq: 3.1.3) produz o que não é útil, uma vez que não sabemos. Portanto, substituímos por seu valor aproximado e redefinimos. Tendo calculado, podemos calcular Em geral, o método de Euler começa com o valor conhecido e calcula sucessivamente usando a fórmula

O próximo exemplo ilustra o procedimento computacional indicado no método de Euler.

Considere a seguinte equação diferencial

Vamos aproximar a solução usando apenas dois subintervalos, pois sabemos disso por (eq: 3.1.3).

Traçando nossa aproximação com a solução real que encontramos:

Esta aproximação pode ser melhorada usando mais subintervalos. Use o Sage Cell abaixo para aumentar o número de subintervalos para melhorar a aproximação.

Preencha a seguinte tabela para o método de Euler usando subintervalos. Use valores exatos. Desse modo .

O Sage Cell abaixo ilustra o Exemplo ex: eulerIntro2 graficamente. Você pode ajustar o número de subintervalos para ver como a aproximação é afetada. Você também pode alterar o intervalo, apenas por diversão.

Fontes de erro

Ao usar métodos numéricos, estamos interessados ​​em calcular valores aproximados da solução de (eq: 3.1.1) em pontos igualmente espaçados em um intervalo. Assim, onde denotaremos os valores aproximados da solução nesses pontos, portanto, é uma aproximação de. Vamos chamar o erro na ª etapa. Por causa da condição inicial, sempre teremos. No entanto, em geral, se.

Encontramos duas fontes de erro na aplicação de um método numérico para resolver um problema de valor inicial:

  • As fórmulas que definem o método são baseadas em algum tipo de aproximação. Erros devido à imprecisão da aproximação são chamados erros de truncamento.
  • Os computadores fazem aritmética com um número fixo de dígitos e, portanto, cometem erros ao avaliar as fórmulas que definem os métodos numéricos. Erros devido à incapacidade do computador de fazer aritmética exata são chamados erros de arredondamento.

Como uma análise cuidadosa do erro de arredondamento está além do escopo deste livro, consideraremos apenas os erros de truncamento.

Você pode ver que diminuir o tamanho do passo melhora a precisão do método de Euler. Por exemplo, com base nesta evidência escassa, você pode adivinhar que o erro em aproximar a solução exata em um valor fixo de pelo método de Euler é aproximadamente reduzido pela metade quando o tamanho do passo é reduzido pela metade. Você pode encontrar mais evidências para apoiar essa conjectura examinando a tabela abaixo, que lista os valores aproximados de at.

Use o Sage Cell abaixo para explorar o erro no exemplo Exemplo: 3.1.2 visualmente alterando o tamanho () dos subintervalos.

Uma vez que pensamos que é importante avaliar a precisão dos métodos numéricos que estudaremos neste capítulo, frequentemente incluímos uma coluna listando os valores da solução exata do problema de valor inicial, mesmo se as instruções no exemplo ou exercício não é especificamente chamada para isso. Se as aspas estiverem incluídas no título, os valores foram obtidos aplicando o método Runge-Kutta de uma forma que é explicada na Seção 3.3. Se as aspas não forem incluídas, os valores foram obtidos a partir de uma fórmula conhecida para a solução. Em qualquer caso, os valores são exatos até oito casas à direita da vírgula decimal.

Erro de truncamento no método de Euler

Consistente com os resultados indicados na tabela Tabelas: 3.1.1-tabela: 3.1.4, mostraremos agora que, sob suposições razoáveis, há uma constante tal que o erro na aproximação da solução do problema de valor inicial em um determinado ponto por O método de Euler com tamanho do passo satisfaz a desigualdade onde é uma constante independente de.

Existem duas fontes de erro (sem contar o arredondamento) no método de Euler:

(a) O erro cometido na aproximação da curva integral pela reta tangente (eq: 3.1.2) ao longo do intervalo. (b) O erro cometido ao substituir por em (eq: 3.1.2) e usando (eq: 3.1.4) em vez de (eq: 3.1.2) para calcular.

O método de Euler assume que definido em (eq: 3.1.2) é uma aproximação de. Chamamos o erro nesta aproximação de erro de truncamento local na ª etapa, e denotá-lo por assim,

Vamos agora usar o teorema de Taylor para estimar, assumindo para simplificar que, e são contínuos e limitados para todos. Então existe e é limitado. Para ver isso, diferenciamos para obter

Observe que a magnitude do erro de truncamento local no método de Euler é determinada pela segunda derivada da solução do problema do valor inicial. Portanto, o erro de truncamento local será maior onde for grande ou menor onde for pequeno.

Uma vez que o erro de truncamento local para o método de Euler é, é razoável esperar que a redução pela metade reduza o erro de truncamento local por um fator de. Isso é verdade, mas reduzir pela metade o tamanho do passo também requer o dobro de passos para aproximar a solução em um determinado ponto. Para analisar o efeito geral do erro de truncamento no método de Euler, é útil derivar uma equação relacionando os erros. Para este fim, lembre-se de que

e Subtraindo (eq: 3.1.12) de (eq: 3.1.11) resulta O último termo à direita é o erro de truncamento local na etapa. Os outros termos refletem a forma como os erros cometidos nas etapas anteriores afetam. Visto que, vemos da (eq: 3.1.13) que, uma vez que assumimos que é contínuo e limitado, o teorema do valor médio implica que onde está entre e. Portanto, por alguma constante. A partir disso e (eq: 3.1.14), Por conveniência, deixe. Uma vez que, aplicar (eq: 3.1.15) repetidamente produz

Recordando a fórmula da soma de uma série geométrica, vemos que (desde). Disto e (eq: 3.1.16),

Uma vez que o teorema de Taylor implica que (verifique), Este e (eq: 3.1.17) implicam que com Por causa de (eq: 3.1.18) dizemos que o erro de truncamento global do método de Euler é de ordem, como escrevemos.

Equações Semilineares e Variação de Parâmetros

Uma equação que pode ser escrita na forma

com é dito ser semilinear. (Claro, (eq: 3.1.19) é linear se for independente de.) Uma maneira de aplicar o método de Euler a um problema de valor inicial para (eq: 3.1.19) é pensar nele como onde. No entanto, também podemos comece aplicando variação de parâmetros a (eq: 3.1.20), como nas Seções 2.1 e 2.4, assim, escrevemos a solução de (eq: 3.1.20) como, onde é uma solução não trivial da equação complementar. Então é uma solução de (eq: 3.1.20) se e somente se é uma solução do problema de valor inicial Podemos aplicar o método de Euler para obter valores aproximados deste problema de valor inicial, e então tomar como valores aproximados da solução de ( eq: 3.1.20). Chamaremos esse procedimento de método semilinear de Euler.

Os próximos dois exemplos mostram que os métodos semilineares de Euler e Euler podem produzir resultados drasticamente diferentes.

É fácil ver por que o método de Euler produz resultados tão ruins. Lembre-se de que a constante em (eq: 3.1.10) - que desempenha um papel importante na determinação do erro de truncamento local no método de Euler - deve ser um limite superior para os valores da segunda derivada da solução do problema de valor inicial (eq : 3.1.22) ativado. O problema é que assume valores muito grandes neste intervalo. Para ver isso, diferenciamos (eq: 3.1.24) para obter onde a segunda igualdade segue novamente (eq: 3.1.24). Visto que (eq: 3.1.23) implica que se, por exemplo, deixar mostra isso.

item: 3.1.4b Uma vez que é uma solução da equação complementar, podemos aplicar o método semilinear de Euler para (eq: 3.1.22), com Os resultados listados na tabela a seguir são claramente melhores do que aqueles obtidos pelo método de Euler.

Não podemos fornecer um procedimento geral para determinar com antecedência se o método de Euler ou o método de Euler semilinear produzirá melhores resultados para um determinado problema de valor inicial semilinear (eq: 3.1.19). Como regra geral, o método semilinear de Euler produzirá melhores resultados do que o método de Euler se for pequeno em, enquanto o método de Euler produzirá melhores resultados se for grande em. Em muitos casos, os resultados obtidos pelos dois métodos não diferem consideravelmente. No entanto, propomos uma maneira intuitiva de decidir qual é o melhor método: Tente ambos os métodos com vários tamanhos de etapas, como fizemos no exemplo Exemplo: 3.1.4, e aceite os resultados obtidos pelo método para o qual as aproximações mudam menos conforme o tamanho do passo diminui.

A aplicação do método semilinear de Euler com produz os resultados na tabela abaixo.

Uma vez que os últimos são claramente menos dependentes do tamanho do passo do que os primeiros, concluímos que o método semilinear de Euler é melhor do que o método de Euler para (eq: 3.1.25). Esta conclusão é suportada pela comparação dos resultados aproximados obtidos pelos dois métodos com os valores “exatos” da solução.

Aplicar o método semilinear de Euler com os resultados a seguir.

Observando a estreita concordância entre as três colunas da primeira tabela (pelo menos para valores maiores de) e a falta de qualquer concordância entre as colunas da segunda tabela, concluímos que o método de Euler é melhor do que o método semilinear de Euler para (eq : 3.1.26). Comparar os resultados com os valores exatos apóia esta conclusão.

Nos próximos dois módulos, estudaremos outros métodos numéricos para resolver problemas de valores iniciais, chamados de método de Euler aprimorado, o método do ponto médio, O método de Heun e o método Runge-Kutta. Se o problema do valor inicial for semilinear como em (eq: 3.1.19), também temos a opção de usar variação de parâmetros e então aplicar o método numérico dado ao problema do valor inicial (eq: 3.1.21) para. Por analogia com a terminologia usada aqui, vamos chamar o procedimento resultante de método semilinear de Euler aprimorado, o método semilinear de ponto médio, O método semilinear de Heun ou o método semilinear de Runge-Kutta, conforme o caso.

Fonte do Texto

Trench, William F., ”Elementary Differential Equations” (2013). Livros e CDs de autoria e edição do corpo docente. 8. (CC-BY-NC-SA)


Na análise real, as singularidades são descontinuidades ou descontinuidades da derivada (às vezes também descontinuidades de derivadas de ordem superior). Existem quatro tipos de descontinuidades: tipo eu, que tem dois subtipos e tipo II, que também pode ser dividido em dois subtipos (embora geralmente não seja).

Existem algumas funções para as quais esses limites não existem. Por exemplo, a função

  • UMA ponto de continuidade é um valor de c < displaystyle c> para o qual f (c -) = f (c) = f (c +) < displaystyle f (c ^ <->) = f (c) = f (c ^ < +>)>, como se espera para uma função suave. Todos os valores devem ser finitos. Se c < displaystyle c> não for um ponto de continuidade, ocorre uma descontinuidade em c < displaystyle c>.
  • UMA tipo eu descontinuidade ocorre quando ambos f (c -) < displaystyle f (c ^ <->)> e f (c +) < displaystyle f (c ^ <+>)> existem e são finitos, mas pelo menos um dos as três condições a seguir também se aplicam:
    • f (c -) ≠ f (c +) < displaystyle f (c ^ <->) neq f (c ^ <+>)>
    • f (x) < displaystyle f (x)> não é definido para o caso de x = c < displaystyle x = c> ou
    • f (c) < displaystyle f (c)> tem um valor definido, que, no entanto, não corresponde ao valor dos dois limites.
    • UMA salto de descontinuidade ocorre quando f (c -) ≠ f (c +) < displaystyle f (c ^ <->) neq f (c ^ <+>)>, independentemente de f (c) < displaystyle f (c) > é definido, e independentemente de seu valor, se estiver definido.
    • UMA descontinuidade removível ocorre quando f (c -) = f (c +) < displaystyle f (c ^ <->) = f (c ^ <+>)>, também independentemente de f (c) < displaystyle f (c) > é definido, e independentemente do seu valor, se estiver definido (mas que não corresponda ao dos dois limites).
    • Um descontinuidade infinita é o caso especial quando o limite da mão esquerda ou da direita não existe, especificamente porque é infinito, e o outro limite também é infinito ou é algum número finito bem definido. Em outras palavras, a função possui uma descontinuidade infinita quando seu gráfico possui uma assíntota vertical.
    • Um singularidade essencial é um termo emprestado de análises complexas (veja abaixo). Este é o caso quando um ou outro limite f (c -) < displaystyle f (c ^ <->)> ou f (c +) < displaystyle f (c ^ <+>)> não existe, mas não porque é um descontinuidade infinita. Singularidades essenciais se aproxime de nenhum limite, nem mesmo se as respostas válidas forem estendidas para incluir ± ∞ < displaystyle pm infty>.

    Na análise real, uma singularidade ou descontinuidade é uma propriedade de uma função sozinha. Quaisquer singularidades que possam existir na derivada de uma função são consideradas como pertencentes à derivada, não à função original.

    Singularidades de coordenadas Editar

    UMA singularidade coordenada ocorre quando uma aparente singularidade ou descontinuidade ocorre em um quadro de coordenadas, que pode ser removida escolhendo um quadro diferente. Um exemplo disso é a aparente singularidade na latitude de 90 graus em coordenadas esféricas. Um objeto se movendo para o norte (por exemplo, ao longo da linha 0 graus de longitude) na superfície de uma esfera de repente experimentará uma mudança instantânea na longitude no pólo (no caso do exemplo, saltando da longitude 0 para a longitude 180 graus) . Essa descontinuidade, entretanto, é apenas aparente se for um artefato do sistema de coordenadas escolhido, que é singular nos pólos. Um sistema de coordenadas diferente eliminaria a descontinuidade aparente (por exemplo, substituindo a representação de latitude / longitude por uma representação de n-vetor).

    Na análise complexa, existem várias classes de singularidades. Isso inclui as singularidades isoladas, as singularidades não isoladas e os pontos de ramificação.

    Singularidades isoladas Editar

    Suponha que você é um subconjunto aberto dos números complexos C, com o ponto uma sendo um elemento de você, e essa f é uma função diferenciável complexa definida em alguma vizinhança ao redor uma, excluindo uma: você <uma>, então:

    • O ponto uma é uma singularidade removível de f se existe uma função holomórficag definido em todos você de tal modo que f(z) = g(z) para todos z em você <uma>. A função g é uma substituição contínua para a função f. [6]
    • O ponto uma é um pólo ou singularidade não essencial de f se existe uma função holomórfica g definido em você com g(uma) diferente de zero e um número naturaln de tal modo que f(z) = g(z) / (zuma) n para todos z em você <uma>. O menor número n é chamado de ordem do pólo. A própria derivada em uma singularidade não essencial tem uma singularidade não essencial, com n aumentado em 1 (exceto se n é 0 para que a singularidade seja removível).
    • O ponto uma é uma singularidade essencial de f se não for uma singularidade removível nem um pólo. O ponto uma é uma singularidade essencial se e somente se a série Laurent tem infinitamente muitos poderes de grau negativo. [2]

    Singularidades não isoladas Editar

    Além de singularidades isoladas, funções complexas de uma variável podem exibir outro comportamento singular. Estas são chamadas de singularidades não isoladas, das quais existem dois tipos:


    6.4.1: Equações de Euler de pontos singulares regulares (exercícios) - Matemática

    Antes de começarmos a encontrar soluções em série para equações diferenciais, precisamos determinar quando podemos encontrar soluções em série para equações diferenciais. Então, vamos começar com a equação diferencial,

    [começarp left (x right) y '' + q left (x right) y '+ r left (x right) y = 0 labelfim]

    Desta vez, realmente queremos dizer coeficientes não constantes. Até este ponto, lidamos apenas com coeficientes constantes. No entanto, com soluções em série, podemos agora ter equações diferenciais de coeficientes não constantes. Além disso, para tornar os problemas um pouco mais agradáveis, estaremos lidando apenas com coeficientes polinomiais.

    Agora, dizemos que (x = x_ <0> ) é um ponto comum se fornecido ambos

    são analíticos em (x = x_ <0> ). Isso quer dizer que essas duas quantidades têm séries de Taylor em torno de (x = x_ <0> ). Estaremos lidando apenas com coeficientes que são polinômios, então isso será equivalente a dizer que

    Se um ponto não é um ponto comum, nós o chamamos de ponto singular.

    A ideia básica para encontrar uma solução em série para uma equação diferencial é assumir que podemos escrever a solução como uma série de potências na forma,

    e, em seguida, tente determinar o que o (a_) Precisa ser. Só poderemos fazer isso se o ponto (x = x_ <0> ), for um ponto comum. Normalmente diremos que ( eqref) é uma solução em série em torno de (x = x_ <0> ).

    Vamos começar com um exemplo bem básico disso. Na verdade, será tão básico que teremos coeficientes constantes. Isso nos permitirá verificar se obtivemos a solução correta.

    Observe que, neste caso, (p (x) = 1 ) e, portanto, cada ponto é um ponto comum. Estaremos procurando uma solução no formulário,

    Precisaremos conectar isso em nossa equação diferencial, então precisaremos encontrar algumas derivadas.

    Lembre-se da seção de revisão de séries de potência em séries de potência que podemos começar em (n = 0 ) se precisarmos, no entanto, quase sempre é melhor começar onde temos aqui. Se descobrir que teria sido mais fácil iniciá-los em (n = 0 ), podemos facilmente consertar quando chegar a hora.

    Portanto, conecte-os à nossa equação diferencial. Fazer isso dá,

    A próxima etapa é combinar tudo em uma única série. Para fazer isso, é necessário obtermos as duas séries começando no mesmo ponto e que o expoente em (x ) seja o mesmo em ambas as séries.

    Sempre começaremos fazendo com que o expoente em (x ) seja o mesmo. Normalmente, é melhor fazer com que o expoente seja um (n ). A segunda série já tem o expoente adequado e a primeira série precisará ser deslocada para baixo em 2 para obter o expoente até um (n ). Se você não se lembra de como fazer isso, dê uma olhada rápida na primeira seção de revisão, onde resolvemos vários desses tipos de problemas.

    Mudar a primeira série de poder nos dá,

    Observe que, no processo de mudança, também obtivemos as duas séries começando no mesmo lugar. Isso nem sempre vai acontecer, mas quando acontecer, nós o faremos. Agora podemos somar as duas séries. Isto dá,

    Agora, lembrando o fato da seção de revisão de séries de potências, sabemos que se temos uma série de potências que é zero para todos (x ) (como é), então todos os coeficientes devem ser zero para começar. Isso nos dá o seguinte,

    Isso é chamado de Relação de recorrência e observe que incluímos os valores de (n ) para os quais deve ser verdadeiro. Sempre desejaremos incluir os valores de (n ) para os quais a relação de recorrência é verdadeira, uma vez que eles nem sempre começarão em (n ) = 0 como neste caso.

    Agora, vamos relembrar o que queríamos em primeiro lugar. Queríamos encontrar uma solução em série para a equação diferencial. Para fazer isso, precisamos determinar os valores de (a_) 'S. Estamos quase no ponto em que podemos fazer isso. A relação de recorrência tem dois (a_) Está nele, então não podemos simplesmente resolver isso para (a_) e obtenha uma fórmula que funcionará para todos (n ). Podemos, no entanto, usar isso para determinar o que todos, exceto dois dos (a_) 'S são.

    Para fazer isso, primeiro resolvemos a relação de recorrência para o (a_) que possui o maior subscrito. Fazer isso dá,

    Agora, neste ponto, só precisamos começar a conectar algum valor de (n ) e ver o que acontece,

    (n = 0 ) ( = frac << - >> << left (2 right) left (1 right) >> ) (n = 1 ) ( = frac << - >> << left (3 right) left (2 right) >> )
    (n = 2 ) (começar & = - frac <<>> << left (4 right) left (3 right) >> & amp = frac <<>> << esquerda (4 direita) esquerda (3 direita) esquerda (2 direita) esquerda (1 direita) >> fim) (n = 3 ) (começar & = - frac <<>> << left (5 right) left (4 right) >> & amp = frac <<>> << esquerda (5 direita) esquerda (4 direita) esquerda (3 direita) esquerda (2 direita) >> fim)
    (n = 4 ) (começar & = - frac <<>> << left (6 right) left (5 right) >> & amp = frac << - >> << esquerda (6 direita) esquerda (5 direita) esquerda (4 direita) esquerda (3 direita) esquerda (2 direita) esquerda (1 direita) >> fim) (n = 5 ) (começar & = - frac <<>> << left (7 right) left (6 right) >> & amp = frac << - >> << esquerda (7 direita) esquerda (6 direita) esquerda (5 direita) esquerda (4 direita) esquerda (3 direita) esquerda (2 direita) >> fim)
    ( vdots ) ( vdots )
    (> = frac <<<< left (<- 1> right)> ^ k>>> << left (<2k> right)! >>, , , , k = 1,2, ldots ) (> = frac <<<< left (<- 1> right)> ^ k>>> << left (<2k + 1> right)! >>, , , , k = 1,2, ldots )

    Observe que em cada etapa, sempre plugamos a resposta anterior para que quando o subscrito estiver uniforme, poderemos sempre escrever o (a_) em termos de (a_ <0> ) e quando o coeficiente for ímpar, podemos sempre escrever o (a_) em termos de (a_ <1> ). Observe também que, neste caso, fomos capazes de encontrar uma fórmula geral para (a_) 'S com coeficientes pares e (a_) 'S com coeficientes ímpares. Isso nem sempre será possível.

    Há mais uma coisa a ser observada aqui. As fórmulas que desenvolvemos foram apenas para (k = 1,2, ldots ), entretanto, neste caso novamente, elas também funcionarão para (k = 0 ). Novamente, isso é algo que nem sempre funciona, mas funciona aqui.

    Não fique animado com o fato de que não sabemos o que são (a_ <0> ) e (a_ <1> ). Como você verá, realmente precisamos que eles estejam no problema para obter a solução correta.

    Agora que temos fórmulas para o (a_) Vamos encontrar uma solução. A primeira coisa que faremos é escrever a solução com alguns dos (a_) Está conectado.

    A próxima etapa é coletar todos os termos com o mesmo coeficiente e então fatorar esse coeficiente.

    Na última etapa, também usamos o fato de sabermos qual era a fórmula geral para escrever ambas as partes como uma série de potências. Esta também é a nossa solução. Acabamos.

    Antes de trabalhar em outro problema, vamos dar uma olhada na solução do exemplo anterior. Primeiro, começamos dizendo que queríamos uma solução em série do formulário,

    e não conseguimos isso. Obtivemos uma solução que continha duas séries de potências diferentes. Além disso, cada uma das soluções tinha uma constante desconhecida. Isso não é um problema. Na verdade, é o que queremos que aconteça. De nosso trabalho com equações diferenciais de coeficiente constante de segunda ordem, sabemos que a solução para a equação diferencial no último exemplo é,

    [y left (x right) = cos left (x right) + sin left (x right) ]

    Soluções para equações diferenciais de segunda ordem consistem em duas funções separadas, cada uma com uma constante desconhecida na frente delas, que são encontradas aplicando quaisquer condições iniciais. Portanto, a forma de nossa solução no último exemplo é exatamente o que queremos obter. Lembre-se também de que a seguinte série de Taylor,

    Lembrando isso, vemos rapidamente que o que obtivemos do método de solução em série foi exatamente a solução que obtivemos dos primeiros princípios, com a exceção de que as funções eram as séries de Taylor para as funções reais em vez das próprias funções reais.

    Agora vamos trabalhar um exemplo com coeficientes não constantes, pois é aí que as soluções em série são mais úteis.

    Como no primeiro exemplo (p (x) = 1 ) e novamente para esta equação diferencial, cada ponto é um ponto comum. Agora vamos começar este exatamente como fizemos no primeiro exemplo. Vamos escrever a forma da solução e obter seus derivados.

    Conectar-se à equação diferencial dá,

    Ao contrário do primeiro exemplo, primeiro precisamos fazer com que todos os coeficientes sejam movidos para a série.

    Agora precisaremos deslocar a primeira série para baixo em 2 e a segunda série para cima em 1 para obter ambas as séries em termos de (x ^n ).

    Em seguida, precisamos obter as duas séries começando com o mesmo valor de (n ). A única maneira de fazer isso para este problema é retirar o termo (n = 0 ).

    Agora precisamos definir todos os coeficientes iguais a zero. Precisamos ter cuidado com isso, no entanto. O coeficiente (n = 0 ) está na frente da série e os (n = 1,2,3, pontos ) estão todos na série. Então, definindo coeficiente igual a zero dá,

    Resolver o primeiro, bem como a relação de recorrência dá,

    Agora precisamos começar a inserir os valores de (n ).

    ( displaystyle = frac <<>> << left (3 right) left (2 right) >> ) ( displaystyle = frac <<>> << left (4 right) left (3 right) >> ) ( displaystyle = frac <<>> << left (5 right) left (4 right) >> = 0 )
    (começar & = frac <<>> << left (6 right) left (5 right) >> & amp = frac <<>> << esquerda (6 direita) esquerda (5 direita) esquerda (3 direita) esquerda (2 direita) >> fim) (começar & = frac <<>> << left (7 right) left (6 right) >> & amp = frac <<>> << left (7 right) left (6 right) left (4 right) left (3 right) >> end) ( displaystyle = frac <<>> << left (8 right) left (7 right) >> = 0 )
    ( vdots ) ( vdots ) ( vdots )
    (começar> & = frac <<>> << left (2 right) left (3 right) left (5 right) left (6 right) cdots left (<3k - 1> right) left (<3k > right) >> k & = 1,2,3, ldots end) (começar> & = frac <<>> << left (3 right) left (4 right) left (6 right) left (7 right) cdots left (<3k> right) left (<3k + 1 > right) >> k & = 1,2,3, ldots end) (começar> & = 0 k & = 0,1,2, ldots end)

    Há algumas coisas a serem observadas sobre esses coeficientes. Primeiro, todo terceiro coeficiente é zero. Em seguida, as fórmulas aqui são um tanto desagradáveis ​​e não tão fáceis de ver na primeira vez. Finally, these formulas will not work for (k=0) unlike the first example.

    Again, collect up the terms that contain the same coefficient, factor the coefficient out and write the results as a new series,

    We couldn’t start our series at (k=0) this time since the general term doesn’t hold for (k=0).

    Now, we need to work an example in which we use a point other that (x=0). In fact, let’s just take the previous example and rework it for a different value of (x_<0>). We’re also going to need to change up the instructions a little for this example.

    Unfortunately for us there is nothing from the first example that can be reused here. Changing to ( = - 2) completely changes the problem. In this case our solution will be,

    The derivatives of the solution are,

    Plug these into the differential equation.

    We now run into our first real difference between this example and the previous example. In this case we can’t just multiply the (x) into the second series since in order to combine with the series it must be (x+2). Therefore, we will first need to modify the coefficient of the second series before multiplying it into the series.

    We now have three series to work with. This will often occur in these kinds of problems. Now we will need to shift the first series down by 2 and the second series up by 1 the get common exponents in all the series.

    In order to combine the series we will need to strip out the (n=0) terms from both the first and third series.

    Setting coefficients equal to zero gives,

    We now need to solve both of these. In the first case there are two options, we can solve for (a_<2>) or we can solve for (a_<0>). Out of habit I’ll solve for (a_<0>). In the recurrence relation we’ll solve for the term with the largest subscript as in previous examples.

    Notice that in this example we won’t be having every third term drop out as we did in the previous example.

    At this point we’ll also acknowledge that the instructions for this problem are different as well. We aren’t going to get a general formula for the (a_)’s this time so we’ll have to be satisfied with just getting the first couple of terms for each portion of the solution. This is often the case for series solutions. Getting general formulas for the (a_)’s is the exception rather than the rule in these kinds of problems.

    To get the first four terms we’ll just start plugging in terms until we’ve got the required number of terms. Note that we will already be starting with an (a_<0>) and an (a_<1>) from the first two terms of the solution so all we will need are three more terms with an (a_<0>) in them and three more terms with an (a_<1>) in them.

    We’ve got two (a_<0>)’s and one (a_<1>).

    We’ve got three (a_<0>)’s and two (a_<1>)’s.

    We’ve got four (a_<0>)’s and three (a_<1>)’s. We’ve got all the (a_<0>)’s that we need, but we still need one more (a_<1>). So, we’ll need to do one more term it looks like.

    We’ve got five (a_<0>)’s and four (a_<1>)’s. We’ve got all the terms that we need.

    Now, all that we need to do is plug into our solution.

    Finally collect all the terms up with the same coefficient and factor out the coefficient to get,

    That’s the solution for this problem as far as we’re concerned. Notice that this solution looks nothing like the solution to the previous example. It’s the same differential equation but changing (x_<0>) completely changed the solution.

    Let’s work one final problem.

    [left( <+ 1> ight)y'' - 4xy' + 6y = 0]

    We finally have a differential equation that doesn’t have a constant coefficient for the second derivative.

    [pleft( x ight) = + 1hspace<0.25in>pleft( 0 ight) = 1 e 0]

    So ( = 0) is an ordinary point for this differential equation. We first need the solution and its derivatives,

    Plug these into the differential equation.

    Now, break up the first term into two so we can multiply the coefficient into the series and multiply the coefficients of the second and third series in as well.

    We will only need to shift the second series down by two to get all the exponents the same in all the series.

    At this point we could strip out some terms to get all the series starting at (n=2), but that’s actually more work than is needed. Let’s instead note that we could start the third series at (n=0) if we wanted to because that term is just zero. Likewise, the terms in the first series are zero for both (n=1) and (n=0) and so we could start that series at (n=0). If we do this all the series will now start at (n=0) and we can add them up without stripping terms out of any series.

    Now set coefficients equal to zero.

    Now, we plug in values of (n).

    Now, from this point on all the coefficients are zero. In this case both of the series in the solution will terminate. This won’t always happen, and often only one of them will terminate.


    Partial Differential Equations

    Solutions and Boundary Conditions

    We already know that a second-order ODE in y has a general solution containing two independent constants, which can often permit us to obtain a unique particular solution with specified values of y at two points (perhaps the ends of an interval on which we desire a solution to the ODE). Alternatively, sometimes we can obtain a unique solution to a second-order ODE with the values of y ′ specified at the ends of an interval. These specifications are called boundary conditions.

    In two dimensions a second-order PDE in ψ = ψ ( x , y ) defined for a rectangular area might be solvable subject to a boundary condition on each of its x boundaries ( a and b ), i.e., specifications of ψ ( a , y ) ≡ ψ a ( y ) and ψ ( b , y ) ≡ ψ b ( y ) , where, as shown, ψ a and ψ b are functions of y . We might also have boundary conditions on the y boundaries ( c and d ), e.g., specifications of ψ ( x , c ) ≡ ψ c ( x ) and ψ ( x , d ) ≡ ψ d ( x ) , with ψ c and ψ d functions of x . Because ψ a through ψ d can be arbitrary functions, we see that the set of solutions to a two-dimensional PDE could span an extremely wide variety of functional forms.

    The discussion of the preceding paragraph can be generalized to a two-dimensional region defined by an arbitrary boundary curve, with the result that a unique solution to our 2-D PDE may perhaps be obtained subject to the requirement that ψ ( x , y ) have specified values everywhere on the boundary. Further generalizing to three dimensions, a PDE in ψ ( r ) for a given volume may perhaps only have a unique solution when ψ ( r ) is specified everywhere on the surface bounding the volume.

    Although the boundary conditions discussed in the two preceding paragraphs were all in terms of values of ψ , it is also possible to specify boundary conditions in terms of the first derivative of ψ in the direction normal to the boundary (the analogous situation for an ODE is a derivative directed toward the interior of the interval on which the ODE is defined).

    When one of the independent variables in a PDE is the time t , we often encounter problems in which the dependent variable ψ has its spatial dependence (everywhere) specified at t = 0 . este initial condition is a boundary condition for one end of an infinite time interval, and often appears with ∂ ψ / ∂ t also specified everywhere at t = 0 .

    It is important to know whether a set of boundary conditions is sufficient to determine a unique solution to a PDE or whether too many conditions are specified (with the result that no solution satisfying the conditions can exist). A complete analysis of this topic is beyond the scope of the present text, but we can summarize the results of such an analysis for the PDEs to be considered here.

    The solution to the Laplace equation (e.g., an electrostatic potential) is completely determined when the potential is specified everywhere on the boundary ( ∂ V ) of the spatial region ( V ) for which the PDE is to be solved. This specification is termed Dirichlet boundary conditions. The sufficiency of Dirichlet boundary conditions for the Laplace equation is to be expected, since it is in essence a statement that if a distribution of charge external to V produces a specific distribution of potential on ∂ V , it must also produce a unique potential at each point within V . Note also that a suitable external distribution of charge can produce a specific distribution of the normal derivative of potential, ∂ V / ∂ n , at each point of ∂ V , a specification called Neumann boundary conditions. Neumann boundary conditions are also sufficient to determine completely (except for an additive constant) a solution to the Laplace equation. However, if we attempt to impose both Dirichlet and Neumann boundary conditions (the combination is called Cauchy boundary conditions), the attempt will in general produce inconsistent results and therefore not lead to a solution to the Laplace PDE.

    For wave equations, either Dirichlet or Neumann boundary conditions suffice to define PDE solutions, but the solutions are in general, not unique. Cauchy boundary conditions are usually too restrictive. However, we are sometimes interested in wave-propagation problems in which we impose Cauchy boundary conditions, but not for all positions and times. This situation arises when waves are propagated from a fully specified source but their behavior elsewhere is not specified.

    Diffusion equations, having only a first time derivative, can accommodate fewer boundary conditions than the PDEs already discussed. In general they have no solutions if either Dirichlet or Neumann conditions are imposed at all spatial points at multiple times, but unique results are possible if either Dirichlet or Neumann conditions (but not both) are imposed at all spatial points at an initial time t = 0 .

    One observation regarding boundary conditions may be helpful: physical insight is a practical guide for understanding what to expect one usually knows intuitively whether sufficient (but not excessive) conditions defining a problem have been imposed.


    6.4.1: Regular Singular Points Euler Equations (Exercises) - Mathematics

    MATH 2400, Introduction to Differential Equations

    Textbook: W.E. Boyce and R.C. DiPrima, Elementary Differential Equations and

    Boundary Value Problems, Seventh Edition, Wiley, 2003

    Week Dates Sections Topics

    1 8:25-28 1.3,2.1 Terminology. Linear D.E.

    HW: 1.3 #1,2,6,7,11,18,20,,262.1#2,9,13,16,18,20,28,30

    2 9: 3, 4 2.2,2.4 Separation of Variables. Conditions for solutions

    3 9: 8-11 2.6, 3.1 Exact Equations. Second order linear D.E.

    4 9: 15-19 3.2, 3.3 General Properties

    5 9: 22-25 3.4, 3.5 Exam1 Complex and repeated roots. Reduction of order

    6 9:29,10:1,2 3.6,3.7 Method of undetermined coef.,Variation of Parameters

    3.8,3.9 These sections are recommended for personal reading

    7 10:6-9 5.3,5.5 Series solutions near an ordinary point

    8 10:14-16 5.5,5.6 Euler D.E.Series solutions near a regular singular point

    9 10:20-23 6.1-6.3 Exam2 Laplace Transformation its properties and applications

    10 10:27-30 6.4-6.6 Laplace Transformation (continued)

    HW: 6.4# 1, 3, 4, 5 6.6# 5, 6, 8, 10, 12

    11 11:3-6 7.3,7.5 Linear systems of D.E.

    12 11:10-13 7.6.7.8 Complex and repeated eigenvalues

    13 11:17-20 10.2,.3 Fourier series

    14 11:24 10.4,.5 Heat conduction in a rod

    15 12:1-4 10.7,.8 Exam3 Vibrations of a string. Laplace equation

    Grading system: 20% for each of the 3 exams HW (30%)Maple projects (10%).The final exam is optional it can only improve the student’s grade, and may replace the lowest of the 3 exam grades.


    Euler Factorization

    You learn from calculus that the derivative of a smooth function f(x), defined on some interval ( (a,b) , ) is another function defined by the limit (if it exists)

    The derivative operator is a linear operator, that is,

    The inverse of the derivative is called «antiderivative» in mathematical literature mostly because it is not an operator. Por quê? To be an operator, ( exttt^ <-1>) should assign to every input (namely, a function) a unique output (another function). Since the kernel (or null space) of the derivative operator ( exttt ) is a one dimensional space, it assigns infinite many antiderivatives, abusing mathematicians. This follows from the identities:

    The operator ( exttt_c^ <-1>) is not a truly inverse, but only right inverse:

    Exemplo: Let us take a constant function y(x) &equiv 1, then

    First order differential operator

    There are some examples of first order differential operators and their inverses.

    Singular first order differential operator

    If one of the functions r(x) or p(x) (or both) has a zero withing the given interval, then the linear differential operator ( Lleft[ x, exttt ight] w(x) = r(x) , exttt left[ p(x), exttt w ight] ) becomes a singular one. We present some typical examples of such operators and their inverses.

    Second order differential operator

    Example: Not self-adjoint operator

    Exemplo: . To be modified Consider the initial value problem

    Example: Legendre equation

    Exemplo: . To be modified Consider the initial value problem

    Example: Degenerate Hypergeometric Equation

    Exemplo: To be modified Consider the differential operator

    Singular second order differential operator

    If one of the functions r(x) or p(x) (or both) has a zero withing the given interval, then the linear differential operator ( Lleft[ x, exttt ight] w(x) = r(x) , exttt left[ p(x), exttt w ight] ) becomes a singular one. We present some typical examples of such operators and their inverses.

    Example: Confluent Hypergeometric function

    Exemplo: because the solutions to many mathematical physics problems are expressed by the hypergeometric functions, we consider the corresponding differential equation ■

    We consider the nonlinear differential operator of the second order:

      Bougoffa, L., On the exact solutions for initial value problems of second-orderdifferential equations, Applied Mathematics Letters, 2009, Vol. 22, pp. 1248--1251.

    Return to Mathematica page
    Return to the main page (APMA0330)
    Return to the Part 1 (Plotting)
    Return to the Part 2 (First Order ODEs)
    Return to the Part 3 (Numerical Methods)
    Return to the Part 4 (Second and Higher Order ODEs)
    Return to the Part 5 (Series and Recurrences)
    Return to the Part 6 (Laplace Transform)
    Return to the Part 7 (Boundary Value Problems)


    Riccati Equations

    Jacopo Francesco Riccati (1676--1754) was an Venetian mathematician and jurist from Venice. He is best known for having studied the differential equation which bears his name:

    Riccati was educated first at the Jesuit school for the nobility in Brescia, and in 1693 he entered the University of Padua to study law. He received a doctorate in law in 1696. Encouraged by Stefano degli Angeli to pursue mathematics, he studied mathematical analysis. Riccati received various academic offers, but declined them in order to devote his full attention to the study of mathematical analysis on his own. Peter the Great invited him to Russia as president of the St. Petersburg Academy of Sciences. He was also invited to Vienna as an imperial councilor and was offered a professorship at the University of Padua. He declined all these offers. He was often consulted by the Senate of Venice on the construction of canals and dikes along rivers.

    Quando h(x) = 0, we get a Bernoulli equation. The Riccati equation has much in common with linear equations for example, it has no singular solution. Except special cases, the Riccati equation cannot be solved analytically using elementary functions or quadratures, and the most common way to obtain its solution is to represent it in series. Moreover, the Riccati equation can be reduced to the second order linear differential equation by substitution

    It is sometimes possible to find a solution of a Riccati equation by guessing. Without knowing a solution to the Riccati equation, there is no chance of finding its general solution explicitly. If one solution &varphi is known, then substitution w = y - &varphi reduces the Riccati equation to a Bernoulli equation. Another substitution y = &varphi + 1/v also reduces the Riccati equation to a Bernoulli type.

    The special Riccati equation can be represented as ( y' = -u' /(au) , ) where

    We can find the limit of the solution to the special Riccati equation when x &rarr 0:

    Exemplo: The Riccati equation

    The solution of the Riccati equation ( y' = y^2 + x^2 ) subject to the initial condition y(0) = 1 is

    Exemplo: We consider a problem similar to the previous example that involves another standard Riccati equation

    When we impose the homogeneous conditions y(0) = 0, then its solution becomes

    Exemplo: : Consider the Riccati equation

    We plot the separatrix and the direction field

    1. Haaheim, D.R. and Stein, F.M., Methods of Solution of the Riccati Differential Equation, Mathematics Magazine, 1969, Vol. 42, No. 5, pp. 233--240 https://doi.org/10.1080/0025570X.1969.11975969
    2. Robin, W., A new Riccati equation arising in the theory of classical orthogonal polynomials, International Journal of Mathematical Education in Science and Technology, 2003, Volume 34, 2003 - Issue 1, pp. 31--42. https://doi.org/10.1080/0020739021000018746

    Return to computing page for the first course APMA0330
    Return to computing page for the second course APMA0340
    Return to Mathematica tutorial for the first course APMA0330
    Return to Mathematica tutorial for the second course APMA0340
    Return to the main page for the course APMA0330
    Return to the main page for the course APMA0340
    Return to Part II of the course APMA0330


    6.4.1: Regular Singular Points Euler Equations (Exercises) - Mathematics

    Up to this point practically every differential equation that we’ve been presented with could be solved. The problem with this is that these are the exceptions rather than the rule. The vast majority of first order differential equations can’t be solved.

    In order to teach you something about solving first order differential equations we’ve had to restrict ourselves down to the fairly restrictive cases of linear, separable, or exact differential equations or differential equations that could be solved with a set of very specific substitutions. Most first order differential equations however fall into none of these categories. In fact, even those that are separable or exact cannot always be solved for an explicit solution. Without explicit solutions to these it would be hard to get any information about the solution.

    So, what do we do when faced with a differential equation that we can’t solve? The answer depends on what you are looking for. If you are only looking for long term behavior of a solution you can always sketch a direction field. This can be done without too much difficulty for some fairly complex differential equations that we can’t solve to get exact solutions.

    The problem with this approach is that it’s only really good for getting general trends in solutions and for long term behavior of solutions. There are times when we will need something more. For instance, maybe we need to determine how a specific solution behaves, including some values that the solution will take. There are also a fairly large set of differential equations that are not easy to sketch good direction fields for.

    In these cases, we resort to numerical methods that will allow us to approximate solutions to differential equations. There are many different methods that can be used to approximate solutions to a differential equation and in fact whole classes can be taught just dealing with the various methods. We are going to look at one of the oldest and easiest to use here. This method was originally devised by Euler and is called, oddly enough, Euler’s Method.

    Let’s start with a general first order IVP

    where (f(t,y)) is a known function and the values in the initial condition are also known numbers. From the second theorem in the Intervals of Validity section we know that if (f) and (f_) are continuous functions then there is a unique solution to the IVP in some interval surrounding (t = ). So, let’s assume that everything is nice and continuous so that we know that a solution will in fact exist.

    We want to approximate the solution to (eqref) near (t = ). We’ll start with the two pieces of information that we do know about the solution. First, we know the value of the solution at (t = ) from the initial condition. Second, we also know the value of the derivative at (t = ). We can get this by plugging the initial condition into (f(t,y)) into the differential equation itself. So, the derivative at this point is.

    Now, recall from your Calculus I class that these two pieces of information are enough for us to write down the equation of the tangent line to the solution at (t = ). The tangent line is

    Take a look at the figure below

    If (t_<1>) is close enough to (t_<0>) then the point (y_<1>) on the tangent line should be fairly close to the actual value of the solution at (t_<1>), or (y(t_<1>)). Finding (y_<1>) is easy enough. All we need to do is plug (t_<1>) in the equation for the tangent line.

    Now, we would like to proceed in a similar manner, but we don’t have the value of the solution at (t_<1>) and so we won’t know the slope of the tangent line to the solution at this point. This is a problem. We can partially solve it however, by recalling that (y_<1>) is an approximation to the solution at (t_<1>). If (y_<1>) is a very good approximation to the actual value of the solution then we can use that to estimate the slope of the tangent line at (t_<1>).

    So, let’s hope that (y_<1>) is a good approximation to the solution and construct a line through the point ((t_<1>, y_<1>)) that has slope (f(t_<1>, y_<1>)). This gives

    Now, to get an approximation to the solution at (t=t_<2>) we will hope that this new line will be fairly close to the actual solution at (t_<2>) and use the value of the line at (t_<2>) as an approximation to the actual solution. This gives.

    We can continue in this fashion. Use the previously computed approximation to get the next approximation. So,

    In general, if we have (t_) and the approximation to the solution at this point, (y_), and we want to find the approximation at (t_) all we need to do is use the following.

    If we define ( = fleft( <,> ight)) we can simplify the formula to

    Often, we will assume that the step sizes between the points (t_<0>) , (t_<1>) , (t_<2>) , … are of a uniform size of (h). In other words, we will often assume that

    This doesn’t have to be done and there are times when it’s best that we not do this. However, if we do the formula for the next approximation becomes.

    So, how do we use Euler’s Method? It’s fairly simple. We start with (eqref) and decide if we want to use a uniform step size or not. Then starting with ((t_<0>, y_<0>)) we repeatedly evaluate (eqref) or (eqref) depending on whether we chose to use a uniform step size or not. We continue until we’ve gone the desired number of steps or reached the desired time. This will give us a sequence of numbers (y_<1>) , (y_<2>) , (y_<3>) , … (y_) that will approximate the value of the actual solution at (t_<1>) , (t_<2>) , (t_<3>) , … (t_).

    What do we do if we want a value of the solution at some other point than those used here? One possibility is to go back and redefine our set of points to a new set that will include the points we are after and redo Euler’s Method using this new set of points. However, this is cumbersome and could take a lot of time especially if we had to make changes to the set of points more than once.

    Another possibility is to remember how we arrived at the approximations in the first place. Recall that we used the tangent line

    to get the value of (y_<1>). We could use this tangent line as an approximation for the solution on the interval ([t_<0>, t_<1>]). Likewise, we used the tangent line

    to get the value of (y_<2>). We could use this tangent line as an approximation for the solution on the interval ([t_<1>, t_<2>]). Continuing in this manner we would get a set of lines that, when strung together, should be an approximation to the solution as a whole.

    In practice you would need to write a computer program to do these computations for you. In most cases the function (f(t,y)) would be too large and/or complicated to use by hand and in most serious uses of Euler’s Method you would want to use hundreds of steps which would make doing this by hand prohibitive. So, here is a bit of pseudo-code that you can use to write a program for Euler’s Method that uses a uniform step size, (h).

    1. define (fleft( ight)).
    2. input (t_<0>) and (y_<0>).
    3. input step size, (h) and the number of steps, (n).
    4. para (j) from 1 to (n) do
      1. (m = f(t_<0>, y_<0>))
      2. (y_ <1>= y_ <0>+ h*m)
      3. (t_ <1>= t_ <0>+ h)
      4. Print (t_<1>) and (y_<1>)
      5. (t_ <0>= t_<1>)
      6. (y_ <0>= y_<1>)

      O pseudo-code for a non-uniform step size would be a little more complicated, but it would essentially be the same.

      So, let’s take a look at a couple of examples. We’ll use Euler’s Method to approximate solutions to a couple of first order differential equations. The differential equations that we’ll be using are linear first order differential equations that can be easily solved for an exact solution. Of course, in practice we wouldn’t use Euler’s Method on these kinds of differential equations, but by using easily solvable differential equations we will be able to check the accuracy of the method. Knowing the accuracy of any approximation method is a good thing. It is important to know if the method is liable to give a good approximation or not.

      Use Euler’s Method with a step size of (h = 0.1) to find approximate values of the solution at (t) = 0.1, 0.2, 0.3, 0.4, and 0.5. Compare them to the exact values of the solution at these points.

      This is a fairly simple linear differential equation so we’ll leave it to you to check that the solution is

      In order to use Euler’s Method we first need to rewrite the differential equation into the form given in (eqref).

      From this we can see that (fleft( ight) = 2 - <<f>^< - 4t>> - 2y). Also note that (t_ <0>= 0) and (y_ <0>= 1). We can now start doing some computations.

      So, the approximation to the solution at (t_ <1>= 0.1) is (y_ <1>= 0.9).

      Therefore, the approximation to the solution at (t_ <2>= 0.2) is (y_ <2>= 0.852967995).

      I’ll leave it to you to check the remainder of these computations.

      [começar & = - 0.155264954 & hspace<0.25in> & = 0.837441500\ & = 0.023922788 & hspace<0.25in> & = 0.839833779\ & = 0.1184359245 & hspace<0.25in>& = 0.851677371end]

      Here’s a quick table that gives the approximations as well as the exact value of the solutions at the given points.

      Time, (t_) Approximation Exact Erro
      (t_ <0>= 0) (y_ <0>=1) (y(0) = 1) 0 %
      (t_ <1>= 0.1) (y_ <1>=0.9) (y(0.1) = 0.925794646) 2.79 %
      (t_ <2>= 0.2) (y_ <2>=0.852967995) (y(0.2) = 0.889504459) 4.11 %
      (t_ <3>= 0.3) (y_ <3>=0.837441500) (y(0.3) = 0.876191288) 4.42 %
      (t_ <4>= 0.4) (y_ <4>=0.839833779) (y(0.4) = 0.876283777) 4.16 %
      (t_ <5>= 0.5) (y_ <5>=0.851677371) (y(0.5) = 0.883727921) 3.63 %

      We’ve also included the error as a percentage. It’s often easier to see how well an approximation does if you look at percentages. The formula for this is,

      We used absolute value in the numerator because we really don’t care at this point if the approximation is larger or smaller than the exact. We’re only interested in how close the two are.

      The maximum error in the approximations from the last example was 4.42%, which isn’t too bad, but also isn’t all that great of an approximation. So, provided we aren’t after very accurate approximations this didn’t do too badly. This kind of error is generally unacceptable in almost all real applications however. So, how can we get better approximations?

      Recall that we are getting the approximations by using a tangent line to approximate the value of the solution and that we are moving forward in time by steps of (h). So, if we want a more accurate approximation, then it seems like one way to get a better approximation is to not move forward as much with each step. In other words, take smaller (h)’s.

      Below are two tables, one gives approximations to the solution and the other gives the errors for each approximation. We’ll leave the computational details to you to check.

      Approximations
      Time Exact (h = 0.1) (h = 0.05) (h = 0.01) (h = 0.005) (h = 0.001)
      (t) = 1 0.9414902 0.9313244 0.9364698 0.9404994 0.9409957 0.9413914
      (t) = 2 0.9910099 0.9913681 0.9911126 0.9910193 0.9910139 0.9910106
      (t) = 3 0.9987637 0.9990501 0.9988982 0.9987890 0.9987763 0.9987662
      (t) = 4 0.9998323 0.9998976 0.9998657 0.9998390 0.9998357 0.9998330
      (t) = 5 0.9999773 0.9999890 0.9999837 0.9999786 0.9999780 0.9999774

      Percentage Errors
      Time (h = 0.1) (h = 0.05) (h = 0.01) (h = 0.005) (h = 0.001)
      (t) = 1 1.08 % 0.53 % 0.105 % 0.053 % 0.0105 %
      (t) = 2 0.036 % 0.010 % 0.00094 % 0.00041 % 0.0000703 %
      (t) = 3 0.029 % 0.013 % 0.0025 % 0.0013 % 0.00025 %
      (t) = 4 0.0065 % 0.0033 % 0.00067 % 0.00034 % 0.000067 %
      (t) = 5 0.0012 % 0.00064 % 0.00013 % 0.000068 % 0.000014 %

      We can see from these tables that decreasing (h) does in fact improve the accuracy of the approximation as we expected.

      There are a couple of other interesting things to note from the data. First, notice that in general, decreasing the step size, (h), by a factor of 10 also decreased the error by about a factor of 10 as well.

      Also, notice that as (t) increases the approximation actually tends to get better. This isn’t the case completely as we can see that in all but the first case the (t) = 3 error is worse than the error at (t) = 2, but after that point, it only gets better. This should not be expected in general. In this case this is more a function of the shape of the solution. Below is a graph of the solution (the line) as well as the approximations (the dots) for (h = 0.1).

      Notice that the approximation is worst where the function is changing rapidly. This should not be too surprising. Recall that we’re using tangent lines to get the approximations and so the value of the tangent line at a given (t) will often be significantly different than the function due to the rapidly changing function at that point.

      Also, in this case, because the function ends up fairly flat as (t) increases, the tangents start looking like the function itself and so the approximations are very accurate. This won’t always be the case of course.

      Let’s take a look at one more example.

      Use Euler’s Method to find the approximation to the solution at (t = 1), (t = 2), (t = 3), (t = 4), and (t = 5). Use (h = 0.1), (h = 0.05), (h = 0.01), (h = 0.005), and (h = 0.001) for the approximations.

      We’ll leave it to you to check the details of the solution process. The solution to this linear first order differential equation is.

      Here are two tables giving the approximations and the percentage error for each approximation.

      Approximations
      Time Exact (h = 0.1) (h = 0.05) (h = 0.01) (h = 0.005) (h = 0.001)
      (t) = 1 -1.58100 -0.97167 -1.26512 -1.51580 -1.54826 -1.57443
      (t) = 2 -1.47880 0.65270 -0.34327 -1.23907 -1.35810 -1.45453
      (t) = 3 2.91439 7.30209 5.34682 3.44488 3.18259 2.96851
      (t) = 4 6.74580 15.56128 11.84839 7.89808 7.33093 6.86429
      (t) = 5 -1.61237 21.95465 12.24018 1.56056 0.0018864 -1.28498

      Percentage Errors
      Time (h = 0.1) (h = 0.05) (h = 0.01) (h = 0.005) (h = 0.001)
      (t) = 1 38.54 % 19.98 % 4.12 % 2.07 % 0.42 %
      (t) = 2 144.14 % 76.79 % 16.21 % 8.16 % 1.64 %
      (t) = 3 150.55 % 83.46 % 18.20 % 9.20 % 1.86 %
      (t) = 4 130.68 % 75.64 % 17.08 % 8.67 % 1.76 %
      (t) = 5 1461.63 % 859.14 % 196.79 % 100.12 % 20.30 %

      So, with this example Euler’s Method does not do nearly as well as it did on the first IVP. Some of the observations we made in Example 2 are still true however. Decreasing the size of (h) decreases the error as we saw with the last example and would expect to happen. Also, as we saw in the last example, decreasing (h) by a factor of 10 also decreases the error by about a factor of 10.

      However, unlike the last example increasing (t) sees an increasing error. This behavior is fairly common in the approximations. We shouldn’t expect the error to decrease as (t) increases as we saw in the last example. Each successive approximation is found using a previous approximation. Therefore, at each step we introduce error and so approximations should, in general, get worse as (t) increases.

      Below is a graph of the solution (the line) as well as the approximations (the dots) for (h) = 0.05.

      As we can see the approximations do follow the general shape of the solution, however, the error is clearly getting much worse as (t) increases.

      So, Euler’s method is a nice method for approximating fairly nice solutions that don’t change rapidly. However, not all solutions will be this nicely behaved. There are other approximation methods that do a much better job of approximating solutions. These are not the focus of this course however, so I’ll leave it to you to look further into this field if you are interested.

      Also notice that we don’t generally have the actual solution around to check the accuracy of the approximation. We generally try to find bounds on the error for each method that will tell us how well an approximation should do. These error bounds are again not really the focus of this course, so I’ll leave these to you as well if you’re interested in looking into them.


      Hypergeometric Series

      II.C Standardized Notation

      Most hypergeometric series can be written as sums of rational products of binomial coefficients, but this representation is problematic because it is not unique. As an example,

      appears to be different from the Chu-Vandermonde identity [ Eq. (2) ]. But if we look at the ratio of consecutive summands, it is

      This is simply the Chu-Vandermonde identity with α = (k + 1 − m) /2, β = (km) /2, and γ = k + 1.

      There is clearly an advantage to using the rising factorial notation, in which case we write

      Even with this standardized notation, there are equivalent identities that look different because there are nontrivial transformation formulas for hypergeometric series. As an example, provided the series in question converge, we have that

      This is why, even if all identities for hypergeometric series were already known, it would not be enough to have a list of them against which one could compare the candidate in question. Just establishing the equivalence of two identities can be a very difficult task. This makes the WZ method all the more remarkable because it is independent of the form in which the identity is given and can even be used to verify (or disprove) a conjectured transformation formula.


      Assista o vídeo: Matematyka na klockach. matematyka mentalna (Novembro 2021).