Artigos

4.1: Problemas de valor limite - Matemática


4.1.1 Problemas de valor limite

Antes de abordarmos a série de Fourier, precisamos estudar os chamados problemas de valor limite (ou problemas de endpoint). Por exemplo, suponha que temos

[x '' + lambda x = 0, ~~~ x (a) = 0, ~~~ x (b) = 0, ]

para alguma constante ( lambda ), onde (x (t) ) é definido para (t ) no intervalo ([a, b] ). Ao contrário de antes, quando especificamos o valor da solução e sua derivada em um único ponto, agora especificamos o valor da solução em dois pontos diferentes. Observe que (x = 0 ) é uma solução para esta equação, portanto, a existência de soluções não é um problema aqui. A exclusividade das soluções é outro problema. A solução geral para (x '' + lambda x = 0 ) tem duas constantes arbitrárias presentes. É, portanto, natural (mas errado) acreditar que exigir duas condições garante uma solução única.

Exemplo ( PageIndex {1} ):

Pegue ( lambda = 1, a = 0, b = pi ). Isso é,

[x '' + x = 0, ~~~ x (0) = 0, ~~~ x ( pi) = 0. ]

Então (x = sin t ) é outra solução (além de (x = 0 )) satisfazendo ambas as condições de contorno. Há mais. Escreva a solução geral da equação diferencial, que é (x = A cos t + B sin t ). A condição (x (0) = 0 ) força (A = 0 ). Deixar (x ( pi) = 0 ) não nos dá mais nenhuma informação, pois (x = B sin t ) já satisfaz ambas as condições de contorno. Portanto, existem infinitas soluções da forma (x = B sin t ), onde (B ) é uma constante arbitrária.

Exemplo ( PageIndex {2} ):

Por outro lado, mude para ( lambda = 2 ).

[x '' + 2x = 0, ~~~ x (0) = 0, ~~~ x ( pi) = 0. ]

Então, a solução geral é (x = A cos ( sqrt2 t) + B sin ( sqrt2 t) ). Deixando (x (0) = 0 ) ainda força (A = 0 ). Aplicamos a segunda condição para encontrar (0 = x ( pi) = B sin ( sqrt2 t) ). Como ( sin ( sqrt2 t) neq 0 ) obtemos (B = 0 ). Portanto, (x = 0 ) é a solução única para este problema.

O que está acontecendo? Estaremos interessados ​​em encontrar quais constantes ( lambda ) permitem uma solução diferente de zero, e estaremos interessados ​​em encontrar essas soluções. Este problema é um análogo de encontrar autovalores e autovetores de matrizes.

4.1.2 Problemas de autovalor

Para a teoria básica das séries de Fourier, precisaremos dos três problemas de autovalor a seguir. Consideraremos equações mais gerais, mas adiaremos até o capítulo 5.

[x '' + lambda x = 0, ~~~ x (a) = 0, ~~~ x (b) = 0, ]

[x '' + lambda x = 0, ~~~ x '(a) = 0, ~~~ x' (b) = 0, ]

e

[x '' + lambda x = 0, ~~~ x (a) = x (b), ~~~ x '(a) = x' (b), ]

Um número ( lambda ) é chamado de autovalor de (4.1.4) (resp. (4.1.5) ou (4.1.6)) se e somente se existe uma solução diferente de zero (não identicamente zero) para (4.1 .4) (resp. (4.1.5) ou (4.1.6)) dado esse ( lambda ) específico. A solução diferente de zero que encontramos é chamada de autofunção correspondente.

Observe a semelhança com os autovalores e autovetores de matrizes. A semelhança não é apenas coincidência. Se pensarmos nas equações como operadores diferenciais, estaremos fazendo exatamente a mesma coisa. Por exemplo, deixe (L = - frac {d ^ 2} {dt ^ 2} ). Estamos procurando funções diferentes de zero (f ) que satisfaçam certas condições de endpoint que resolvem ((L- lambda) f = 0 ). Muito do formalismo da álgebra linear ainda pode ser aplicado aqui, embora não sigamos muito essa linha de raciocínio.

Exemplo ( PageIndex {3} ):

Vamos encontrar os autovalores e autofunções de

[x '' + lambda x = 0, ~~~ x (0) = 0, ~~~ x ( pi) = 0. ]

Por razões que ficarão claras a partir dos cálculos, teremos que tratar os casos ( lambda> 0, lambda = 0, lambda <0 ) separadamente. Primeiro, suponha que ( lambda> 0 ), então a solução geral para (x '' + lambda x = 0 ) é

[x = A cos ( sqrt { lambda} t) + B sin ( sqrt { lambda} t). ]

A condição (x (0) = 0 ) implica imediatamente (A ). Próximo

[0 = x ( pi) = B sin ( sqrt { lambda} pi). ]

Se (B ) for zero, então (x ) não é uma solução diferente de zero. Portanto, para obter uma solução diferente de zero, devemos ter ( sin ( sqrt { lambda} pi) = 0 ). Portanto, ( sqrt { lambda} pi ) deve ser um múltiplo inteiro de ( pi ). Em outras palavras, ( sqrt { lambda} = k ) para um inteiro positivo (k ). Portanto, os autovalores positivos são (k ^ 2 ) para todos os inteiros (k geq 1 ). As autofunções correspondentes podem ser consideradas como (x = sin (kt) ). Assim como para os autovetores, obtemos todos os múltiplos de uma autofunção, portanto, só precisamos escolher um.

Agora suponha que ( lambda = 0 ). Nesse caso, a equação é (x '' = 0 ) e a solução geral é (x = At ​​+ B ). A condição (x (0) = 0 ) implica que (B = 0 ), e (x ( pi) = 0 ) implica que (A = 0 ). Isso significa que ( lambda = 0 ) não é um autovalor.

Finalmente, suponha que ( lambda <0 ). Neste caso, temos a solução geral

[x = A cosh ( sqrt {- lambda} t) + B sinh ( sqrt {- lambda} t). ]

Deixar (x (0) = 0 ) implica que (A = 0 ) (rechamada ( cosh0 = 1 ) e ( sinh0 = 0 )). Portanto, nossa solução deve ser (x = B sinh ( sqrt {- lambda} t) ) e satisfazer (x ( pi) = 0 ). Isso só é possível se (B ) for zero. Por quê? Porque ( sinh xi ) é apenas zero quando ( xi = 0 ). Você deve plotar ( sinh ) para ver este fato. Também podemos ver isso na definição de sinh. Obtemos (0 = sinh t = frac {e ^ t-e ^ {- t}} {2} ). Portanto, (e ^ t = e ^ {- t} ), o que implica (t = -t ) e isso só é verdadeiro se (t = 0 ). Portanto, não há autovalores negativos.

Em resumo, os valores próprios e as funções próprias correspondentes são

[ lambda_k = k ^ 2 ~~~~ { rm {~ com ~ uma ~ autofunção ~}} ~~~~ x_k = sin (kt) ~~~~ { rm {~ para ~ todos ~ inteiros ~}} k geq 1. ]

Exemplo ( PageIndex {4} ):

Vamos calcular os autovalores e autofunções de

[x '' + lambda x = 0, ~~~ x '(0) = 0, ~~~ x' ( pi) = 0. ]

Novamente, teremos que lidar com os casos ( lambda> 0, lambda = 0, lambda <0 ) separadamente. Suponha primeiro que ( lambda> 0 ). A solução geral para (x '' + lambda x = 0 ) é (x = A cos ( sqrt { lambda} t) + B sin ( sqrt { lambda} t) ). Então

[x '= - A sqrt { lambda} sin ( sqrt { lambda} t) + B sqrt { lambda} cos ( sqrt { lambda} t). ]

A condição (x '(0) = 0 ) implica imediatamente (B = 0 ). Próximo

[0 = x '( pi) = - A sqrt { lambda} sin ( sqrt { lambda} pi). ]

Novamente (A ) não pode ser zero se ( lambda ) deve ser um autovalor, e ( sin ( sqrt { lambda} pi) ) é apenas zero se ( sqrt { lambda } = k ) para um número inteiro positivo (k ). Portanto, os autovalores positivos são novamente (k ^ 2 ) para todos os inteiros (k geq 1 ). E as autofunções correspondentes podem ser consideradas como (x = cos (kt) ).

Agora suponha que ( lambda = 0 ). Neste caso, a equação é (x '' = 0 ) e a solução geral é (x = At ​​+ B ) então (x '= A ). A condição (x '(0) = 0 ) implica que (A = 0 ). Agora (x '( pi) = 0 ) também implica simplesmente (A = 0 ). Isso significa que (B ) pode ser qualquer coisa (vamos supor que seja 1). Portanto, ( lambda = 0 ) é um autovalor e (x = 1 ) é uma autofunção correspondente.

Finalmente, deixe ( lambda <0 ). Neste caso, temos a solução geral (x = A cosh ( sqrt {- lambda} t) + B sinh ( sqrt {- lambda} t) ) e, portanto,

[x '= A sqrt {- lambda} sinh ( sqrt {- lambda} t) + B sqrt {- lambda} cosh ( sqrt {- lambda} t). ]

Já vimos (com os papéis de (A ) e (B ) trocados) que para ser zero em (t = 0 ) e (t = pi ), isso implica que (A = B = 0 ). Portanto, não há autovalores negativos.

Em resumo, os valores próprios e as funções próprias correspondentes são

[ lambda_k = k ^ 2 ~~~~ { rm {~ com ~ uma ~ autofunção ~}} ~~~~ x_k = cos (kt) ~~~~ { rm {~ para ~ todos ~ inteiros ~}} k geq 1, ]

e há outro valor próprio

[ lambda_0 = 0 ~~~~ { rm {~ com ~ uma ~ autofunção ~}} ~~~~ x_0 = 1. ]

O seguinte problema é o que leva à série geral de Fourier.

Exemplo ( PageIndex {5} ):

Vamos calcular os autovalores e autofunções de

[x '' + lambda x = 0, ~~~~ x (- pi) = x ( pi), ~~~~ x '(- pi) = x' ( pi). ]

Observe que não especificamos os valores ou as derivadas nos pontos finais, mas sim que eles são os mesmos no início e no final do intervalo.

Vamos pular ( lambda <0 ). Os cálculos são os mesmos de antes e, novamente, descobrimos que não há autovalores negativos.

Para ( lambda = 0 ), a solução geral é (x = At ​​+ B ). A condição (x (- pi) = x ( pi) ) implica que (A = 0 ) ((A pi + B = -A pi + B ) implica (A = 0 ) ). A segunda condição (x '(- pi) = x' ( pi) ) não diz nada sobre (B ) e, portanto, ( lambda = 0 ) é um autovalor com uma autofunção correspondente (x = 1 ).

Para ( lambda> 0 ), obtemos que (x = A cos ( sqrt { lambda} t) + B sin ( sqrt { lambda} t) ). Agora

[A cos (- sqrt { lambda} pi) + B sin (- sqrt { lambda} pi) = A cos ( sqrt { lambda} pi) + B sin ( sqrt { lambda} pi). ]

Lembramos que ( cos (- theta) = cos ( theta) ) e ( sin (- theta) = - sin ( theta) ). Portanto,

[A cos ( sqrt { lambda} pi) - B sin ( sqrt { lambda} pi) = A cos ( sqrt { lambda} pi) + B sin ( sqrt { lambda} pi). ]

Portanto, ou (B = 0 ) ou ( sin ( sqrt { lambda} pi) = 0 ). Da mesma forma (exercício), se diferenciarmos (x ) e inserirmos a segunda condição, descobriremos que (A = 0 ) ou ( sin ( sqrt { lambda} pi) = 0 ). Portanto, a menos que queiramos (A ) e (B ) sejam ambos zero (o que não queremos), devemos ter ( sin ( sqrt { lambda} pi) = 0 ). Portanto, ( sqrt { lambda} ) é um inteiro e os autovalores são novamente ( lambda = k ^ 2 ) para um inteiro (k geq 1 ). Nesse caso, entretanto, (x = A cos (kt) + B sin (kt) ) é uma autofunção para qualquer (A ) e qualquer (B ). Portanto, temos duas autofunções linearmente independentes ( sin (kt) ) e ( cos (kt) ). Lembre-se de que, para uma matriz, também poderíamos ter dois autovetores correspondentes a um único autovalor se o autovalor fosse repetido.

Em resumo, os valores próprios e as funções próprias correspondentes são

[ lambda_k = k ^ 2 ~~~~ { rm {~ com ~ as ~ funções próprias ~}} ~~~~ cos (kt) ~~~~ { rm {e}} ~~~~ sin (kt) ~~~~ { rm {~ para ~ todos ~ inteiros ~}} k geq 1, lambda_0 = 0 ~~~~ { rm {~ com ~ uma ~ função própria ~}} ~ ~~~ x_0 = 1. ]

4.1.3 Ortogonalidade de autofunções

Algo que será muito útil na próxima seção é a propriedade de ortogonalidade das autofunções. Isso é análogo ao seguinte fato sobre os autovetores de uma matriz. Uma matriz é chamada simétrica se (A = A ^ T ). Os autovetores para dois autovalores distintos de uma matriz simétrica são ortogonais. Essa simetria é necessária. Não vamos provar esse fato aqui. Os operadores diferenciais com os quais estamos lidando atuam de forma muito semelhante a uma matriz simétrica. Nós, portanto, obtemos o seguinte teorema.

Teorema 4.1.1. Suponha que (x_1 (t) ) e (x_2 (t) ) sejam duas autofunções do problema (4.1.4), (4.1.5) ou (4.1.6) para dois autovalores diferentes ( lambda_1 ) e ( lambda_2 ). Então eles são ortogonais no sentido de que

[ int ^ b_a x_1 (t) x_2 (t) dt = 0. ]

Observe que a terminologia vem do fato de que a integral é um tipo de produto interno. Expandiremos sobre isso na próxima seção. O teorema tem uma prova muito curta, elegante e esclarecedora, então vamos apresentá-la aqui. Primeiro, observe que temos as duas equações a seguir.

[x '' _ 1 + lambda_1x_1 = 0 ~~~~ { rm {e}} ~~~~ x '' _ 2+ lambda_2x_2 = 0. ]

Multiplique o primeiro por (x_2 ) e o segundo por (x_1 ) e subtraia para obter

[( lambda_1- lambda_2) x_1x_2 = x '' _ 2x_1-x_2x '' _ 1. ]

Agora integre os dois lados da equação.

[( lambda_1- lambda_2) int ^ b_a x_1x_2dt = int ^ b_a x '' _ 2x_1-x_2x '' _ 1dt = int ^ b_a frac {d} {dt} (x'_2x_1-x_2x ' _1) dt = [x'_2x_1-x_2x'_1] ^ b_ {t = a} = 0. ]

A última igualdade é mantida por causa das condições de contorno. Por exemplo, se considerarmos (4.1.4) temos (x_1 (a) = x_1 (b) = x_2 (a) = x_2 (b) = 0 ) e assim (x'_2x_1-x_2x'_1 ) é zero em (a ) e (b ). Como ( lambda_1 neq lambda_2 ), segue-se o teorema.

Exercício ( PageIndex {1} ):

(fácil). Conclua o teorema (verifique a última igualdade na prova) para os casos (4.1.5) e (4.1.6).

Vimos anteriormente que ( sin (nt) ) era uma autofunção para o problema (x '' + lambda x = 0, x (0) = 0, x ( pi) = 0 ). Portanto, temos o integral

[ int ^ { pi} _0 sin (mt) sin (nt) dt = 0, ~~~~ { rm {quando}} ~ m neq n. ]

de forma similar

[ int ^ { pi} _0 cos (mt) cos (nt) dt = 0, ~~~~ { rm {quando}} ~ m neq n. ]

E, finalmente, também temos

[ int ^ { pi} _ {- pi} sin (mt) sin (nt) dt = 0, ~~~~ { rm {quando}} ~ m neq n, ]

[ int ^ { pi} _ {- pi} cos (mt) cos (nt) dt = 0, ~~~~ { rm {quando}} ~ m neq n, ]

e

[ int ^ { pi} _ {- pi} cos (mt) sin (nt) dt = 0. ]

4.1.4 Alternativa de Fredholm

Agora tocamos em um teorema muito útil na teoria das equações diferenciais. O teorema é válido em um cenário mais geral do que vamos afirmar, mas para nossos propósitos a seguinte afirmação é suficiente. Daremos uma versão um pouco mais geral no capítulo 5.

Teorema 4.1.2 (Alternativa Fredholm). Exatamente uma das seguintes afirmações é válida. Qualquer

[x '' + lambda x = 0, ~~~~ x (a) = 0, ~~~~ x (b) = 0 ]

tem uma solução diferente de zero, ou

[x '' + lambda x = f (t), ~~~~ x (a) = 0, ~~~~ x (b) = 0 ]

tem uma solução única para cada função (f ) contínua em ([a, b] ).

O teorema também é verdadeiro para os outros tipos de condições de contorno que consideramos. O teorema significa que se ( lambda ) não é um autovalor, a equação não homogênea (4.1.32) tem uma solução única para cada lado direito. Por outro lado, se ( lambda ) é um autovalor, então (4.1.32) não precisa ter uma solução para cada (f ), e além disso, mesmo se acontecer de ter uma solução, a solução não é único.

Também queremos reforçar a ideia aqui de que os operadores diferenciais lineares têm muito em comum com as matrizes. Portanto, não é surpresa que também haja uma versão dimensional finita da alternativa de Fredholm para matrizes. Seja (A ) uma matriz (n vezes n ). A alternativa de Fredholm então afirma que ((A- lambda I) vec {x} = vec {0} ) tem uma solução não trivial, ou ((A- lambda I) vec {x} = vec {b} ) tem uma solução para cada ( vec {b} ).

Muita intuição da álgebra linear pode ser aplicada a operadores diferenciais lineares, mas é preciso ter cuidado, é claro. Por exemplo, uma diferença que já vimos é que, em geral, um operador diferencial terá infinitos autovalores, enquanto uma matriz terá apenas finitos.

4.1.5 Aplicação

Vamos considerar uma aplicação física de um problema de terminal. Suponha que temos uma corda ou corda elástica firmemente esticada e girando rapidamente de densidade linear uniforme ( rho ). Vamos colocar este problema no plano (xy - ). O eixo (x ) representa a posição na string. A corda gira em velocidade angular ( omega ), então vamos assumir que todo o plano (xy - ) gira em velocidade angular ( omega ). Assumiremos que a corda permanece neste plano (xy - ) e (y ) medirá sua deflexão da posição de equilíbrio, (y = 0 ), no eixo (x ). Portanto, encontraremos um gráfico que fornece a forma da string. Vamos idealizar a corda para não ter volume para ser apenas uma curva matemática. Se pegarmos um pequeno segmento e observarmos a tensão nos pontos finais, veremos que essa força é tangencial e assumiremos que a magnitude é a mesma em ambos os pontos finais. Portanto, a magnitude é constante em todos os lugares e chamaremos sua magnitude de (T ). Se assumirmos que a deflexão é pequena, podemos usar a segunda lei de Newton para obter uma equação

[Ty '' + rho omega ^ 2y = 0. ]

Seja (L ) o comprimento da string e a string é fixada nos pontos inicial e final. Portanto, (y (0) = 0 ) e (y (L) = 0 ). Veja a Figura 4.1.

Figura 4.1: Corda giratória.

Reescrevemos a equação como (y '' + frac { rho omega ^ 2} {T} y = 0 ). A configuração é semelhante ao Exemplo 4.1.3, exceto para a duração do intervalo ser (L ) em vez de ( pi ). Estamos procurando autovalores de (y '' + lambda y = 0, y (0) = 0, y (L) = 0 ) onde ( lambda = frac { rho omega ^ 2} { T} ). Como antes, não há autovalores não positivos. Com ( lambda> 0 ), a solução geral para a equação é (y = A cos ( sqrt { lambda} x) + B sin ( sqrt { lambda} x) ). A condição (y (0) = 0 ) implica que (A = 0 ) como antes. A condição (y (L) = 0 ) implica que ( sin ( sqrt { lambda} L) = 0 ) e, portanto, ( sqrt { lambda} L = k pi ) para alguns inteiro (k> 0 ), então

[ frac { rho omega ^ 2} {T} = lambda = frac {k ^ 2 pi ^ 2} {L ^ 2}. ]

O que isso diz sobre a forma da corda? Diz que para todos os parâmetros ( rho, omega, T ) que não satisfaçam a equação acima, a string está na posição de equilíbrio, (y = 0 ). Quando ( frac { rho omega ^ 2} {T} = frac {k ^ 2 pi ^ 2} {L ^ 2} ), então a corda irá “saltar” a alguma distância (B ) no ponto médio. Não podemos calcular (B ) com as informações que temos.

Vamos assumir que ( rho ) e (T ) são fixos e estamos mudando ( omega ). Para a maioria dos valores de ( omega ), a string está no estado de equilíbrio. Quando a velocidade angular ( omega ) atinge um valor ( omega = frac {k pi sqrt {T}} {L sqrt { rho}} ), então a corda irá saltar e irá têm a forma de uma onda sincrônica cruzando o eixo (x ) (k ) vezes. Quando ( omega ) muda novamente, a string retorna à posição de equilíbrio. Você pode ver que quanto maior a velocidade angular, mais vezes ele cruza o eixo (x ) quando é retirado.


Notas sobre Diffy Qs: Equações Diferenciais para Engenheiros

para alguma constante ( lambda text <,> ) onde (x (t) ) é definido para (t ) no intervalo ([a, b] text <.> ) Anteriormente, nós especificou o valor da solução e sua derivada em um único ponto. Agora especificamos o valor da solução em dois pontos diferentes. Como (x = 0 ) é uma solução, a existência de soluções não é um problema. A exclusividade das soluções é outro problema. A solução geral para (x '' + lambda x = 0 ) tem duas constantes arbitrárias 1. É, portanto, natural (mas errado) acreditar que exigir duas condições garante uma solução única.

Exemplo 4.1.1.

Pegue ( lambda = 1 text <,> ) (a = 0 text <,> ) (b = pi text <.> ) Ou seja,

Então (x = sin t ) é outra solução (além de (x = 0 )) satisfazendo ambas as condições de contorno. Há mais. Escreva a solução geral da equação diferencial, que é (x = A cos t + B sin t text <.> ) A condição (x (0) = 0 ) força (A = 0 text <.> ) Deixando (x ( pi) = 0 ) não nos dá mais nenhuma informação, pois (x = B sin t ) já satisfaz ambas as condições de contorno. Portanto, existem infinitas soluções da forma (x = B sin t text <,> ) onde (B ) é uma constante arbitrária.

Exemplo 4.1.2.

Por outro lado, considere ( lambda = 2 text <.> ) Ou seja,

Então, a solução geral é (x = A cos ( sqrt <2> , t) + B sin ( sqrt <2> , t) text <.> ) Letting (x (0) = 0 ) ainda força (A = 0 text <.> ) Aplicamos a segunda condição para encontrar (0 = x ( pi) = B sin ( sqrt <2> , pi) text <.> ) Como ( sin ( sqrt <2> , pi) not = 0 ) obtemos (B = 0 text <.> ) Portanto (x = 0 ) é a solução única para este problema.

O que está acontecendo? Estaremos interessados ​​em encontrar quais constantes ( lambda ) permitem uma solução diferente de zero, e estaremos interessados ​​em encontrar essas soluções. Este problema é um análogo de encontrar autovalores e autovetores de matrizes.

Subseção 4.1.2 Problemas de autovalor

Para a teoria básica das séries de Fourier, precisaremos dos três problemas de autovalor a seguir. Consideraremos equações e condições de contorno mais gerais, mas adiaremos isso até o Capítulo 5.

Um número ( lambda ) é chamado de autovalor de (4.1) (resp. (4.2) ou (4.3)) se e somente se houver uma solução diferente de zero (não identicamente zero) para (4.1) (resp. (4.2) ou (4.3)) dado que ( lambda text <.> ) Uma solução diferente de zero é chamada de correspondente autofunção.

Observe a semelhança com os autovalores e autovetores de matrizes. A semelhança não é apenas coincidência. Se pensarmos nas equações como operadores diferenciais, estaremos fazendo exatamente a mesma coisa. Pense em uma função (x (t) ) como um vetor com infinitos componentes (um para cada (t )). Deixe (L = - frac<

^ 2> ) seja o operador linear. Então, o par de autovalor / autofunção deve ser ( lambda ) e diferente de zero (x ) de forma que (Lx = lambda x text <.> ) Em outras palavras, estamos procurando por funções diferentes de zero (x ) satisfazendo certas condições finais que resolvem ((L- lambda) x = 0 text <.> ) Muito do formalismo da álgebra linear ainda se aplica aqui, embora não sigamos essa linha de raciocínio muito longe.

Exemplo 4.1.3.

Vamos encontrar os autovalores e autofunções de

Temos que lidar com os casos ( lambda & gt 0 text <,> ) ( lambda = 0 text <,> ) ( lambda & lt 0 ) separadamente. Primeiro, suponha que ( lambda & gt 0 text <.> ) Então a solução geral para (x '' + lambda x = 0 ) é

A condição (x (0) = 0 ) implica imediatamente (A = 0 text <.> ) Próximo

Se (B ) for zero, então (x ) não é uma solução diferente de zero. Portanto, para obter uma solução diferente de zero, devemos ter ( sin ( sqrt < lambda> , pi) = 0 text <.> ) Portanto, ( sqrt < lambda> , pi ) deve ser um múltiplo inteiro de ( pi text <.> ) Em outras palavras, ( sqrt < lambda> = k ) para um inteiro positivo (k text <.> ) Portanto, o autovalores positivos são (k ^ 2 ) para todos os inteiros (k geq 1 text <.> ) As autofunções correspondentes podem ser tomadas como (x = sin (kt) text <.> ) Assim como para autovetores, múltiplos constantes de uma autofunção também são autofunções, portanto, só precisamos escolher um.

Agora suponha que ( lambda = 0 text <.> ) Neste caso, a equação é (x '' = 0 text <,> ) e sua solução geral é (x = At ​​+ B text <.> ) A condição (x (0) = 0 ) implica que (B = 0 text <,> ) e (x ( pi) = 0 ) implica que (A = 0 text <.> ) Isso significa que ( lambda = 0 ) é não um autovalor.

Finalmente, suponha que ( lambda & lt 0 text <.> ) Neste caso, temos a solução geral 2

Deixar (x (0) = 0 ) implica que (A = 0 ) (rechamada ( cosh 0 = 1 ) e ( sinh 0 = 0 )). Portanto, nossa solução deve ser (x = B sinh ( sqrt <- lambda> , t) ) e satisfazer (x ( pi) = 0 text <.> ) Isso só é possível se (B ) é zero. Por quê? Porque ( sinh xi ) é apenas zero quando ( xi = 0 text <.> ) Você deve representar graficamente sinh para ver este fato. Também podemos ver isso na definição de sinh. Obtemos (0 = sinh xi = frac> <2> text <.> ) Portanto, (e ^ xi = e ^ <- xi> text <,> ) que implica ( xi = - xi ) e isso é apenas verdadeiro if ( xi = 0 text <.> ) Portanto, não há autovalores negativos.

Em resumo, os valores próprios e as funções próprias correspondentes são

Exemplo 4.1.4.

Vamos calcular os autovalores e autofunções de

Novamente, temos que lidar com os casos ( lambda & gt 0 text <,> ) ( lambda = 0 text <,> ) ( lambda & lt 0 ) separadamente. Primeiro, suponha que ( lambda & gt 0 text <.> ) A solução geral para (x '' + lambda x = 0 ) seja (x = A cos ( sqrt < lambda> , t) + B sin ( sqrt < lambda> , t) text <.> ) Então

A condição (x '(0) = 0 ) implica imediatamente (B = 0 text <.> ) Próximo

Novamente (A ) não pode ser zero se ( lambda ) deve ser um autovalor, e ( sin ( sqrt < lambda> , pi) ) é apenas zero se ( sqrt < lambda> = k ) para um inteiro positivo (k text <.> ) Portanto, os autovalores positivos são novamente (k ^ 2 ) para todos os inteiros (k geq 1 text <.> ) E as autofunções correspondentes podem ser tomadas como (x = cos (kt) text <.> )

Agora suponha que ( lambda = 0 text <.> ) Neste caso, a equação é (x '' = 0 ) e a solução geral é (x = At ​​+ B ) então (x ' = A text <.> ) A condição (x '(0) = 0 ) implica que (A = 0 text <.> ) A condição (x' ( pi) = 0 ) também implica (A = 0 text <.> ) Portanto, (B ) pode ser qualquer coisa (suponhamos que seja 1). Portanto, ( lambda = 0 ) é um autovalor e (x = 1 ) é uma autofunção correspondente.

Finalmente, vamos ( lambda & lt 0 text <.> ) Neste caso, a solução geral é (x = A cosh ( sqrt <- lambda> , t) + B sinh ( sqrt < - lambda> , t) ) e

Já vimos (com papéis de (A ) e (B ) trocados) que para esta expressão ser zero em (t = 0 ) e (t = pi text <,> ) devemos ter (A = B = 0 text <.> ) Portanto, não há autovalores negativos.

Em resumo, os valores próprios e as funções próprias correspondentes são

e há outro valor próprio

O seguinte problema é o que leva à série geral de Fourier.

Exemplo 4.1.5.

Vamos calcular os autovalores e autofunções de

Não especificamos os valores ou as derivadas nos pontos finais, mas sim que eles são os mesmos no início e no final do intervalo.

Vamos pular ( lambda & lt 0 text <.> ) Os cálculos são os mesmos de antes e, novamente, descobrimos que não há autovalores negativos.

Para ( lambda = 0 text <,> ) a solução geral é (x = At ​​+ B text <.> ) A condição (x (- pi) = x ( pi) ) implica que (A = 0 ) ( (A pi + B = -A pi + B ) implica (A = 0 )). A segunda condição (x '(- pi) = x' ( pi) ) não diz nada sobre (B ) e, portanto, ( lambda = 0 ) é um autovalor com uma autofunção correspondente (x = 1 text <.> )

Para ( lambda & gt 0 ), obtemos que (x = A cos ( sqrt < lambda> , t) + B sin ( sqrt < lambda> , t) text <.> ) Agora

Lembramos que ( cos (- theta) = cos ( theta) ) e ( sin (- theta) = - sin ( theta) text <.> ) Portanto,

Portanto, tanto (B = 0 ) ou ( sin ( sqrt < lambda> , pi) = 0 text <.> ) Da mesma forma (exercício) se diferenciarmos (x ) e conectarmos a segunda condição encontramos que (A = 0 ) ou ( sin ( sqrt < lambda> , pi) = 0 text <.> ) Portanto, a menos que queiramos (A ) e (B ) para que ambos sejam zero (o que não fazemos), devemos ter ( sin ( sqrt < lambda> , pi) = 0 text <.> ) Portanto, ( sqrt < lambda> ) é um inteiro e os valores próprios são novamente ( lambda = k ^ 2 ) para um inteiro (k geq 1 text <.> ) Neste caso, entretanto, (x = A cos (kt) + B sin (kt) ) é uma autofunção para qualquer (A ) e qualquer (B text <.> ) Portanto, temos duas autofunções linearmente independentes ( sin (kt ) ) e ( cos (kt) text <.> ) Lembre-se de que, para uma matriz, também podemos ter dois autovetores correspondentes a um único autovalor se o autovalor for repetido.

Em resumo, os valores próprios e as funções próprias correspondentes são

Subseção 4.1.3 Ortogonalidade de autofunções

Algo que será muito útil na próxima seção é o ortogonalidade propriedade das autofunções. Isso é análogo ao seguinte fato sobre os autovetores de uma matriz. Uma matriz é chamada simétrico if (A = A ^ T ) (é igual à sua transposta). Os autovetores para dois autovalores distintos de uma matriz simétrica são ortogonais. Os operadores diferenciais com os quais estamos lidando atuam de forma muito semelhante a uma matriz simétrica. Nós, portanto, obtemos o seguinte teorema.

Teorema 4.1.1.

Suponha que (x_1 (t) ) e (x_2 (t) ) sejam duas autofunções do problema (4.1), (4.2) ou (4.3) para dois autovalores diferentes ( lambda_1 ) e ( lambda_2 text <.> ) Então eles são ortogonal no sentido de que

A terminologia vem do fato de que a integral é um tipo de produto interno. Expandiremos sobre isso na próxima seção. O teorema tem uma prova muito curta, elegante e esclarecedora, então vamos apresentá-la aqui. Primeiro, temos as duas equações a seguir.

Multiplique o primeiro por (x_2 ) e o segundo por (x_1 ) e subtraia para obter

Agora integre os dois lados da equação:

A última igualdade é mantida por causa das condições de contorno. Por exemplo, se considerarmos (4.1) temos (x_1 (a) = x_1 (b) = x_2 (a) = x_2 (b) = 0 ) e então (x_2 'x_1 - x_2 x_1' ) é zero em (a ) e (b text <.> ) Como ( lambda_1 not = lambda_2 text <,> ) o teorema segue.

Exercício 4.1.1.

(fácil) Conclua a prova do teorema (verifique a última igualdade na prova) para os casos (4.2) e (4.3).

A função ( sin (nt) ) é uma autofunção para o problema (x '' + lambda x = 0 text <,> ) (x (0) = 0 text <,> ) (x ( pi) = 0 text <.> ) Portanto, para inteiros positivos (n ) e (m ), temos os integrais

Subseção 4.1.4 alternativa de Fredholm

Agora tocamos em um teorema muito útil na teoria das equações diferenciais. O teorema é válido em um cenário mais geral do que vamos afirmar, mas para nossos propósitos a seguinte afirmação é suficiente. Daremos uma versão um pouco mais geral no Capítulo 5.

Teorema 4.1.2. Alternativa de Fredholm.

3 Exatamente uma das seguintes afirmações é válida. Qualquer

tem uma solução diferente de zero, ou

tem uma solução única para cada função (f ) contínua em ([a, b] text <.> )

O teorema também é verdadeiro para os outros tipos de condições de contorno que consideramos. O teorema significa que se ( lambda ) não é um autovalor, a equação não homogênea (4.5) tem uma solução única para cada lado direito. Por outro lado, se ( lambda ) é um autovalor, então (4.5) não precisa ter uma solução para cada (f text <,> ) e, além disso, mesmo se acontecer de ter uma solução, a solução não é único.

Também queremos reforçar a ideia aqui de que os operadores diferenciais lineares têm muito em comum com as matrizes. Portanto, não é surpresa que haja uma versão de dimensão finita da alternativa de Fredholm para matrizes também. Seja (A ) uma matriz (n vezes n ). A alternativa de Fredholm então afirma que ((A- lambda I) vec = vec <0> ) tem uma solução não trivial, ou ((A- lambda I) vec = vec) tem uma solução única para cada ( vec text <.> )

Muita intuição da álgebra linear pode ser aplicada a operadores diferenciais lineares, mas é preciso ter cuidado, é claro. Por exemplo, uma diferença que já vimos é que, em geral, um operador diferencial terá infinitos autovalores, enquanto uma matriz terá apenas finitos.

Subseção 4.1.5 Aplicativo

Vamos considerar uma aplicação física de um problema de terminal. Suponha que temos uma corda elástica bem esticada girando rapidamente ou corda de densidade linear uniforme ( rho text <,> ) por exemplo em ( unitfrac text <.> ) Coloquemos este problema no plano (xy ) e ambos (x ) e (y ) estão em metros. O eixo (x ) - representa a posição na string. A corda gira em velocidade angular ( omega text <,> ) em ( unitfrac text <.> ) Imagine que todo o (xy ) - plano gira em velocidade angular ( omega text <.> ) Dessa forma, a corda fica neste (xy ) - plano e (y ) mede sua deflexão da posição de equilíbrio, (y = 0 text <,> ) no eixo (x ). Portanto, o gráfico de (y ) fornece a forma da string. Consideramos uma corda ideal sem volume, apenas uma curva matemática. Supomos que a tensão na corda é uma constante (T ) em Newtons. Supondo que a deflexão seja pequena, podemos usar a segunda lei de Newton (vamos pular a derivação) para obter a equação

Para verificar as unidades, observe que as unidades de (y '' ) são ( unitfrac text <,> ) como a derivada é em termos de (x text <.> )

Seja (L ) o comprimento da string (em metros) e a string é fixada nos pontos inicial e final. Portanto, (y (0) = 0 ) e (y (L) = 0 text <.> ) Veja a Figura 4.1.

Figura 4.1. Corda giratória.

Reescrevemos a equação como (y '' + frac < rho omega ^ 2> y = 0 text <.> ) A configuração é semelhante ao Exemplo 4.1.3, exceto para o comprimento do intervalo ser (L ) em vez de ( pi text <.> ) Estamos procurando autovalores de (y '' + lambda y = 0, y (0) = 0, y (L) = 0 ) onde ( lambda = frac < rho omega ^ 2> text <.> ) Como antes, não há autovalores não positivos. Com ( lambda & gt 0 text <,> ) a solução geral para a equação é (y = A cos ( sqrt < lambda> , x) + B sin ( sqrt < lambda> , x) text <.> ) A condição (y (0) = 0 ) implica que (A = 0 ) como antes. A condição (y (L) = 0 ) implica que ( sin ( sqrt < lambda> , L) = 0 ) e, portanto, ( sqrt < lambda> , L = k pi ) para algum inteiro (k & gt 0 text <,> ) então

O que isso diz sobre a forma da corda? Diz que para todos os parâmetros ( rho text <,> ) ( omega text <,> ) (T ) que não satisfaçam a equação acima, a string está na posição de equilíbrio, (y = 0 text <.> ) Quando ( frac < rho omega ^ 2> = frac text <,> ) então a string irá “saltar” a alguma distância (B text <.> ) Não podemos calcular (B ) com as informações que temos.

Let us assume that ( ho) and (T) are fixed and we are changing (omega ext<.>) For most values of (omega) the string is in the equilibrium state. When the angular velocity (omega) hits a value (omega = frac>> ext<,>) then the string pops out and has the shape of a sin wave crossing the (x)-axis (k-1) times between the end points. For example, at (k=1 ext<,>) the string does not cross the (x)-axis and the shape looks like in Figure 4.1. On the other hand, when (k=3) the string crosses the (x)-axis 2 times, see Figure 4.2. When (omega) changes again, the string returns to the equilibrium position. The higher the angular velocity, the more times it crosses the (x)-axis when it is popped out.

Figure 4.2 . Whirling string at the third eigenvalue ((k=3)).

For another example, if you have a spinning jump rope (then (k=1) as it is completely “popped out”) and you pull on the ends to increase the tension, then the velocity also increases for the rope to stay “popped out”.

Subsection 4.1.6 Exercises

Hint for the following exercises: Note that when (lambda > 0 ext<,>) then (cos igl( sqrt, (t - a) igr)) and (sin igl( sqrt, (t - a) igr)) are also solutions of the homogeneous equation.

Exercise 4.1.2 .

Compute all eigenvalues and eigenfunctions of (x'' + lambda x = 0,

Exercise 4.1.3 .

Compute all eigenvalues and eigenfunctions of (x'' + lambda x = 0,

Exercise 4.1.4 .

Compute all eigenvalues and eigenfunctions of (x'' + lambda x = 0,

Exercise 4.1.5 .

Compute all eigenvalues and eigenfunctions of (x'' + lambda x = 0,

Exercise 4.1.6 .

We skipped the case of (lambda < 0) for the boundary value problem (x'' + lambda x = 0,

x'(-pi) = x'(pi) ext<.>) Finish the calculation and show that there are no negative eigenvalues.

Exercise 4.1.101 .

Consider a spinning string of length 2 and linear density 0.1 and tension 3. Find smallest angular velocity when the string pops out.

Exercise 4.1.102 .

Suppose (x'' + lambda x = 0) and (x(0)=1 ext<,>) (x(1) = 1 ext<.>) Find all (lambda) for which there is more than one solution. Also find the corresponding solutions (only for the eigenvalues).

(lambda_k = 4 k^2 pi^2) for (k = 1,2,3,ldots) (x_k = cos (2kpi t) + B sin (2kpi t)) (for any (B))

Exercise 4.1.103 .

Suppose (x'' + x = 0) and (x(0)=0 ext<,>) (x'(pi) = 1 ext<.>) Find all the solution(s) if any exist.

Exercise 4.1.104 .

Consider (x' + lambda x = 0) and (x(0)=0 ext<,>) (x(1) = 0 ext<.>) Why does it not have any eigenvalues? Why does any first order equation with two endpoint conditions such as above have no eigenvalues?

General solution is (x = C e^<-lambda t> ext<.>) Since (x(0) = 0) then (C=0 ext<,>) and so (x(t) = 0 ext<.>) Therefore, the solution is always identically zero. One condition is always enough to guarantee a unique solution for a first order equation.

Exercise 4.1.105 .

(challenging) Suppose (x''' + lambda x = 0) and (x(0)=0 ext<,>) (x'(0) = 0 ext<,>) (x(1) = 0 ext<.>) Suppose that (lambda > 0 ext<.>) Find an equation that all such eigenvalues must satisfy. Hint: Note that (-sqrt[3]) is a root of (r^3+lambda = 0 ext<.>)


1 Answer 1

Let's redo the algebra a little bit. Extracting from your general solution the terms involving the functions that appear on the boundary, we posit a solution of the form $ u(r, heta) = eta_4 r^4 sin(4 heta) + delta_4 r^ <-4>sin(4 heta) + alpha_1 r cos( heta) + eta_1 r sin( heta) + gamma_1 r^ <-1>cos( heta) +delta_1 r^ <-1>sin( heta). $ At $r=1$ the equation reads $ sin(4 heta) - cos( heta) = (eta_4+delta_4) sin(4 heta) + (alpha_1 + gamma_2) cos( heta) + (eta_1 + delta_1) sin( heta), $ which yields the equations $ eta_4 + delta_4 =1 alpha_1 + gamma_1 = -1 eta_1 + delta_1 = 0. $ At $r=2$ the equation reads $ sin( heta) = (2^4 eta_4 + 2^ <-4>delta_4) sin(4 heta) +(2alpha_1 +2^ <-1>gamma_2) cos( heta) +(2eta_2 + 2^ <-1>delta_1)sin( heta), $ which yields the equations $ 2^4 eta_4 + 2^ <-4>delta_4 = 0 2 alpha_1 + 2^ <-1>gamma_1 =0 2eta_1 + 2^ <-1>delta_1 =1. $ We can solve the resulting linear system with relative ease, as it decouples into three pairs of equations with two unknowns each. We get $ eta_4 = -1/255, delta_4 = 256/255, alpha_1 = 1/3, gamma_1 = -4/3, eta_1 = 2/3, delta_1 = -2/3. $

Hence $ u(r, heta) = frac<1> <3>r cos( heta) - frac<4> <3>r^ <-1>cos( heta) + frac<2> <3>r sin( heta) - frac<2> <3>r^ <-1>sin( heta) - frac<1> <255>r^4 sin(4 heta) + frac<256> <255>r^<-4>sin(4 heta), $ and it's a simple matter to chack by hand that this does the job.

EDIT: Let's look again at the general solution.

You show above that a separated solution $u(r, heta) = R(r) T( heta)$ leads to solutions of the form $ R(r) = r^n ext < or >R(r) = r^ <-n>$ and $ T( heta) = cos(n heta) ext < or >T( heta) = sin(n heta) $ when $n ge 1$, and $ R(r) = 1 ext < or >R(r) = log(r) ext < and >T( heta) = 1 $ when $n=0$. From this we get four possible solutions when $n ge 1$: $ u_n(r, heta)= r^n cos(n heta) u_n(r, heta) = r^ <-n>cos(n heta) u_n(r, heta) = r^n sin(n heta) u_n(r, heta) = r^ <-n>sin(n heta) $ and two possible solutions when $n=1$: $ u_0(r, heta) = 1 ext < and >u_0(r, heta) = log(r). $ The general form of the solution is then a linear combination of these: $ u(r, heta) = omega + chi log(r) + sum_^infty left[alpha_n r^n cos(n heta) + eta_n r^n sin(n heta) + gamma_n r^ <-n>cos(n heta) + delta_n r^ <-n>sin(n heta) ight]. $

If we start with this then we're led naturally to my solution. The error you're running into is due to the factored form you put the solution in. To invert we need to solve $ C_n A_n = alpha_n, C_n B_n = eta_n, D_n A_n = gamma_n, D_n B_n = delta_n. $ I don't think we can invert this in a nice way.


Table of Contents

Building on the basic techniques of separation of variables and Fourier series, the book presents the solution of boundary-value problems for basic partial differential equations: the heat equation, wave equation, and Laplace equation, considered in various standard coordinate systems&mdashrectangular, cylindrical, and spherical. Each of the equations is derived in the three-dimensional context the solutions are organized according to the geometry of the coordinate system, which makes the mathematics especially transparent. Bessel and Legendre functions are studied and used whenever appropriate throughout the text. The notions of steady-state solution of closely related stationary solutions are developed for the heat equation applications to the study of heat flow in the earth are presented. The problem of the vibrating string is studied in detail both in the Fourier transform setting and from the viewpoint of the explicit representation (d'Alembert formula). Additional chapters include the numerical analysis of solutions and the method of Green's functions for solutions of partial differential equations. The exposition also includes asymptotic methods (Laplace transform and stationary phase).

With more than 200 working examples and 700 exercises (more than 450 with answers), the book is suitable for an undergraduate course in partial differential equations.

Undergraduate students interested in PDE and applied PDE.

With more than 200 working examples and 700 exercises (more than 450 with answers) this book is suitable for an undergraduate course in PDEs.

I have been one of the cheerleaders for Mark's book PDE and BVP over the years. . . . [M]ost texts for undergraduates are either too advanced or lacking mathematical rigor. Mark's book captures just the right balance. I found [it] easy to use and the problems were doable by my students. His latest edition added some rather important topics that were not covered earlier and emphasized points where the grind it out Fourier methods did not apply.

-- Marshall Slemrod, University of Wisconsin-Madison, Madison, WI

I have used Partial Differential Equations and Boundary-Value Problems with Applications by Mark Pinsky to teach a one semester undergraduate course on Partial Differential Equations since we first offered the course in 1990. Major strengths [of the book]: The book is very well and concisely written. There is an excellent collection of problems. There is a good appendix with a review of ODE. There is a good appendix on a 'review of infinite series.' There are numerous interesting examples. There is a chapter on asymptomatic analysis. There is a chapter on numerical analysis. . . . Most students have liked the book and I have found it very convenient to teach out of.

-- Nancy Stanton, University of Notre Dame, South Bend, IN

I have taught from an earlier edition of this very nice book. Both the students and I have been happy with it. It is an important and useful topic in math [both pure and applied], and it is especially relevant and central to the service courses offered by most math departments. Pinsky's book is the best text for teaching [the] classical tools. When students need to look up one of the classical formulas in the theory of boundary value problems, I often refer to Pinsky's book which has always been on target.


4.1: Boundary value problems - Mathematics

Before we start off this section we need to make it very clear that we are only going to scratch the surface of the topic of boundary value problems. There is enough material in the topic of boundary value problems that we could devote a whole class to it. The intent of this section is to give a brief (and we mean very brief) look at the idea of boundary value problems and to give enough information to allow us to do some basic partial differential equations in the next chapter.

Now, with that out of the way, the first thing that we need to do is to define just what we mean by a boundary value problem (BVP for short). With initial value problems we had a differential equation and we specified the value of the solution and an appropriate number of derivatives at the same point (collectively called initial conditions). For instance, for a second order differential equation the initial conditions are,

With boundary value problems we will have a differential equation and we will specify the function and/or derivatives at different points, which we’ll call boundary values. For second order differential equations, which will be looking at pretty much exclusively here, any of the following can, and will, be used for boundary conditions.

As mentioned above we’ll be looking pretty much exclusively at second order differential equations. We will also be restricting ourselves down to linear differential equations. So, for the purposes of our discussion here we’ll be looking almost exclusively at differential equations in the form,

[começary'' + pleft( x ight)y' + qleft( x ight)y = gleft( x ight)labelend]

along with one of the sets of boundary conditions given in (eqref) – (eqref). We will, on occasion, look at some different boundary conditions but the differential equation will always be on that can be written in this form.

As we’ll soon see much of what we know about initial value problems will not hold here. We can, of course, solve (eqref) provided the coefficients are constant and for a few cases in which they aren’t. None of that will change. The changes (and perhaps the problems) arise when we move from initial conditions to boundary conditions.

One of the first changes is a definition that we saw all the time in the earlier chapters. In the earlier chapters we said that a differential equation was homogeneous if (gleft( x ight) = 0) for all (x). Here we will say that a boundary value problem is homogeneous if in addition to (gleft( x ight) = 0) we also have ( = 0) and ( = 0)(regardless of the boundary conditions we use). If any of these are not zero we will call the BVP nonhomogeneous.

It is important to now remember that when we say homogeneous (or nonhomogeneous) we are saying something not only about the differential equation itself but also about the boundary conditions as well.

The biggest change that we’re going to see here comes when we go to solve the boundary value problem. When solving linear initial value problems a unique solution will be guaranteed under very mild conditions. We only looked at this idea for first order IVP’s but the idea does extend to higher order IVP’s. In that section we saw that all we needed to guarantee a unique solution was some basic continuity conditions. With boundary value problems we will often have no solution or infinitely many solutions even for very nice differential equations that would yield a unique solution if we had initial conditions instead of boundary conditions.

Before we get into solving some of these let’s next address the question of why we’re even talking about these in the first place. As we’ll see in the next chapter in the process of solving some partial differential equations we will run into boundary value problems that will need to be solved as well. In fact, a large part of the solution process there will be in dealing with the solution to the BVP. In these cases, the boundary conditions will represent things like the temperature at either end of a bar, or the heat flow into/out of either end of a bar. Or maybe they will represent the location of ends of a vibrating string. So, the boundary conditions there will really be conditions on the boundary of some process.

So, with some of basic stuff out of the way let’s find some solutions to a few boundary value problems. Note as well that there really isn’t anything new here yet. We know how to solve the differential equation and we know how to find the constants by applying the conditions. The only difference is that here we’ll be applying boundary conditions instead of initial conditions.

Okay, this is a simple differential equation to solve and so we’ll leave it to you to verify that the general solution to this is,

[yleft( x ight) = cos left( <2x> ight) + sin left( <2x> ight)]

Now all that we need to do is apply the boundary conditions.

[yleft( x ight) = - 2cos left( <2x> ight) + 10sin left( <2x> ight)]

We mentioned above that some boundary value problems can have no solutions or infinite solutions we had better do a couple of examples of those as well here. This next set of examples will also show just how small of a change to the BVP it takes to move into these other possibilities.

We’re working with the same differential equation as the first example so we still have,

[yleft( x ight) = cos left( <2x> ight) + sin left( <2x> ight)]

Upon applying the boundary conditions we get,

[começar - 2 & = yleft( 0 ight) = - 2 & = yleft( <2pi > ight) = end]

So, in this case, unlike previous example, both boundary conditions tell us that we have to have ( = - 2) and neither one of them tell us anything about (). Remember however that all we’re asking for is a solution to the differential equation that satisfies the two given boundary conditions and the following function will do that,

[yleft( x ight) = - 2cos left( <2x> ight) + sin left( <2x> ight)]

In other words, regardless of the value of () we get a solution and so, in this case we get infinitely many solutions to the boundary value problem.

Again, we have the following general solution,

[yleft( x ight) = cos left( <2x> ight) + sin left( <2x> ight)]

This time the boundary conditions give us,

[começar - 2 & = yleft( 0 ight) = 3 & = yleft( <2pi > ight) = end]

In this case we have a set of boundary conditions each of which requires a different value of () in order to be satisfied. This, however, is not possible and so in this case have no solution.

So, with Examples 2 and 3 we can see that only a small change to the boundary conditions, in relation to each other and to Example 1, can completely change the nature of the solution. All three of these examples used the same differential equation and yet a different set of initial conditions yielded, no solutions, one solution, or infinitely many solutions.

Note that this kind of behavior is not always unpredictable however. If we use the conditions (yleft( 0 ight)) and (yleft( <2pi > ight)) the only way we’ll ever get a solution to the boundary value problem is if we have,

[yleft( 0 ight) = ahspace<0.25in>yleft( <2pi > ight) = a]

for any value of (a). Also, note that if we do have these boundary conditions we’ll in fact get infinitely many solutions.

All the examples we’ve worked to this point involved the same differential equation and the same type of boundary conditions so let’s work a couple more just to make sure that we’ve got some more examples here. Also, note that with each of these we could tweak the boundary conditions a little to get any of the possible solution behaviors to show up (i.e. zero, one or infinitely many solutions).

The general solution for this differential equation is,

Applying the boundary conditions gives,

In this case we get a single solution,

[yleft( x ight) = 7cos left( ight) - 7cot left( <2sqrt 3 ,pi > ight)sin left( ight)]

Here the general solution is,

[yleft( x ight) = cos left( <5x> ight) + sin left( <5x> ight)]

and we’ll need the derivative to apply the boundary conditions,

[y'left( x ight) = - 5sin left( <5x> ight) + 5cos left( <5x> ight)]

Applying the boundary conditions gives,

[começar6 & = y'left( 0 ight) = 5hspace <0.25in>Rightarrow hspace<0.25in> = frac<6><5> - 9 & = y'left( pi ight) = - 5hspace <0.25in>Rightarrow hspace<0.25in> = frac<9><5>end]

This is not possible and so in this case have no solution.

All of the examples worked to this point have been nonhomogeneous because at least one of the boundary conditions have been non-zero. Let’s work one nonhomogeneous example where the differential equation is also nonhomogeneous before we work a couple of homogeneous examples.

The complementary solution for this differential equation is,

[left( x ight) = cos left( <3,x> ight) + sin left( <3,x> ight)]

Using Undetermined Coefficients or Variation of Parameters it is easy to show (we’ll leave the details to you to verify) that a particular solution is,

The general solution and its derivative (since we’ll need that for the boundary conditions) are,

[começaryleft( x ight) & = cos left( <3,x> ight) + sin left( <3,x> ight) + frac<1><8>cos x y'left( x ight) & = - 3sin left( <3,x> ight) + 3cos left( <3,x> ight) - frac<1><8>sin xend]

Applying the boundary conditions gives,

The boundary conditions then tell us that we must have ( = frac<5><3>) and they don’t tell us anything about () and so it can be arbitrarily chosen. The solution is then,

[yleft( x ight) = cos left( <3,x> ight) + frac<5><3>sin left( <3,x> ight) + frac<1><8>cos x]

and there will be infinitely many solutions to the BVP.

Let’s now work a couple of homogeneous examples that will also be helpful to have worked once we get to the next section.

Here the general solution is,

[yleft( x ight) = cos left( <2x> ight) + sin left( <2x> ight)]

Applying the boundary conditions gives,

So () is arbitrary and the solution is,

[yleft( x ight) = sin left( <2x> ight)]

and in this case we’ll get infinitely many solutions.

The general solution in this case is,

Applying the boundary conditions gives,

[começar0 & = yleft( 0 ight) = 0 & = yleft( <2pi > ight) = sin left( <2sqrt 3 ,pi > ight)hspace <0.25in>Rightarrow hspace<0.25in> = 0end]

In this case we found both constants to be zero and so the solution is,

In the previous example the solution was (yleft( x ight) = 0). Notice however, that this will always be a solution to any homogenous system given by (eqref) and any of the (homogeneous) boundary conditions given by (eqref) – (eqref). Because of this we usually call this solution the trivial solution. Sometimes, as in the case of the last example the trivial solution is the only solution however we generally prefer solutions to be non-trivial. This will be a major idea in the next section.

Before we leave this section an important point needs to be made. In each of the examples, with one exception, the differential equation that we solved was in the form,

The one exception to this still solved this differential equation except it was not a homogeneous differential equation and so we were still solving this basic differential equation in some manner.

So, there are probably several natural questions that can arise at this point. Do all BVP’s involve this differential equation and if not why did we spend so much time solving this one to the exclusion of all the other possible differential equations?

The answers to these questions are fairly simple. First, this differential equation is most definitely not the only one used in boundary value problems. It does however exhibit all of the behavior that we wanted to talk about here and has the added bonus of being very easy to solve. So, by using this differential equation almost exclusively we can see and discuss the important behavior that we need to discuss and frees us up from lots of potentially messy solution details and or messy solutions. We will, on occasion, look at other differential equations in the rest of this chapter, but we will still be working almost exclusively with this one.

There is another important reason for looking at this differential equation. When we get to the next chapter and take a brief look at solving partial differential equations we will see that almost every one of the examples that we’ll work there come down to exactly this differential equation. Also, in those problems we will be working some “real” problems that are actually solved in places and so are not just “made up” problems for the purposes of examples. Admittedly they will have some simplifications in them, but they do come close to realistic problem in some cases.


1. Introdução

Fractional differential equations have been of increasing importance for the past decades due to their diverse applications in science and engineering such as the memory of a variety of materials, signal identification and image processing, optical systems, thermal system materials and mechanical systems, control system, etc. see [1, 2]. Many interesting results of the existence of solutions of various classes of fractional differential equations have been obtained see [3–17] and the references therein.

Recently, much attention has been focused on the study of the existence and multiplicity of solutions or positive solutions for boundary value problems of fractional differential equations with local boundary value problems by the use of techniques of nonlinear analysis (fixed-point theorems, Leray-Schauder theory, the upper and lower solution method, etc.) see [7–17].

On the other hand, integer-order differential equations boundary value problems with nonlocal boundary conditions arise in a variety of different areas of applied mathematics and physics. For example, heat conduction, chemical engineering, underground water flow, thermo-elasticity, and plasma physics can be reduced to nonlocal problems with integral boundary conditions. They include two, three, and nonlocal boundary value problems as special cases and have attracted the attention of Gallardo [18], Karakostas and Tsamatos [19] (also see the references therein).

In fact, there have been the same requirements for fractional differential equations. Boundary value problems for fractional-order differential equations with nonlocal boundary conditions constitute a very interesting and important class of problems [20–22].

To the best of our knowledge, we can see the fact that, although the fractional differential equation boundary value problems have been studied by some authors, very little is known in the literature on the boundary value problems with integral boundary conditions. In order to enrich the theoretical knowledge of the above, in this paper, we investigate two classes of fractional differential equation boundary value problems with integral boundary conditions.

Benchohra et al. studied the boundary value problem for the fractional differential equations with nonlocal conditions [23]

where D 0 + α is the Caputo fractional derivative, f : [ 0 , T ] × R → R is a continuous function, g : C ( J , R ) → R is a continuous function and y T ∈ R .

Motivated by all the works above, in this paper we deal with the existence and uniqueness of solutions for the boundary value problem of fractional differential equations


Technique

The steps for using boundary value testing are simple. First, identify the equivalence classes. Second, identify the boundaries of each equivalence class. Third, create test cases for each boundary value by choosing one point on the boundary, one point just below the boundary, and one point just above the boundary. "Below" and "above" are relative terms and depend on the data value's units. If the boundary is 16 and the unit is "integer" then the "below" point is 15 and the "above" point is 17. If the boundary is $5.00 and the unit is "US dollars and cents" then the below point is $4.99 and the above point is $5.01. On the other hand, if the value is $5 and the unit is "US dollars" then the below point is $4 and the above point is $6.

Create test cases for each boundary value by choosing one point on the boundary, one point just below the boundary, and one point just above the boundary.

Note that a point just above one boundary may be in another equivalence class. There is no reason to duplicate the test. The same may be true of the point just below the boundary.

You could, of course, create additional test cases farther from the boundaries (within equivalence classes) if you have the resources. As discussed in the previous chapter, these additional test cases may make you feel warm and fuzzy, but they rarely discover additional defects.

Boundary value testing is most appropriate where the input is a continuous range of values. Returning again to the Goofy Mortgage Company, what are the interesting boundary values? For monthly income the boundaries are $1,000/month and $83,333/month (assuming the units to be US dollars).


Figure 4-1: Boundary values for a continuous range of inputs.

Test data input of <$999, $1,000, $1,001>on the low end and <$83,332, $83,333, $83,334>on the high end are chosen to test the boundaries.

Because GMC will write a mortgage for one through five houses, zero or fewer houses is not a legitimate input nor is six or greater. These identify the boundaries for testing.


Figure 4-2: Boundary values for a discrete range of inputs.

Rarely will we have the time to create individual tests for every boundary value of every input value that enters our system. More often, we will create test cases that test a number of input fields simultaneously.


2 Preliminaries

In this section, we introduce notations, definitions and lemmas which are used in the main results.

Definição 2.1 We define the generalized falling function by t α ̲ : = Γ ( t + 1 ) Γ ( t + 1 − α ) , for any t e α, for which the right-hand side is defined. If t + 1 − α is a pole of the gamma function and t + 1 is not a pole, then t α ̲ = 0 .

Definition 2.2 O α th fractional sum of a function f, for α > 0 , is defined by

for t ∈ < a + α , a + α + 1 , … >: = N a + α and σ ( s ) = s + 1 . We also define the α th fractional difference for α > 0 by Δ α f ( t ) : = Δ N Δ α − N f ( t ) , where t ∈ N a + α and N ∈ N is chosen so that 0 ≤ N − 1 < α ≤ N .

Lemma 2.1 Deixar t e α be any numbers for which t α ̲ e t α − 1 ̲ are defined. Então Δ t α ̲ = α t α − 1 ̲ .

Lemma 2.2 Deixar 0 ≤ N − 1 < α ≤ N . Então

for some C i ∈ R , com 1 ≤ i ≤ N .

To define the solution of boundary value problem (1.3), we need the following lemma which deals with linear variant of boundary value problem (1.3) and gives a representation of the solution.

e h : [ α − 1 , … , α + T − 1 ] N α − 1 → R be given. Then the problem

has a unique solution

Prova From Lemma 2.2, we find that a general solution for (2.2) can be written as

for t ∈ [ α − 2 , α + T ] N α − 2 . Applying the first boundary condition of (2.2) and using ( α − 2 ) α − 1 ̲ = Γ ( α − 1 ) Γ ( 0 ) = 0 , we have C 2 = 0 . So,

Using the fractional sum of order β > 0 for (2.6), we obtain

The second condition of (2.2) implies

Solving the above equation for a constant C 1 , we get

where Λ is defined by (2.4). From the fact that ∑ j i = 0 for i < j , we have

Substituting a constant C 1 into (2.6), we obtain (2.3). □


4.1: Boundary value problems - Mathematics

Product: ABAQUS/Standard

Features tested

Various types of prescribed boundary conditions are tested through the use of the *BOUNDARY option.

Complex boundary conditions

Elements tested

Problem description

The application of real and imaginary boundary conditions is tested in the *STEADY STATE DYNAMICS , DIRECT procedure. The test is performed in a structural analysis and an acoustic analysis. Each test is performed in three steps. The first step applies nonzero real boundary conditions to particular degrees of freedom of the structure, and the steady-state harmonic response is obtained. The second step is identical to the first step except that the nonzero boundary conditions are applied to the imaginary components of the specified degrees of freedom. The expected result is that the response of the degrees of freedom for the two steps should be identical but 90 out of phase from one another. The third step is identical to the first two steps except that nonzero boundary conditions are applied to both the real and imaginary components of the specified degrees of freedom. The expected result for this step is that the response of the degrees of freedom are 45 out of phase from the response in the previous two steps.

Results and discussion

Table 5.1.4ם Complex boundary conditions, structural analysis (xbccplxs.inp).

FrequencyU11U21PU11PU21
Step 1:50.00.05081.110180.00.0
100.00.00341.110180.00.0
Step 2:50.00.05081.110㫲.090.0
100.00.00341.110㫲.090.0
Step 3:50.00.07191.570𤩷.045.0
100.00.00481.570𤩷.045.0

Table 5.1.4מ Complex boundary conditions, acoustic analysis (xbccplxa.inp).

FrequencyPOR1PPOR1POR21PPOR21
Step 1:50.01.1100.00.0546180.0
100.01.1100.00.0126180.0
Step 2:50.01.11090.00.0546㫲.0
100.01.11090.00.0126㫲.0
Step 3:50.01.57045.00.0772𤩷.0
100.01.57045.00.0179𤩷.0

Input files

Complex boundary conditions, structural analysis.

Complex boundary conditions, acoustic analysis.

TYPE boundary conditions

Element tested

Problem description

The input file xbctypex.inp tests the continuity of boundary conditions in a multistep dynamic analysis. The specifications of the boundary conditions are modified between steps. The DISPLACEMENT , VELOCITY , and ACCELERATION settings of the TYPE parameter are varied extensively to ensure proper transitions. The FIXED parameter is tested to ensure that proper definitions are used to set the displacements at the respective nodal positions. In addition, the specifications for the boundary conditions are varied from user-specified amplitudes to user subroutine DISP to fixed boundary condition types (i.e., ENCASTRE, etc.) and even to the removal of the boundary condition specification altogether.

Results and discussion

Several combinations of boundary conditions are tested on several different nodes in this test. The boundary condition specifications on degree of freedom 2 of node 6 are discussed as a typical example.

The first step defines the boundary condition for degree of freedom 2 of node 6 to be a constant acceleration of zero. To do so, the TYPE parameter on the *BOUNDARY option is set equal to ACCELERATION , and the fact that the default definition of the AMPLITUDE parameter on the *STEP option is STEP for dynamic analyses (except for prescribed displacement or rotation boundary conditions, for which the default is RAMP ) is taken into account. Node 6 also has an initial velocity of 100 that was defined through the *INITIAL CONDITIONS input. The resulting velocity and displacement should be integrated based on the prescribed acceleration variation including the initial velocity.

In the second step the specification is changed to TYPE = VELOCITY and the step amplitude is set to RAMP . Thus, the velocity should be linear from the previous value at the end of the first step to the final value (0.0) set in the definition for this step. The resulting displacement and acceleration histories should reflect this prescribed variation.

In the third step the step amplitude is set to RAMP , and the boundary specification is changed to reference user subroutine DISP. In the user subroutine the acceleration is the value of the magnitude factor, which is ramped over the step. The velocity and displacements are the appropriate integrals of this variation. Since AMPLITUDE = RAMP is specified, the magnitude factor is ramped during this step from the previous displacement value of 100 to the final value of 10 given in the boundary condition definition for this step. This linear definition modifies the function specified in the user subroutine such that the acceleration is linear, the velocity is quadratic, and the displacement is cubic. The curves for this typical boundary condition specification are given in Figure 5.1.4ם. Many other variations of boundary condition specifications are verified in the test.

Figure 5.1.4ם Boundary condition history for node 6, degree of freedom 2.


Sobre o autor

J. DAVID LOGAN, PHD, is Willa Cather Professor of Mathematics at the University of Nebraska, Lincoln. He is also the author of A Introduction to Nonlinear Partial Differential Equations, Second Edition e Mathematical Methods in Biology, both published by Wiley. Dr. Logan has served on the faculties at the University of Arizona, Kansas State University, and Rensselaer Polytechnic Institute, and he has been affiliated with Los Alamos Scientific Laboratory, Lawrence Livermore National Laboratory, and the Aerospace Research Laboratory.


4.1: Boundary value problems - Mathematics

Heat Conduction Using Green's Functions (Second Edition) by Beck James V., Cole Kevin D., Haji Sheikh A., Litkouhi Bahman

MathSchoolinternational.com contain houndreds of Free Physics eBooks . Which cover almost all topics of physics. To see an extisive list of Quantum Physics eBooks . We hope you like these books.

'

Heat Conduction Using Green's Functions (Second Edition) written by Beck James V. e Cole Kevin D. e Haji Sheikh A. e Litkouhi Bahman . The purpose of this book is to simplify and organize the solution of heat conduction and diffusion problems and to make them more accessible. This is accomplished using the method of Green’s functions, together with extensive tables of Green’s functions and related integrals. The tables of Green’s functions were first compiled as a supplement to a first-year graduate course in heat conduction taught at Michigan State University. The book was originally envisioned as a reference volume, but it has grown into a heat conduction treatise from a Green’s function perspective. There is enough material for a one-semester course in analytical heat conduction and diffusion. There are worked examples and student problems to aid in teaching. Because of the emphasis on Green’s functions, some traditional topics such as Fourier series and Laplace transform methods are treated somewhat briefly this material could be supplemented according to the interest of the instructor.O livro também pode ser usado como um texto suplementar em cursos sobre condução de calor, problemas de valor limite ou equações diferenciais parciais do tipo de difusão. Esperamos que o livro seja usado como uma referência para a prática de engenheiros, matemáticos aplicados, físicos, geólogos e outros. Em muitos casos, uma solução de condução ou difusão de calor pode ser montada a partir das funções de Green tabuladas em vez de derivada. O livro contém o conjunto mais extenso de funções de Green e integrais relacionadas que estão atualmente disponíveis para condução e difusão de calor. O livro é organizado em uma base geométrica porque cada função de Green está associada a uma geometria única. Para cada um dos três sistemas de coordenadas - cartesiano, cilíndrico e esférico - há um apêndice separado das funções de Green denominado Apêndice X, Apêndice R e Apêndice RS, respectivamente. Cada uma das funções de Green listadas é identificada por um caractere alfanumérico exclusivo que começa com X, R ou RS para denotar a coordenada x, r ou r esférica, respectivamente. É importante para o leitor saber algo sobre este sistema de numeração para usar as tabelas de funções de Green. Um sistema de numeração mais detalhado, que cobre as funções de Green e soluções de temperatura, é discutido no Capítulo 2. Consideramos o sistema de numeração muito útil na identificação exatamente qual solução está em discussão, e todas as soluções discutidas no texto estão listadas no Apêndice N indexadas de acordo com o sistema de numeração. O nível de tratamento é destinado a alunos do último ano e do primeiro ano de graduação em engenharia e matemática. Enfatizamos a solução de problemas em vez de teoremas e provas, que geralmente são omitidos. O pré-requisito é um curso de graduação em equações diferenciais ordinárias. Uma introdução prévia ao método de separação de variáveis ​​para equações diferenciais parciais também é importante.

Condução de calor usando as funções de Green (segunda edição) escrito por Beck James V. e Cole Kevin D. e Haji Sheikh A. e Litkouhi Bahman cobrir os seguintes tópicos.