Artigos

3.8: exponenciais da matriz


3.8.1 Definição

Nesta seção, apresentamos uma maneira diferente de encontrar a solução da matriz fundamental de um sistema. Suponha que temos a equação do coeficiente constante

[ vec {x} '= P vec {x} ]

como sempre. Agora suponha que esta seja uma equação ( (P ) é um número ou uma matriz (1 vezes 1 )). Então a solução para isso seria

[ vec {x} = e ^ {Pt}. ]

Acontece que o mesmo cálculo funciona para matrizes quando definimos (e ^ {Pt} ) corretamente. Primeiro, vamos escrever a série de Taylor para (e ^ {at} ) para algum número (a ).

[e ^ {at} = 1 + at + frac {(arroba) ^ 2} {2} + frac {(arroba) ^ 3} {6} + frac {(arroba) ^ 4} {24} + cdots = sum_ {k = 0} ^ { infty} frac {(at) ^ k} {k!} ]

Lembre-se de que (k! = 1 cdot 2 cdot 3 cdots k ) é o fatorial e (0! = 1 ). Diferenciamos esta série termo por termo

[ frac { mathrm {d}} { mathrm {d} t} e ^ {at} = a + a ^ 2 t + frac {a ^ 3 t ^ 2} {2} + frac {a ^ 4 t ^ 3} {6} + cdots = a left (1 + at frac {(arroba) ^ 2} {2} + frac {(arroba) ^ 3} {6} + cdots right ) = ae ^ {at}. ]

Talvez possamos tentar o mesmo truque com matrizes. Suponha que para uma matriz (n vezes n ) (A ) definimos a matriz exponencial como

[e ^ A = mathit {I} + A + frac {1} {2} A ^ 2 + frac {1} {6} A ^ 3 + cdots + frac {1} {k!} A ^ k + cdots ]

Não nos preocupemos com a convergência. A série realmente sempre converge. Normalmente escrevemos (Pt ) como (tP ) por convenção quando (P ) é uma matriz. Com esta pequena mudança e pelo mesmo cálculo exato acima, temos que

[ frac { mathrm {d}} { mathrm {d} t} left (e ^ {tP} right) = P e ^ {tP}. ]

Agora (P ) e, portanto, (e ^ {tP} ) é uma matriz (n vezes n ). O que estamos procurando é um vetor. Notamos que no caso (1 vezes 1 ), neste ponto, multiplicaríamos por uma constante arbitrária para obter a solução geral. No caso da matriz, multiplicamos por um vetor coluna ( vec {c} ).

Teorema 3.8.1. Seja (P ) uma matriz (n vezes n ). Então a solução geral para ( vec {x} '= P vec {x} ) é

[ vec {x} = e ^ {tP} vec {c}, ]

onde ( vec {c} ) é um vetor constante arbitrário. Na verdade ( vec {x} (0) = vec {c} ).

Vamos verificar.

[ frac { mathrm {d}} { mathrm {d} t} vec {x} = frac { mathrm {d}} { mathrm {d} t} left (e ^ {tP} vec {c} direita) = P e ^ {tP} vec {c} = P vec {x}. ]

Portanto, (e ^ {tP} ) é o solução de matriz fundamental do sistema homogêneo. Se encontrarmos uma maneira de calcular a matriz exponencial, teremos outro método para resolver sistemas homogêneos de coeficientes constantes. Também torna mais fácil resolver as condições iniciais. Para resolver ( vec {x} '= A vec {x} ), ( vec {x} (0) = vec {b} ) tomamos a solução

[ vec {x} = e ^ {tA} vec {b} ]

Esta equação segue porque (e ^ {0A} = mathit {I} ), então ( vec {x} (0) = e ^ {0A} vec {b} = vec {b} ) .

Mencionamos uma desvantagem de exponenciais de matriz. Em geral (e ^ {A + B} neq e ^ A e ^ B ). O problema é que as matrizes não comutam, ou seja, em geral (AB neq BA ). Se você tentar provar (e ^ {A + B} neq e ^ A e ^ B ) usando a série de Taylor, verá porque a falta de comutatividade se torna um problema. No entanto, ainda é verdade que se (AB = BA ), ou seja, se (A ) e (B ) trajeto, então (e ^ {A + B} = e ^ A e ^ B ). Nós acharemos este fato útil. Vamos reafirmar isso como um teorema para fazer um ponto.

Teorema 3.8.2. Se (AB = BA ), então (e ^ {A + B} = e ^ Ae ^ B ). Caso contrário, (e ^ {A + B} neq e ^ Ae ^ B ) em geral.

3.8.2 Casos simples

Em alguns casos, pode funcionar apenas se conectar à definição de série. Suponha que a matriz seja diagonal. Por exemplo, (D = begin {bmatrix} a & 0 0 & b end {bmatrix} ). Então

[D ^ k = begin {bmatrix} a ^ k & 0 0 & b ^ k end {bmatrix} ]

e

[e ^ D = mathit {I} + D + frac {1} {2} D ^ 2 + frac {1} {6} D ^ 3 + cdots = begin {bmatrix} 1 & 0 0 & 1 end {bmatrix} + begin {bmatrix} a & 0 0 & b end {bmatrix} + frac {1} {2} begin {bmatrix} a ^ 2 & 0 0 & b ^ 2 end {bmatrix} + frac { 1} {6} begin {bmatrix} a ^ 3 & 0 0 & b ^ 3 end {bmatrix} + cdots = begin {bmatrix} e ^ a & 0 0 & e ^ b end {bmatrix} ]

Então, por essa lógica, temos que

[e ^ { mathit {I}} = begin {bmatrix} e & 0 0 & e end {bmatrix} ~~~~ { rm ~ {and ~}} ~~~~ e ^ {a mathit { I}} = begin {bmatrix} e ^ a & 0 0 & e ^ a end {bmatrix} ]

Isso torna as exponenciais de certas outras matrizes fáceis de calcular. Observe, por exemplo, que a matriz (A = begin {bmatrix} 5 & 4 - 1 & 1 end {bmatrix} ) pode ser escrita como (3 mathit {I + B} ) onde ( mathit {B } = begin {bmatrix} 2 e 4 - 1 e -2 end {bmatrix} ). Observe que ( mathit {B ^ 2} = begin {bmatrix} 0 & 0 0 & 0 end {bmatrix} ). Portanto, ( mathit {B ^ k} = 0 ) para todos (k geq 2 ). Portanto, (e ^ B = mathit {I + B} ). Suponha que realmente queiramos calcular (e ^ {tB} ). As matrizes (3 mathit {tI} ) e (tB ) comutam (exercício: verifique isto) e (e ^ {tB} = mathit {I + tB} ), desde ( left ( tB right) ^ 2 = t ^ 2 B ^ 2 = 0 ). Nós escrevemos

[e ^ {tA} = e ^ { mathit {3t I} + t mathit {B}} = e ^ {3t mathit {I}} e ^ {t mathit {B}} = begin { bmatriz} e ^ {3t} & 0 0 & e ^ {3t} end {bmatriz} esquerda (I + tB direita) = begin {bmatriz} e ^ {3t} & 0 0 & e ^ {3t} end {bmatrix} begin {bmatrix} 1 + 2t & 4t - t & 1-2t end {bmatrix} = begin {bmatrix} left (1 + 2t right) e ^ {3t} & 4te ^ {3t} -te ^ {3t} & left (1-2t right) e ^ {3t} end {bmatrix} ]

Portanto, encontramos a solução de matriz fundamental para o sistema ( vec {x} '= A vec {x} ). Observe que essa matriz tem um autovalor repetido com um defeito; há apenas um autovetor para o autovalor 3. Portanto, descobrimos uma maneira talvez mais fácil de lidar com este caso. Na verdade, se uma matriz (A ) é (2 vezes 2 ) e tem um autovalor ( lambda ) de multiplicidade 2, então (A ) é diagonal ou (A = lambda mathit {I} + B ) onde (B ^ 2 = 0 ). Este é um bom exercício.

Exercício ( PageIndex {1} ):

Suponha que (A ) seja (2 vezes 2 ) e ( lambda ) seja o único autovalor. Em seguida, mostre que ( left (A - lambda mathit {I} right) ^ 2 = 0 ). Então podemos escrever (A = lambda mathit {I} + B ), onde (B ^ 2 = 0 ). Dica: primeiro escreva o que significa o autovalor ser de multiplicidade 2. Você obterá uma equação para as entradas. Agora calcule o quadrado de (B ).

Matrizes (B ) tais que (B ^ k = 0 ) para alguns K são chamadas nilpotente. O cálculo da matriz exponencial para matrizes nilpotentes é fácil, bastando escrever os primeiros K termos da série de Taylor.

3.8.3 Matrizes gerais

Em geral, o exponencial não é tão fácil de calcular como acima. Normalmente não podemos escrever uma matriz como uma soma de matrizes de comutação onde o exponencial é simples para cada uma. Mas não tema, ainda não é muito difícil, desde que possamos encontrar autovetores suficientes. Primeiro, precisamos do seguinte resultado interessante sobre exponenciais de matriz. Para duas matrizes quadradas (A ) e (B ), com (B ) invertível, temos

[e ^ {BAB ^ {- 1}} = Seja ^ AB ^ {- 1}. ]

Isso pode ser visto escrevendo a série de Taylor. Primeiro observe que

[ left (BAB ^ {- 1} right) ^ 2 = BAB ^ {- 1} BAB ^ {- 1} = BA mathit {I} AB ^ {- 1} = BA ^ 2B ^ {- 1 } ]

E, portanto, pelo mesmo raciocínio ( left (BAB ^ {- 1} right) ^ k = B A ^ k B ^ {- 1} ). Agora escreva a série de Taylor para (e ^ {BAB ^ {- 1}} ).

[e ^ {BAB ^ {- 1}} = mathit {I} + BAB ^ {- 1} + frac {1} {2} left (BAB ^ {- 1} right) ^ 2 + frac {1} {6} left (BAB ^ {- 1} right) ^ 3 + cdots = BB ^ {- 1} + BAB ^ {- 1} + frac {1} {2} BA ^ 2 B ^ {- 1} + frac {1} {6} BA ^ 3 B ^ {- 1} + cdots = B left ( mathit {I} + A + frac {1} { 2} A ^ 2 + frac {1} {6} A ^ 3 + cdots right) B ^ {- 1} = Be ^ AB ^ {- 1}. ]

Dada uma matriz quadrada (A ), às vezes podemos escrever (A = EDE ^ {- 1} ), onde (D ) é diagonal e (E ) invertível. Este procedimento é chamado diagonalização. Se pudermos fazer isso, o cálculo do exponencial se torna fácil. Adicionando (t ) à mistura, vemos que podemos facilmente calcular o exponencial

[e ^ {tA} = Ee ^ {tD} E ^ {- 1}. ]

Para diagonalizar (A ), precisaremos de (n ) Linearmente independente autovetores de (A ). Caso contrário, este método de calcular o exponencial não funcionará e precisamos ser mais complicados, mas não entraremos em tais detalhes. Deixamos (E ) ser a matriz com os autovetores como colunas. Sejam ( lambda_1, cdots, lambda_n ) os autovalores e seja ( vec {v} _1, cdots, vec {v} _n ) os autovetores, então (E = begin { bmatrix} vec {v} _1 ~~ vec {v} _2 ~~ cdots ~~ vec {v} _n end {bmatrix} ). Seja (D ) a matriz diagonal com os autovalores na diagonal principal. Isso é

[D = begin {bmatrix} lambda_1 & 0 & cdots & 0 0 & lambda_2 & cdots & 0 vdots & vdots & ddots & vdots 0 & 0 & cdots & lambda end {bmatrix} ]

Nós computamos

[AE = A begin {bmatrix} vec {v} _1 & vec {v} _2 & cdots & vec {v} _n end {bmatrix} = begin {bmatrix} A vec {v} _1 & A vec {v} _2 & cdots & A vec {v} _3 end {bmatrix} = begin {bmatrix} lambda_1 vec {v} _1 & lambda_2 vec {v} _2 & cdots & lambda_n vec {v} _n end {bmatrix} = begin {bmatrix} vec {v} _1 & vec {v} _2 & cdots & vec {v} _n end {bmatrix} D = ED. ]

As colunas de (E ) são linearmente independentes, visto que são autovetores linearmente independentes de (A ). Portanto, (E ) é invertível. Uma vez que (AE = ED ), multiplicamos à direita por (E ^ {- 1} ) e obtemos

[A = EDE ^ {- 1}. ]

Isso significa que . (e ^ A = E e ^ D E ^ {- 1} ) Multiplicando a matriz por (t ) obtemos

[e ^ {tA} = E e ^ {tD} E ^ {- 1} = E begin {bmatrix} e ^ { lambda_1 t} & 0 & cdots & 0 0 & e ^ { lambda_2 t} & cdots & 0 vdots & vdots & ddots & vdots 0 & 0 & cdots & e ^ { lambda_n t} end {bmatrix} E ^ {- 1} ]

A fórmula (3.8.21), portanto, fornece a fórmula para calcular a solução da matriz fundamental (e ^ {tA} ) para o sistema ( vec {x} '= A vec {x} ), em o caso em que temos (n ) autovetores linearmente independentes.

Observe que esse cálculo ainda funciona quando os autovalores e autovetores são complexos, embora você tenha que calcular com números complexos. É claro a partir da definição que se (A ) é real, então (e ^ {tA} ) é real. Portanto, você só precisará de números complexos no cálculo e pode precisar aplicar a fórmula de Euler para simplificar o resultado. Se simplificada adequadamente, a matriz final não terá nenhum número complexo.

Exemplo ( PageIndex {1} ):

Calcule a solução da matriz fundamental usando as exponenciais da matriz para o sistema

[ begin {bmatrix} x y end {bmatrix} '= begin {bmatrix} 1 e 2 2 & 1 end {bmatrix} begin {bmatrix} x y end {bmatrix}. ]

Em seguida, calcule a solução particular para as condições iniciais (x (0) = 4 ) e (y (0) = 2 ).

Seja (A ) a matriz de coeficientes ( begin {bmatrix} 1 & 2 2 & 1 end {bmatrix} ). Primeiro calculamos (exercício) que os autovalores são 3 e -1 e os autovetores correspondentes são ( begin {bmatrix} 1 1 end {bmatrix} ) e ( begin {bmatrix} 1 - 1 fim {bmatrix} ). Por isso escrevemos
[e ^ {tA} = begin {bmatrix} 1 & 1 1 & -1 end {bmatrix} begin {bmatrix} e ^ {3t} & 0 0 & e ^ {- t} end {bmatrix} begin {bmatrix} 1 e 1 1 e -1 end {bmatrix} ^ {- 1} ]

[= begin {bmatrix} 1 & 1 1 & -1 end {bmatrix} begin {bmatrix} e ^ {3t} & 0 0 & e ^ {- t} end {bmatrix} frac {-1} { 2} begin {bmatrix} -1 e -1 - 1 e 1 end {bmatrix} ]

[= frac {-1} {2} begin {bmatrix} e ^ {3t} & e ^ {- t} e ^ {3t} & - e ^ {- t} end {bmatrix} begin {bmatrix} -1 e -1 - 1 e 1 end {bmatrix} ]

[= frac {-1} {2} begin {bmatrix} -e ^ {3t} -e ^ {- t} & - e ^ {3t} + e ^ {- t} - e ^ { 3t} + e ^ {- t} & - e ^ {3t} -e ^ {- t} end {bmatrix} ]

[= begin {bmatrix} frac {e ^ {3t} + e ^ {- t}} {2} & frac {e ^ {3t} -e ^ {- t}} {2} frac {e ^ {3t} -e ^ {- t}} {2} & frac {e ^ {3t} + e ^ {- t}} {2} end {bmatrix} ]

As condições iniciais são (x (0) = 4 ) e (y (0) = 2 ). Portanto, pela propriedade que (e ^ {0A} = mathit {I} ) descobrimos que a solução particular que procuramos é (e ^ {tA} vec {b} ) onde ( vec {b} ) é ( begin {bmatrix} 4 2 end {bmatrix} ). Então, a solução específica que procuramos é

[ begin {bmatrix} x y end {bmatrix} = begin {bmatrix} frac {e ^ {3t} + e ^ {- t}} {2} & frac {e ^ {3t} -e ^ {- t}} {2} frac {e ^ {3t} -e ^ {- t}} {2} & frac {e ^ {3t} + e ^ {- t}} { 2} end {bmatrix} begin {bmatrix} 4 2 end {bmatrix} = begin {bmatrix} 2e ^ {3t} + 2e ^ {- t} + e ^ {3t} -e ^ {- t} 2e ^ {3t} -2e ^ {- t} + e ^ {3t} + e ^ {- t} end {bmatrix} = begin {bmatrix} 3e ^ {3t} + e ^ {- t} 3e ^ {3t} -e ^ {- t} end {bmatrix} ]

3.8.4 Soluções de matriz fundamental

Notamos que se você pode calcular a solução da matriz fundamental de uma maneira diferente, você pode usar isso para encontrar a matriz exponencial (e ^ {tA} ). A solução matricial fundamental de um sistema de EDOs não é única. A exponencial é a solução de matriz fundamental com a propriedade de que para (t = 0 ) obtemos a matriz de identidade. Portanto, devemos encontrar a solução certa de matriz fundamental. Seja (X ) qualquer solução de matriz fundamental para ( vec {x} '= A vec {x} ). Então nós reivindicamos

[e ^ {tA} = X (t) [X (0)] ^ {- 1}. ]

Claramente, se conectarmos (t = 0 ) em (X (t) [X (0)] ^ {- 1} ), obteremos a identidade. Podemos multiplicar uma solução de matriz fundamental à direita por qualquer matriz invertível constante e ainda obteremos uma solução de matriz fundamental. Tudo o que estamos fazendo é mudar o que as constantes arbitrárias são na solução geral ( vec {x} (t) = X (t) vec {c} ).

3.8.5 Aproximações

Se você pensar sobre isso, o cálculo de qualquer solução de matriz fundamental (X ) usando o método dos valores próprios é tão difícil quanto o cálculo de (e ^ {tA} ). Portanto, talvez não tenhamos ganhado muito com essa nova ferramenta. No entanto, a expansão da série de Taylor nos oferece uma maneira muito fácil de aproximar soluções, o que o método dos autovalores não oferecia.

A coisa mais simples que podemos fazer é apenas calcular a série até um certo número de termos. Existem melhores maneiras de aproximar o exponencial1. Em muitos casos, entretanto, poucos termos da série de Taylor fornecem uma aproximação razoável para o exponencial e podem ser suficientes para a aplicação. Por exemplo

Calcule os primeiros 4 termos da série para a matriz. (A = begin {bmatrix} 1 e 2 2 & 1 end {bmatrix} )

[e ^ {tA} approx mathit {I} + tA + frac {t ^ 2} {2} A ^ 2 = mathit {I} + t begin {bmatrix} 1 e 2 2 & 1 end { bmatriz} + t ^ 2 begin {bmatrix} frac {5} {2} & 2 2 & frac {5} {2} end {bmatrix} + t ^ 3 begin {bmatrix} frac {13} {6} & frac {7} {3} frac {7} {3} & frac {13} {6} end {bmatrix} = begin {bmatrix} 1 + t + frac {5 } {2} t ^ 2 + frac {13} {6} t ^ 3 & 2t + 2t ^ 2 + frac {7} {3} t ^ 3 2t + 2t ^ 2 + frac {7} { 3} t ^ 3 & 1 + t + frac {5} {2} t ^ 2 + frac {13} {6} t ^ 3 end {bmatrix} ]

Assim como a versão escalar da aproximação da série de Taylor, a aproximação será melhor para t pequeno e pior para t maior. Para t maior, geralmente teremos que calcular mais termos. Vamos ver como nos comparamos com a solução real com (t = 0,1 ). A solução aproximada é aproximadamente (arredondada para 8 casas decimais)

[e ^ {0,1A} approx mathit {I} + 0,1A + frac {0,1 ^ 2} {2} + frac {0,1 ^ 3} {6} A ^ 3 = begin {bmatrix} 1,12716667 & 0.22233333 0.22233333 & 1.12716667 end {bmatrix} ]

E plugando (t = 0,1 ) na solução real (arredondada para 8 casas decimais), obtemos

[e ^ {0.1A} = begin {bmatrix} 1.12734811 & 0.22251069 0.22251069 e 1.12734811 end {bmatrix} ]

Nada mal! Embora se tomarmos a mesma aproximação para (t = 1 ), obteremos

[ mathit {I} + A + frac {1} {2} A ^ 2 + frac {1} {6} A ^ 3 = begin {bmatrix} 6.66666667 & 6.33333333 6.33333333 & 6.66666667 fim {bmatrix} ]

enquanto o valor real é (novamente arredondado para 8 casas decimais)

[e ^ A = begin {bmatrix} 10.22670818 & 9.85882874 9.85882874 & 10.22670818 end {bmatrix} ]

Portanto, a aproximação não é muito boa quando chegamos a (t = 1 ). Para obter uma boa aproximação em (t = 1 ) (digamos até 2 casas decimais), precisaríamos ir até a potência de (11 ^ {th} ) (exercício).

1C. Moler e C.F. Van Loan, dezenove maneiras duvidosas de calcular o exponencial de uma matriz, vinte e cinco anos depois, SIAM Review 45 (1), 2003, 3-49


Assista o vídeo: Exponenciación de matrices (Dezembro 2021).