Artigos

3.6: O Método de Frobenius II - Matemática


Nesta seção, discutimos um método para encontrar duas soluções de Frobenius linearmente independentes de uma equação linear homogênea de segunda ordem próxima a um ponto singular regular no caso em que a equação indicial tem uma raiz real repetida. Como na seção anterior, consideramos as equações que podem ser escritas como

begin {equation} label {eq: 3.6.1}
x ^ 2 ( alpha_0 + alpha_1x + alpha_2x ^ 2) y '' + x ( beta_0 + beta_1x + beta_2x ^ 2) y '+ ( gamma_0 + gamma_1x + gamma_2x ^ 2) y = 0
end {equação}

onde ( alpha_0 ne0 ). Assumimos que a equação indicial (p_0 (r) = 0 ) tem uma raiz real repetida (r_1 ). Neste caso, o Teorema ((3.5.3) ) implica que eqref {eq: 3.6.1} tem uma solução da forma

begin {eqnarray *}
y_1 = x ^ {r_1} sum_ {n = 0} ^ infty a_nx ^ n,
end {eqnarray *}

mas não fornece uma segunda solução (y_2 ) tal que ( {y_1, y_2 } ) é um conjunto fundamental de soluções. A seguinte extensão do Teorema ((3.5.2) ) fornece uma maneira de encontrar uma segunda solução.

Teorema ( PageIndex {1} )

Deixar

begin {equation} label {eq: 3.6.2}
Ly = x ^ 2 ( alpha_0 + alpha_1x + alpha_2x ^ 2) y '' + x ( beta_0 + beta_1x + beta_2x ^ 2) y '+ ( gamma_0 + gamma_1x + gamma_2x ^ 2) y,
end {equação}

onde ( alpha_0 ne0 ) e definir

begin {eqnarray *}
p_0 (r) & = & alpha_0r (r-1) + beta_0r + gamma_0,
p_1 (r) & = & alpha_1r (r-1) + beta_1r + gamma_1,
p_2 (r) & = & alpha_2r (r-1) + beta_2r + gamma_2.
end {eqnarray *}

Suponha que (r ) seja um número real tal que (p_0 (n + r) ) seja diferente de zero para todos os inteiros positivos (n ), e defina

begin {eqnarray *}
begin {array} {ccl}
a_0 (r) & = & 1,
a_1 (r) & = & - displaystyle {p_1 (r) over p_0 (r + 1)},
a_n (r) & = & - displaystyle {p_1 (n + r-1) a_ {n-1} (r) + p_2 (n + r-2) a_ {n-2} (r) over p_0 ( n + r)}, quad n ge2.
end {array}
end {eqnarray *}

Depois, a série Frobenius

begin {equation} label {eq: 3.6.3}
y (x, r) = x ^ r sum_ {n = 0} ^ infty a_n (r) x ^ n
end {equação}

satisfaz

begin {equation} label {eq: 3.6.4}
Ly (x, r) = p_0 (r) x ^ r.
end {equação}

Além disso,

begin {equation} label {eq: 3.6.5}
{ parcial y over parcial r} (x, r) = y (x, r) ln x + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n,
end {equação}

e

begin {equation} label {eq: 3.6.6}
L left ({ partial y over partial r} (x, r) right) = p'_0 (r) x ^ r + x ^ rp_0 (r) ln x.
end {equação}

Prova

Teorema ((3.5.2) ) implica eqref {eq: 3.6.4}. Diferenciando formalmente em relação a (r ) em eqref {eq: 3.6.3} produz

begin {eqnarray *}
{ parcial y over partial r} (x, r) & = & displaystyle {{ partial over partial r} (x ^ r) sum_ {n = 0} ^ infty a_n (r) x ^ n + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n}
& = & displaystyle {x ^ r ln x sum_ {n = 0} ^ infty a_n (r) x ^ n + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n}
& = & y (x, r) ln x + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n,
end {eqnarray *}

o que prova eqref {eq: 3.6.5}.

Para provar que ( partial y (x, r) / partial r ) satisfaz eqref {eq: 3.6.6}, vemos (y ) em eqref {eq: 3.6.2} como uma função (y = y (x, r) ) de duas variáveis, onde o primo indica diferenciação parcial em relação a (x ); portanto,

begin {eqnarray *}
y '= y' (x, r) = { parcial y over parcial x} (x, r) quad mbox {e} quad y '' = y '' (x, r) = { parcial ^ 2 y sobre parcial x ^ 2} (x, r).
end {eqnarray *}

Com esta notação, podemos usar eqref {eq: 3.6.2} para reescrever eqref {eq: 3.6.4} como

begin {equation} label {eq: 3.6.7}
x ^ 2q_0 (x) { parcial ^ 2 y sobre parcial x ^ 2} (x, r) + xq_1 (x) { parcial y sobre parcial x} (x, r) + q_2 (x) y (x, r) = p_0 (r) x ^ r,
end {equação}

Onde

begin {eqnarray *}
q_0 (x) & = & alpha_0 + alpha_1x + alpha_2x ^ 2,
q_1 (x) & = & beta_0 + beta_1x + beta_2x ^ 2,
q_2 (x) & = & gamma_0 + gamma_1x + gamma_2x ^ 2.
end {eqnarray *}

Diferenciar ambos os lados de eqref {eq: 3.6.7} em relação a (r ) produz

begin {eqnarray *}
x ^ 2q_0 (x) { parcial ^ 3y sobre parcial r parcial x ^ 2} (x, r) + xq_1 (x) { parcial ^ 2y sobre parcial r parcial x} (x, r ) + q_2 (x) { parcial y sobre parcial r} (x, r) = p'_0 (r) x ^ r + p_0 (r) x ^ r ln x.
end {eqnarray *}

Ao alterar a ordem de diferenciação nos dois primeiros termos à esquerda, podemos reescrever isso como

begin {eqnarray *}
x ^ 2q_0 (x) { parcial ^ 3 y sobre parcial x ^ 2 parcial r} (x, r) + xq_1 (x) { parcial ^ 2 y sobre parcial x parcial r} (x , r) + q_2 (x) { parcial y sobre parcial r} (x, r) = p'_0 (r) x ^ r + p_0 (r) x ^ r ln x,
end {eqnarray *}

ou

begin {eqnarray *}
x ^ 2q_0 (x) { parcial ^ 2 over parcial x ^ 2} left ({ parcial y over partial r} (x, r) right) + xq_1 (x) { partial over parcial r} esquerda ({ parcial y sobre parcial x} (x, r) direita) + q_2 (x) { parcial y sobre parcial r} (x, r) = p'_0 ( r) x ^ r + p_0 (r) x ^ r ln x,
end {eqnarray *}

que é equivalente a eqref {eq: 3.6.6}.

Teorema ( PageIndex {2} )

Seja (L ) como no Teorema ((3.6.1) ) e suponha que a equação indicial (p_0 (r) = 0 ) tem uma raiz real repetida (r_1. ) Então

begin {eqnarray *}
y_1 (x) = y (x, r_1) = x ^ {r_1} sum_ {n = 0} ^ infty a_n (r_1) x ^ n
end {eqnarray *}

e

begin {equation} label {eq: 3.6.8}
y_2 (x) = { parcial y sobre parcial r} (x, r_1) = y_1 (x) ln x + x ^ {r_1} sum_ {n = 1} ^ infty a_n '(r_1) x ^ n
end {equação}

formam um conjunto fundamental de soluções de (Ly = 0. )

Prova

Uma vez que (r_1 ) é uma raiz repetida de (p_0 (r) = 0 ), o polinômio indicial pode ser fatorado como

begin {eqnarray *}
p_0 (r) = alpha_0 (r-r_1) ^ 2,
end {eqnarray *}

assim

begin {eqnarray *}
p_0 (n + r_1) = alpha_0n ^ 2,
end {eqnarray *}

que é diferente de zero se (n> 0 ). Portanto, as suposições do Teorema ((3.6.1) ) são válidas para (r = r_1 ), e eqref {eq: 3.6.4} implica que (Ly_1 = p_0 (r_1) x ^ {r_1} = 0 ). Desde

begin {eqnarray *}
p_0 '(r) = 2 alpha (r-r_1)
end {eqnarray *}

segue-se que (p_0 '(r_1) = 0 ), então eqref {eq: 3.6.6} implica que

begin {eqnarray *}
Ly_2 = p_0 '(r_1) x ^ {r_1} + x ^ {r_1} p_0 (r_1) ln x = 0.
end {eqnarray *}

Isso prova que (y_1 ) e (y_2 ) são ambas soluções de (Ly = 0 ). Deixamos a prova de que ( {y_1, y_2 } ) é um conjunto fundamental como exercício (Exercício ((3.6E.53) )).

Exemplo ( PageIndex {1} )

Encontre um conjunto fundamental de soluções de

begin {equation} label {eq: 3.6.9}
x ^ 2 (1-2x + x ^ 2) y '' - x (3 + x) y '+ (4 + x) y = 0.
end {equação}

Calcule apenas os termos envolvendo (x ^ {n + r_1} ), onde (0 le n le4 ) e (r_1 ) é o oot da equação indicial.

Responder

Para a equação dada, os polinômios definidos no Teorema ((3.6.1) ) são

begin {eqnarray *}
begin {array} {lllll}
p_0 (r) & = & r (r-1) -3r + 4 & = & (r-2) ^ 2,
p_1 (r) & = & - 2r (r-1) -r + 1 & = & - (r-1) (2r + 1),
p_2 (r) & = & r (r-1).
end {array}
end {eqnarray *}

Uma vez que (r_1 = 2 ) é uma raiz repetida do polinômio indicial (p_0 ), o Teorema ((3.6.2) ) implica que

begin {equation} label {eq: 3.6.10}
y_1 = x ^ 2 sum_ {n = 0} ^ infty a_n (2) x ^ n quad mbox {e} quad y_2 = y_1 ln x + x ^ 2 sum_ {n = 1} ^ infty a_n '(2) x ^ n
end {equação}

formam um conjunto fundamental de soluções Frobenius de eqref {eq: 3.6.9}. Para encontrar os coeficientes nessas séries, usamos as fórmulas de recorrência do Teorema ((3.6.1) ):

begin {equation} label {eq: 3.6.11}
begin {array} {ccl}
a_0 (r) & = & 1,
a_1 (r) & = & - displaystyle {p_1 (r) over p_0 (r + 1)} = - displaystyle {(r-1) (2r + 1) over (r-1) ^ 2} = displaystyle {2r + 1 over r-1},
a_n (r) & = & - displaystyle {p_1 (n + r-1) a_ {n-1} (r) + p_2 (n + r-2) a_ {n-2} (r) over p_0 ( n + r)}
& = & displaystyle {(n + r-2) left [(2n + 2r-1) a_ {n-1} (r) - (n + r-3) a_ {n-2} (r) direita] over (n + r-2) ^ 2}
& = & displaystyle {{(2n + 2r-1) over (n + r-2)} a_ {n-1} (r) - {(n + r-3) over (n + r-2 )} a_ {n-2} (r)}, n ge2.
end {array}
end {equation}

Diferenciando rendimentos

begin {equation} label {eq: 3.6.12}
begin {array} {ccl}
a'_1 (r) & = & - displaystyle {3 over (r-1) ^ 2},
a'_n (r) & = & displaystyle {{2n + 2r-1 over n + r-2} a '_ {n-1} (r) - {n + r-3 over n + r- 2} a '_ {n-2} (r)}
&& displaystyle {- {3 over (n + r-2) ^ 2} a_ {n-1} (r) - {1 over (n + r-2) ^ 2} a_ {n-2} ( r)}, quad n ge2.
end {array}
end {equação}

Definir (r = 2 ) em eqref {eq: 3.6.11} e eqref {eq: 3.6.12} resulta

begin {equation} label {eq: 3.6.13}
begin {array} {ccl}
a_0 (2) & = & 1,
a_1 (2) & = & 5,
a_n (2) & = & displaystyle {{(2n + 3) over n} a_ {n-1} (2) - {(n-1) over n} a_ {n-2} (2)} , quad n ge2
end {array}
end {equação}

e

begin {equation} label {eq: 3.6.14}
begin {array} {ccl}
a_1 '(2) & = & - 3,
a'_n (2) & = & displaystyle {{2n + 3 over n} a '_ {n-1} (2) - {n-1 over n} a' _ {n-2} (2 ) - {3 over n ^ 2} a_ {n-1} (2) - {1 over n ^ 2} a_ {n-2} (2)}, quad n ge2.
end {array}
end {equação}

Computando recursivamente com eqref {eq: 3.6.13} e eqref {eq: 3.6.14} produz

begin {eqnarray *}
a_0 (2) = 1, , a_1 (2) = 5, , a_2 (2) = 17, , a_3 (2) = {143 over3}, , a_4 (2) = {355 over3} ,
end {eqnarray *}

e

begin {eqnarray *}
a_1 '(2) = - 3, , a_2' (2) = - {29 over2}, , a_3 '(2) = - {859 over18}, , a_4' (2) = - {4693 over36}.
end {eqnarray *}

Substituir esses coeficientes em eqref {eq: 3.6.10} resulta

begin {eqnarray *}
y_1 = x ^ 2 left (1 + 5x + 17x ^ 2 + {143 over3} x ^ 3 + {355 over3} x ^ 4 + cdots right)
end {eqnarray *}

e

begin {eqnarray *}
y_2 = y_1 ln x -x ^ 3 left (3+ {29 over2} x + {859 over18} x ^ 2 + {4693 over36} x ^ 3 + cdots right).
end {eqnarray *}

Uma vez que a fórmula de recorrência eqref {eq: 3.6.11} envolve três termos, não é possível obter uma fórmula explícita simples para os coeficientes nas soluções de Frobenius de eqref {eq: 3.6.9}. No entanto, como vimos nas seções anteriores, a fórmula de recorrência para ( {a_n (r) } ) envolve apenas dois termos se ( alpha_1 = beta_1 = gamma_1 = 0 ) ou ( alpha_2 = beta_2 = gamma_2 = 0 ) em eqref {eq: 3.6.1}. Nesse caso, geralmente é possível encontrar fórmulas explícitas para os coeficientes. Os próximos dois exemplos ilustram isso.

Exemplo ( PageIndex {2} )

Encontre um conjunto fundamental de soluções Frobenius de

begin {equation} label {eq: 3.6.15}
2x ^ 2 (2 + x) y '' + 5x ^ 2y '+ (1 + x) y = 0.
end {equação}

Dê fórmulas explícitas para os coeficientes nas soluções.

Responder

Para a equação dada, os polinômios definidos no Teorema ((3.6.1) ) são

begin {eqnarray *}
begin {array} {ccccc}
p_0 (r) & = & 4r (r-1) +1 & = & (2r-1) ^ 2,
p_1 (r) & = & 2r (r-1) + 5r + 1 & = & (r + 1) (2r + 1),
p_2 (r) & = & 0.
end {array}
end {eqnarray *}

Como (r_1 = 1/2 ) é um zero repetido do polinômio indicial (p_0 ), o Teorema ((3.6.2) ) implica que

begin {equation} label {eq: 3.6.16}
y_1 = x ^ {1/2} sum_ {n = 0} ^ infty a_n (1/2) x ^ n
end {equação}

e

begin {equation} label {eq: 3.6.17}
y_2 = y_1 ln x + x ^ {1/2} sum_ {n = 1} ^ infty a_n '(1/2) x ^ n
end {equação}

formam um conjunto fundamental de soluções Frobenius de eqref {eq: 3.6.15}. Desde (p_2 equiv0 ), as fórmulas de recorrência no Teorema ((3.6.1) ) reduzem a

begin {eqnarray *}
begin {array} {ccl}
a_0 (r) & = & 1,
a_n (r) & = & - displaystyle {p_1 (n + r-1) over p_0 (n + r)} a_ {n-1} (r),
& = & - displaystyle {(n + r) (2n + 2r-1) over (2n + 2r-1) ^ 2} a_ {n-1} (r),
& = & - displaystyle {n + r over2n + 2r-1} a_ {n-1} (r), quad n ge0.
end {array}
end {eqnarray *}

Deixamos isso para você mostrar que

begin {equation} label {eq: 3.6.18}
a_n (r) = (- 1) ^ n prod_ {j = 1} ^ n {j + r over2j + 2r-1}, quad n ge0.
end {equação}

A configuração (r = 1/2 ) produz

begin {equation} label {eq: 3.6.19}
begin {array} {ccl}
a_n (1/2) & = & (- 1) ^ n displaystyle prod_ {j = 1} ^ n displaystyle {j + 1/2 over2j} = (-1) ^ n prod_ {j = 1 } ^ n displaystyle {2j + 1 over4j},
& = & displaystyle {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!}, quad n ge0.
end {array}
end {equação}

Substituir isso em eqref {eq: 3.6.16} produz

begin {eqnarray *}
y_1 = x ^ {1/2} sum_ {n = 0} ^ infty {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} x ^ n.
end {eqnarray *}

Para obter (y_2 ) em eqref {eq: 3.6.17}, devemos calcular (a_n '(1/2) ) para (n = 1 ), (2 ), ( pontos ). Faremos isso por diferenciação logarítmica. De eqref {eq: 3.6.18},

begin {eqnarray *}
| a_n (r) | = prod_ {j = 1} ^ n {| j + r | over | 2j + 2r-1 |}, quad n ge1.
end {eqnarray *}

Portanto

begin {eqnarray *}
ln | a_n (r) | = sum ^ n_ {j = 1} left ( ln | j + r | - ln | 2j + 2r-1 | right).
end {eqnarray *}

Diferenciando com relação a (r ) rendimentos

begin {eqnarray *}
{a'_n (r) over a_n (r)} = sum ^ n_ {j = 1} left ({1 over j + r} - {2 over2j + 2r-1} right).
end {eqnarray *}

Portanto

begin {eqnarray *}
a'_n (r) = a_n (r) sum ^ n_ {j = 1} left ({1 over j + r} - {2 over2j + 2r-1} right).
end {eqnarray *}

Definir (r = 1/2 ) aqui e relembrar eqref {eq: 3.6.19} produz

begin {equation} label {eq: 3.6.20}
a'_n (1/2) = {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} left ( sum_ {j = 1} ^ n {1 over j + 1/2} - sum_ {j = 1} ^ n {1 over j} right).
end {equação}

Desde

begin {eqnarray *}
{1 over j + 1/2} - {1 over j} = {j-j-1/2 over j (j + 1/2)} = - {1 over j (2j + 1)},
end {eqnarray *}

eqref {eq: 3.6.20} pode ser reescrito como

begin {eqnarray *}
a'_n (1/2) = - {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} sum_ {j = 1} ^ n {1 over j (2j + 1)}.
end {eqnarray *}

Portanto, a partir de eqref {eq: 3.6.17},

begin {eqnarray *}
y_2 = y_1 ln xx ^ {1/2} sum_ {n = 1} ^ infty {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} esquerda ( sum_ {j = 1} ^ n {1 sobre j (2j + 1)} direita) x ^ n.
end {eqnarray *}

Exemplo ( PageIndex {3} )

Encontre um conjunto fundamental de soluções Frobenius de

begin {equation} label {eq: 3.6.21}
x ^ 2 (2-x ^ 2) y '' - 2x (1 + 2x ^ 2) y '+ (2-2x ^ 2) y = 0.
end {equação}

Dê fórmulas explícitas para os coeficientes nas soluções.

Responder

Para eqref {eq: 3.6.21}, os polinômios definidos no Teorema ((3.6.1) ) são

begin {eqnarray *}
begin {array} {ccccc}
p_0 (r) & = & 2r (r-1) -2r + 2 & = & 2 (r-1) ^ 2,
p_1 (r) & = & 0,
p_2 (r) & = & - r (r-1) -4r-2 & = & - (r + 1) (r + 2).
end {array}
end {eqnarray *}

Como na Seção (3.5 ), uma vez que (p_1 equiv0 ), as fórmulas de recorrência do Teorema ((3.6.1) ) implicam que (a_n (r) = 0 ) se (n ) é estranho e

begin {eqnarray *}
begin {array} {ccl}
a_0 (r) & = & 1,
a_ {2m} (r) & = & - displaystyle {p_2 (2m + r-2) over p_0 (2m + r)} a_ {2m-2} (r)
& = & displaystyle {(2m + r-1) (2m + r) over2 (2m + r-1) ^ 2} a_ {2m-2} (r)
& = & displaystyle {2m + r over2 (2m + r-1)} a_ {2m-2} (r), quad m ge1.
end {array}
end {eqnarray *}

Uma vez que (r_1 = 1 ) é uma raiz repetida do polinômio indicial (p_0 ), o Teorema ((3.6.2) ) implica que

begin {equation} label {eq: 3.6.22}
y_1 = x sum_ {m = 0} ^ infty a_ {2m} (1) x ^ {2m}
end {equação}

e

begin {equation} label {eq: 3.6.23}
y_2 = y_1 ln x + x sum_ {m = 1} ^ infty a '_ {2m} (1) x ^ {2m}
end {equação}

formam um conjunto fundamental de soluções Frobenius de eqref {eq: 3.6.21}. Deixamos isso para você mostrar que

begin {equation} label {eq: 3.6.24}
a_ {2m} (r) = {1 over2 ^ m} prod_ {j = 1} ^ m {2j + r over2j + r-1}.
end {equação}

A configuração (r = 1 ) produz

begin {equation} label {eq: 3.6.25}
a_ {2m} (1) = {1 over2 ^ m} prod_ {j = 1} ^ m {2j + 1 over2j} = { prod_ {j = 1} ^ m (2j + 1) over4 ^ milímetros!},
end {equação}

e substituí-lo em eqref {eq: 3.6.22} produz

begin {eqnarray *}
y_1 = x sum_ {m = 0} ^ infty { prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!} x ^ {2m}.
end {eqnarray *}

Para obter (y_2 ) em eqref {eq: 3.6.23}, devemos calcular (a_ {2m} '(1) ) para (m = 1 ), (2 ), ( dots ). Novamente, usamos a diferenciação logarítmica. De eqref {eq: 3.6.24},

begin {eqnarray *}
| a_ {2m} (r) | = {1 over2 ^ m} prod_ {j = 1} ^ m {| 2j + r | over | 2j + r-1 |}.
end {eqnarray *}

Obtendo rendimentos de logaritmos

begin {eqnarray *}
ln | a_ {2m} (r) | = -m ln2 + sum ^ m_ {j = 1} left ( ln | 2j + r | - ln | 2j + r-1 | right).
end {eqnarray *}

Diferenciando com relação a (r ) rendimentos

begin {eqnarray *}
{a '_ {2m} (r) over a_ {2m} (r)} = sum ^ m_ {j = 1} left ({1 over 2j + r} - {1 over2j + r-1 }certo).
end {eqnarray *}

Portanto

begin {eqnarray *}
a '_ {2m} (r) = a_ {2m} (r) sum ^ m_ {j = 1} left ({1 over 2j + r} - {1 over2j + r-1} right) .
end {eqnarray *}

Definir (r = 1 ) e recuperar eqref {eq: 3.6.25} produz

begin {equation} label {eq: 3.6.26}
a '_ {2m} (1) = displaystyle {{ prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!} sum_ {j = 1} ^ m left ({1 over2j +1} - {1 over2j} right)}.
end {equação}

Desde

begin {eqnarray *}
{1 over2j + 1} - {1 over2j} = - {1 over2j (2j + 1)},
end {eqnarray *}

eqref {eq: 3.6.26} pode ser reescrito como

begin {eqnarray *}
a_ {2m} '(1) = - displaystyle {{ prod_ {j = 1} ^ m (2j + 1) over2 cdot 4 ^ mm!} sum_ {j = 1} ^ m left ({ 1 over (2j + 1)} right)}.
end {eqnarray *}

Substituir isso em eqref {eq: 3.6.23} produz

begin {eqnarray *}
y_2 = y_1 ln x- {x over2} sum_ {m = 1} ^ infty { prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!} left ( sum_ {j = 1} ^ m {1 over j (2j + 1)} right) x ^ {2m}.
end {eqnarray *}

Se a solução (y_1 = y (x, r_1) ) de (Ly = 0 ) se reduz a uma soma finita, então há uma dificuldade em usar diferenciação logarítmica para obter os coeficientes ( {a_n '(r_1) } ) na segunda solução. O próximo exemplo ilustra essa dificuldade e mostra como superá-la.

Exemplo ( PageIndex {4} )

Encontre um conjunto fundamental de soluções Frobenius de

begin {equation} label {eq: 3.6.27}
x ^ 2y '' - x (5-x) y '+ (9-4x) y = 0.
end {equação}

Dê fórmulas explícitas para os coeficientes nas soluções.

Responder

Para eqref {eq: 3.6.27} os polinômios definidos no Teorema ((3.6.1) ) são

begin {eqnarray *}
begin {array} {ccccc}
p_0 (r) & = & r (r-1) -5r + 9 & = & (r-3) ^ 2,
p_1 (r) & = & r-4,
p_2 (r) & = & 0.
end {array}
end {eqnarray *}

Uma vez que (r_1 = 3 ) é um zero repetido do polinômio indicial (p_0 ), o Teorema ((3.6.2) ) implica que

begin {equation} label {eq: 3.6.28}
y_1 = x ^ 3 sum_ {n = 0} ^ infty a_n (3) x ^ n
end {equação}

e

begin {equation} label {eq: 3.6.29}
y_2 = y_1 ln x + x ^ 3 sum_ {n = 1} ^ infty a_n '(3) x ^ n
end {equação}

são soluções Frobenius linearmente independentes de eqref {eq: 3.6.27}. Para encontrar os coeficientes em eqref {eq: 3.6.28} usamos as fórmulas de recorrência

begin {eqnarray *}
begin {array} {ccl}
a_0 (r) & = & 1,
a_n (r) & = & - displaystyle {p_1 (n + r-1) over p_0 (n + r)} a_ {n-1} (r)
& = & - displaystyle {n + r-5 over (n + r-3) ^ 2} a_ {n-1} (r), quad n ge1.
end {array}
end {eqnarray *}

Deixamos isso para você mostrar que

begin {equation} label {eq: 3.6.30}
a_n (r) = (- 1) ^ n prod_ {j = 1} ^ n {j + r-5 over (j + r-3) ^ 2}.
end {equação}

Definir (r = 3 ) aqui produz

begin {eqnarray *}
a_n (3) = (- 1) ^ n prod_ {j = 1} ^ n {j-2 sobre j ^ 2},
end {eqnarray *}

então (a_1 (3) = 1 ) e (a_n (3) = 0 ) se (n ge2 ). Substituir esses coeficientes em eqref {eq: 3.6.28} resulta

begin {eqnarray *}
y_1 = x ^ 3 (1 + x).
end {eqnarray *}

Para obter (y_2 ) em eqref {eq: 3.6.29}, devemos calcular (a_n '(3) ) para (n = 1 ), (2 ), ( pontos ) . Vamos primeiro tentar a diferenciação logarítmica. De eqref {eq: 3.6.30},

begin {eqnarray *}
| a_n (r) | = prod_ {j = 1} ^ n {| j + r-5 | over | j + r-3 | ^ 2}, quad n ge1,
end {eqnarray *}

assim

begin {eqnarray *}
ln | a_n (r) | = sum ^ n_ {j = 1} left ( ln | j + r-5 | -2 ln | j + r-3 | right).
end {eqnarray *}

Diferenciando com relação a (r ) rendimentos

begin {eqnarray *}
{a'_n (r) over a_n (r)} = sum ^ n_ {j = 1} left ({1 over j + r-5} - {2 over j + r-3} right )
end {eqnarray *}

Portanto

begin {equation} label {eq: 3.6.31}
a'_n (r) = a_n (r) sum ^ n_ {j = 1} left ({1 over j + r-5} - {2 over j + r-3} right).
end {equação}

No entanto, não podemos simplesmente definir (r = 3 ) aqui se (n ge2 ), uma vez que a expressão entre colchetes na soma correspondente a (j = 2 ) contém o termo (1 / (r -3) ). Na verdade, uma vez que (a_n (3) = 0 ) para (n ge2 ), a fórmula eqref {eq: 3.6.31} para (a_n '(r) ) é na verdade uma forma indeterminada em (r = 3 ).

Superamos essa dificuldade da seguinte maneira. De eqref {eq: 3.6.30} com (n = 1 ),

begin {eqnarray *}
a_1 (r) = - {r-4 over (r-2) ^ 2}.
end {eqnarray *}

Portanto

begin {eqnarray *}
a_1 '(r) = {r-6 over (r-2) ^ 3},
end {eqnarray *}

assim

begin {equation} label {eq: 3.6.32}
a_1 '(3) = - 3.
end {equação}

De eqref {eq: 3.6.30} com (n ge2 ),

begin {eqnarray *}
a_n (r) = (- 1) ^ n (r-4) (r-3) , { prod_ {j = 3} ^ n (j + r-5) over prod_ {j = 1} ^ n (j + r-3) ^ 2} = (r-3) c_n (r),
end {eqnarray *}

Onde

begin {eqnarray *}
c_n (r) = (- 1) ^ n (r-4) , { prod_ {j = 3} ^ n (j + r-5) over prod_ {j = 1} ^ n (j + r -3) ^ 2}, quad n ge2.
end {eqnarray *}

Portanto

begin {eqnarray *}
a_n '(r) = c_n (r) + (r-3) c_n' (r), quad n ge2,
end {eqnarray *}

o que implica que (a_n '(3) = c_n (3) ) se (n ge3 ). Deixamos para você verificar se

begin {eqnarray *}
a_n '(3) = c_n (3) = {(- 1) ^ {n + 1} sobre n (n-1) n!}, quad n ge2.
end {eqnarray *}

Substituir isso e eqref {eq: 3.6.32} em eqref {eq: 3.6.29} produz

begin {eqnarray *}
y_2 = x ^ 3 (1 + x) ln x-3x ^ 4-x ^ 3 displaystyle { sum_ {n = 2} ^ infty {(-1) ^ n over n (n-1) n !} x ^ n}.
end {eqnarray *}


Estatísticas Multivariadas

Uma vez que A é definido positivo, podemos calcular a raiz quadrada definida positiva simétrica de A.

  • Em vez de usar a autocomposição completa para ( mathbf A ), tente truncá-la e usar apenas um único autovalor e autovetor, ou seja, computar [ mathbf A & # 39 = lambda_1 mathbf q_1 mathbf q_1 ^ top ]
  • Calcule a diferença entre ( mathbf A ) e ( mathbf A & # 39 ) usando a norma 2 e a norma de Frobenius.
  1. A decomposição de valor singular pode ser calculada em R usando o comando svd. Sejam ( mathbf X ) as quatro variáveis ​​numéricas no conjunto de dados da íris com a média da coluna removida

Calcule o SVD de ( mathbf X ) em R e relate seus valores singulares.

R relata o SVD completo ou compacto?

Verifique se ( mathbf X mathbf v = sigma mathbf u ).

Calcule as melhores aproximações de classificação 1, classificação 2 e classificação 3 para ( mathbf X ) e relate a norma 2 e a norma Frobeniosa para essas aproximações

Calcule os autovalores de ( mathbf X ^ top mathbf X ). Como isso se relaciona com os valores singulares? Como ( mathbf X ^ top mathbf X ) se relaciona com a matriz de covariância de amostra dos dados da íris? Como os valores singulares se relacionam com os autovalores da matriz de covariância?

Seja ( mathbf S ) a matriz de covariância de amostra do conjunto de dados da íris. Que vetor ( mathbf x ) com (|| mathbf x || = 1 ) maximiza ( mathbf x ^ top mathbf S mathbf x )?

Escolha algumas imagens do banco de dados de imagens USC-SIPI e repita o exemplo de compressão de imagem das notas. Que tipo de imagens compactam bem você acha?

Não discutiremos como o SVD é calculado na prática, mas há uma variedade de abordagens que podem ser usadas. Experimente a seguinte abordagem iterativa para calcular os primeiros vetores do singular:


Conteúdo

Deixar positivo e não negativo respectivamente, descrevem matrizes com números reais exclusivamente positivos como elementos e matrizes com números reais exclusivamente não negativos como elementos. Os valores próprios de uma matriz quadrada real UMA são números complexos que constituem o espectro da matriz. A taxa de crescimento exponencial dos poderes da matriz UMA k Como k → ∞ é controlado pelo autovalor de UMA com o maior valor absoluto (módulo). O teorema de Perron-Frobenius descreve as propriedades do autovalor líder e dos autovetores correspondentes quando UMA é uma matriz quadrada real não negativa. Os primeiros resultados foram devidos a Oskar Perron (1907) e referiam-se a matrizes positivas. Mais tarde, Georg Frobenius (1912) encontrou sua extensão para certas classes de matrizes não negativas.

Matrizes positivas Editar

  1. Há um número real positivo r, Chamou o Raiz Perron ou o Autovalor de Perron-Frobenius (também chamado de autovalor principal ou autovalor dominante), de tal modo que r é um autovalor de UMA e qualquer outro valor próprio λ (possivelmente complexo) em valor absoluto é estritamente menor que r , |λ| & lt r. Assim, o raio espectral ρ (A) < displaystyle rho (A)> é igual a r. Se os coeficientes da matriz são algébricos, isso implica que o valor próprio é um número de Perron.
  2. O autovalor de Perron-Frobenius é simples: r é uma raiz simples do polinômio característico de UMA. Consequentemente, o eigenspace associado a r é unidimensional. (O mesmo é verdadeiro para o eigenspace esquerdo, ou seja, o eigenspace para NO , a transposição de UMA.)
  3. Existe um autovetor v = (v1. vn) T do UMA com autovalor r de modo que todos os componentes de v são positivos: A v = r v, veu & gt 0 para 1 ≤ eun. (Respectivamente, existe um autovetor esquerdo positivo C : w T A = r w T , Ceu & gt 0.) É conhecido na literatura sob muitas variações como o Vetor Perron, Autovetor de Perron, Autovetor de Perron-Frobenius, autovetor principal, ou autovetor dominante.
  4. Não há outros autovetores positivos (além disso não negativos), exceto múltiplos positivos de v (respectivamente, vetores próprios esquerdos, exceto C), ou seja, todos os outros vetores próprios devem ter pelo menos um componente negativo ou não real.
  5. lim k → ∞ A k / r k = v w T < displaystyle lim _A ^/ r ^= vw ^>, onde os autovetores esquerdo e direito para UMA são normalizados para que w T v = 1. Além disso, a matriz v w T é a projeção no autoespaço correspondente a r. Esta projeção é chamada de Projeção Perron.
  6. Fórmula de Collatz-Wielandt: para todos os vetores não negativos diferentes de zero x, deixar f(x) seja o valor mínimo de [Machado]eu / xeu assumiu todos aqueles eu de tal modo que xeu ≠ 0. Então f é uma função de valor real cujo máximo sobre todos os vetores não negativos diferentes de zero x é o autovalor de Perron – Frobenius.
  7. Uma fórmula "Mín-máx" ​​de Collatz-Wielandt assume uma forma semelhante à acima: para todos os vetores estritamente positivos x, deixar g(x) seja o valor máximo de [Machado]eu / xeu assumido eu. Então g é uma função de valor real cujo mínimo sobre todos os vetores estritamente positivos x é o autovalor de Perron – Frobenius.
  8. Fórmula Birkhoff-Varga: Deixar x e y ser vetores estritamente positivos. Então r = sup x & gt 0 inf y & gt 0 y ⊤ A xy ⊤ x = inf x & gt 0 sup y & gt 0 y ⊤ A xy ⊤ x = inf x & gt 0 sup y & gt 0 ∑ i, j = 1 nxi A ijyj / ∑ i = 1 nyixi. < displaystyle r = sup _ inf _< frac Machado>x >> = inf _e aí _< frac Machado>x >> = inf _e aí _soma _^x_UMA_y_/soma _^y_x_.>[8]
  9. Fórmula Donsker-Varadhan-Friedland: Deixar p ser um vetor de probabilidade e x um vetor estritamente positivo. Então r = sup p inf x & gt 0 ∑ i = 1 n p i [A x] i / x i. < displaystyle r = sup _

    inf _soma _^p_[Machado]_/ x_.>[9][10]

  10. Fórmula de Fiedler: r = sup z & gt 0 inf x & gt 0, y & gt 0, x ∘ y = zy ⊤ A xy ⊤ x = sup z & gt 0 inf x & gt 0, y & gt 0, x ∘ y = z ∑ i, j = 1 nxi A ijyj / ∑ i = 1 nyixi. < displaystyle r = sup _ inf _< frac Machado>x >> = sup _ inf _soma _^x_UMA_y_/soma _^y_x_.>[11]
  11. O autovalor de Perron-Frobenius satisfaz as desigualdades

Todas essas propriedades se estendem além de matrizes estritamente positivas para matrizes primitivas (Veja abaixo). Os fatos 1-7 podem ser encontrados em Meyer [12], capítulo 8, reivindicações 8.2.11-15, página 667, e exercícios 8.2.5,7,9, páginas 668-669.

Os autovetores esquerdo e direito C e v são às vezes normalizados para que a soma de seus componentes seja igual a 1, neste caso, eles às vezes são chamados autovetores estocásticos. Freqüentemente, eles são normalizados para que o autovetor correto v soma um, enquanto w T v = 1 < displaystyle w ^v = 1>.

Matrizes não negativas Editar

No entanto, Frobenius encontrou uma subclasse especial de matrizes não negativas - irredutível matrizes - para as quais uma generalização não trivial é possível. Para tal matriz, embora os autovalores que atingem o valor absoluto máximo possam não ser únicos, sua estrutura está sob controle: eles têm a forma ω r < displaystyle omega r>, onde r é um valor próprio real estritamente positivo, e ω < displaystyle omega> varia sobre o complexo has raízes de 1 para algum número inteiro positivo h chamado de período da matriz. O autovetor correspondente a r tem componentes estritamente positivos (em contraste com o caso geral de matrizes não negativas, onde os componentes são apenas não negativos). Além disso, todos esses autovalores são raízes simples do polinômio característico. Outras propriedades são descritas abaixo.

Classificação de matrizes Editar

Deixar UMA ser uma matriz quadrada (não necessariamente positiva ou mesmo real). O Matrix UMA é irredutível se alguma das seguintes propriedades equivalentes for mantida.

Definição 2: UMA não pode ser conjugado na forma triangular superior de bloco por uma matriz de permutação P:

Onde E e G são matrizes quadradas não triviais (ou seja, de tamanho maior que zero).

Se UMA não é negativo, outra definição é válida:

Definição 3: Pode-se associar a uma matriz UMA um certo gráfico direcionado GUMA. Tem exatamente n vértices, onde n é o tamanho de UMA, e há uma borda do vértice eu ao vértice j precisamente quando UMAeu j & gt 0. Então a matriz UMA é irredutível se e somente se seu gráfico associado GUMA está fortemente conectado.

Uma matriz é redutível se não for irredutível.

Uma matriz UMA é primitivo se for não negativo e seu mo poder é positivo para algum número natural m (ou seja, todas as entradas de Sou são positivos).

Deixar UMA ser não negativo. Corrigir um índice eu e definir o período de índice eu ser o maior divisor comum de todos os números naturais m de tal modo que (UMA m )ii & gt 0. Quando UMA é irredutível, o período de cada índice é o mesmo e é chamado de período de UMA. Na verdade, quando UMA é irredutível, o período pode ser definido como o maior divisor comum dos comprimentos dos caminhos direcionados fechados em GUMA (ver Cozinhas [15] página 16). O período também é chamado de índice de imprimitividade (Meyer [12] página 674) ou ordem de ciclicidade. Se o período for 1, UMA é aperiódico. Pode-se provar que as matrizes primitivas são iguais às matrizes irredutíveis aperiódicas não negativas.

Todas as afirmações do teorema de Perron-Frobenius para matrizes positivas permanecem verdadeiras para matrizes primitivas. As mesmas afirmações também são válidas para uma matriz irredutível não negativa, exceto que ela pode possuir vários autovalores cujo valor absoluto é igual ao seu raio espectral, de modo que as afirmações precisam ser modificadas de maneira correspondente. Na verdade, o número de tais valores próprios é igual ao período.

Os resultados para matrizes não negativas foram obtidos pela primeira vez por Frobenius em 1912.

Teorema de Perron-Frobenius para matrizes irredutíveis não negativas Editar

Deixar UMA ser um não-negativo irredutível n × n matriz com ponto h e raio espectral ρ(UMA) = r. Então, as seguintes afirmações valem.

  1. O número r é um número real positivo e é um autovalor da matriz UMA, Chamou o Autovalor de Perron-Frobenius.
  2. O autovalor de Perron-Frobenius r é simples. Autoespaços direitos e esquerdos associados a r são unidimensionais.
  3. UMA tem um autovetor certo v com autovalor r cujos componentes são todos positivos.
  4. Da mesma forma, UMA tem um autovetor esquerdo C com autovalor r cujos componentes são todos positivos.
  5. Os únicos autovetores cujos componentes são todos positivos são aqueles associados ao autovalor r.
  6. O Matrix UMA tem exatamente h (Onde h é o período) autovalores complexos com valor absoluto r. Cada um deles é uma raiz simples do polinômio característico e é o produto de r com um ha raiz da unidade.
  7. Deixar ω = 2π /h. Então a matriz UMA é similar a eUMA, conseqüentemente, o espectro de UMA é invariante sob multiplicação por e (correspondendo à rotação do plano complexo pelo ângulo ω).
  8. Se h & gt 1 então existe uma matriz de permutação P de tal modo que

Outras propriedades Editar

Deixar UMA ser uma matriz irredutível não negativa, então:

  1. (I +UMA) n-1 é uma matriz positiva. (Meyer [12] reivindicação 8.3.5 p. 672).
  2. Teorema de Wielandt. [esclarecimento necessário] Se |B| & ltUMA, então ρ(B)≤ρ(UMA)Se a igualdade for mantida (ou seja, se μ = ρ (A) e iφ é autovalor para B), então B = eeuPAPAI -1 para alguma matriz diagonal unitária D (ou seja, elementos diagonais de D igual a eeueu , não diagonais são zero). [16]
  3. Se algum poder A q é redutível, então é completamente redutível, ou seja, para alguma matriz de permutação P, é verdade que: P A q P - 1 = (A 1 0 0… 0 0 A 2 0… 0 ⋮ ⋮ ⋮ ⋮ 0 0 0… A d) < displaystyle PA ^P ^ <-1> = < beginA_ <1> & amp0 & amp0 & amp dots & amp0 0 & ampA_ <2> & amp0 & amp dots & amp0 vdots & amp vdots & amp vdots & amp & amp vdots 0 & amp0 & amp0 & amp dots & ampA_fim>>, onde UMAeu são matrizes irredutíveis com o mesmo autovalor máximo. O número dessas matrizes d é o maior divisor comum de q e h, Onde h é o período de UMA. [17]
  4. Se c(x) = x n + ck1 x n-k1 + ck2 x n-k2 +. + cks x n-ks é o polinômio característico de UMA em que apenas os termos diferentes de zero são listados, então o período de UMA é igual ao maior divisor comum de k1, k2,. , ks. [18] médias: lim k → ∞ 1 / k ∑ i = 0,. . . , k A i / r i = (v w T), < displaystyle lim _1 / k sum _A ^/ r ^= (vw ^),> onde os autovetores esquerdo e direito para UMA são normalizados para que CTv = 1. Além disso, a matriz v w T é a projeção espectral correspondente a r, a projeção de Perron. [19]
  5. Deixar r seja o autovalor de Perron-Frobenius, então a matriz adjunta para (r-UMA) é positivo. [20]
  6. Se UMA tem pelo menos um elemento diagonal diferente de zero, então UMA é primitivo. [21]
  7. Se 0 ≤ UMA & lt B, então rUMArB. Além disso, se B é irredutível, então a desigualdade é estrita: rUMA & lt rB.

Uma matriz UMA é primitivo, desde que não seja negativo e Sou é positivo para alguns m, e, portanto A k é positivo para todos k ≥ m. Para verificar a primitividade, é necessário um limite sobre o tamanho do mínimo m pode ser, dependendo do tamanho de UMA: [22]

  • Se UMA é uma matriz primitiva não negativa de tamanho n, então UMAn 2 − 2n + 2 é positivo. Além disso, este é o melhor resultado possível, pois para a matriz M abaixo, o poder M k não é positivo para todos k & lt n 2 − 2n + 2, desde (Mn 2 − 2n+1 )11 = 0.

Numerosos livros foram escritos sobre o assunto de matrizes não negativas, e a teoria de Perron-Frobenius é invariavelmente uma característica central. Os exemplos a seguir fornecidos abaixo apenas arranham a superfície de seu vasto domínio de aplicativo.

Matrizes não negativas Editar

O teorema de Perron-Frobenius não se aplica diretamente a matrizes não negativas. No entanto, qualquer matriz quadrada redutível UMA pode ser escrito em forma de bloco triangular superior (conhecido como o forma normal de uma matriz redutível) [23]

Onde P é uma matriz de permutação e cada Beu é uma matriz quadrada irredutível ou zero. Agora se UMA é não negativo, então também é cada bloco de PAP -1, além do espectro de UMA é apenas a união dos espectros do Beu.

A invertibilidade de UMA também pode ser estudado. O inverso de PAP -1 (se existir) deve ter blocos diagonais da forma Beu -1 então se houver Beu não é invertível, então nem é PAP -1 ou UMA. Por outro lado, deixe D ser a matriz bloco-diagonal correspondente a PAP -1, em outras palavras PAP -1 com os asteriscos zerados. Se cada Beu é invertível, então é D e D −1 (PAP -1) é igual à identidade mais uma matriz nilpotente. Mas essa matriz é sempre invertível (se N k = 0 o inverso de 1 - N é 1 + N + N 2 + . + N k-1) então PAP -1 e UMA são ambos invertíveis.

Portanto, muitas das propriedades espectrais de UMA pode ser deduzido aplicando o teorema ao irredutível Beu. Por exemplo, a raiz de Perron é o máximo de ρ (Beu) Embora ainda existam autovetores com componentes não negativos, é bem possível que nenhum deles seja positivo.

Edição de matrizes estocásticas

Uma matriz estocástica de linha (coluna) é uma matriz quadrada em que cada uma das linhas (colunas) consiste em números reais não negativos cuja soma é a unidade. O teorema não pode ser aplicado diretamente a tais matrizes porque elas não precisam ser irredutíveis.

Se UMA é estocástico de linha, então o vetor coluna com cada entrada 1 é um autovetor correspondente ao autovalor 1, que também é ρ (UMA) pela observação acima. Pode não ser o único valor próprio no círculo unitário: e o espaço próprio associado pode ser multidimensional. Se UMA é estocástico de linha e irredutível, então a projeção de Perron também é estocástica de linha e todas as suas linhas são iguais.

Teoria de grafos algébricos Editar

O teorema tem uso particular na teoria algébrica de grafos. O "gráfico subjacente" de um não negativo n-matriz quadrada é o gráfico com vértices numerados 1,. n e arco eu j se e apenas se UMAeu j ≠ 0. Se o gráfico subjacente de tal matriz estiver fortemente conectado, então a matriz é irredutível e, portanto, o teorema se aplica. Em particular, a matriz de adjacência de um grafo fortemente conectado é irredutível. [24] [25]

Cadeias de Markov finitas Editar

O teorema tem uma interpretação natural na teoria das cadeias de Markov finitas (onde é o equivalente teórico-matricial da convergência de uma cadeia de Markov finita irredutível à sua distribuição estacionária, formulada em termos da matriz de transição da cadeia ver, por exemplo , o artigo sobre o subshift do tipo finito).

Operadores compactos Editar

De maneira mais geral, pode ser estendido ao caso de operadores compactos não negativos, que, de muitas maneiras, se assemelham a matrizes de dimensão finita. Estes são comumente estudados em física, sob o nome de operadores de transferência, ou às vezes Operadores Ruelle – Perron – Frobenius (depois de David Ruelle). Nesse caso, o autovalor principal corresponde ao equilíbrio termodinâmico de um sistema dinâmico, e os autovalores menores aos modos de decaimento de um sistema que não está em equilíbrio. Assim, a teoria oferece uma maneira de descobrir a flecha do tempo no que, de outra forma, pareceria processos dinâmicos determinísticos reversíveis, quando examinados do ponto de vista da topologia de conjuntos de pontos. [26]

Um traço comum em muitas provas é o teorema do ponto fixo de Brouwer. Outro método popular é o de Wielandt (1950). Ele usou a fórmula de Collatz-Wielandt descrita acima para estender e esclarecer o trabalho de Frobenius. [27] Outra prova é baseada na teoria espectral [28] da qual parte dos argumentos são emprestados.

A raiz de Perron é um autovalor estritamente máximo para matrizes positivas (e primitivas). Editar

Se UMA é uma matriz positiva (ou mais geralmente primitiva), então existe um autovalor positivo real r (Autovalor de Perron-Frobenius ou raiz de Perron), que é estritamente maior em valor absoluto do que todos os outros autovalores, portanto r é o raio espectral de UMA.

Esta afirmação não se aplica a matrizes irredutíveis não negativas gerais, que têm h autovalores com o mesmo autovalor absoluto que r, Onde h é o período de UMA.

Prova para matrizes positivas Editar

Deixar UMA seja uma matriz positiva, suponha que seu raio espectral ρ (UMA) = 1 (caso contrário, considere A / ρ (A)) Portanto, existe um autovalor λ no círculo unitário, e todos os outros autovalores são menores ou iguais a 1 em valor absoluto. Suponha que outro autovalor λ ≠ 1 também caia no círculo unitário. Então existe um número inteiro positivo m de tal modo que Sou é uma matriz positiva e a parte real de λ m é negativo. Seja ε a metade da menor entrada diagonal de Sou E definir T = SouεI que é mais uma matriz positiva. Além disso, se Machado = λx então A m x = λ m x portanto λ mε é um autovalor de T. Por causa da escolha de m este ponto está fora do disco da unidade, conseqüentemente ρ(T) & gt 1. Por outro lado, todas as entradas em T são positivos e menores ou iguais àqueles em Sou então pela fórmula de Gelfand ρ(T) ≤ ρ(Sou ) ≤ ρ(UMA) m = 1. Essa contradição significa que λ = 1 e não pode haver outros autovalores no círculo unitário.

Absolutamente os mesmos argumentos podem ser aplicados ao caso de matrizes primitivas, só precisamos mencionar o seguinte lema simples, que esclarece as propriedades das matrizes primitivas.

Lema Editar

Dado um não negativo UMA, suponha que exista m, de tal modo que Sou é positivo então UMA m+1 , UMA m+2 , UMA m+3. são todos positivos.

UMA m+1 = AA m , então ele pode ter zero elemento apenas se alguma linha de UMA é inteiramente zero, mas, neste caso, a mesma linha de Sou será zero.

Aplicando os mesmos argumentos acima para matrizes primitivas, prove a afirmação principal.

Método de potência e o eigenpair positivo Edit

Para uma matriz positiva (ou mais geralmente irredutível não negativa) UMA o autovetor dominante é real e estritamente positivo (para não negativo UMA respectivamente não negativo.)

Isso pode ser estabelecido usando o método de potência, que afirma que para uma matriz suficientemente genérica (no sentido abaixo) UMA a sequência de vetores bk+1 = Abk / | Abk | converge para o autovetor com o autovalor máximo. (O vetor inicial b0 pode ser escolhido arbitrariamente, exceto para algum conjunto de medida zero). Começando com um vetor não negativo b0 produz a sequência de vetores não negativos bk. Portanto, o vetor de limitação também não é negativo. Pelo método de potência, este vetor limitante é o autovetor dominante para UMA, comprovando a afirmação. O autovalor correspondente não é negativo.

A prova requer dois argumentos adicionais. Em primeiro lugar, o método de potência converge para matrizes que não possuem vários autovalores do mesmo valor absoluto que o máximo. O argumento da seção anterior garante isso.

Em segundo lugar, para garantir a positividade estrita de todos os componentes do autovetor para o caso de matrizes irredutíveis. Isso decorre do seguinte fato, que é de interesse independente:

Lema: dada uma matriz positiva (ou mais geralmente irredutível não negativa) UMA e v como qualquer autovetor não negativo para UMA, então é necessariamente estritamente positivo e o autovalor correspondente também é estritamente positivo.

Prova. Uma das definições de irredutibilidade para matrizes não negativas é que para todos os índices eu j existe m, de tal modo que (UMA m )eu j é estritamente positivo. Dado um autovetor não negativo v, e que pelo menos um de seus componentes diga j-th é estritamente positivo, o autovalor correspondente é estritamente positivo, de fato, dado n de tal modo que (UMA n )ii & gt0, portanto: r n veu = UMA n veu ≥ (UMA n )iiveu & gt0. Por isso r é estritamente positivo. O vetor próprio é positividade estrita. Então dado m, de tal modo que (UMA m )eu j & gt0, portanto: r m vj = (UMA m v)j ≥ (UMA m )eu jveu & gt0, portanto vj é estritamente positivo, ou seja, o vetor próprio é estritamente positivo.

Multiplicidade um Editar

Esta seção prova que o autovalor de Perron – Frobenius é uma raiz simples do polinômio característico da matriz. Daí o eigenspace associado ao autovalor de Perron-Frobenius r é unidimensional. Os argumentos aqui são próximos aos de Meyer. [12]

Dado um autovetor estritamente positivo v correspondendo a r e outro autovetor C com o mesmo autovalor. (Os vetores v e C pode ser escolhido para ser real, porque UMA e r são reais, então o espaço nulo de A-r tem uma base que consiste em vetores reais.) Assumindo pelo menos um dos componentes de C é positivo (caso contrário, multiplique C por -1). Dado o máximo possível α de tal modo que u = v- α w não é negativo, então um dos componentes de você é zero, caso contrário α não é máximo. Vetor você é um autovetor. É não negativo, portanto, pelo lema descrito na seção anterior, a não negatividade implica positividade estrita para qualquer autovetor. Por outro lado, como acima, pelo menos um componente de você é zero. A contradição implica que C não existe.

Caso: Não há células de Jordan correspondentes ao autovalor de Perron-Frobenius r e todos os outros valores próprios que têm o mesmo valor absoluto.

Se houver uma célula de Jordan, então a norma do infinito (A / r) k tende ao infinito para k → ∞ , mas isso contradiz a existência do autovetor positivo.

Dado r = 1 ou A / r. De locação v ser um autovetor estritamente positivo de Perron-Frobenius, então Av = v, então:

| A ^ | _ < infty> leq | v | / min _(v_)> Então A k é limitado para todos k. Isso dá outra prova de que não há autovalores com valor absoluto maior do que um de Perron-Frobenius. Também contradiz a existência da célula de Jordan para qualquer autovalor que tenha valor absoluto igual a 1 (em particular para a célula de Perron-Frobenius), porque a existência da célula de Jordan implica que A k é ilimitado. Para uma matriz dois por dois:

por isso J k = |k + λ| (para |λ| = 1), então tende ao infinito quando k faz isso. Desde J k = C −1 UMA k C, então UMA kJ k / (C −1 C ), portanto, também tende ao infinito. A contradição resultante implica que não há células de Jordan para os autovalores correspondentes.

Combinar as duas reivindicações acima revela que o autovalor de Perron-Frobenius r é a raiz simples do polinômio característico. No caso de matrizes não primitivas, existem outros valores próprios que têm o mesmo valor absoluto que r. A mesma afirmação é verdadeira para eles, mas requer mais trabalho.

Nenhum outro autovetor não negativo Editar

Dado positivo (ou mais geralmente matriz não negativa irredutível) UMA, o autovetor de Perron-Frobenius é o único (até a multiplicação por constante) autovetor não negativo para UMA.

Outros autovetores devem conter componentes negativos ou complexos, uma vez que autovetores para diferentes autovalores são ortogonais em algum sentido, mas dois autovetores positivos não podem ser ortogonais, então eles devem corresponder ao mesmo autovalor, mas o autovalor para o Perron – Frobenius é unidimensional.

Supondo que exista um eigenpair (λ, y) para UMA, de modo que o vetor y é positivo, e dado (r, x), Onde x - é o autovetor esquerdo de Perron-Frobenius para UMA (ou seja, vetor próprio para NO ), então rx T y = (x T UMA) y = x T (Sim) = λx T y, tb x T y & gt 0, então um tem: r = λ. Uma vez que o autoespaço para o autovalor de Perron-Frobenius r é autovetor unidimensional não negativo y é um múltiplo do de Perron-Frobenius. [29]

Fórmula de Collatz-Wielandt Editar

Dada uma matriz positiva (ou mais geralmente irredutível não negativa) UMA, define-se a função f no conjunto de todos os vetores não negativos diferentes de zero x de tal modo que f (x) é o valor mínimo de [Machado]eu / xeu assumiu todos aqueles eu de tal modo que xeu ≠ 0. Então f é uma função de valor real, cujo máximo é o autovalor de Perron-Frobenius r.

Para a prova denotamos o máximo de f pelo valor R. A prova requer mostrar R = r. Inserindo o autovetor de Perron-Frobenius v para dentro f, nós obtemos f (v) = r e concluir r ≤ R. Para a desigualdade oposta, consideramos um vetor arbitrário não negativo x e deixar ξ = f (x). A definição de f0 ≤ ξx ≤ Ax (componente). Agora, usamos o autovetor direito positivo C para UMA para o autovalor de Perron-Frobenius r, então ξ w T x = w T ξx ≤ w T (Ax) = (w T A) x = r w T x . Por isso f (x) = ξ ≤ r, que implica R ≤ r. [30]

Projeção de Perron como limite: UMA k /r k Editar

Deixar UMA seja uma matriz positiva (ou mais geralmente, primitiva) e deixe r seja seu autovalor de Perron – Frobenius.

  1. Existe um limite A k / r k para k → ∞, denote-o por P.
  2. P é um operador de projeção: P 2 = P, que comuta com UMA: AP = PA.
  3. A imagem de P é unidimensional e medido pelo autovetor de Perron-Frobenius v (respectivamente para P T - pelo autovetor de Perron-Frobenius C para NO ).
  4. P = vwT , Onde v, w são normalizados de forma que CTv = 1.
  5. Por isso P é um operador positivo.

Por isso P é uma projeção espectral para o autovalor de Perron-Frobenius r, e é chamada de projeção de Perron. A afirmação acima não é verdadeira para matrizes irredutíveis não negativas gerais.

Na verdade, as reivindicações acima (exceto a reivindicação 5) são válidas para qualquer matriz M de modo que exista um autovalor r que é estritamente maior do que os outros autovalores em valor absoluto e é a raiz simples do polinômio característico. (Esses requisitos são válidos para matrizes primitivas como acima).

Dado que M é diagonalizável, M é conjugado a uma matriz diagonal com autovalores r1, . , rn na diagonal (denotar r1 = r) O Matrix M k /r k será conjugado (1, (r2/r) k , . , (rn/r) k ), que tende a (1,0,0,0), para k → ∞, então o limite existe. O mesmo método funciona para geral M (sem assumir que M é diagonalizável).

As propriedades de projeção e comutatividade são corolários elementares da definição: MILÍMETROS k /r k = M k /r k M P 2 = lim M 2k /r 2k = P. O terceiro fato também é elementar: M(Pu) = M lim M k /r k você = lim rM k+1 /r k+1 você, então, tomando o limite de rendimentos M (Pu) = r(Pu), então imagem de P encontra-se no r-eigenspace para M, que é unidimensional pelas suposições.

Denotando por v, r-vetor de vetor para M (de C para M T ) Colunas de P são múltiplos de v, porque a imagem de P é abrangido por ele. Respectivamente, filas de C. Então P assume uma forma (a v w T), para alguns uma. Portanto, seu traço é igual a (a w T v). O traço do projetor é igual à dimensão de sua imagem. Foi provado antes que não é mais do que unidimensional. Pela definição, pode-se ver que P age de forma idêntica na r-vetor de vetor para M. Portanto, é unidimensional. Então, escolhendo (C T v) = 1, implica P = vw T .

Desigualdades para autovalor de Perron-Frobenius Editar

Para qualquer matriz não negativa UMA seu autovalor de Perron-Frobenius r satisfaz a desigualdade:

Este fato é específico para matrizes não negativas para matrizes gerais não há nada semelhante. Dado que UMA é positivo (não apenas não negativo), então existe um autovetor positivo C de tal modo que Ah = rw e o menor componente de C (dizer Ceu) é 1. Então r = (Ah)eu ≥ a soma dos números na linha eu do UMA. Assim, a soma mínima da linha dá um limite inferior para r e esta observação pode ser estendida a todas as matrizes não negativas por continuidade.

Outra forma de argumentar é por meio da fórmula de Collatz-Wielandt. Um pega o vetor x = (1, 1,. 1) e obtém imediatamente a desigualdade.

Outras provas Editar

Edição de projeção Perron

A prova agora prossegue usando decomposição espectral. O truque aqui é separar a raiz de Perron dos outros autovalores. A projeção espectral associada à raiz de Perron é chamada de projeção de Perron e possui a seguinte propriedade:

A projeção de Perron de uma matriz quadrada não negativa irredutível é uma matriz positiva.

As descobertas de Perron e também (1) - (5) do teorema são corolários deste resultado. O ponto chave é que uma projeção positiva sempre tem classificação um. Isso significa que se UMA é uma matriz quadrada não negativa irredutível, então as multiplicidades algébrica e geométrica de sua raiz de Perron são uma. Também se P é a sua projeção Perron então AP = PA = ρ (UMA)P então cada coluna de P é um autovetor direito positivo de UMA e cada linha é um autovetor esquerdo positivo. Além disso, se Machado = λx então PAx = λPx = ρ (UMA)Px que significa Px = 0 se λ ≠ ρ (UMA) Assim, os únicos autovetores positivos são aqueles associados a ρ (UMA) Se UMA é uma matriz primitiva com ρ (UMA) = 1, então ele pode ser decomposto como P ⊕ (1 − P)UMA de modo a Um = P + (1 − P)UMA n . Como n aumenta o segundo desses termos decai para zero deixando P como o limite de Um Como n → ∞.

O método de potência é uma maneira conveniente de calcular a projeção de Perron de uma matriz primitiva. Se v e C são os vetores positivos de linha e coluna que ele gera, então a projeção de Perron é apenas wv/vw. As projeções espectrais não estão perfeitamente bloqueadas como na forma de Jordan. Aqui, eles são sobrepostos e cada um geralmente tem entradas complexas que se estendem a todos os quatro cantos da matriz quadrada. No entanto, eles mantêm sua ortogonalidade mútua que é o que facilita a decomposição.

Edição de projeção periférica

A análise quando UMA é irredutível e não negativo é amplamente semelhante. A projeção de Perron ainda é positiva, mas agora pode haver outros valores próprios de módulo ρ (UMA) que negam o uso do método de poder e evitam os poderes de (1 - P)UMA decaindo como no caso primitivo sempre que ρ (UMA) = 1. Portanto, consideramos o projeção periférica, que é a projeção espectral de UMA correspondendo a todos os valores próprios que têm módulo ρ(UMA) Pode então ser mostrado que a projeção periférica de uma matriz quadrada irredutível não negativa é uma matriz não negativa com uma diagonal positiva.

Edição de ciclicidade

Suponha, além disso, que ρ (UMA) = 1 e UMA tem h autovalores no círculo unitário. Se P é a projeção periférica, então a matriz R = AP = PA é não negativo e irredutível, R h = P, e o grupo cíclico P, R, R 2 , . R h-1 representa os harmônicos de UMA. A projeção espectral de UMA no autovalor λ no círculo unitário é dado pela fórmula h - 1 ∑ 1 h λ - k R k < displaystyle scriptstyle h ^ <-1> sum _ <1> ^ lambda ^ <-k> R ^>. Todas essas projeções (incluindo a projeção de Perron) têm a mesma diagonal positiva, além disso, escolher qualquer uma delas e, em seguida, tomar o módulo de cada entrada invariavelmente resulta na projeção de Perron. Ainda é necessário algum trabalho de burro para estabelecer as propriedades cíclicas (6) - (8), mas é essencialmente apenas uma questão de girar a manivela. A decomposição espectral de UMA É dado por UMA = R ⊕ (1 − P)UMA então a diferença entre Um e R n é UmR n = (1 − P)UMA n representando os transientes de Um que eventualmente decai a zero. P pode ser calculado como o limite de A nh Como n → ∞.

Um problema que causa confusão é a falta de padronização nas definições. Por exemplo, alguns autores usam os termos estritamente positivo e positivo para significar & gt 0 e ≥ 0 respectivamente. Neste artigo positivo significa & gt 0 e não negativo significa ≥ 0. Outra área problemática diz respeito decomposição e redutibilidade: irredutível é um termo sobrecarregado. Para evitar dúvidas, uma matriz quadrada diferente de zero não negativa UMA de modo que 1 + UMA é primitivo, às vezes é dito que é conectado. Então, matrizes quadradas não negativas irredutíveis e matrizes conectadas são sinônimos. [31]

O autovetor não negativo é frequentemente normalizado para que a soma de seus componentes seja igual à unidade, neste caso, o autovetor é o vetor de uma distribuição de probabilidade e às vezes é chamado de autovetor estocástico.

Autovalor de Perron-Frobenius e autovalor dominante são nomes alternativos para a raiz de Perron. As projeções espectrais também são conhecidas como projetores espectrais e idempotentes espectrais. O período às vezes é chamado de índice de imprimibilidade ou o ordem de ciclicidade.


3.6: O Método de Frobenius II - Matemática

Hoje, 30 de novembro, é o AMS Day! Junte-se à nossa celebração dos membros da AMS e explore as ofertas especiais de publicações, associação e muito mais da AMS. As ofertas terminam às 23:59 EST.

ISSN 1088-6842 (online) ISSN 0025-5718 (imprimir)

Logaritmos individuais discretos mais rápidos em campos finitos de grau de extensão composto


Autor: Aurore Guillevic
Jornal: Math. Comp. 88 (2019), 1273-1301
MSC (2010): Primário 11T71
DOI: https://doi.org/10.1090/mcom/3376
Publicado eletronicamente: 6 de setembro de 2018
Revisão da MathSciNet: 3904147
PDF de texto completo
Ver no AMS MathViewer

Resumo: A computação de logaritmos discretos em campos finitos é uma das principais preocupações em criptografia. Os melhores algoritmos em campos de características grandes e médias (por exemplo, $ rm (p ^ 2) $, $ rm (p ^ <12>) $) são a peneira de campo numérica e suas variantes (especial, alto grau, torre). Os melhores algoritmos em pequenos campos finitos característicos (por exemplo, $ rm (3 ^ <6 cdot 509>) $) são o filtro de campo de função, o algoritmo de Joux e o algoritmo de tempo quase-lipinomial. A última etapa desta família de algoritmos é o cálculo do logaritmo individual. Ele calcula uma decomposição suave de um determinado alvo em duas fases: uma divisão inicial e, em seguida, uma árvore descendente. Embora novas melhorias tenham sido feitas para reduzir a complexidade da coleção de relações dominantes e etapas de álgebra linear, resultando em uma base de fator menor (banco de dados de logaritmos conhecidos de pequenos elementos), a última etapa permanece com o mesmo nível de dificuldade. Na verdade, temos que encontrar uma decomposição suave de um elemento tipicamente grande no corpo finito. Este trabalho melhora a fase de divisão inicial e se aplica a qualquer campo finito não principal. É muito eficiente quando o grau de extensão é composto. Ele explora os subcampos adequados, resultando em uma decomposição muito mais suave do alvo. Isso leva a uma nova compensação entre a etapa de divisão inicial e a etapa de descida em características pequenas. Além disso, reduz a largura e a altura da árvore de descida subsequente.

  • G. Adj, Logaritmos discretos no campo criptograficamente interessante GF $ (3 ^ <6 * 509>) $, Elliptic Curve Cryptography Conference (ECC), palestra convidada, setembro de 2016, slides disponíveis em http://ecc2016.yasar.edu.tr/slides/ecc2016-gora.pdf.
  • G. Adj, Logaritmo discreto en campos finitos de característica pequeña: atacando la criptogrfía basada en emparejamientos de tipo 1, Tese de doutorado, Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, México, julho de 2016, http://delta.cs.cinvestav.mx/
    Referências
  • G. Adj, Logaritmos discretos no campo criptograficamente interessante GF $ (3 ^ <6 * 509>) $, Elliptic Curve Cryptography Conference (ECC), palestra convidada, setembro de 2016, slides disponíveis em http://ecc2016.yasar.edu.tr/slides/ecc2016-gora.pdf.
  • G. Adj, Logaritmo discreto en campos finitos de característica pequeña: atacando la criptogrfía basada en emparejamientos de tipo 1, Tese de doutorado, Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, México, julho de 2016, http://delta.cs.cinvestav.mx/

Recuperar artigos em Matemática da Computação com MSC (2010): 11T71

Recuperar artigos em todas as revistas com MSC (2010): 11T71

Aurore Guillevic
Afiliação: Inria Nancy – Grand Est, Équipe Caramba, 615 rue du jardin botanique, CS 20101, 54603 Villers-lès-Nancy Cedex, França
ID do autor MR: 963265
Email: [email protected]

Palavras-chave: campo finito, logaritmo discreto, peneira de campo numérico, peneira de campo de função, logaritmo individual.
Recebido pelo (s) editor (es): 26 de julho de 2017
Recebido pelo (s) editor (es) na forma revisada: 26 de fevereiro de 2018
Publicado eletronicamente: 6 de setembro de 2018
Copyright do artigo: & copiar Copyright 2018 American Mathematical Society


3.6: O Método de Frobenius II - Matemática

No outono, vamos nos concentrar principalmente na compreensão de exemplos e cálculos importantes, bem como nas provas de teoremas sérios relativos à teoria do feixe etale, com o objetivo de examinar grande parte do Capítulo 1 do livro de Freitag e Kiehl. Isso nos levará através dos importantes teoremas de mudança de base suave e adequada, bem como o formalismo básico de eucohomologia -adic. No inverno, vamos nos aprofundar na teoria da cohomologia (especialmente para teoremas de dualidade e fórmulas de Kunneth), e então passar para a técnica de Laumon de eu-adic Fourier transforma na configuração do feixe.

Aqui estão algumas referências relevantes para o seminário deste ano (em ordem aproximada de apresentação):

Algumas notas que Conrad escreveu há muito tempo que seguiremos como o modelo para o outono e inverno (complementado por outras referências para detalhes omitidos aqui indicados), este é um arquivo .pdf editado, explicando alguns espaços em branco ocasionais (irrelevantes) no meio de texto
[FK] "Etale Cohomology and the Weil Conjectures" por Freitag e Kiehl
[Mi] "Etale Cohomology" por Milne
[KW] "Conjecturas de Weil, polias perversas e eu-adic Fourer transform "por Kiehl e Weissauer
[M1] "Dualidade etale analítica" (pré-impressão) e [M2] "q-cohomologias cristalinas "(em preparação) por Masullo


A matemática de Frobenius em contexto: uma jornada pela matemática dos séculos 18 a 20

O Comitê da Lista da Biblioteca Básica recomenda fortemente este livro para aquisição por bibliotecas de matemática de graduação.

Ferdinand Georg Frobenius nasceu em 1849 e passou o início de sua carreira na Universidade de Berlim. De 1874 a 1892 trabalhou em Zurique na instituição hoje conhecida como ETH. Em 1892 voltou para a Universidade de Berlim, onde trabalhou até à sua morte em 1917. Fez contribuições fundamentais para muitas áreas da matemática, sendo mais famoso por ter fundado a teoria das representações de grupos finitos.

Em 1968, as obras coletadas de Frobenius & rsquo saíram em um conjunto de três volumes, editado por Jean-Pierre Serre. Serre escreve em seu prefácio de uma página,

Hawkins passou mais de quarenta anos nesta difícil tarefa. O presente trabalho tece seus artigos publicados anteriormente e muito mais em uma descrição de toda a carreira de Frobenius & rsquo. Como o título sugere, aproximadamente a mesma atenção é gasta em fornecer contexto. Assim, além de descrever o trabalho de Frobenius & rsquo, Hawkins o relaciona regularmente com o trabalho de outros matemáticos, anteriores, contemporâneos e posteriores.

O texto está dividido em três partes. Os capítulos 1 e 2 resumem a vida e a matemática de Frobenius & rsquo. Os capítulos 3 e ndash5 prepararam o terreno ao discutir algumas matemáticas pré-Frobenius Berlin. Os capítulos 6 & ndash18, claramente o núcleo do livro com quinhentas páginas, enfocam as realizações matemáticas de Frobenius & rsquo em ordem aproximadamente cronológica.

Eu recomendo o livro Hawkins & rsquo. É muito matemático do começo ao fim. Mas, em termos de estrutura, parece algo como um grande romance. Há um protagonista central, mas também muitos outros personagens nitidamente desenhados de grande interesse. Existem muitas histórias individuais atraentes e todas elas se integram em um todo satisfatório.

Para ajudar outros a se engajar no livro, I & rsquoll fornece versões introdutórias de três das histórias, representando a atenção que Hawkins dá à história geral, teórica dos números e teórica do grupo. Os dois últimos fornecem a & ldquobackstory & rdquo por três artigos consecutivos, todos publicados em 1896. Estes são os artigos 52, 53 e 54 dos 102 artigos matemáticos nas obras coletadas de Frobenius & rsquo. Muitos outros artigos de diferentes áreas também recebem atenção cuidadosa na descrição completa de Hawkins & rsquo da matemática de Frobenius e seu contexto.

A sociologia da matemática alemã no século 19 e no início do século 20 é intrigante, especialmente a extrema escassez do que Hawkins chama de cátedras. Por exemplo, em 1890, Berlim tinha três dessas posições e seu principal rival, G & oumlttingen, duas. Esse ambiente produziu muitos exemplos historicamente importantes e um tanto dramáticos de um famoso matemático sendo sucedido por outro. Hawkins relata os seguintes eventos com muito mais detalhes nas páginas 53 & ndash54 e 64 & ndash70.

Os três professores catedráticos em 1890 em Berlim eram Fuchs, Kronecker e Weierstrass, com os dois últimos já não se dando bem. Weierstrass, então com 75 anos, queria renunciar ao cargo, mas permaneceu porque não queria que Kronecker tivesse um papel de liderança na escolha de seu sucessor. Mas no ano seguinte Kronecker morreu repentinamente, e Weierstrass foi a principal força na escolha dos dois novos professores titulares, Schwarz e Frobenius.

Fuchs morreu em 1902. O comitê, incluindo Schwarz e Frobenius, tinha Hilbert, então um dos dois professores catedráticos em G & oumlttingen, como sua primeira escolha para seu sucessor. Frobenius argumentou vigorosamente que Schottky era um segundo lugar próximo. Depois de muitas idas e vindas, G & oumlttingen recebeu um terceiro cargo de professor titular preenchido por Minkowski, Hilbert ficou lá e Schottky tornou-se o novo professor titular em Berlim. O incidente todo manchou a reputação de Frobenius & rsquo com as autoridades contratantes: Hawkins chama Frobenius & rsquo de argumentos para Schottky & ldquospecious & rdquo, & ldquoexaggerated & rdquo e & ldquomisleading & rdquo.

Schwarz renunciou em 1916. Desta vez, a primeira escolha do comitê, Schmidt, foi escolhida como sucessora. Mais uma vez, Frobenius elogiou muito a segunda escolha, Schur, mas sua palavra teve pouco peso. Depois que Frobenius morreu, Schur novamente ficou em segundo lugar, desta vez para Carath e eacuteodory. Carath & eacuteodory logo depois partiu para sua terra natal ancestral, a Grécia, e Schur foi preterido mais uma vez, agora em favor de von Mises. Finalmente, em 1921 Schottky morreu e Schur, matematicamente o sucessor natural de Frobenius, foi finalmente nomeado professor catedrático.

Muitos outros matemáticos de primeira linha desempenham papéis importantes no livro de Hawkins. O mais proeminente entre eles é Dedekind, 18 anos, Frobenius & rsquo sênior. Como Frobenius, Dedekind passou parte de sua carreira em Berlim e Zurique. Mas então ele passou a maior parte de sua carreira em Brunswick, longe dos principais centros, nem mesmo supervisionando um aluno de doutorado. A correspondência com Dedekind desempenha um papel central na gênese dos três artigos a serem discutidos a seguir. Hawkins cita essa correspondência extensivamente, deixando claro que os dois matemáticos tinham uma forte amizade baseada em profundo respeito mútuo.

Alguma história teórica dos números

Frobenius teve um papel central na história inicial do que agora é chamado de teorema da densidade de Chebotarev. O documento-chave de Frobenius & rsquo, número 52 em suas obras completas, é & Uumlber Beziehungen zwischen den Primidealen eines algebraischen K & oumlrpers und den Substitutionen seiner Gruppe ou Sobre as relações entre os ideais principais de um campo algébrico e as substituições em seu grupo.

Hawkins descreve a história muito complicada deste artigo nas páginas 318 e ndash335.Há um atraso misterioso de 15 anos na publicação e uma conjectura incorreta sobre uma questão lateral relativamente sem importância que chegou ao artigo final. Hawkins argumenta que o atraso foi em parte causado pela conjectura.

Frobenius destaca o atraso na primeira página de seu artigo de 1896, escrevendo

No livro de Hawkins & rsquo, aprendemos muito mais. Frobenius escreveu a Dedekind várias vezes, dizendo que submeteu o trabalho ao jornal Crelle & rsquos em 1881 e que o processo de revisão estava demorando muito. Mais tarde, Frobenius escreveu novamente a Dedekind dizendo que finalmente havia sido aceito. Mas, na verdade, o papel não apareceu. Hawkins especula que Frobenius retirou seu artigo para melhorá-lo.

Ao descrever a história com mais detalhes, usarei a numeração do artigo de Frobenius & rsquo. Para o benefício dos leitores que desejam seguir um tratamento longo e cuidadoso com Hawkins & rsquo, também forneço a numeração de Hawkins & rsquo.

eu Teorema 9.14 Equidistribuição de partições de fator para polinômios
II Teorema 9.16 Equidistribuição de partições de fator para campos
& sect3 Conjectura 9.17 Conjectura inversa
& sect4 Teorema 9.18 Construção de elementos Frobenius
4 Teorema 9.20 Equidistribuição das divisões Frobenius em grupos Galois
V Conjectura 9.21 Equidistribuição de classes de conjugação de Frobenius em grupos de Galois

As afirmações de equidistribuição I, II, IV e V são afirmações semelhantes de profundidade crescente. Vou apresentá-los aqui com a noção técnica de densidade de Dirichlet substituída por um equivalente intuitivo aproximado, frequência. O material das Seções 3 e 4 do artigo de Frobenius & rsquo desempenha um papel central, mas não é numerado ali.

O Teorema I de Frobenius & rsquo diz respeito a polinômios e converte uma igualdade analítica fundamental publicada em 1880 por Kronecker em uma afirmação teórica de grupo que oferece percepções complementares. Suponha que dado um polinômio mônico irredutível ( Phi (x) ) com coeficientes inteiros. Em seguida, pode-se fatorá-lo em módulos primos irredutíveis. Tomando ( Phi (x) = x ^ 6-6 x ^ 4 + 6 x ^ 2-6 x + 2 in mathbb[x] ) como um exemplo de execução, seu módulo de fatoração, os primeiros seis primos são como na segunda coluna:

Usando a linguagem moderna, diga que um primo é ruim se um fator for repetido e, de outra forma, bom. Sempre há finitamente muitos primos ruins e no exemplo os únicos primos ruins são 2, 3 e 5. O importante a ser extraído de um primo é sua partição fatorial associada, obtida listando os graus dos fatores irredutíveis.

Para apresentar o Teorema I de Frobenius, é preciso apresentar os grupos de Galois. O dado polinômio ( Phi (x) ) tem um grupo de Galois (G ), que é um grupo de permutações das raízes do complexo polinomial & rsquos. No exemplo, as raízes complexas podem ser rotuladas (r_ <12> ), (r_ <13> ), (r_ <14> ), (r_ <23> ), (r_ < 24> ), e (r_ <34> ) de tal forma que (G ) seja identificado com o grupo simétrico (S_4 ). Assim, por exemplo, a transposição ((1,2) ) em (S_4 ) atua como a permutação ((r_ <13>, r_ <23>) (r_ <14>, r_ <24>) ).

O Teorema I de Frobenius então diz que uma dada partição surge como partição fatorial para números primos com a mesma frequência que surge como partição de ciclo para elementos do grupo de Galois. No exemplo, as frequências são as seguintes:

Assim, lendo a segunda linha como um exemplo, 9 dos 24 elementos do grupo têm partição de ciclo ([2,2,1,1] ), os três primeiros primos tendo partição de fator ([2,2,1,1 ] ) são (17 ), (31 ) e (43 ), e ao todo (9030 ) dos primeiros (24000 ) primos têm partição de fator ([2,2,1 , 1] ). A concordância entre as colunas & ldquo # of (g ) & rdquo e & ldquo # of (p ) & rdquo é inconfundível. Embora Frobenius e seus contemporâneos nunca tenham visto os dados como na última coluna, agora podemos produzi-los facilmente em menos de dez segundos.

Para afirmar o Teorema II de Frobenius, é preciso traduzir para a linguagem dos ideais primários, uma nova teoria na época de Frobenius, devida a Dedekind. Seja (R ) o anel de inteiros no campo numérico ( mathbb[x] / f (x) ). Então um ideal primo ((p) ) em ( mathbb) fatores em potências de ideais primos distintos em (R ), como ilustrado pela última coluna na tabela (1). Números em subscrito indicam o grau de um ideal primo, como em (| R / P_f | = p ^ f ). Ao listar os graus de ideais primos, obtém-se novamente uma partição do grau de ( Phi (x) ). Em um bom primo, a nova partição teórica ideal é a mesma que a velha partição teórica polinomial. Em um primo ruim, pode ser diferente, embora para todos os três primos ruins no exemplo seja o mesmo. O Teorema II de Frobenius agora apenas repete o Teorema I, exceto que ele se refere a partições teóricas ideais.

Frobenius aponta na Seção 3 que se uma partição ([f_1. F_e] ) não vem de um elemento de grupo, então o Teorema II diz que ela só pode vir de um conjunto de primos de densidade zero. Mas um conjunto de densidade zero não é necessariamente vazio. Nas palavras de Frobenius & rsquo,

Frobenius conjectura em itálico que tais primos não existem. Ele então prova no restante da Seção 3 que a conjectura é verdadeira para bons primos.

É surpreendente que Frobenius não tenha simplesmente ignorado os primos ruins e declarado seu resultado sobre os primos bons como um teorema. Afinal, os primos ruins, por serem finitos em número, não têm nenhum papel nas declarações de equidistribuição do jornal. Em retrospecto, agora sabemos que a conjectura para números primos ruins é de fato falsa, como ilustrado por [2,2,2] surgindo do número 5 nas tabelas (1) e (2) acima.

Também surpreendente é que a conjectura incorreta de Frobenius & rsquo não foi corrigida por mais de 100 anos. O primeiro contra-exemplo publicado à conjectura completa de Frobenius & rsquo está, na verdade, no livro de Hawkins & rsquo. Hawkins reconhece que Serre ajudou de muitas maneiras em seu estudo de quarenta anos sobre Frobenius, e este contra-exemplo se deve a Serre. O contra-exemplo I & rsquove apresentado acima é uma modificação que tem a característica de que as partições de fator polinomial-teórico concordam com partições de fator teórico-ideal.

Tendo explicado parte da matemática, podemos agora retornar à história. No início da década de 1880, Frobenius pensava que o trabalho não publicado de Dedekind no final da década de 1870 o deixaria provar que se ([f_1, f_2, dots, f_e] ) não vem de um elemento do grupo de Galois, então também nunca vem de um primo ruim . Ele estava em correspondência com Dedekind sobre este ponto. Frobenius parecia ter esperado que Dedekind publicasse seu trabalho recente, e então ele seria capaz de aperfeiçoar sua declaração na Seção 3 para incluir números primos ruins. Dedekind não publicou e Frobenius também não publicou.

No final da década de 1870, Dedekind havia de fato feito uma construção fundamental (p mapsto F_p ), associando a um bom primo (p ) uma classe de conjugação em (G ). A seção 4 do artigo de Frobenius & rsquo fornece essa construção também e agora chamamos (F_p ) de classe de Frobenius. Na década de 1890, Hilbert estava descobrindo independentemente alguns dos resultados antigos de Dedekind & rsquos, incluindo a construção (p mapsto F_p ), e Dedekind foi assim pressionado a publicar alguns de seus resultados antigos. Então Hurwitz estava descobrindo de forma independente o Teorema IV de Frobenius & rsquo e Frobenius apareceu com seu artigo de 1896. A declaração V de Frobenius & rsquo, a declaração mais refinada e mais natural sobre a equidistribuição do (F_p ), teve que esperar até a década de 1920 para ser provada por Chebotarev. História notável que não se conhece simplesmente trabalhando na teoria dos números algébricos dos dias de hoje!

Alguma história teórica de grupo

Frobenius foi a figura central na descoberta da teoria das representações de grupos finitos. Nas páginas 449 & ndash488, Hawkins descreve a história por trás das duas primeiras contribuições de Frobenius & rsquo, Papers 53 e 54. Uma lição aqui é que a primeira rota historicamente de um grupo para sua mesa de personagem tem uma simplicidade teórica espetacular que quase esquecemos. O conceito de determinante de grupo desempenha o papel central, embora mal seja registrado na consciência dos matemáticos modernos.

Para explicar este conceito por meio de um exemplo, considere o grupo simétrico (S_3 ). Abrevie seus elementos via ((a, b, c, d, e, f) = ( mbox, (123), (132), (12), (13), (23)) ). Em seguida, sua tabela de multiplicação, normalizada para que os elementos de identidade descam na diagonal principal, tem a seguinte forma:

O determinante do grupo ( Theta (S_3) ) é apenas o determinante desta matriz, visto como um polinômio em ( mathbb[a, b, c, d, e, f] ). Para um grupo finito geral (G ), seu determinante de grupo ( Theta (G) ) é igualmente o determinante de sua tabuada.

Expandido, ( Theta (S_3) ) tem 147 termos. Fatorado, no entanto, assume a seguinte forma notável:

[ começar nonumber Theta (S_3) & amp = & amp (a + b + c + d + e + f) (a + b + c-d-e-f) cdot label & amp & amp qquad left (a ^ 2-a b-a c + b ^ 2-b c + c ^ 2-d ^ 2 + d e + d f-e ^ 2 + e f-f ^ 2 right) ^ 2. fim tag <3> ]

Dedekind havia obtido essa fórmula em 1886, como Hawkins explica nas páginas 449 e ndash450. Ele sabia teoricamente que ( Theta (G) ) fatora em fatores lineares para todos os abelianos (G ). Ele também encontrou fatorações semelhantes a (3) para outro pequeno não-fabuloso (G ). Ele escreveu a Frobenius em 19 de março de 1896, tentando interessá-lo nos determinantes do grupo.

Frobenius estava mais do que interessado e em um mês obteve resultados fundamentais. Para classes gerais de (G ) com (k ) conjugação, ele provou uma fatoração em irredutíveis da forma

Frobenius soa particularmente moderno quando escreve sobre (k ) sendo tanto o número de fatores primos quanto o número de classes de conjugação: ele diz que essa concordância é & ldquoTudo mais notável, uma vez que não parece haver qualquer relação entre os primos individuais fatores e as classes individuais & rdquo (página 476).

Frobenius foi mais longe neste primeiro mês. As três classes de conjugação de (S_3 ) são ([1,1,1] = ), ([3] = ), e ([2,1] = ). Substituindo (b ) e (c ) por (u / 2 ), e (d ), (e ) e (f ) por (v / 3 ), o fatores determinantes de grupos especializados ainda mais,

Para (G ) geral, Frobenius passou de elementos de grupo para classes de conjugação da mesma maneira. Ele provou que sempre há uma fatoração em fatores lineares,

Reconhecemos agora que toda a tabela de caracteres de um grupo finito geral (G ) acaba de aparecer em (6)! Por exemplo, (5) exibe esta tabela de caracteres para (S_3 ):

Mais uma vez, Frobenius antecipa o ponto de vista moderno ao chamar (6) "uma das fórmulas mais importantes" (página 476). Ao relatar os resultados acima em 17 de abril de 1896, Frobenius escreve a Dedekind, & ldquoEstou muito grato a você por sugerir este trabalho, que me deu uma alegria incomensurável. & Rdquo

O mês heróico que acabamos de resumir é seguido por vários anos igualmente heróicos, todos bem descritos por Hawkins. Imediatamente, Frobenius substitui o determinante do grupo por métodos computacionalmente práticos. Já em 26 de abril de 1896, ele escreve a Dedekind sobre o & ldquoan ato de vil ingratidão contra o magnífico determinante & rdquo ( Theta ), & ldquothe miraculosa fonte da qual tudo maravilhoso fluiu. & Rdquo Ele está começando a rederir (4) e (6 ) & ldquodiretamente da teoria dos grupos & rdquo (página 477).

Na verdade, Frobenius & rsquo primeiro artigo de teoria de grupo de 1896, & Uumlber Gruppencharaktere, inicia uma teoria geral das tabelas de caracteres com exemplos explícitos sofisticados, todos sem determinantes de grupo. Seu outro artigo de teoria de grupo de 1896, & Uumlber die Primfactoren der Gruppendeterminante, é o ponto alto dos determinantes de grupo nas obras publicadas de Frobenius & rsquo. Nele, (4) e (6) são provados, juntamente com o importante suplemento que (f_i = mbox( Phi_i) ). Sem atrasos na publicação aqui!

Resumindo de um ponto de vista diferente, as tabelas de multiplicação de grupos são um tópico obrigatório em todo curso introdutório de álgebra abstrata, mas oferecem muito poucos insights sobre a natureza de um determinado grupo (G ). As tabelas de caracteres são muito avançadas para esses cursos, mas são uma parte essencial para um bom entendimento de (G ). Quantos instrutores conhecem a estreita relação entre os dois tipos de mesas?

A citação do prefácio de Serre & rsquos às obras coletadas de Frobenius & rsquo continua muito curiosa. A análise do trabalho e da influência de Frobenius & rsquo teria sido muito difícil

Serre explica o que quer dizer citando imediatamente uma carta que recebeu de Brauer: & ldquo se o leitor quiser ter uma ideia sobre a importância do trabalho de Frobenius & rsquo hoje, tudo o que ele precisa fazer é olhar livros e artigos sobre grupos. & Rdquo Certamente isso é curioso continuação é simplesmente um artifício retórico, destinado a sublinhar a grande influência que Frobenius tem em partes da matemática até os dias atuais.

No entanto, vale a pena dizer claramente: o trabalho de Hawkins é extraordinariamente útil. Permite à comunidade matemática, mesmo à grande maioria de nós que não lê bem alemão, compreender o trabalho do importantíssimo matemático Frobenius. A grande extensão do livro é essencial para o sucesso do livro. Temos uma noção de todo o arco e variedade surpreendente da carreira de Frobenius. A atenção cuidadosa ao contexto também é crítica. Isso nos dá uma noção mais completa dos tempos de Frobenius & rsquo e sua relevância direta para os nossos.


Bhaskara

Bhaskara também é conhecido como Bhaskara II ou como Bhaskaracharya, este último nome significa "Bhaskara, o Professor". Visto que ele é conhecido na Índia como Bhaskaracharya, iremos nos referir a ele por esse nome em todo este artigo. O pai de Bhaskaracharya era um Brahman chamado Mahesvara. O próprio Mahesvara era famoso como astrólogo. Isso acontecia com frequência na sociedade indiana, com gerações de uma família sendo excelentes matemáticos e frequentemente atuando como professores para outros membros da família.

Bhaskaracharya tornou-se chefe do observatório astronômico de Ujjain, o principal centro matemático da Índia naquela época. Matemáticos proeminentes como Varahamihira e Brahmagupta trabalharam lá e construíram uma forte escola de astronomia matemática.

De muitas maneiras, Bhaskaracharya representa o auge do conhecimento matemático no século XII. Ele alcançou uma compreensão dos sistemas numéricos e solução de equações que não seria alcançada na Europa por vários séculos.

Seis trabalhos de Bhaskaracharya são conhecidos, mas um sétimo trabalho, que se afirma ser dele, é considerado por muitos historiadores como uma falsificação tardia. As seis obras são: Lilavati (The Beautiful) que é sobre matemática Bijaganita (Contagem de Sementes ou Extração de Raiz) que está na álgebra o Siddhantasiromani que é em duas partes, a primeira na astronomia matemática com a segunda parte na esfera do Vasanabhasya do Mitaksara que é o próprio comentário de Bhaskaracharya sobre o Siddhantasiromani a Karanakutuhala (Cálculo de Maravilhas Astronômicas) ou Brahmatulya que é uma versão simplificada do Siddhantasiromani e a Vivarana que é um comentário sobre o Shishyadhividdhidatantra de Lalla. As três primeiras dessas obras são as mais interessantes, certamente do ponto de vista da matemática, e nos concentraremos no conteúdo delas.

Dado que ele estava construindo sobre o conhecimento e compreensão de Brahmagupta, não é surpreendente que Bhaskaracharya entendesse sobre números zero e negativos. No entanto, seu entendimento foi ainda mais longe do que o de Brahmagupta. Para dar alguns exemplos antes de examinarmos seu trabalho com um pouco mais de detalhe, notamos que ele sabia que x 2 = 9 x ^ <2> = 9 x 2 = 9 tinha duas soluções. Ele também deu a fórmula

Vamos primeiro examinar o Lilavati. Em primeiro lugar, vale a pena repetir a história contada por Fyzi, que traduziu esta obra para o persa em 1587. Contamos a história contada por Joseph em [5]: -

Esta é uma história encantadora, mas é difícil ver se há alguma evidência de que seja verdade. Nem mesmo é certo que Lilavati fosse filha de Bhaskaracharya. Também existe a teoria de que Lilavati era a esposa de Bhaskaracharya. Os tópicos abordados nos treze capítulos do livro são: definições termos aritméticos interesse aritmética e progressões geométricas geometria plana geometria sólida a sombra do gnômon as combinações kuttaka.

Ao lidar com números, Bhaskaracharya, como Brahmagupta antes dele, lidava com aritmética eficiente envolvendo números negativos. Ele é bom em adição, subtração e multiplicação envolvendo zero, mas percebeu que havia problemas com as idéias de Brahmagupta de divisão por zero. Madhukar Mallayya em [14] argumenta que o zero usado por Bhaskaracharya em sua regra (a. 0) / 0 = a (a.0) / 0 = a (a. 0) / 0 = a, dado em Lilavati, é equivalente ao conceito moderno de um "infinitesimal" diferente de zero. Embora essa afirmação não seja sem fundamento, talvez seja ver ideias além do que Bhaskaracharya pretendia.

Bhaskaracharya deu dois métodos de multiplicação em seu Lilavati. Seguimos Ifrah que explica esses dois métodos devido a Bhaskaracharya em [4]. Para multiplicar 325 por 243, Bhaskaracharya escreve os números assim:
Agora trabalhando com a mais à direita das três somas, ele calculou 5 vezes 3 e depois 5 vezes 2, perdendo os 5 vezes 4 que ele fez por último e escreveu abaixo das outras um lugar à esquerda. Observe que isso evita fazer o "carregar" na cabeça.
Agora adicione o 1015 e o 20 assim posicionados e escreva a resposta sob a segunda linha abaixo da soma próxima à esquerda.
Calcule a soma do meio como a da direita, evitando novamente o "carregar", e adicione-os escrevendo a resposta abaixo de 1215, mas deslocado um lugar para a esquerda.
Finalmente calcule a soma mais à esquerda da mesma maneira e coloque novamente a adição resultante uma posição à esquerda sob o 486.
Por fim, adicione os três números abaixo da segunda linha para obter a resposta 78975.
Apesar de evitar o "transporte" nos primeiros estágios, é claro que ainda se depara com o "transporte" nesta adição final.

O segundo método de Bhaskaracharya procede da seguinte forma:
Multiplique o número inferior pelo número superior, começando com o dígito mais à esquerda e continuando para a direita. Desloque cada linha um lugar para começar um lugar mais à direita do que a linha anterior. Primeiro passo
Segundo passo
Terceira etapa, em seguida, adicione
Bhaskaracharya, como muitos dos matemáticos indianos, considerou a quadratura dos números como casos especiais de multiplicação que mereciam métodos especiais. Ele deu quatro desses métodos de quadratura em Lilavati.

Aqui está um exemplo de explicação da proporção inversa tirada do Capítulo 3 do Lilavati. Bhaskaracharya escreve: -

No método inverso, a operação é invertida. Esse é o fruto a ser multiplicado pelo aumento e dividido pela demanda.Quando a fruta aumenta ou diminui, conforme a demanda aumenta ou diminui, a regra direta é usada. Caso contrário, o inverso.

Regra de três inversa: se o fruto diminui à medida que a requisição aumenta, ou aumenta à medida que diminui, eles, que são hábeis em contabilidade, consideram a regra de três invertida. Quando há diminuição de frutas, se houver aumento de requisição, e aumento de frutas, se houver diminuição de requisição, então a regra inversa de três é empregada.

Bem como a regra de três, Bhaskaracharya discute exemplos para ilustrar regras de proporções compostas, como a regra de cinco (Pancarasika), a regra de sete (Saptarasika), a regra de nove (Navarasika), etc. Exemplos de uso de Bhaskaracharya essas regras são discutidas em [15].

Um exemplo do Capítulo 5 sobre progressões aritméticas e geométricas é o seguinte: -

Um exemplo do Capítulo 12 sobre o método kuttaka de resolver equações indeterminadas é o seguinte: -

No capítulo final sobre combinações, Bhaskaracharya considera o seguinte problema. Deixe um número n n n dígitos ser representado na forma decimal usual como

O Bijaganita é uma obra em doze capítulos. Os tópicos são: números positivos e negativos zero o desconhecido supera o kuttaka equações quadráticas indeterminadas equações simples equações quadráticas equações com mais de uma equação quadrática desconhecida com mais de uma operação desconhecida com produtos de várias incógnitas e o autor e sua obra.

Tendo explicado como fazer aritmética com números negativos, Bhaskaracharya apresenta problemas para testar as habilidades do leitor em calcular com quantidades negativas e afirmativas: -

Os caracteres, denotando as quantidades conhecidas e desconhecidas, devem ser escritos primeiro para indicá-los de forma geral e aqueles que se tornam negativos devem ser marcados com um ponto sobre eles.

Exemplo: subtraindo dois de três, afirmativo de afirmativo e negativo de negativo, ou o contrário, me diga rapidamente o resultado.

Equações que levam a mais de uma solução são fornecidas por Bhaskaracharya: -

O problema leva a uma equação quadrática e Bhaskaracharya diz que as duas soluções, a saber, 16 e 48, são igualmente admissíveis.

O método kuttaka para resolver equações indeterminadas é aplicado a equações com três incógnitas. O problema é encontrar soluções inteiras para uma equação da forma a x + b y + c z = d ax + by + cz = d a x + b y + c z = d. Um exemplo que ele dá é: -

É claro que tais problemas não têm uma solução única, pois Bhaskaracharya está totalmente ciente. Ele encontra uma solução, que é o mínimo, ou seja, cavalos 85, camelos 76, mulas 31 e bois 4.

A conclusão de Bhaskaracharya para o Bijaganita é fascinante pelo insight que nos dá sobre a mente deste grande matemático: -

Um bocado de aula transmite conhecimento para uma mente abrangente e, tendo-o alcançado, expande-se por seu próprio impulso, como óleo derramado sobre a água, como um segredo confiado ao vil, como esmola concedida ao digno, por pouco que seja, o conhecimento infundido em uma mente sábia espalhada por força intrínseca.

É evidente para homens de compreensão clara que a regra dos três termos constitui a aritmética e a sagacidade constitui a álgebra. Conseqüentemente, eu disse. A regra dos três termos é a aritmética, o entendimento impecável é a álgebra. O que existe de desconhecido para os inteligentes? Portanto, apenas para o estúpido é estabelecido.

O Siddhantasiromani é um texto de astronomia matemática semelhante em layout a muitos outros textos de astronomia indianos deste período e de períodos anteriores. Os doze capítulos da primeira parte cobrem tópicos como: longitudes médias dos planetas, longitudes verdadeiras dos planetas os três problemas de rotação diurna sizigias eclipses lunares eclipses solares latitudes dos planetas nascentes e configurações as conjunções crescentes da lua dos planetas entre si conjunções dos planetas com as estrelas fixas e as patas do sol e da lua.

A segunda parte contém treze capítulos sobre a esfera. Abrange tópicos como: elogios ao estudo da natureza da esfera da esfera cosmografia e geografia planetária média movimento excêntrico modelo epicíclico dos planetas a esfera armilar trigonometria esférica cálculos elipse primeiras visibilidades dos planetas cálculo do crescente lunar instrumentos astronômicos as estações e problemas de cálculos astronômicos.

Existem resultados interessantes sobre trigonometria neste trabalho. Em particular, Bhaskaracharya parece mais interessado em trigonometria por si mesma do que seus predecessores, que a viam apenas como uma ferramenta de cálculo. Entre os muitos resultados interessantes fornecidos por Bhaskaracharya estão:


Soluções NCERT para Matemática da Classe 10, Capítulo 3 Par de Equações Lineares em Duas Variáveis ​​Ex 3.6

Soluções NCERT para Matemática da Classe 10, Capítulo 3 Par de Equações Lineares em Duas Variáveis ​​Ex 3.6 são parte das Soluções NCERT para Matemática da Classe 10. Aqui, apresentamos as Soluções NCERT para Matemática da Classe 10, Capítulo 3 Par de Equações Lineares em Duas Variáveis, Exercício 3.6

Ex 3.6 Classe 10 - Questão 1 de Matemática.
Resolva os seguintes pares de equações, reduzindo-os a um par de equações lineares:

Solução:











Ex 3.6 Pergunta de Matemática da Classe 10 2.
Formule os seguintes problemas como um par de equações lineares e, portanto, encontre suas soluções:
(eu) Ritu pode remar a jusante 20 km em horas e a montante 4 km em 2 horas. Encontre sua velocidade de remar em águas paradas e a velocidade da corrente.
(ii) 2 mulheres e 5 homens podem juntos terminar um bordado em 4 dias, enquanto 3 mulheres e 6 homens podem terminar em 3 dias. Encontre o tempo gasto por 1 mulher sozinha para terminar o trabalho e também o tempo gasto por 1 homem sozinho.
(iii) Roohi viaja 300 km até sua casa, parte de trem e parte de ônibus. Ela leva 4 horas se percorrer 60 km de trem e o restante de ônibus. Se ela percorrer 100 km de trem e o restante de ônibus, leva 10 minutos a mais. Encontre a velocidade do trem e do ônibus separadamente.
Solução:


Soluções NCERT para Matemática da Classe 10, Capítulo 3 Pares de Equações Lineares em Duas Variáveis ​​(Hindi Médio) Ex 3.6



Soluções NCERT para Matemática da Classe 10

Esperamos que o Par de Equações Lineares em Duas Variáveis ​​Ex 3.6 do Capítulo de Matemática da Classe 10 do NCERT o ajude. Se você tiver alguma dúvida sobre as Soluções NCERT para Matemática da Classe 10, Capítulo 3 Par de Equações Lineares em Duas Variáveis, Exercício 3.6, deixe um comentário abaixo e entraremos em contato com você o mais breve possível.


* Seg 19 Mar 13:00
Groupe de travail: Peso 3 GSp (2) - não elevadores paramodulares.

* Ter 20 Mar 11:00
M. Nori. O que é & # 8230 um motivo hipergeométrico?

* Ter 20 Mar 14:00 @MPI
J. Fresan. Teoria de Hodge das conexões de Kloosterman

* Ter 20 de março, 16:30
V. Golyshev. Hipergeometria redutível e extensões motívicas.

* Quarta, 21 de março às 10:30
S. Sikander. Quantização do espaço de módulos de feixes de vetores.

* Quarta, 21 de março, 14:30 @MPI
Almoço de teoria dos números HIM / MPI

F. Baldassarri: O isomorfismo Artin-Hasse de discos de unidade aberta perfectóide e uma teoria do tipo Fourier para funções contínuas em Q_p


DYNAMIC Mathematics Vertical Articulation Tools (MVAT)

Uso da ferramenta

Essa ferramenta foi projetada para apoiar os educadores da Virgínia em seu processo de revisão dos pontos fortes e do aprendizado inacabado dos alunos em termos de prontidão para álgebra. Essa ferramenta, em conjunto com os dados de desempenho matemático fornecidos pelo VDOE e também com os dados gerados pela sala de aula ou pela escola, pode ajudar a automatizar a criação de Planos de Remediação de Alunos para alunos individuais por professores, conselheiros, administradores ou outros. Esses planos podem ser impressos (salvos como PDF ou cópia impressa) e compartilhados com professores, tutores e outros designados para trabalhar com os alunos para concluir o aprendizado inacabado em matemática.

Requisitos de sistema

Essas planilhas utilizam tabelas dinâmicas e a função de consulta avançada que estão disponíveis apenas em produtos Microsoft Office Professional (não Home) para Excel 2013 ou versões mais recentes. Atualmente, essa funcionalidade está disponível apenas no sistema operacional Windows.


Assista o vídeo: Equações Diferenciais Método de Frobenius - raízes diferem por um inteiro (Novembro 2021).