O teorema espectral para matrizes reais simétricas

Como vimos, as matrizes reais simétricas têm um papel muito importante no estudo da diagonalização de matrizes. Em particular, temos o famoso teorema espectral:


Teorema: Para toda matriz A\in M_{n,n}(\mathbb{R})  simétrica (A=A^t), existe uma matriz S ortogonal (S^tS = {\mathbb{I}}) tal que:

S^tAS = {\rm diag}(\lambda_1,\lambda_2,\dots,\lambda_n)


Em outras palavras, toda matriz real simétrica é diagonalizável. Caso seus autovalores \lambda_1,\lambda_2,\dots,\lambda_n sejam todos diferentes,  os autovetores associados \{v_k\} serão ortogonais, i.e.,   \langle v_i,v_j \rangle = 0 se {i\ne j}, e a matriz S será neste caso a justaposição dos n autovetores \{v_k\} (normalizados, para garantir que S seja ortogonal, e na mesma ordem dos autovalores). O caso no qual há autovalores repetidos pode ser encontrado na bibliografia.

A prova usual do teorema espectral utiliza este lema, que de fato é o foco deste post:


Lema: Toda matriz A\in M_{n,n}(\mathbb{R})  simétrica possui pelo menos um autovalor real.


Bem, um corolário imediato do teorema espectral é que TODOS os autovalores de uma matriz real simétrica são reais, no sentido de que as somas das multiplicidades algébricas é n (não há raízes complexas para o polinômio característico), assim como também a soma das multiplicidades geométricas (é sempre possível, de fato, escolher n autovetores LI). Porém, para provar o teorema espectral, este lema mais simples é suficiente.

Relembrando a prova feita em sala: supondo-se o lema válido, seja (\lambda_1,v_1) um par autovalor-autovetor da matriz A, com ||v_1||=1. Vamos construir (usando Gram-Schmidt por exemplo), uma base ortonormal \{v_k\} para \mathbb{R}^n tal que um dos elementos seja v_1. Seja S = (v_1|v_2|\cdots|v_n). É fácil ver, da multiplicação matricial, que

S^tAS = \left(\begin{array}{c|ccc} \lambda_1& 0 &\cdots & 0 \\ \hline 0 & \cdots & \cdots & \cdots \\ \vdots & \cdots & A' & \cdots \\ 0 & \cdots & \cdots & \cdots \end{array}\right)

sendo A' uma matriz (n-1)\times (n-1) também simétrica.  Assim, podemos considerar A':\mathbb{R}^{n-1}\times\mathbb{R}^{n-1}\to\mathbb{R}^{n-1}\times\mathbb{R}^{n-1} e repetir o mesmo procedimento, até terminarmos com um número real. Feito isso, teremos diagonalizado completamente a matriz. (Confiram que, a cada passo, a matriz ortogonal S que diagonaliza a matriz A remanescente “ignora” a direção do autovetor do passo anterior).

A prova usual do Lema consiste em considerar matrizes complexas. (Novamente, lembre-se do dito de Painleve “Entre deux vérités du domaine réel, le chemin le plus facile et le plus court passe bien souvent par le domaine complexe”.  🙂 ) Supondo-se a matriz complexa, o polinômio característico será também complexo. O teorema fundamental da álgebra nos garante que qualquer polinômio de grau maior que zero (não constante) sobre \mathbb{C} tem pelo menos uma raiz. Explorando-se as propriedades do produto interno, é fácil ver que se a matriz for hermitiana (\bar{A} = A^t), esta raiz deve ser real. Toda matriz real simétrica é hermitiana, e temos a prova do lema.

Nossa intenção aqui é apresentar uma outra prova que não envolve números complexos, e com a qual aprenderemos umas cositas a mais… Essencialmente, provaremos o seguinte teorema:


Teorema: Toda matriz A\in M_{n,n}(\mathbb{R}) simétrica possui um autovalor \lambda real tal que

|\lambda| = {\rm Max} (||Ax||), x\in\mathbb{R}^n {\rm\ com\ }||x||=1.


Notem, primeiro, que este teorema implica o lema acima. Alem disso, segundo nosso “espirito construtivista”, este teorema é “superior”, pois nos ensina como calcular um dos autovalores reais de A. Além disso, é uma ótima oportunidade de relacionar Álgebra Linear a disciplina preferida da turma: Cálculo II 🙂 !

Ora, a quantidade fundamental neste teorema é \rho  ={\rm Max} (||Ax||), sendo este máximo calculado sobre todos os vetores x\in\mathbb{R}^n unitários.  De fato, este \rho é uma norma (induzida) para a matriz A, neste caso a norma p=2 de matrizes. Talvez dedique um post a estes pontos mais adiante. O importante aqui é percebermos que este máximo existe e é atingido, pois é o máximo de uma função suave nas componentes de x, sujeito ao vínculo (do tipo dos multiplicadores de Lagrange) ||x||=1. Seja v o vetor unitário para o qual o máximo é atingido, i.e. ||Av||=\rho. Temos

Av = \rho w\quad(1),

sendo w um vetor unitário. Se \rho = 0, então já temos um autovalor \lambda = 0 (este caso corresponde à matriz trivial repleta de zeros). Vamos supor então \rho\ne 0. Tomando-se o produto escalar com w em ambos os lados, temos \langle Av,w\rangle = \rho. Porém, para matrizes A simétricas, teremos também que

\langle Av,w\rangle = \rho = \langle v,Aw\rangle

Aplicando-se a desigualdade de Schwarz ao último produto interno, temos

|\langle v,Aw\rangle| \le ||v|| ||Aw|| \le \rho

onde usamos que v é unitário e a definição de \rho. Ora, isto significa  que a desigualdade de Schwarz é neste caso uma igualdade, o que implica que v e Aw são efetivamente colineares:

Aw = \rho v\quad(2)

Considere agora o vetor u = v+w. Se u for não nulo, somando-se (1) e (2) teremos

Au = \rho u

o que mostra que \rho é autovalor de A. O caso u=0 corresponde, obviamente, a v=-w, o que implica de (1) ou (2) que A possui um autovalor \lambda = -\rho, o que prova o nosso teorema.

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s