Normas de matrizes

Relembrando, uma norma num espaço vetorial  V sobre um corpo K\subseteq\mathbb{C}  é uma função que associa a cada vetor v\in V um número real  \rho(v) com as seguintes propriedades:

  • Homogeneidade
    \rho(\alpha v) = |\alpha |\rho(v), para todo \alpha\in K e v\in V.
  • Desigualdade triangular
    \rho(v+w) \le \rho(v) + \rho(w),  para todos v,w\in V.
  • Positividade
    \rho(v)\ge 0, sendo a igualdade verificada apenas para \rho = 0.

Vimos, com alguns detalhes, que estes axiomas capturam essencialmente tudo que esperamos de uma “boa” noção de tamanho para um vetor. Vimos também que, em \mathbb{R}^n, existe uma família inteira de normas, as chamadas normas-p:

 \displaystyle  ||v||_p = \left( \sum_{k=1}^n |v_k|^p\right)^{\frac{1}{p}}, para  v=(v_1,v_2,\dots,v_n)^t\in\mathbb{R}^n.

Para p=2, em particular, temos a norma usual euclidiana. As outras duas normas notáveis eram a p=1 (norma do Uber) e p\to\infty (norma do máximo). A desigualdade triangular para o caso euclidiano decorria diretamente da desigualdade de Schwarz. No caso da norma p, ela decorre de uma outra desigualdade ainda mais famosa, a de Hölder. A desigualdade triangular no contexto da norma p recebe o nome de desigualdade de Minkowski, há muito material online sobre isso, vocês não terão dificuldade em encontrar.

Ora, já sabemos que matrizes (que vamos supor reais daqui em diante, não há perda de conteúdo) formam um espaço vetorial, com as operações de soma e multiplicação por escalar usuais. Sabemos também que o espaço das matrizes n\times m é isomorfo a \mathbb{R}^{nm}. Com isso, podemos já introduzir uma noção viável de norma para uma matriz A

\displaystyle \rho_p(A) = ||T(A)||_p

sendo T:M_{n,m}(\mathbb{R})\to\mathbb{R}^{nm} o isomorfismos “canônico” que discutimos em aula. Para cada valor de p, teremos uma norma perfeitamente definida para a matriz A. Algumas dessas normas tem nome:

  • Norma de Frobenius: p=2
    \displaystyle\rho_2(A) = \sqrt{\sum_{i=1}^n\sum_{k=1}^n a_{ij}^2}
  • Norma do máximo: p\to\infty
    \displaystyle\rho_\infty(A) = \max_{i,j=1..n}|a_{ij}|
  • Norma p=1 (de Manhattan, do taxi, do Uber)
    \displaystyle\rho_1(A) = \sum_{i=1}^n\sum_{k=1}^n |a_{ij}|

Do ponto de vista formal, o espaço das matrizes munidos de qualquer uma das normas acima, por exemplo, será um espaço vetorial normado. No caso p=2, inclusive, a norma vem de um produto interno (chamado de Frobenius). Porém, na prática, estas normas baseadas nas entradas da matriz não são as mais úteis.

Norma induzida para transformações lineares

Vimos que o espaço das transformações lineares entre dois espaços vetoriais é ele próprio um espaço vetorial. Mais ainda, em dimensão finita, sempre teremos uma matriz associada a uma transformação linear. Uma matriz A, que vamos supor quadrada n\times n, pode ser vista como uma transformação linear A:\mathbb{R}^n\to\mathbb{R}^n. Supondo que o \mathbb{R}^n seja munido de uma norma ||\cdot||_p, define-se como sendo a norma p induzida para a matriz A o número real

\displaystyle ||A||_p = \max_{||v||_p=1} ||Av||_p\quad\quad(1)

quer dizer, é o máximo de ||Av||_p , calculado sobre todos os v\in\mathbb{R}^n unitários, segundo a norma p. Trata-se, efetivamente, de uma norma, i.e., as três propriedades acima também acabam “induzidas” para ||A||_p , confiram. A norma induzida tem duas outras propriedades, de prova simples (façam!):

  • \displaystyle ||Ax||_p \le ||A||_p||x||_p , para todo x\in\mathbb{R}^n, e
  • \displaystyle ||AB||_p \le ||A||_p||B||_p , sendo A,B matrizes, e AB sua multiplicação usual.

Esta última propriedade, conhecida como submultiplicatividade,  nos mostra que as matrizes munidas de uma norma induzida são mais do que um espaço vetorial, são o que se chama uma álgebra de Banach.

Vamos analisar com cuidado nossos três casos preferidos, p=1,2,\infty . Comecemos com a última, a norma induzida do máximo. Pela definição da norma p\to\infty  teremos:

\displaystyle ||Av||_\infty = \max_{i=1..n} \left| \sum_{j=1}^n a_{ij}v_j\right|\le\max_{i=1..n}\sum_{j=1}^n|a_{ij}||v_j|   \le ||v||_\infty\max_{i=1..n}\sum_{j=1}^n|a_{ij}|

Levando-se em (1), teremos

\displaystyle ||A||_\infty  \le \max_{i=1..n}\sum_{j=1}^n|a_{ij}|

Assim, temos um limite superior para a norma: o máximo das somas dos valores absolutos das linhas da matriz A .  É fácil mostrar que existe um v  unitário, de acordo com a norma p\to\infty , para o qual teremos a igualdade. Seja \ell  a linha da matriz com o máximo das somas dos valores absolutos de suas entradas. Construa o vetor v  atribuindo 1,-1,0 à sua componente k  caso, respectivamente a_{\ell k} for positivo, negativo ou zero. Com isso, e pela definição (1), teremos finalmente:

\displaystyle ||A||_\infty  = \max_{i=1..n}\sum_{j=1}^n|a_{ij}|.

O caso da norma p=1  é semelhante. Da definição, temos

\displaystyle ||Av||_1 = \sum_{i=1}^n \left| \sum_{j=1}^n a_{ij}v_j\right|\le\sum_{i=1}^n \sum_{j=1}^n|a_{ij}||v_j|   \le ||v||_1\max_{j=1..n}\sum_{i=1}^n|a_{ij}|

Levando-se em (1), teremos, como no caso anterior, um limite superior para a norma: o máximo das somas dos valores absolutos das colunas da matriz A . É fácil (façam!) encontrar um vetor v  unitário, de acordo com a norma p=1 , para o qual teremos a igualdade, exatamente como no caso anterior, o que nos dá finalmente:

\displaystyle ||A||_1 = \max_{j=1..n}\sum_{i=1}^n|a_{ij}|.

O caso p=2 é o mais interessante neste contexto. Temos

\displaystyle ||Av||_2 = \sqrt{ \sum_{i=1}^n \left( \sum_{j=1}^n a_{ij}v_j\right)^2}

e é muito mais complicado tentarmos repetir as análises anteriores. Pode-se mostrar, por exemplo, que ||A||_2\le\rho_2(A) , e uma outra série de desigualdades. Há algo mais interessante pra descobrirmos se lembrarmos que para p=2 temos um produto interno disponível.  Notem que

\displaystyle ||Av||_2^2 = \langle Av,Av\rangle =  \langle v,A^tAv\rangle 

Porém, A^tA  é uma matriz simétrica e, portanto, diagonalizável! Mais que isso, pela expressão acima, seus autovalores serão todos não-negativos! Levando-se a expressão acima na definição (1), teremos:

\displaystyle ||A||_2 = \max_{||v||_p=1} \sqrt{\langle v,A^tAv\rangle} = \sqrt{\lambda_{\rm max}(A^tA)}  ,

sendo \lambda_{max}(A^tA) o maior autovalor da matriz A^tA . (Dica para mostrar este resultado: escreva v  na base ortonormal dos autovetores de A^tA  e use seus conhecimentos da disciplina preferida da turma 🙂 ).

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s