Sobre determinantes

Matrizes e determinantes são material do segundo grau (quinta série), mas obviamente não é possível explorar suas principais sutilezas sem alguns conceitos mais elaborados. O determinante é uma função que associa um número real {\rm det} (A) a uma dada matriz quadrada A (como sempre foi até agora, supondo-a com entradas reais)

M_{n,n}(\mathbb{R})\stackrel{\rm det}{\longrightarrow} \mathbb{R}

Sabemos que o determinante é definido por uma fórmula, e que dela decorre uma série de propriedades. Do ponto de vista formal, isto é tudo que precisamos saber para poder trabalhar com determinantes. Porém, por vários motivos, esta não me parece a melhor maneira de introduzir nenhum conceito matemático (ou físico). É muito mais interessante construir o objeto em questão a partir de alguma intuição. Definições são fáceis de serem esquecidas. Já uma intuição adquirida, costuma ser muito mais perene…

Vamos encarar a matriz quadrada A como uma coleção ordenada de n vetores v_i\in \mathbb{R}^n, A = (v_1,v_2,\dots,v_n). O escalar {\rm det}(A), então, pode ser visto como uma função sobre este conjunto ordenados de vetores, i.e., {\rm det}(v_1,v_2,\dots,v_n). Queremos que o determinante funcione como uma espécie de “detector” de dependência linear desses vetores. Vamos exigir que a função {\rm det}(v_1,v_2,\dots,v_n) satisfaça as seguintes propriedades:

  1. Linearidade em todas as entradas:
    {\rm det}(v_1,v_2,\dots,\alpha v_k+v'_k,\dots v_n)=\alpha{\rm det}(v_1,v_2,\dots,v_k,\dots v_n)+{\rm det}(v_1,v_2,\dots,v'_k,\dots v_n)
    para todo k.
  2. {\rm det}(v_1,v_2,\dots,v_n)=0 se os vetores forem L.D.
  3. {\rm det}(e_1,e_2,\dots,e_n)=1, sendo e_k a k-ésima coluna da identidade (base canônica).
  4. Anti-simetria: o determinante deve mudar de sinal se permutarmos dois vetores quaisquer
    {\rm det}(v_1,v_2,\dots, v_k,\dots ,v_\ell,\dots v_n)=-{\rm det}(v_1,v_2,\dots, v_\ell, \dots,v_k,\dots v_n)
    para todos k\ne \ell.

As três primeiras propriedades são as que esperaríamos de uma noção de “volume” em \mathbb{R}^n. A quarta propriedade diz respeito a “orientação” dos vetores (v_1,v_2,\dots,v_n), i.e., podem estar orientados de maneria positiva ou negativa, de acordo com o sinal de {\rm det}(v_1,v_2,\dots,v_n). (Lembrem-se do produto misto).

Por simplicidade das fórmulas, consideremos por ora o caso 3\times 3. A matriz em questão será

\left(\begin{array}{ccc} a_{11}& a_{12}&a_{13} \\a_{21}& a_{22}&a_{23} \\a_{31}& a_{32}&a_{33} \end{array} \right) = \left( a_{11}e_1 + a_{21}e_2 +a_{31}e_3 ,a_{12}e_1 + a_{22}e_2 +a_{32}e_3 ,a_{13}e_1 + a_{23}e_2 +a_{33}e_3 \right)

Usando-se as 3 primeiras propriedades acima, vemos que {\rm det}(A) se reduz a alguns “determinantes elementares”:

\varepsilon_{ijk} =  {\rm det}(e_i,e_j,e_k)

que podem ser facilmente calculados das propriedades 2, 3 e 4, e serão 0, 1 ou -1. O determinante será

{\rm det}(A) = \sum_{ijk}a_{i1}a_{j2}a_{k3}\varepsilon_{ijk}

que é a fórmula de Leibniz para o determinante, neste caso em dimensão 3. Para n arbitrário, a extensão é simples: uma soma de produtos envolvendo sempre uma componente de cada vetor (coluna) de A, multiplicado pela quantidade correspondente \varepsilon_{ijk...}, a qual tem o nome de símbolo de Levi-Civita, e podemos facilmente calculá-la a partir das propriedades 2, 3 e 4 em qualquer dimensão n

\varepsilon_{ijk...} =\left\{\begin{array}{cl} 0, & {\rm se\ houver\ indices\ repetidos}  \\ (-1)^p& {\rm\ c.c.,\ sendo\ } p {\rm\ o\ numero\ de\ permutacoes\ de\ }ijk...{\rm\ em\ relacao\ a\ }12...n\end{array}\right.

A fórmula de Leibniz implica na de Laplace. Considerem, por exemplo, o caso 4\times 4

{\rm det}(A) = \sum_{ijk\ell}a_{i1}a_{j2}a_{k3}a_{\ell 4}\varepsilon_{ijk\ell}

Suponha agora uma “expansão” ao longo da segunda linha de A

{\rm det}(A) = a_{21}c_{21} +a_{22}c_{22} + a_{23}c_{23} + a_{24}c_{24}

Os cofatores c_{ij} podem ser lidos diretamente da fórmula de Leibniz:

c_{21} =\sum_{jk\ell}a_{j2}a_{k3}a_{\ell 4}\varepsilon_{2jk\ell}

c_{22} =\sum_{ik\ell}a_{i1}a_{k3}a_{\ell 4}\varepsilon_{i2k\ell}

c_{23} =\sum_{ij\ell}a_{i1}a_{j2}a_{\ell 4}\varepsilon_{ik2\ell}

c_{24} =\sum_{ijk}a_{i1}a_{j2}a_{k3}\varepsilon_{ijk 2}

Fica como exercício mostrar que temos a fórmula usual dos cofatores:

c_{ij} = (-1)^{i+j}{\rm det}(M_{ij})

sendo M_{ij} a matriz menor 3\times 3 de A obtida eliminando-se a linha i e a coluna j. O caso de n arbitrário é análogo.

Pode-se também mostrar diretamente da fórmula de Leibniz (ou da expansão de Laplace) as duas outras propriedades elementares do determinante: {\rm det}(A)  = {\rm det}(A^t) e {\rm det}(AB) = {\rm det}(A){\rm det}(B). As provas são diretas, há muito material com isso por ai. Vamos aqui focar em dois outros tópicos.

A matriz adjunta e a fórmula da inversa

Seja C a matriz dos cofatores de uma matriz A. Seja v_k\in\mathbb{R}^n o vetor tal que v^t_k seja a k-ésima linha de C. Considere agora o vetor Av_k. O que sabemos sobre ele? Uma coisa é fácil: sua k-ésima linha será {\rm det}(A), pois o produto correspondente será exatamente a expansão de Laplace para o determinante de A, confiram! E sobre as outras linhas, podemos afirmar algo?

Sim, claro que podemos. Considere a linha \ell. Pela definição de produto Av_k, essa entrada no vetor v_k será

{\rm linha}_\ell(Av_k)=\sum_j a_{\ell j}c_{kj}

O lado direito dessa equação pode sempre ser interpretado como uma expansão de Laplace. Para \ell=k, já sabemos que se trata da expansão do determinante de A ao longo da k-ésima linha. E  para o caso \ell\ne k? Ora será a expansão do determinante de uma matriz A para a qual as linhas k e \ell são iguais. Esta matriz não será posto-completo e, portanto, seu determinante será zero. Teremos finalmente

{\rm linha}_\ell(Av_k)=\sum_j a_{\ell j}c_{kj} = {\rm det}(A)\delta_{k\ell},

ou ainda

AC^t ={\rm det}(A) \mathbb{I}

que é a relação fundamental que nos permite escrever a fórmula da inversa de A.

A fórmula de Cramer para sistemas lineares

Este é outro tópico do segundo grau cujo conteúdo é um tanto difícil de ser apreciado sem as noções de álgebra linear. Vamos novamente considerar uma matriz A, cujas colunas são n vetores v_k\in\mathbb{R}^n. O sistema linear AX=B pode sempre ser visto como um problema de expansão de vetores:

AX = x_1v_1+x_2v_2+\cdots + x_nv_n = B

sendo x_k a k-ésima linha do vetor X (as incógnitas).  Considere agora o seguinte determinante {\rm det}(v_1,v_2,\dots,B,\dots,v_n), i.e., o determinante da matriz obtida a partir de A trocando-se sua k-ésima coluna pelo vetor B. Será, obviamente, um número real. Por outro lado, da expressão do sistema linear e das propriedades elementares do determinantes, temos que

{\rm det}(v_1,v_2,\dots,B,\dots,v_n) = x_k{\rm det}(A) ,

de onde segue a regra de Cramer conhecida.

4 comentários sobre “Sobre determinantes

  1. Alberto,
    uma revisão histórica que me pareceu muito boa, principalmente por ter referências que parecem confiáveis, é esta:
    http://www-groups.dcs.st-and.ac.uk/history/HistTopics/Matrices_and_determinants.html
    Por sinal, esse é o “MacTutor History of Mathematics archive”
    http://www-groups.dcs.st-and.ac.uk/history
    ótimo site com informações históricas (como essa do determinante) e biografias de matemáticos (e alguns físicos) ilustres. Eu costumo pegar fotos desse site (não há violação de copyright!).

    Nas referências da revisão sobre a história das matrizes e determinantes, tem este artigo em particular

    Clique para acessar o icm1974.2.0561.0570.ocr.pdf

    que conta explicitamente o papel do Leibniz no desenvolvimento da teoria.

    Curtir

Deixe um comentário