Autovalores, Autovectores, \(A = X\Lambda X^{-1}\)

El estudio de los autovalores y autovectores permite entender la acción de una matriz \(A\) no a través de sus entradas individuales, sino a través de sus direcciones invariantes. Mientras que la mayoría de los vectores cambian de dirección al ser multiplicados por \(A\), los autovectores permanecen en la misma línea, experimentando únicamente un escalamiento.

La Ecuación Fundamental

Sea \(A \in \mathbb{R}^{n \times n}\) una matriz cuadrada. Un vector no nulo \(x\) es un autovector (o eigenvector) de \(A\) si existe un escalar \(\lambda\), denominado autovalor (o eigenvalor), tal que: \[Ax = \lambda x \tag{7.1}\]

Geométricamente, la aplicación de \(A\) sobre \(x\) no altera su dirección, solo su magnitud por un factor \(\lambda\).

Esta definición es exclusiva para matrices cuadradas porque el transformado de \(x\), es decir, \(Ax\) está en el mismo subespacio vectorial que \(x\).

Nota

La definicion de autovector requiere que \(x \neq \vec{0}\). Sin embargo, el autovalor \(0\) si es permitido. De hecho, cualquier vector en el núcleo es un autovector con \(\lambda = 0\).

Tip

Si la matriz es invertible y \(\lambda \neq 0\), se verifica que \(x\) también es autovector de \(A^{-1}\) con autovalor \(1/\lambda\). Observar que en este caso, \(\lambda\) necesariamente tiene que ser distinto de \(0\) para que esa igualdad tenga sentido, pero el caso \(\lambda = 0\) tiene sentido igualmente. \(\lambda = 0\) significa que \(Ax = 0\) es decir, que \(x \in N(A)\), lo cual a su vez implica que el rango de \(A\) es menor que \(n\) y que \(A\) no es invertible, por lo que la expresion \(A^{-1}x = \frac{1}{\lambda}x\) no es valida tampoco del lado izquierdo.

Motivación: Convergencia de Algorítmos Numéricos

Una de las mayores utilidades de los autovectores es el cálculo de potencias de matrices. Si aplicamos \(A\) sucesivamente \(k\) veces sobre un autovector \(x\): \[A^k x = \lambda^k x\] Esto implica que el comportamiento asintótico de \(A^k\) está gobernado por la magnitud de sus autovalores:

  • Si \(|\lambda| > 1\), la componente en esa dirección crece exponencialmente.
  • Si \(|\lambda| < 1\), la componente decae o se atenúa hacia cero.

Para la mayoría de los vectores, la multiplicación por una matriz \(A\) cambia tanto su longitud como su dirección. Sin embargo, los autovectores son direcciones especiales que permanecen invariantes: el producto \(Ax\) se mantiene en la misma línea que \(x\), escalado únicamente por el autovalor \(\lambda\) (\(Ax = \lambda x\)).

Esta propiedad se vuelve extremadamente potente cuando calculamos potencias de la matriz. Si aplicamos \(A\) sucesivamente \(k\) veces sobre un autovector, el resultado es simplemente \(A^k x = \lambda^k x\).

La verdadera utilidad aparece cuando una matriz \(n \times n\) posee \(n\) autovectores linealmente independientes \(\{x_1, x_2, \dots, x_n\}\). En este escenario, estos vectores forman una base completa del espacio \(\mathbb{R}^n\) (Strang, 2018 Lec. 4 ’10).

Cualquier vector arbitrario \(v\) puede expresarse como una combinación lineal de estos autovectores: \[v = c_1 x_1 + c_2 x_2 + \dots + c_n x_n\] donde los coeficientes \(c_i\) representan las coordenadas de \(v\) en esta “base natural” de la matriz.

Calcular \(A^k v\) mediante multiplicaciones matriciales directas es computacionalmente costoso y numéricamente inestable. Sin embargo, al utilizar la base de autovectores, el cálculo se vuelve inmediato. Gracias a la linealidad, la acción de \(A^k\) se distribuye sobre cada componente:

\[A^k v = c_1 (\lambda_1^k x_1) + c_2 (\lambda_2^k x_2) + \dots + c_n (\lambda_n^k x_n)\]

Bajo esta óptica:

  1. Descomponemos \(v\): Encontramos cuánta “magnitud” tiene \(v\) en cada dirección invariante.
  2. Evolucionamos el sistema: Cada dirección evoluciona de forma independiente según la magnitud de su autovalor \(\lambda_i^k\).
  3. Resultado Asintótico: Si \(|\lambda_i| < 1\), esa componente desaparecerá con el tiempo; si \(|\lambda_i| > 1\), esa dirección dominará el crecimiento del sistema.

Esta perspectiva permite tratar a las matrices diagonalizables como si fueran simples matrices diagonales, facilitando el análisis de estabilidad y convergencia en algoritmos numéricos.

El Polinomio Característico

Para hallar los autovalores, reescribimos la Ecuación 7.1 como un sistema homogéneo singular \((A - \lambda \mathbb{I})x = 0\). Para que exista una solución no trivial, la matriz \((A - \lambda \mathbb{I})\) debe ser singular, lo que conduce al polinomio característico y el estudio de sus raices: \[\chi_A(\lambda) = \det(A - \lambda \mathbb{I}) = 0\] Las raíces de este polinomio de grado \(n\) constituyen el espectro de la matriz.

Espectro de la Traspuesta \(A^\top\)

Toda matriz cuadrada \(A\) comparte exactamente los mismos autovalores con su traspuesta \(A^\top\), porque ambas generan el mismo polinomio caracteristico (Strang, 2019, p. I.6; Strang, 2018 Lec. 4 ’131; Armentano, 2026 clase 7).

Sin embargo, aunque los autovalores son los mismos, los autovectores suelen ser diferentes. Los autovectores de \(A^\top\) se conocen como autovectores izquierdos de \(A\), ya que satisfacen \(y^\top A = \lambda y^\top\). En el “Gran Mapa”, esto significa que mientras los autovectores de \(A\) definen direcciones invariantes en el dominio, los de \(A^\top\) definen direcciones invariantes respecto a las filas (Armentano, 2026 clase 4).

Espectro de Matrices Semejantes

Dos matrices \(A\) y \(B\) son semejantes si existe una matriz invertible \(X\) tal que \(A = XBX^{-1}\).

Matrices semejantes comparten el mismo espectro de autovalores (pero no comparten autovectores). \(Av = \lambda v \Rightarrow X^{-1}BXv = \lambda v \Rightarrow BXv = X \lambda v \Rightarrow B(Xv) = \lambda (Xv)\). Esta última igualdad implica que \(Xv\) es vector propio de \(B\) con valor propio \(\lambda\).

Prueba
Sean dos matrices \(A\) y \(B\) semejantes (\(\exists M / B = M^{-1}AM\)). La semejanza preserva el polinomio característico, incluso si los autovalores \(\lambda\) residen en el plano complejo \(\mathbb{C}\) (Strang, 2018 Lec. 4 ’125): \[\det(B - \lambda \mathbb{I}) = \det(M^{-1}AM - \lambda M^{-1}M) = \det(M^{-1}(A - \lambda \mathbb{I})M)\] Utilizando la propiedad distributiva del determinante ( \(\det(ABC) = \det(A)\det(B)\det(C)\) ): \[\det(M^{-1})\det(A - \lambda \mathbb{I})\det(M) = \frac{1}{\det(M)} \det(A - \lambda \mathbb{I}) \det(M) = \det(A - \lambda \mathbb{I})\]
Corolario
El producto de matrices \(AB\) tiene los mismos valores propios (no nulos) que \(BA\). Para probarlo usando la observacion anterior, deberiamos probar que \(AB\) y \(BA\) son semejantes. Esto equivale a buscar una matriz \(X\) tal que \(X(AB)X^{-1} = BA\). Esta igualdad se satisface simplemente tomando \(X=B\), ya que \(B(AB)B^{-1} = BA(BB^{-1}) = BA\mathbb{I} = BA\)

Descomposicion \(X\Lambda X^{-1}\)

Si una matriz \(A\) posee \(n\) autovectores linealmente independientes, estos pueden agruparse como columnas de una matriz \(X\). La relación \(AX = X\Lambda\) permite la factorización por diagonalización (Strang, 2018 Lec. 4 ’36): \[A = X\Lambda X^{-1}\]

donde \(\Lambda = \text{diag}(\lambda_1, \dots, \lambda_n)\) es una matriz diagonal con los autovalores en su diagonal principal (Strang, 2018 Lec 4 ’13).

Bajo esta perspectiva, multiplicar por \(A\) equivale a:

  1. Cambiar a la base de autovectores (\(X^{-1}\)).
  2. Escalar cada componente por su respectivo \(\lambda_i\) (\(\Lambda\)).
  3. Regresar a la base original (\(X\)).

Vínculo entre Espectro, Determinante y Traza

Determinante

El producto de los autovalores es igual al determinante de la matriz: \[\det(A) = \prod \lambda_i\]

La forma más sencilla de demostrar que el determinante es el producto de los autovalores es evaluando el polinomio característico en un punto específico (Hernández, 2026 Practico 3 Ej 10). Por el Teorema Fundamental del Álgebra, el polinomio se puede expresar en términos de sus raíces (autovalores): \[\chi_A(\lambda) = (\lambda_1 - \lambda)(\lambda_2 - \lambda) \dots (\lambda_n - \lambda)\] Si evaluamos la expresión anterior en \(\lambda=0\) obtenemos: \[\chi_A(0) = (\lambda_1 - 0)(\lambda_2 - 0) \dots (\lambda_n - 0) = \lambda_1 \lambda_2 \dots \lambda_n\] Por otro lado, por la definición original en \(\lambda=0\): \[\chi_A(0) = \det(A - 0\mathbb{I}) = \det(A)\]

NotaEspectro de Matrices Singulares

Como \(\det(A) = \prod_{i=1}^n \lambda_i\), esta propiedad implica que una matriz es singular (\(\det(A)=0\)) si y solo si al menos uno de sus autovalores es cero (Strang, 2019, p. I.6).

Traza

La suma de las entradas de la diagonal principal es igual a la suma de los autovalores: \[\text{tr}(A) = \sum \lambda_i\]

La relación con la traza surge al comparar los coeficientes del polinomio característico en sus dos formas de expansión (Strang, 2018 - Lec. 4, ’144).

  • En la forma factorizada: Al expandir el producto \((\lambda_1 - \lambda)(\lambda_2 - \lambda) \dots (\lambda_n - \lambda)\), el coeficiente del término \((-\lambda)^{n-1}\) es exactamente la suma de las raíces: \(\sum \lambda_i\).
  • En el determinante: Al expandir \(\det(A - \lambda \mathbb{I})\) mediante la fórmula de Leibniz o cofactores, el único término que contiene \((-\lambda)^{n-1}\) proviene del producto de los elementos de la diagonal principal: \[(a_{11} - \lambda)(a_{22} - \lambda) \dots (a_{nn} - \lambda)\] En este producto, el coeficiente de \((-\lambda)^{n-1}\) es la suma de los elementos de la diagonal: \(a_{11} + a_{22} + \dots + a_{nn}\) (Strang, 2019, p. I.6).

Dado que ambos coeficientes deben ser iguales por pertenecer al mismo polinomio, se cumple que \(\text{tr}(A) = \sum_{i=1}^n \lambda_i\).

Verificación en Matrices Diagonalizables

Si \(A = X \Lambda X^{-1}\), podemos usar las propiedades de invarianza por semejanza (Strang, 2019, p. I.6):

  • \(\det(A) = \det(X) \det(\Lambda) \det(X)^{-1} = \det(\Lambda) = \prod \lambda_i\).
  • \(\text{tr}(A) = \text{tr}(X \Lambda X^{-1}) = \text{tr}(X^{-1} X \Lambda) = \text{tr}(\Lambda) = \sum \lambda_i\).