Matrices Ortogonales
Una matriz cuadrada \(Q \in \mathbb{R}^{n \times n}\) se define como ortogonal (o más precisamente, ortonormal) si sus columnas son ortonormales (vectores unitarios perpendiculares entre sí), lo que implica que: (Armentano, 2026 clase 8; Strang, 2019, p. I.5).
\[Q^\top Q = \mathbb{I} \implies Q^\top = Q^{-1}\]
Cuando una matriz de Stiefel \(Q \in \mathbb{R}^{n \times n}\) es cuadrada, sus columnas no solo son ortonormales, sino que forman una base ortonormal completa para \(\mathbb{R}^n\). En este caso, la matriz se denomina simplemente matriz ortogonal.
La Identidad Fundamental: \(Q^{-1} = Q^\top\)
La propiedad más potente de una matriz ortogonal es que su transpuesta es idéntica a su inversa. 1
Prueba: Por definición de matriz de Stiefel, \(Q^\top Q = \mathbb{I}\). En el caso cuadrado, una matriz que posee una inversa a izquierda también la posee a derecha y es única. Por tanto, \(Q^\top = Q^{-1}\), lo que implica que también se verifica \(Q Q^\top = \mathbb{I}\) (Diego Armentano, 2025 Parcial 1 Ej1a).
Preservación de la Geometría (Isometría)
La propiedad definitoria de las matrices ortogonales es que no alteran el producto escalar entre dos vectores cualesquiera \(u\) y \(v\). Utilizando la propiedad de la transpuesta de un producto, \((Qu)^\top = u^\top Q^\top\), tenemos:
\[(Qu) \cdot (Qv) = (Qu)^\top (Qv) = u^\top (Q^\top Q) v = u^\top I v = u \cdot v\]
De esta invariancia se derivan dos consecuencias geométricas críticas:
Preservación de la Norma (Longitud): Dado que \(\|v\| = \sqrt{v \cdot v}\), se cumple que \(\|Qv\| = \|v\|\). El vector transformado mantiene su magnitud original.
Preservación de Ángulos: El ángulo \(\theta\) entre dos vectores se define por \(\cos(\theta) = \frac{u \cdot v}{\|u\|\|v\|}\). Al ser el numerador y el denominador invariantes bajo \(Q\), el ángulo permanece constante.
En definitiva, las matrices ortogonales actúan como operadores que preservan la estructura métrica del espacio. No solo mantienen las longitudes (normas), sino también los ángulos entre vectores. 2
Por lo tanto, las matrices ortogonales \(Q \in \mathbb{R}^{n \times n}\) representan una rotación (o una combinación de rotación y reflexión) porque actúan como una isometría lineal en el espacio euclídeo.
Ejemplo Canónico en \(\mathbb{R}^2\)
La matriz de rotación estándar para un ángulo \(\theta\) en sentido antihorario es el ejemplo más claro de una matriz ortogonal:
\[R_\theta = \begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}\]
Podemos verificar su ortogonalidad mediante la suma de los cuadrados de sus componentes en las columnas (\(\sin^2 \theta + \cos^2 \theta = 1\)) y comprobando que su determinante es siempre \(1\), lo que garantiza que es una rotación pura sin reflexión.
El Determinante y la Orientación
Aunque todas las matrices ortogonales preservan la estructura métrica, el determinante de la matriz \(Q\) determina si la transformación preserva o invierte la orientación del espacio:
| Transformación | Determinante | |
|---|---|---|
| Rotación Propia | \(\det(Q) = 1\) | |
| Rotación Impropia (Reflexión) | \(\det(Q) = -1\) | Invierte la orientación (quiralidad) del espacio. |
Ejemplos Clave en Computación
Matrices de Permutación (\(P\)):
Reordenan las entradas de un vector. Sus columnas son las de la identidad en distinto orden. Siempre verifican \(P^\top = P^{-1}\).
Matrices de Rotación:
En \(\mathbb{R}^2\), la matriz \(R_{\theta} = \begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}\) rota vectores preservando el origen. Sus autovalores son complejos: \(\lambda = \cos \theta \pm i \sin \theta\).
Matrices de Refleccion:
En \(\mathbb{R}^2\), la matriz \(Q = \begin{pmatrix} \cos \theta & \sin \theta \\ \sin \theta & -\cos \theta \end{pmatrix}\) refleja los vectores respecto de la recta que pasa por el origen y tiene un angulo \(\theta\) con el eje horizontal.
Matriz de Fourier (\(F\)):
Utilizada en el procesamiento de señales, sus columnas son autovectores ortonormales que permiten transitar entre el dominio del tiempo y la frecuencia.
Espectro
Los valores propios (\(\lambda\)) de una matriz ortogonal siguen reglas geométricas estrictas derivadas de su capacidad para preservar longitudes.
Módulo Unitario (\(|\lambda| = 1\))
Debido a que las matrices ortogonales preservan la norma de los vectores (\(\|Qx\| = \|x\|\)) (Strang, 2018 Lec. 3 ’62). Si aplicamos esto a un autovector: \[\|Qx\| = \|\lambda x\| = |\lambda| \|x\| \implies |\lambda| = 1\]
Por lo tanto, todos los autovalores de una matriz ortogonal deben tener magnitud 1; es decir, residen en el círculo unidad del plano complejo (Strang, 2019, p. I.5).
Valores Reales Restringidos
Los únicos valores propios reales que puede tener una matriz ortogonal son \(1\) o \(-1\). Cualquier otro valor real violaría la condición de módulo uno.
Simetría en el Plano Complejo
Como \(Q\) tiene entradas reales, sus autovalores complejos siempre aparecen en pares \(\lambda\) y \(\bar{\lambda}\) (Teorema Fundamental del Álgebra). Esto asegura que el polinomio característico mantenga coeficientes reales. Esto puede verse algebraicamente: Si \(\lambda\) es un valor propio complejo de \(Q\) con vector propio \(v\), entonces: \(Q\overline{v} = \overline{Qv} = \overline{\lambda v} = \overline{\lambda} \, \overline{v}\). Por lo tanto, \(\overline{\lambda}\) también es valor propio con vector propio \(\overline{v}\).
Determinante e Invarianza
El determinante de \(Q\), que es el producto de sus valores propios, siempre es \(1\) (rotaciónes puras) o \(-1\) (reflexión). A partir de la identidad \(Q^\top Q = I\), aplicamos la propiedad del determinante de un producto: \(\det(Q^\top) \det(Q) = \det(I)\). Sabiendo que \(\det(Q^\top) = \det(Q)\) y que \(\det(I) = 1\), obtenemos la relación \((\det(Q))^2 = 1\)
Espectro de \(Q^\top = Q^{-1}\)
Como se demostró en Espectro de la Traspuesta A^\top, \(Q\) y \(Q^\top\) siempre comparten los mismos autovalores. Sin embargo, en el caso de las matrices ortogonales, existe una relación adicional: \(Q^\top = Q^{-1}\). Esto implica que: los autovalores de \(Q^\top\) son también los autovalores del inverso de \(Q\).
Si \(x\) es un autovector de \(Q\) con autovalor \(\lambda\), entonces (Strang, 2018 Lec. 4 ’115): \[Qx = \lambda x \implies x = Q^{-1}(\lambda x) \implies Q^{-1}x = \frac{1}{\lambda} x\] Por lo tanto: si \(\lambda\) es un autovalor de \(Q\), su recíproco \(1/\lambda\) es un autovalor de \(Q^{-1}\) (y por ende de \(Q^\top\)).
Para cualquier número complejo \(\lambda\) con \(|\lambda|=1\), se cumple que su recíproco es igual a su conjugado: \[\frac{1}{\lambda} = \bar{\lambda}\]
Los autovalores de \(Q^\top\) son los recíprocos de los de \(Q\), pero como tienen magnitud 1, los autovalores de la traspuesta son simplemente los complejos conjugados de los autovalores originales (Strang, 2019, p. I.5).
Vectores Propios
Al igual que las matrices simétricas, las matrices ortogonales (y en general las matrices normales) poseen vectores propios que son ortogonales entre sí. En el caso de valores propios complejos, esta ortogonalidad se verifica utilizando el producto interno complejo \(x_1^H x_2 = 0\).
Ejemplo: Matriz de Rotación en \(\mathbb{R}^2\)
Consideramos la matriz de rotación estándar \(Q\) (Hernández, 2026, p. P3, ejercicio 7), que gira cualquier vector del plano un ángulo \(\theta\) \[Q = \begin{bmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{bmatrix}\]
Una matriz de rotación pura (con \(\theta \neq 0, \pi\)) en \(\mathbb{R}^2\) típicamente no tiene autovectores reales porque gira todos los vectores un ángulo \(\theta\). Sin embargo, posee autovalores complejos de la forma \(\lambda = e^{\pm i\theta} = \cos \theta \pm i \sin \theta\), que cumplen con tener magnitud 1. \(|e^{\pm i\theta}| = 1\). Solo en los casos donde \(\theta=0\) (\(\lambda=1\)) o \(\theta=\pi\) (\(\lambda=-1\)) los vectores propios vuelven al espacio real.
Los autovectores asociados son vectores complejos en \(\mathbb{C}^2\):
- Para \(\lambda_1 = e^{i\theta}\) el autovector es \(x_1 = (1, -i)\).
- Para \(\lambda_2 = e^{-i\theta}\) el autovector es \(x_2 = (1, i)\).
Podemos validar estos resultados mediante la traza y el determinante:
- Traza: \(\lambda_1 + \lambda_2 = (\cos \theta + i \sin \theta) + (\cos \theta - i \sin \theta) = 2\cos \theta\), que coincide exactamente con la suma de la diagonal de \(Q\).
- Determinante: \(\lambda_1 \cdot \lambda_2 = e^{i\theta} \cdot e^{-i\theta} = e^0 = 1\), consistente con una rotación que preserva la orientación.
Aunque estos vectores viven en \(\mathbb{C}^2\), siguen siendo ortogonales entre sí bajo el producto interno complejo \(x_1^H x_2 = 0\).
Teorema Espectral para Matrices Simétricas
Sea \(S \in \mathcal{M}^{n \times n}: S = S^\top\), se cumple:
- Autovalores Reales: Sus autovalores son todos reales (\(\lambda_i \in \mathbb{R}\)).
- Ortogonalidad de Autovectores: Los autovectores correspondientes a autovalores distintos son ortogonales entre si.
- Diagonalización Ortogonal: Existe siempre una base ortonormal de autovectores, lo que permite una diagonalización mediante una matriz ortogonal \(Q\): 3
\[S = Q \Lambda Q^\top = \sum_{i=1}^{n} \lambda_i q_i q_i^\top\]
Prueba: Ortogonalidad de Autovectores
Sean \(q_1, q_2\) autovectores de \(S\) con \(\lambda_1 \neq \lambda_2\). \[S q_1 = \lambda_1 q_1 \implies (S q_1)^\top = \lambda_1 q_1^\top \implies q_1^\top S = \lambda_1 q_1^\top\] Multiplicando por \(q_2\) a la derecha: \[q_1^\top S q_2 = \lambda_1 q_1^\top q_2\] Sustituyendo \(S q_2 = \lambda_2 q_2\): \[\lambda_2 q_1^\top q_2 = \lambda_1 q_1^\top q_2 \implies (\lambda_2 - \lambda_1) q_1^\top q_2 = 0\] Dado que \(\lambda_1 \neq \lambda_2\), necesariamente \(q_1^\top q_2 = 0\). Por lo tanto, los autovectores son ortogonales.
Prueba: Descomposición Espectral como Suma de Rango 1
La identidad \(S = Q \Lambda Q^\top\) puede expandirse utilizando la multiplicación columna-fila como una suma de matrices de rango 1: \[S = \lambda_1 q_1 q_1^\top + \lambda_2 q_2 q_2^\top + \dots + \lambda_n q_n q_n^\top\]
Cada término \(\lambda_i q_i q_i^\top\) representa la proyección del espacio sobre la dirección del autovector \(q_i\), escalada por \(\lambda_i\). 4
Aplicaciónes
Transformaciones y Cálculo Funcional
La factorización \(A = X\Lambda X^{-1}\) simplifica el cálculo de funciones de matrices:
- Potencias: \(A^k = X \Lambda^k X^{-1}\). Si \(|\lambda_i| < 1\), entonces \(A^k \to 0\) cuando \(k \to \infty\).
- Inversa: \(A^{-1} = X \Lambda^{-1} X^{-1}\) (si \(\lambda_i \neq 0\)).
- Desplazamiento (Shift): Los autovectores de \(A + sI\) son los mismos que los de \(A\), pero sus autovalores son \(\lambda_i + s\).
Reducción de Dimensionalidad Mediante el Método de la Potencia
Desde una perspectiva numérica, si deseamos encontrar la dirección del autovector dominante (el asociado al \(|\lambda|\) más grande), podemos iterar un vector aleatorio \(v_0\): \[v_{k+1} = \frac{Av_k}{\|Av_k\|}\] A medida que \(k \to \infty\), el vector \(v_k\) se alinea con el autovector dominante.
Esta característica simplifica drásticamente la resolución de sistemas lineales \(Qx = b\). En lugar de recurrir a la eliminación gaussiana (\(O(n^3)\)), la solución se obtiene mediante una simple transposición \(O(n^2)\): \(x = Q^\top b\).↩︎
Las transformaciones basadas en matrices ortogonales (como las rotaciones de Householder o Givens) son preferidas en aplicaciones donde la estabilidad numérica es crítica porque nunca amplifican el error ni producen overflow. Dado que \(\|Qx\| = \|x\|\), el tamaño de los datos se mantiene constante a lo largo de múltiples factorizaciones.↩︎
Esta expansión como suma de matrices de rango 1 es fundamental para entender la descomposición de la varianza en estadística.↩︎
En aplicaciones de ciencia de datos, esta expansión permite identificar las componentes que capturan la mayor varianza del sistema, descartando aquellas con autovalores despreciables.↩︎