Matrices Definidas y Semidefinidas Positivas

Las matrices definidas positivas representan una clase especial de matrices simétricas que desempeñan un papel central en la optimización, la estadística y el análisis de estabilidad de sistemas. Su estudio permite pasar de una visión puramente lineal a una comprensión de superficies cuadráticas y “energía” del sistema.

Definición

(Armentano, 2026 Clase 9) Sea \(S \in \mathbb{R}^{n \times n}\) una matriz simétrica (\(S = S^\top\)). Decimos que \(S\) es una matriz definida positiva si para todo vector no nulo \(x \in \mathbb{R}^n\), el número escalar resultante de la forma cuadrática es estrictamente mayor que cero:

\[x^\top S x > 0 \quad \forall x \neq 0\]

Geométricamente, la expresión \(f(x) = x^\top S x\) define una superficie en \(\mathbb{R}^n\). Si la matriz es DP, la gráfica de \(f(x)\) se asemeja a un paraboloide que abre hacia arriba (bowl), con un mínimo global único en el origen \(x = 0\).

Dependiendo del comportamiento de la operación \(x^\top S x\), clasificamos la matriz simétrica \(S\) en:

  • Definida Positiva: Si \(x^\top S x > 0\) para todo \(x \neq 0\).
  • Semidefinida Positiva: Si \(x^\top S x \geq 0\) para todo \(x\). Esto permite que existan vectores no nulos (normalmente en el núcleo de la matriz) para los cuales la forma cuadrática sea cero.
  • Indefinida: Si existen vectores \(x\) tales que \(x^\top S x > 0\) y otros vectores \(y\) tales que \(y^\top S y < 0\).

Nomenclatura:

  • Utilizamos tanto las abreviaciones en inglés: PD = Positive Definite, PSD = Positive Semi-Definite, como en español: MDP = Matriz Definida Positiva, MSDP = Matriz Semi-Definida Positiva.
  • Al número resultante de la operación \(x^\top Sx\) se le denomina Energía o Forma Cuadrática.

Criterios de verificación

Para verificar si una matriz simétrica \(S\) es PD, existen diversos criterios equivalentes que vinculan la forma cuadrática con el espectro de la matriz y sus factorizaciones. (Strang, 2018 Lec 5)

1: Autovalores Positivos

Una matriz simétrica \(S\) es definida positiva si y solo si todos sus autovalores son estrictamente positivos: \[\lambda_i > 0 \quad \text{para todo } i = 1, \dots, n\] El teorema espectral nos dice que existe una base de vectores propios que diagonaliza a S como \(S = Q \Lambda Q^\top\). La forma cuadrática se puede escribir entonces como \(x^\top (Q \Lambda Q^\top) x\). Definiendo \(y = Q^\top x\) la expresion se simplifica a \(S = y^\top \Lambda y = \sum \lambda_i y_i^2\), donde es facil ver que si todos los \(\lambda_i > 0\), la suma es necesariamente positiva para cualquier \(y \neq 0\).

En el caso de una matriz \(S\) Semidefinida Positiva se permite que algunos autovalores sean cero (\(\lambda_i \geq 0\)), lo que implica que la matriz puede ser singular.

2: Energía Positiva

Strang usa el concepto de Energía positiva, que no es más que la definicion que usamos aquí.

3: Factorización \(S = A^\top A\)

Si \(S\) es PD, existe una matriz invertible \(A\) tal que \(S = A^\top A\) 1.

4: Determinante y Menores Principales Positivos

Una matriz \(S\) es PD si todos sus menores principales líderes son positivos. Esto incluye:

  • El determinante de la matriz completa: \(\det(S) = \prod \lambda_i > 0\).
  • Todos los determinantes de las submatrices superiores izquierdas de tamaño \(k \times k\).

5: Pivotes de eliminacion Gaussiana Positivos

Toda matriz simétrica definida positiva permite una eliminación gaussiana sin necesidad de intercambio de filas (pivoteo), lo que conduce a la descomposición simétrica \(A = LDL^\top\). En esta estructura:

  • \(L\) Es una matriz triangular inferior unitaria (con \(1\)s en la diagonal principal). Representa las operaciones elementales de fila realizadas durante la eliminación.
  • \(D\): Es una matriz diagonal que contiene los pivotes resultantes del proceso de eliminación: \(D = \text{diag}(d_1, d_2, \dots, d_n)\).
  • \(L^\top\): Es la transpuesta de \(L\), una matriz triangular superior.

Para demostrar por qué los pivotes deben ser positivos, analizamos la “energía” o forma cuadrática asociada a la matriz. Comenzamos por multiplicar por un vector no nulo \(x \in \mathbb{R}^n\) en ambos lados:

\[x^\top A x = x^\top (LDL^\top) x\]

Por la propiedad asociativa del producto matricial, podemos agrupar los términos de la siguiente manera:

\[x^\top A x = (L^\top x)^\top D (L^\top x)\]

Si definimos un nuevo vector columna \(y\) como \(y = L^\top x\), la expresión se simplifica a una suma ponderada de cuadrados:

\[x^\top A x = y^\top D y = \sum_{i=1}^{n} d_i y_i^2 = d_1 y_1^2 + d_2 y_2^2 + \dots + d_n y_n^2\]

Dado que \(L\) (y por ende \(L^\top\)) es una matriz triangular con \(1\)s en la diagonal, su determinante es \(1\) y es, por tanto, invertible. Esto garantiza que para cualquier \(y \neq 0\), siempre existe un único \(x \neq 0\) tal que \(L^\top x = y\). Para que la suma \(\sum_{i=1}^{n} d_i y_i^2\) sea estrictamente positiva para cualquier valor de \(y_i\) (donde al menos un \(y_i \neq 0\)), todos los coeficientes \(d_i\) deben ser estrictamente mayores a cero.

Si existiera un pivote \(d_k \le 0\), podríamos elegir un vector \(y\) con componentes nulas excepto en la posición \(k\), lo que resultaría en una forma cuadrática \(x^\top A x \le 0\), invalidando la propiedad de ser definida positiva.

Ejemplos y Aplicaciones Fundamentales

Para identificar la positividad en la práctica, analizamos estructuras matriciales recurrentes en el álgebra lineal numérica y la ciencia de datos, vinculándolas con la estructura de los subespacios y la teoría espectral.

Relación con la Matriz Identidad

Cualquier matriz definida positiva \(S\) puede verse como una deformación de la matriz identidad \(\mathbb{I}\). Mientras que \(x^\top \mathbb{I} x = \|x\|^2\) define una esfera perfecta (todas las direcciones pesan lo mismo), \(x^\top S x\) define un elipsoide donde los ejes están alineados con los autovectores de \(S\) y sus longitudes dependen de \(1/\sqrt{\lambda_i}\).

Un resultado útil es que si \(S\) es PD, entonces existe un escalar \(\alpha > 0\) tal que: \(S - \alpha \mathbb{I}\) es semidefinida positiva. Esto indica que \(S\) “crece” al menos tan rápido como una versión escalada de la identidad.

Matrices de Gram (\(A^\top A\))

Para cualquier matriz \(A \in \mathbb{R}^{m \times n}\), el producto \(S = A^\top A\) siempre es PSD. \(A^\top A\) es estrictamente PD si y solo si las columnas de \(A\) son linealmente independientes (rango \(n\)). En ese caso, \(Ax = 0\) implica necesariamente \(x = 0\).

Prueba: La forma cuadrática se reduce a la norma al cuadrado del vector transformado: \[x^\top (A^\top A) x = (Ax)^\top (Ax) = \|Ax\|^2\] Dado que una norma siempre es \(\geq 0\), el resultado es siempre no negativo.

La Matriz de Unos (\(J\))

La matriz \(J\), donde cada entrada \(J_{ij} = 1\), es un caso crítico de matriz de rango 1. Puede expresarse como el producto exterior \(J = \mathbf{1}\mathbf{1}^\top\), donde \(\mathbf{1}\) es el vector columna de unos. Sus autovalores son \(\lambda = \{n, 0, 0, \dots, 0\}\). Al tener autovalores no negativos, es semidefinida positiva. Es singular para cualquier \(n > 1\) porque su núcleo tiene dimensión \(n-1\).

Matrices Simétricas, Espectro Real, Matrices de Proyección Ortogonal

Toda matriz definida positiva debe ser, por definición, simétrica. La simetría garantiza que todos los autovalores sean reales, lo que permite ordenarlos y validar si el autovalor mínimo \(\lambda_{min} > 0\). Un ejemplo común son las matrices de proyección ortogonal \(P = Q Q^\top\), las cuales son PSD pero no PD (tienen autovalores 1 y 0).

Matrices de Markov Simétricas

Una matriz de Markov \(M\) cumple que sus columnas suman 1. Aunque no todas las matrices de Markov son PSD, si además \(M\) es simétrica, sus autovalores son reales y el autovalor dominante es \(\lambda_1 = 1\).

Desplazamientos (Shifts)

Una matriz simétrica arbitraria \(S\) puede convertirse en definida positiva mediante un “shift” o desplazamiento espectral utilizando la matriz identidad \(\mathbb{I}\) (Armentano (2026) clase 8). Si \(\lambda_{min}\) es el autovalor más pequeño de \(S\), entonces para cualquier \(s > |\lambda_{min}|\) se cumple que \(S + s \mathbb{I}\) es estrictamente Definida Positiva.


  1. En computación numérica, esto se traduce en la Factorización de Cholesky: \(S = LL^\top\), donde \(L\) es una matriz triangular inferior con diagonal positiva.↩︎