Producto de Matrices, Factorizacion \(CR\)

Este capítulo explora la dualidad en la interpretación de la multiplicación matriz-vector y la estructura fundamental de una matriz a través de sus columnas.

Multiplicación de Matrices por vector \(Ax\)

Sea \(A = [a_1, a_2, \dots, a_n] \in \mathcal{M}^{m \times n}\) una matriz donde \(a_j\) representa su \(j\)-ésima columna. Sea \(x = (x_1, x_2, \dots, x_n) \in \mathbb{R}^n\) Entonces, el producto de la matriz \(A\) por el vector \(x\) es: \[Ax = x_1 a_1 + x_2 a_2 + \dots + x_n a_n\]

Esta operación fundamental, puede interpretarse de dos maneras (Strang, 2018 Lec. 1):

Perspectiva de Filas:
Cada componente del vector resultante es el producto interno (tambien llamado producto punto) entre una fila de \(A\) y el vector \(x\).

Perspectiva de Columnas:
El producto \(Ax\) es una combinación lineal de las columnas de \(A\), donde los coeficientes son las componentes de \(x\).

Nota

El vector resultante \(b = Ax\) reside necesariamente en el subespacio generado por las columnas de la matriz \(A\). De otra manera, el vector solución \(x\), muestra como expresar el termino independiente \(b\) como combinación lineal de las columnas de \(A\). Para algunos \(b\), esto es imposible porque no estan en el espacio generado por las columnas de \(A\).

La interpretación como combinacion lineal de las columnas de \(A\) es un pilar central del curso, ya que permite visualizar el producto como un movimiento dentro del subespacio generado por las columnas de la matriz.

Otra manera de visualizar el producto \(Ax\) en la perspectiva de columnas, es que, tomando un vector aleatorio \(x\) de \(\mathbb{R}^n\) obtenemos un vector del espacio \(C(A)\). A su vez, si pensamos a \(A\) como la matriz que representa a una cierta transformacion lineal \(T: \mathbb{R}^m \to \mathbb{R}^n\) entonces \(C(A)\) corresponde al subespacio \(\text{Im}(T)\)

Es facil ver como consecuencia de lo anterior, que la dimension del espacio generado por \(A\) coincide con su rango. \(\dim(C(A)) = \dim(\text{Im}(t)) = \text{rango}(A)\)

Ejemplo
En este ejemplo, la primer igualdad corresponde a la interpretacion usual en el cálculo, donde cada entrada de la matriz resultante es el producto punto entre las filas de la matriz \(A\) y el vector \(x\). La segunda igualdad, corresponde a la interpretacion de \(Ax\) como combinacion lineal de las columnas de \(A\). (Strang, 2019, p. 1.1) \[ Ax = \begin{pmatrix} 2 & 3 \\ 2 & 4 \\ 3 & 7 \\ \end{pmatrix} . \begin{pmatrix} x_1 \\ x_2 \\ \end{pmatrix} = \begin{pmatrix} 2x_1+3x_2 \\ 2x_1+4x_2 \\ 3x_1+7x_2 \end{pmatrix} = x_1\begin{pmatrix}2 \\ 2 \\ 3\end{pmatrix} + x_2\begin{pmatrix}3 \\ 4 \\7\end{pmatrix} \]

Teorema de Factorización \(A = CR\)

(Strang, 2019, p. 1.1) Sea \(A \in \mathbb{R}^{m \times n}\) una matriz de rango \(r\). Existen una matriz \(C \in \mathbb{R}^{m \times r}\), y una matriz \(R \in \mathbb{R}^{r \times n}\) tales que: 1 \[A = CR\]

  • La matriz \(C \in \mathbb{R}^{m \times r}\) se construye seleccionando las primeras \(r\) columnas linealmente independientes de \(A\).
  • La matriz \(R \in \mathbb{R}^{r \times n}\) contiene los coeficientes necesarios para reconstruir todas las columnas de \(A\) a partir de la base \(C\). Notablemente, \(R\) se encuentra a menudo en forma escalonada reducida (o contiene un bloque identidad \(I_r\)).

Ejemplo:

(Strang, 2018 Lec. 1 ’20)

\[ A = \begin{pmatrix} 2 & 1 & 3 \\ 3 & 1 & 4 \\ 5 & 7 & 12 \end{pmatrix} = \begin{pmatrix} 2 & 1 \\ 3 & 1 \\ 5 & 7 \end{pmatrix} . \begin{pmatrix} 1 & 0 & 1 \\ 0 & 1 & 1 \end{pmatrix} \]

Observaciones:

  • Las columnas de \(C\) forman una base de \(C(A)\).
  • Las filas de \(R\) forman una base de \(C(A^T)\).

Igualdad del Rango por Filas y Columnas

Un pilar del álgebra lineal es que \(\dim(C(A)) = \dim(C(A^T)) = r\). La factorización \(A=CR\) ofrece una prueba constructiva:

  • Las columnas de \(C\) son una base de \(C(A)\) por construcción (\(dim=r\)).
  • De la igualdad \(A = CR\), se observa que cada fila de \(A\) es una combinación lineal de las filas de \(R\) (los coeficientes de dicha combinación se encuentran en las filas de \(C\)). Como \(R\) tiene \(r\) filas independientes, el espacio fila tiene dimensión \(r\), igual a la dimensión del espacio de columnas.

Observar: (Strang, 2018 Lec. 1 ’29)

  • Rango de columnas de A = # columnas de \(C\) = rango de filas de A = # filas de \(R\) = \(\text{rango}(A)\)
  • Obtenemos las columnas de \(A\) como combinaciones lineales de las columnas de \(C\) utilizando como coeficientes las columnas de \(R\)
  • Obtenemos las filas de \(A\) como combinaciones lineales de las filas de \(R\) utilizando como coeficientes las filas de \(C\)

Extensión a la Multiplicación de Matrices \(AB\)

La interpretación del producto \(Ax\) como una combinación lineal de columnas se extiende de manera natural al producto de dos matrices \(A \in \mathbb{R}^{m \times n}\) y \(B \in \mathbb{R}^{n \times p}\). Existen dos perspectivas fundamentales para descomponer esta operación.

Perspectiva de Columnas

Si denotamos las columnas de \(B\) como \(b_1, b_2, \dots, b_p\), el producto \(AB\) puede visualizarse como una colección de productos matriz-vector: \[AB = [Ab_1, Ab_2, \dots, Ab_p]\]

Bajo esta óptica, cada columna de \(AB\) es una combinación lineal de las columnas de \(A\), donde los coeficientes de la \(j\)-ésima combinación provienen de la \(j\)-ésima columna de \(B\). Esto confirma que el espacio columna del producto está contenido en el espacio columna de la matriz de la izquierda: \(C(AB) \subseteq C(A)\).

Perspectiva de Suma de Productos Externos

Al multiplicar \(A \in \mathbb{R}^{m \times n}\) por \(B \in \mathbb{R}^{n \times p}\), cada columna \(k\) de \(A\) se encuentra exclusivamente con la fila \(k\) de \(B\).

El producto de la columna \(k\) de \(A\) (\(m \times 1\)) por la fila \(k\) de \(B\) (\(1 \times p\)) genera una matriz completa de tamaño \(m \times p\).

Este producto, denominado producto exterior, produce una matriz donde todas las columnas son múltiplos de la columna de \(A\) y todas las filas son múltiplos de la fila de \(B\), lo que define una matriz de rango 1.

La matriz final \(AB\) es simplemente la suma de estos \(n\) bloques de construcción de rango 1 (Strang, 2018 Lec. 1, ’7):

\[AB = \sum_{k=1}^{n} a_k b_{*k} = a_1 b_{*1} + a_2 b_{*2} + \dots + a_n b_{*n}\] donde:

  • \(a_k\) es la \(k\)-ésima columna de \(A\).
  • \(b_{*k}\) es la \(k\)-ésima fila de \(B\).

Cada término \(a_k b_{*k}\) genera una matriz donde todas las columnas son múltiplos de \(a_k\) y todas las filas son múltiplos de \(b_{*k}\).

Veamos por que el elemento \((AB)_{ij}\) de la matriz resultante es idéntico en ambos métodos.

La entrada \((i,j)\) de la \(k\)-ésima matriz de la suma es exactamente \(a_{ik}b_{kj}\). Al sumarlas todas, recuperamos la fórmula estándar: \(\sum_{k=1}^{n} a_{ik} b_{kj}\) .

En el método de productos internos (filas por columnas), tenemos: \[(AB)_{ij} = \sum_{k=1}^{n} a_{ik} b_{kj}\] En la suma de productos exteriores, el elemento \((i,j)\) de la \(k\)-ésima matriz \(a_k b_{*k}\) es precisamente \(a_{ik}b_{kj}\). Al sumar las \(n\) matrices, obtenemos exactamente la misma sumatoria para cada entrada de la matriz final.

Esta visión de sumar piezas de rango 1 es un pilar de las grandes factorizaciones del curso: Factorización \(LU\) (Resta sucesivamente matrices de rango 1 para eliminar entradas) y SVD y Descomposición Espectral (Reconstruyen la matriz original sumando sus componentes más importantes [de mayor a menor valor singular/autovalor]).

Nota

Desde el punto de vista computacional, multiplicar una matriz \(m \times n\) por una \(n \times p\) requiere \(mnp\) multiplicaciones, independientemente del orden o la perspectiva utilizada.


  1. Esta factorización permite la reducción de dimensionalidad. Si \(r \ll n\) y \(r \ll m\), la matriz puede almacenarse utilizando \(r(m + n)\) coeficientes en lugar de \(mn\). Esto es la base conceptual de técnicas de compresión y de aproximación de matrices de bajo rango en ciencia de datos.↩︎