Análisis de la Multiplicación de Matrices
En “Operaciones con matrices” vimos una forma de multiplicar entre matrices. ¿Qué pasa si te digo que existe otra forma de ver esta operación?
Así es, existe otra forma de interpretar la multiplicación de matrices. Algunos profesores no hablan sobre ella, pero eso no significa que no sea importante.
Si tenemos la matriz \(A\):
\[A=\left[\begin{array}{cc}\uparrow & \uparrow \\ v_{1} & v_{2} \\ \downarrow & \downarrow\end{array}\right]\]
Formada por los vectores columna \(v_{1}\) y \(v_{2}\). Y la multiplicamos por una matriz \(B\), por ejemplo:
\[B=\left[\begin{array}{ll}a & b \\ c & d\end{array}\right]\]
Podemos hacer lo siguiente:
\[A B=\left[\begin{array}{cc}\uparrow & \uparrow \\ v_{1} & v_{2} \\ \downarrow & \downarrow\end{array}\right]\left[\begin{array}{ll}a & b \\ c & d\end{array}\right]=\left[a\left[\begin{array}{c}\uparrow \\ v_{1} \\ \downarrow\end{array}\right]+c\left[\begin{array}{c}\uparrow \\ v_{2} \\ \downarrow\end{array}\right] \quad b\left[\begin{array}{c}\uparrow \\ v_{1} \\ \downarrow\end{array}\right]+d\left[\begin{array}{c}\uparrow \\ v_{2} \\ \downarrow\end{array}\right]\right]\]
¿Ves lo que ocurrió? Combinamos las columnas de \(A\) usando los elementos de las columnas de \(B\) como coeficientes. Mira el ejemplo:
\[A B=\left[\begin{array}{lll}2 & 1 & 0 \\ 3 & 1 & 2\end{array}\right]\left[\begin{array}{cc}4 & 3 \\ 1 & 5 \\ -1 & 0\end{array}\right]=\left[4\left[\begin{array}{l}2 \\ 3\end{array}\right]+1\left[\begin{array}{l}1 \\ 1\end{array}\right]+(-1)\left[\begin{array}{l}0 \\ 2\end{array}\right] \quad 3\left[\begin{array}{l}2 \\ 3\end{array}\right]+5\left[\begin{array}{l}1 \\ 1\end{array}\right]+0\left[\begin{array}{l}0 \\ 2\end{array}\right]\right]=\left[\begin{array}{cc}9 & 11 \\ 11 & 14\end{array}\right]\]
El resultado es el mismo. Básicamente, estamos haciendo lo mismo que hicimos con el producto de matrices. En el tema anterior lo hicimos término por término, mientras que aquí lo estamos haciendo columna por columna.
La última forma de ver el producto es como la combinación de las filas de \(B\). “¿Cómo así?” Presta atención:
\[A=\left[\begin{array}{ll}a & b \\ c & d\end{array}\right]\]
\[B=\left[\begin{array}{lll}\leftarrow & u_{1} & \rightarrow \\ \leftarrow & u_{2} & \rightarrow\end{array}\right]\]
Y el producto será:
\[A B=\left[\begin{array}{ll}a & b \\ c & d\end{array}\right]\left[\begin{array}{lll}\leftarrow & u_{1} & \rightarrow \\ \leftarrow & u_{2} & \rightarrow\end{array}\right]=\left[\begin{array}{l}a u_{1}+b u_{2} \\ c u_{1}+d u_{2}\end{array}\right]\]
O sea, estamos combinando las filas de \(B\) usando los elementos de las filas de \(A\) como coeficientes. Aplicándolo al ejemplo:
\[A B=\left[\begin{array}{lll}2 & 1 & 0 \\ 3 & 1 & 2\end{array}\right]\left[\begin{array}{cc}4 & 3 \\ 1 & 5 \\ -1 & 0\end{array}\right] =\left[\begin{array}{lll}2\left[\begin{array}{ll}4 & 3\end{array}\right]+1\left[\begin{array}{ll}1 & 5\end{array}\right]+0\left[\begin{array}{ll}-1 & 0\end{array}\right] \\ 3\left[\begin{array}{ll}4 & 3\end{array}\right]+1\left[\begin{array}{ll}1 & 5\end{array}\right]+2\left[\begin{array}{ll}-1 & 0\end{array}\right]\end{array}\right]=\left[\begin{array}{cc}9 & 11 \\ 11 & 14\end{array}\right]\]
Nuevamente obtuvimos el mismo resultado. Por tanto, podemos entender el producto \(A B\) como la combinación lineal de las columnas de \(\boldsymbol{A}\), o como la combinación lineal de las filas de \(\boldsymbol{B}\).
Resumiendo las tres formas de multiplicar que vimos:
\[\left[\begin{array}{ll}a & b \\ c & d\end{array}\right]\left[\begin{array}{ll}e & f \\ g & h\end{array}\right]=\left[\begin{array}{ll}e a+g b & f a+h b \\ e c+g d & f c+h d\end{array}\right]\]
\[\left[\begin{array}{cc}\uparrow & \uparrow \\ v_{1} & v_{2} \\ \downarrow & \downarrow\end{array}\right]\left[\begin{array}{ll}e & f \\ g & h\end{array}\right]=\left[e\left[\begin{array}{c}\uparrow \\ v_{1} \\ \downarrow\end{array}\right]+g\left[\begin{array}{c}\uparrow \\ v_{2} \\ \downarrow\end{array}\right] \quad f\left[\begin{array}{c}\uparrow \\ v_{1} \\ \downarrow\end{array}\right]+h\left[\begin{array}{c}\uparrow \\ v_{2} \\ \downarrow\end{array}\right]\right]\]
\[\left[\begin{array}{ll}a & b \\ c & d\end{array}\right]\left[\begin{array}{lll}\leftarrow & u_{1} & \rightarrow \\ \leftarrow & u_{2} & \rightarrow\end{array}\right]=\left[\begin{array}{lll} a[\leftarrow & u_{1} & \rightarrow]+ b[\leftarrow & u_{2} & \rightarrow] \\ c[\leftarrow & u_{1} & \rightarrow] +d[ \leftarrow & u_{2} & \rightarrow]\end{array}\right]\]
OBS: ahora que sabemos multiplicar matrices por matrices, o más específicamente, por vectores (si la matriz solo tiene \(1\) columna), podemos ver que la matriz \(m \times n\) “tomará” vectores de \(\mathbb{R}^{n}\) y los llevará en vectores de \(\mathbb{R}^{m}\). Por ejemplo, si tenemos una matriz \(3 \times 2\):
\[\left[\begin{array}{ll}a & d \\ b & e \\ c & f\end{array}\right] \underbrace{\left[\begin{array}{l}x \\ y\end{array}\right]}_{\mathbb{R}^{2}}=\underbrace{\left[\begin{array}{l}x a+y d \\ x b+y e \\ x c+y f\end{array}\right]}_{\mathbb{R}^{3}}\]
Esta toma vectores de \(\mathbb{R}^{2}\) en vectores de \(\mathbb{R}^{3}\).
Además, existen algunas propiedades que parten de la multiplicación de matrices:
\(1)\) \(A(B C)=(A B) C\) (el producto de matrices es asociativo)
\(2)\) \(A(B+C)=A B+A C \neq((B+C) A=B A+C A)\)
\(3)\) \((A+B) C=A C+B C \neq(C(A+B)=C A+C B)\)
\(4)\) \(A I=A\)
OBS 1: en relación al número \(2\) y \(3\), podemos ver que el LADO en el cual multiplicamos la matriz importa. En el caso \(2\), no podríamos poner en evidencia la matriz \(A\) a la derecha porque el resultado sería distinto, ya que, en general \(B A \neq A B\) y \(C A \neq A C\). Llamamos al caso \(2\) “poner en evidencia \(A\) a la izquierda”.
OBS 2: lo mismo ocurre con el caso \(3\), donde podemos ver que poner en evidencia \(C\) a la derecha es diferente a poner en evidencia \(C\) a la izquierda porque, en general, \(C A \neq A C\) y \(C B \neq B C\).