Continuamos la conversación sobre acciones con matrices. Es decir, durante el estudio de esta conferencia aprenderá cómo encontrar la matriz inversa. Aprender. Incluso si las matemáticas son difíciles.

¿Qué es una matriz inversa? Aquí podemos hacer una analogía con los números inversos: consideremos, por ejemplo, el número optimista 5 y su número inverso. El producto de estos números es igual a uno: . ¡Todo es similar con las matrices! El producto de una matriz y su matriz inversa es igual a – matriz de identidad, que es el análogo matricial de la unidad numérica. Sin embargo, lo primero es lo primero: primero resolvamos una cuestión práctica importante: aprender a encontrar esta matriz tan inversa.

¿Qué necesitas saber y poder hacer para encontrar la matriz inversa? Debes poder decidir clasificados. Debes entender lo que es. matriz y poder realizar algunas acciones con ellos.

Hay dos métodos principales para encontrar la matriz inversa:
usando sumas algebraicas Y usando transformaciones elementales.

Hoy estudiaremos el primer método, más sencillo.

Empecemos por lo más terrible e incomprensible. consideremos cuadrado matriz. La matriz inversa se puede encontrar usando la siguiente fórmula:

Donde está el determinante de la matriz, es la matriz transpuesta de complementos algebraicos de los elementos correspondientes de la matriz.

El concepto de matriz inversa existe sólo para matrices cuadradas., matrices “dos por dos”, “tres por tres”, etc.

Designaciones: Como ya habrás notado, la matriz inversa se denota con un superíndice

Comencemos con el caso más simple: una matriz de dos por dos. La mayoría de las veces, por supuesto, se requiere "tres por tres", pero, sin embargo, recomiendo encarecidamente estudiar una tarea más simple para comprender el principio general de la solución.

Ejemplo:

Encuentra la inversa de una matriz.

Decidamos. Conviene desglosar punto por punto la secuencia de actuaciones.

1) Primero encontramos el determinante de la matriz..

Si su comprensión de esta acción no es buena, lea el material. ¿Cómo calcular el determinante?

¡Importante! Si el determinante de la matriz es igual a CERO– matriz inversa NO EXISTE.

En el ejemplo que estamos considerando, resultó que , lo que significa que todo está en orden.

2) Encuentra la matriz de menores..

Para solucionar nuestro problema no es necesario saber qué es un menor, sin embargo, es recomendable leer el artículo. Cómo calcular el determinante.

La matriz de menores tiene las mismas dimensiones que la matriz, es decir, en este caso.
Lo único que queda por hacer es encontrar cuatro números y ponerlos en lugar de asteriscos.

Volvamos a nuestra matriz.
Veamos primero el elemento superior izquierdo:

como encontrarlo menor?
Y esto se hace así: tacha MENTALMENTE la fila y columna en la que se encuentra este elemento:

El número restante es menor de este elemento, que escribimos en nuestra matriz de menores:

Considere el siguiente elemento de la matriz:

Tacha mentalmente la fila y columna en la que aparece este elemento:

Lo que queda es el menor de este elemento, que escribimos en nuestra matriz:

De manera similar, consideramos los elementos de la segunda fila y encontramos sus menores:


Listo.

Es sencillo. En la matriz de menores necesitas. CAMBIAR SIGNOS dos números:

¡Estos son los números que rodeé!

– matriz de sumas algebraicas de los elementos correspondientes de la matriz.

Y solo...

4) Encuentra la matriz transpuesta de sumas algebraicas..

– matriz transpuesta de complementos algebraicos de los elementos correspondientes de la matriz.

5) Responder.

Recordemos nuestra fórmula.
¡Todo ha sido encontrado!

Entonces la matriz inversa es:

Es mejor dejar la respuesta como está. NO HAY NECESIDAD divide cada elemento de la matriz por 2, ya que el resultado son números fraccionarios. Este matiz se analiza con más detalle en el mismo artículo. Acciones con matrices.

¿Cómo comprobar la solución?

Necesitas realizar una multiplicación de matrices o

Examen:

Recibido ya mencionado matriz de identidad es una matriz con unos por diagonal principal y ceros en otros lugares.

Por tanto, la matriz inversa se encuentra correctamente.

Si realizas la acción, el resultado también será una matriz de identidad. Este es uno de los pocos casos en los que la multiplicación de matrices es conmutativa; se pueden encontrar más detalles en el artículo. Propiedades de las operaciones sobre matrices. Expresiones matriciales. También tenga en cuenta que durante la verificación, la constante (fracción) se adelanta y se procesa al final, después de la multiplicación de matrices. Esta es una técnica estándar.

Pasemos a un caso más común en la práctica: la matriz de tres por tres:

Ejemplo:

Encuentra la inversa de una matriz.

El algoritmo es exactamente el mismo que para el caso “dos por dos”.

Encontramos la matriz inversa usando la fórmula: , donde es la matriz transpuesta de complementos algebraicos de los elementos correspondientes de la matriz.

1) Encuentra el determinante de la matriz..


Aquí se revela el determinante. en la primera linea.

Además, no lo olvides, lo que significa que todo está bien. existe matriz inversa.

2) Encuentra la matriz de menores..

La matriz de menores tiene una dimensión de “tres por tres” , y necesitamos encontrar nueve números.

Examinaré más de cerca a un par de menores:

Considere el siguiente elemento de la matriz:

MENTALMENTE tacha la fila y columna en la que se encuentra este elemento:

Escribimos los cuatro números restantes en el determinante “dos por dos”.

Este determinante de dos por dos y es el menor de este elemento. Es necesario calcularlo:


Listo, el menor ha sido encontrado, lo escribimos en nuestra matriz de menores:

Como probablemente habrás adivinado, necesitas calcular nueve determinantes de dos por dos. El proceso, por supuesto, es tedioso, pero el caso no es el más grave, puede ser peor.

Bueno, para consolidar – encontrar otro menor en las imágenes:

Intente calcular usted mismo los menores restantes.

Resultado final:
– matriz de menores de los elementos correspondientes de la matriz.

El hecho de que todos los menores hayan resultado negativos es pura casualidad.

3) Encuentra la matriz de sumas algebraicas..

En la matriz de menores es necesario CAMBIAR SIGNOS estrictamente para los siguientes elementos:

En este caso:

No consideramos encontrar la matriz inversa para una matriz de “cuatro por cuatro”, ya que tal tarea solo la puede encomendar un maestro sádico (para que el estudiante calcule un determinante de “cuatro por cuatro” y 16 determinantes de “tres por tres” ). En mi práctica, solo hubo un caso de este tipo, y el cliente de la prueba pagó bastante caro por mi tormento =).

En varios libros de texto y manuales puede encontrar un enfoque ligeramente diferente para encontrar la matriz inversa, pero recomiendo utilizar el algoritmo de solución descrito anteriormente. ¿Por qué? Porque la probabilidad de confundirse en cálculos y signos es mucho menor.

Definición 1: una matriz se llama singular si su determinante es cero.

Definición 2: una matriz se llama no singular si su determinante no es igual a cero.

La matriz "A" se llama matriz inversa, si se cumple la condición A*A-1 = A-1 *A = E (matriz unitaria).

Una matriz cuadrada es invertible sólo si no es singular.

Esquema para calcular la matriz inversa:

1) Calcular el determinante de la matriz "A" si A = 0, entonces la matriz inversa no existe.

2) Encuentre todos los complementos algebraicos de la matriz "A".

3) Crear una matriz de sumas algebraicas (Aij)

4) Transponer la matriz de complementos algebraicos (Aij )T

5) Multiplica la matriz transpuesta por la inversa del determinante de esta matriz.

6) Realizar verificación:

A primera vista puede parecer complicado, pero en realidad todo es muy sencillo. Todas las soluciones se basan en operaciones aritméticas simples; lo principal a la hora de resolver es no confundirse con los signos “-” y “+” y no perderlos.

Ahora resolvamos juntos un problema práctico calculando la matriz inversa.

Tarea: encuentre la matriz inversa "A" que se muestra en la siguiente imagen:

Resolvemos todo exactamente como se indica en el plan de cálculo de la matriz inversa.

1. Lo primero que hay que hacer es encontrar el determinante de la matriz "A":

Explicación:

Hemos simplificado nuestro determinante usando sus funciones básicas. Primero, sumamos a las líneas 2 y 3 los elementos de la primera línea, multiplicados por un número.

En segundo lugar, cambiamos la segunda y tercera columnas del determinante y, según sus propiedades, cambiamos el signo delante de él.

En tercer lugar, eliminamos el factor común (-1) de la segunda línea, cambiando así el signo nuevamente y se volvió positivo. También simplificamos la línea 3 de la misma manera que al principio del ejemplo.

Tenemos un determinante triangular cuyos elementos debajo de la diagonal son iguales a cero, y por la propiedad 7 es igual al producto de los elementos de la diagonal. Al final conseguimos A = 26, por lo tanto existe la matriz inversa.

A11 = 1*(3+1) = 4

A12 = -1*(9+2) = -11

A13 = 1*1 = 1

A21 = -1*(-6) = 6

A22 = 1*(3-0) = 3

A23 = -1*(1+4) = -5

A31 = 1*2 = 2

A32 = -1*(-1) = -1

A33 = 1+(1+6) = 7

3. El siguiente paso es compilar una matriz a partir de las adiciones resultantes:

5. Multiplica esta matriz por la inversa del determinante, es decir, por 1/26:

6. Ahora sólo nos falta comprobar:

Durante la prueba recibimos una matriz de identidad, por lo que la solución se realizó de forma absolutamente correcta.

2 formas de calcular la matriz inversa.

1. Transformación de matriz elemental

2. Matriz inversa a través de un convertidor elemental.

La transformación matricial elemental incluye:

1. Multiplicar una cadena por un número distinto de cero.

2. Sumar a cualquier línea otra línea multiplicada por un número.

3. Intercambia las filas de la matriz.

4. Aplicando una cadena de transformaciones elementales, obtenemos otra matriz.

A -1 = ?

1. (A|E) ~ (E|A -1 )

2.A -1 * A = mi

Veamos esto usando un ejemplo práctico con números reales.

Ejercicio: Encuentra la matriz inversa.

Solución:

Comprobemos:

Una pequeña aclaración sobre la solución:

Primero, reorganizamos las filas 1 y 2 de la matriz, luego multiplicamos la primera fila por (-1).

Después de eso, multiplicamos la primera fila por (-2) y la sumamos con la segunda fila de la matriz. Luego multiplicamos la línea 2 por 1/4.

La etapa final de la transformación fue multiplicar la segunda línea por 2 y sumarla con la primera. Como resultado, tenemos una matriz identidad a la izquierda, por lo tanto, la matriz inversa es la matriz de la derecha.

Después de comprobarlo, nos convencimos de que la decisión fue correcta.

Como puedes ver, calcular la matriz inversa es muy sencillo.

Al final de esta conferencia, también me gustaría dedicar un poco de tiempo a las propiedades de dicha matriz.

Este tema es uno de los más odiados entre los estudiantes. Peores, probablemente, sean las eliminatorias.

El truco es que el concepto mismo de elemento inverso (y no hablo solo de matrices) nos remite a la operación de multiplicación. Incluso en el plan de estudios escolar, la multiplicación se considera una operación compleja, y la multiplicación de matrices es generalmente un tema aparte, al que tengo dedicado un párrafo completo y una lección en video.

Hoy no entraremos en los detalles de los cálculos matriciales. Recordemos: cómo se designan las matrices, cómo se multiplican y qué se sigue de esto.

Revisión: multiplicación de matrices

Primero que nada, pongámonos de acuerdo sobre la notación. Una matriz $A$ de tamaño $\left[ m\times n \right]$ es simplemente una tabla de números con exactamente $m$ filas y $n$ columnas:

\=\underbrace(\left[ \begin(matrix) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrix) \right])_(n)\]

Para evitar mezclar accidentalmente filas y columnas (créanme, en un examen se puede confundir un uno con un dos, y mucho menos algunas filas), basta con mirar la imagen:

Determinación de índices para celdas de matriz.

¿Lo que está sucediendo? Si coloca el sistema de coordenadas estándar $OXY$ en la esquina superior izquierda y dirige los ejes para que cubran toda la matriz, entonces cada celda de esta matriz se puede asociar de forma única con las coordenadas $\left(x;y \right)$ - este será el número de fila y el número de columna.

¿Por qué el sistema de coordenadas está colocado en la esquina superior izquierda? Sí, porque es a partir de ahí que empezamos a leer cualquier texto. Es muy fácil de recordar.

¿Por qué el eje $x$ está dirigido hacia abajo y no hacia la derecha? Nuevamente, es simple: tome un sistema de coordenadas estándar (el eje $x$ va hacia la derecha, el eje $y$ sube) y gírelo para que cubra la matriz. Se trata de una rotación de 90 grados en el sentido de las agujas del reloj; vemos el resultado en la imagen.

En general, hemos descubierto cómo determinar los índices de los elementos matriciales. Ahora veamos la multiplicación.

Definición. Las matrices $A=\left[ m\times n \right]$ y $B=\left[ n\times k \right]$, cuando el número de columnas de la primera coincide con el número de filas de la segunda, son llamado consistente.

Exactamente en ese orden. Uno puede confundirse y decir que las matrices $A$ y $B$ forman un par ordenado $\left(A;B \right)$: si son consistentes en este orden, entonces no es del todo necesario que $B $ y $A$ esos. el par $\left(B;A \right)$ también es consistente.

Sólo se pueden multiplicar matrices coincidentes.

Definición. El producto de matrices coincidentes $A=\left[ m\times n \right]$ y $B=\left[ n\times k \right]$ es la nueva matriz $C=\left[ m\times k \right]$ ]$ , cuyos elementos $((c)_(ij))$ se calculan según la fórmula:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

En otras palabras: para obtener el elemento $((c)_(ij))$ de la matriz $C=A\cdot B$, necesitas tomar la fila $i$ de la primera matriz, el $j$ -ésima columna de la segunda matriz, y luego multiplique en pares los elementos de esta fila y columna. Sume los resultados.

Sí, esa es una definición muy dura. De ello se desprenden inmediatamente varios hechos:

  1. La multiplicación de matrices, en términos generales, no es conmutativa: $A\cdot B\ne B\cdot A$;
  2. Sin embargo, la multiplicación es asociativa: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. E incluso distributivamente: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. Y una vez más distributivamente: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

La distributividad de la multiplicación tuvo que describirse por separado para el factor de suma izquierdo y derecho precisamente debido a la no conmutatividad de la operación de multiplicación.

Si resulta que $A\cdot B=B\cdot A$, tales matrices se llaman conmutativas.

Entre todas las matrices que se multiplican por algo allí, hay unas especiales: aquellas que, cuando se multiplican por cualquier matriz $A$, nuevamente dan $A$:

Definición. Una matriz $E$ se llama identidad si $A\cdot E=A$ o $E\cdot A=A$. En el caso de una matriz cuadrada $A$ podemos escribir:

La matriz identidad es una invitada frecuente a la hora de resolver ecuaciones matriciales. Y en general, un invitado frecuente en el mundo de las matrices :)

Y debido a esto $E$, a alguien se le ocurrieron todas las tonterías que se escribirán a continuación.

¿Qué es una matriz inversa?

Dado que la multiplicación de matrices es una operación que requiere mucha mano de obra (hay que multiplicar un montón de filas y columnas), el concepto de matriz inversa tampoco resulta ser el más trivial. Y requiere alguna explicación.

Definición clave

Bueno, es hora de saber la verdad.

Definición. Una matriz $B$ se llama inversa de una matriz $A$ si

La matriz inversa se denota por $((A)^(-1))$ (¡no debe confundirse con el grado!), por lo que la definición se puede reescribir de la siguiente manera:

Parecería que todo es sumamente sencillo y claro. Pero al analizar esta definición, inmediatamente surgen varias preguntas:

  1. ¿Existe siempre una matriz inversa? Y si no siempre, ¿cómo determinar: cuándo existe y cuándo no?
  2. ¿Y quién dijo que existe exactamente una matriz así? ¿Qué pasa si para alguna matriz inicial $A$ hay toda una multitud de inversas?
  3. ¿Cómo son todos estos “reversos”? ¿Y cómo, exactamente, deberíamos contarlos?

En cuanto a los algoritmos de cálculo, hablaremos de esto un poco más adelante. Pero responderemos las preguntas restantes ahora mismo. Formulémoslos en forma de enunciados-lemas separados.

Propiedades básicas

Comencemos con cómo debería verse, en principio, la matriz $A$ para que $((A)^(-1))$ exista. Ahora nos aseguraremos de que ambas matrices sean cuadradas y del mismo tamaño: $\left[ n\times n \right]$.

Lema 1. Dada una matriz $A$ y su inversa $((A)^(-1))$. Entonces ambas matrices son cuadradas y del mismo orden $n$.

Prueba. Es sencillo. Sea la matriz $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ a\times b \right]$. Dado que el producto $A\cdot ((A)^(-1))=E$ existe por definición, las matrices $A$ y $((A)^(-1))$ son consistentes en el orden que se muestra:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( alinear)\]

Esta es una consecuencia directa del algoritmo de multiplicación de matrices: los coeficientes $n$ y $a$ son de “tránsito” y deben ser iguales.

Al mismo tiempo, también se define la multiplicación inversa: $((A)^(-1))\cdot A=E$, por lo tanto las matrices $((A)^(-1))$ y $A$ son también consistente en el orden especificado:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( alinear)\]

Por lo tanto, sin pérdida de generalidad, podemos suponer que $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ n\times m \right]$. Sin embargo, de acuerdo con la definición de $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$, por lo tanto, los tamaños de las matrices coinciden estrictamente:

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Entonces resulta que las tres matrices - $A$, $((A)^(-1))$ y $E$ - son matrices cuadradas de tamaño $\left[ n\times n \right]$. El lema está probado.

Bueno, eso ya es bueno. Vemos que sólo las matrices cuadradas son invertibles. Ahora asegurémonos de que la matriz inversa sea siempre la misma.

Lema 2. Dada una matriz $A$ y su inversa $((A)^(-1))$. Entonces esta matriz inversa es la única.

Prueba. Vayamos por contradicción: dejemos que la matriz $A$ tenga al menos dos inversas: $B$ y $C$. Entonces, según la definición, se cumplen las siguientes igualdades:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(alinear)\]

Del Lema 1 concluimos que las cuatro matrices - $A$, $B$, $C$ y $E$ - son cuadrados del mismo orden: $\left[ n\times n \right]$. Por tanto, el producto se define:

Como la multiplicación de matrices es asociativa (¡pero no conmutativa!), podemos escribir:

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Rightarrow B=C. \\ \end(alinear)\]

Tenemos la única opción posible: dos copias de la matriz inversa son iguales. El lema está probado.

El razonamiento anterior repite casi palabra por palabra la prueba de la unicidad del elemento inverso para todos los números reales $b\ne 0$. La única adición significativa es tener en cuenta la dimensión de las matrices.

Sin embargo, todavía no sabemos nada sobre si toda matriz cuadrada es invertible. Aquí el determinante viene en nuestra ayuda: esta es una característica clave de todas las matrices cuadradas.

Lema 3. Dada una matriz $A$. Si su matriz inversa $((A)^(-1))$ existe, entonces el determinante de la matriz original es distinto de cero:

\[\izquierda| A\right|\ne 0\]

Prueba. Ya sabemos que $A$ y $((A)^(-1))$ son matrices cuadradas de tamaño $\left[ n\times n \right]$. Por tanto, para cada uno de ellos podemos calcular el determinante: $\left| A\right|$ y $\left| ((A)^(-1)) \derecha|$. Sin embargo, el determinante de un producto es igual al producto de los determinantes:

\[\izquierda| A\cdot B \right|=\left| A \right|\cdot \left| B \right|\Rightarrow \left| A\cdot ((A)^(-1)) \right|=\left| A \right|\cdot \left| ((A)^(-1)) \derecha|\]

Pero según la definición, $A\cdot ((A)^(-1))=E$, y el determinante de $E$ siempre es igual a 1, entonces

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \izquierda| A\cdot ((A)^(-1)) \right|=\left| E\derecha|; \\ & \izquierda| A \right|\cdot \left| ((A)^(-1)) \right|=1. \\ \end(alinear)\]

El producto de dos números es igual a uno sólo si cada uno de estos números es distinto de cero:

\[\izquierda| A \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Entonces resulta que $\left| A \right|\ne 0$. El lema está probado.

De hecho, este requisito es bastante lógico. Ahora analizaremos el algoritmo para encontrar la matriz inversa y quedará completamente claro por qué, con un determinante cero, en principio no puede existir ninguna matriz inversa.

Pero primero, formulemos una definición "auxiliar":

Definición. Una matriz singular es una matriz cuadrada de tamaño $\left[ n\times n \right]$ cuyo determinante es cero.

Por tanto, podemos afirmar que toda matriz invertible es no singular.

Cómo encontrar la inversa de una matriz

Ahora consideraremos un algoritmo universal para encontrar matrices inversas. En general, hay dos algoritmos generalmente aceptados, y hoy también consideraremos el segundo.

El que se discutirá ahora es muy efectivo para matrices de tamaño $\left[ 2\times 2 \right]$ y, parcialmente, de tamaño $\left[ 3\times 3 \right]$. Pero a partir del tamaño $\left[ 4\times 4 \right]$ es mejor no usarlo. Por qué, ahora lo entenderás todo tú mismo.

Sumas algebraicas

Prepararse. Ahora habrá dolor. No, no te preocupes: una hermosa enfermera con falda y medias de encaje no vendrá a ti para ponerte una inyección en el trasero. Todo es mucho más prosaico: te llegan las adiciones algebraicas y Su Majestad “Union Matrix”.

Empecemos por lo principal. Sea una matriz cuadrada de tamaño $A=\left[ n\times n \right]$, cuyos elementos se llaman $((a)_(ij))$. Luego, para cada uno de esos elementos podemos definir un complemento algebraico:

Definición. Complemento algebraico $((A)_(ij))$ al elemento $((a)_(ij))$ ubicado en la $i$ésima fila y la $j$ésima columna de la matriz $A=\left[ n \times n \right]$ es una construcción de la forma

\[((A)_(ij))=((\left(-1 \right))^(i+j))\cdot M_(ij)^(*)\]

Donde $M_(ij)^(*)$ es el determinante de la matriz obtenida del $A$ original eliminando la misma $i$ésima fila y la $j$ésima columna.

De nuevo. El complemento algebraico de un elemento de matriz con coordenadas $\left(i;j \right)$ se denota como $((A)_(ij))$ y se calcula según el esquema:

  1. Primero, eliminamos la fila $i$ y la columna $j$-ésima de la matriz original. Obtenemos una nueva matriz cuadrada y denotamos su determinante como $M_(ij)^(*)$.
  2. Luego multiplicamos este determinante por $((\left(-1 \right))^(i+j))$ - al principio esta expresión puede parecer alucinante, pero en esencia simplemente estamos descifrando el signo delante de $M_(ij)^(*) $.
  3. Contamos y obtenemos un número específico. Aquellos. la suma algebraica es precisamente un número, y no una nueva matriz, etc.

La matriz $M_(ij)^(*)$ en sí misma se llama menor adicional del elemento $((a)_(ij))$. Y en este sentido, la definición anterior de complemento algebraico es un caso especial de una definición más compleja: la que vimos en la lección sobre el determinante.

Nota importante. En realidad, en matemáticas para “adultos”, las sumas algebraicas se definen de la siguiente manera:

  1. Tomamos $k$ filas y $k$ columnas en una matriz cuadrada. En su intersección obtenemos una matriz de tamaño $\left[ k\times k \right]$ - su determinante se llama menor de orden $k$ y se denota $((M)_(k))$.
  2. Luego tachamos estas $k$ filas y $k$ columnas "seleccionadas". Una vez más se obtiene una matriz cuadrada: su determinante se llama menor adicional y se denota $M_(k)^(*)$.
  3. Multiplica $M_(k)^(*)$ por $((\left(-1 \right))^(t))$, donde $t$ es (¡atención ahora!) la suma de los números de todas las filas seleccionadas y columnas. Esta será la suma algebraica.

Mire el tercer paso: ¡en realidad hay una suma de $2k$ términos! Otra cosa es que para $k=1$ obtendremos solo 2 términos - estos serán los mismos $i+j$ - las “coordenadas” del elemento $((a)_(ij))$ para el cual estamos buscando un complemento algebraico.

Así que hoy usaremos una definición ligeramente simplificada. Pero como veremos más adelante será más que suficiente. Lo siguiente es mucho más importante:

Definición. La matriz aliada $S$ a la matriz cuadrada $A=\left[ n\times n \right]$ es una nueva matriz de tamaño $\left[ n\times n \right]$, que se obtiene de $A$ reemplazando $(( a)_(ij))$ por sumas algebraicas $((A)_(ij))$:

\\Rightarrow S=\left[ \begin(matrix) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matriz) \right]\]

El primer pensamiento que surge al momento de darnos cuenta de esta definición es “¡cuánto habrá que contar!”. Tranquilo: tendrás que contar, pero no tanto :)

Bueno, todo esto es muy bonito, pero ¿por qué es necesario? Pero por qué.

Teorema principal

Retrocedamos un poco. Recuerde, el Lema 3 establece que una matriz invertible $A$ siempre es no singular (es decir, su determinante es distinto de cero: $\left| A \right|\ne 0$).

Entonces, lo contrario también es cierto: si la matriz $A$ no es singular, entonces siempre es invertible. E incluso hay un esquema de búsqueda para $((A)^(-1))$. Échale un vistazo:

Teorema de la matriz inversa. Sea una matriz cuadrada $A=\left[ n\times n \right]$ y su determinante sea distinto de cero: $\left| A \right|\ne 0$. Entonces la matriz inversa $((A)^(-1))$ existe y se calcula mediante la fórmula:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))\]

Y ahora, todo es igual, pero con letra legible. Para encontrar la matriz inversa, necesitas:

  1. Calcula el determinante $\left| A \right|$ y asegúrese de que no sea cero.
  2. Construya la matriz de unión $S$, es decir cuente 100500 adiciones algebraicas $((A)_(ij))$ y colóquelas en su lugar $((a)_(ij))$.
  3. Transponga esta matriz $S$ y luego multiplíquela por algún número $q=(1)/(\left| A \right|)\;$.

¡Eso es todo! Se ha encontrado la matriz inversa $((A)^(-1))$. Veamos ejemplos:

\[\left[ \begin(matrix) 3 y 1 \\ 5 y 2 \\\end(matrix) \right]\]

Solución. Comprobemos la reversibilidad. Calculemos el determinante:

\[\izquierda| A\derecha|=\izquierda| \begin(matriz) 3 y 1 \\ 5 y 2 \\\end(matriz) \right|=3\cdot 2-1\cdot 5=6-5=1\]

El determinante es diferente de cero. Esto significa que la matriz es invertible. Creemos una matriz de unión:

Calculemos las sumas algebraicas:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2 \derecha|=2; \\ & ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| 5 \derecha|=-5; \\ & ((A)_(21))=((\left(-1 \right))^(2+1))\cdot \left| 1 \derecha|=-1; \\ & ((A)_(22))=((\left(-1 \right))^(2+2))\cdot \left| 3\derecha|=3. \\ \end(alinear)\]

Tenga en cuenta: los determinantes |2|, |5|, |1| y |3| son determinantes de matrices de tamaño $\left[ 1\times 1 \right]$, y no módulos. Aquellos. Si hubiera números negativos en los determinantes, no es necesario eliminar el "menos".

En total, nuestra matriz de unión se ve así:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (matriz)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(matriz) \right]\]

Bueno, eso es todo. El problema está resuelto.

Respuesta. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Tarea. Encuentra la matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Solución. Calculamos nuevamente el determinante:

\[\begin(alinear) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matriz ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrix)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

El determinante es distinto de cero: la matriz es invertible. Pero ahora va a ser realmente difícil: necesitamos contar hasta 9 (¡nueve, hijo de puta!) sumas algebraicas. Y cada uno de ellos contendrá el determinante $\left[ 2\times 2 \right]$. Voló:

\[\begin(matriz) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matriz) 2 & -1 \\ 0 & 1 \\\end(matriz) \right|=2; \\ ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| \begin(matriz) 0 & -1 \\ 1 & 1 \\\end(matriz) \right|=-1; \\ ((A)_(13))=((\left(-1 \right))^(1+3))\cdot \left| \begin(matriz) 0 y 2 \\ 1 y 0 \\\end(matriz) \right|=-2; \\ ... \\ ((A)_(33))=((\left(-1 \right))^(3+3))\cdot \left| \begin(matriz) 1 & -1 \\ 0 & 2 \\\end(matriz) \right|=2; \\ \end(matriz)\]

En resumen, la matriz de unión quedará así:

Por tanto, la matriz inversa será:

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matrix) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 y 1 y 2 \\\end(matriz) \right]=\left[ \begin(array)(*(35)(r))-2 y -1 y 3 \\ 1 y 1 y -1 \ \2 & 1 & -2 \\\end(array) \right]\]

Eso es todo. Aquí está la respuesta.

Respuesta. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Como puede ver, al final de cada ejemplo realizamos una verificación. Al respecto, una nota importante:

No seas perezoso para comprobarlo. Multiplique la matriz original por la matriz inversa encontrada; debería obtener $E$.

Realizar esta verificación es mucho más fácil y rápido que buscar un error en cálculos posteriores cuando, por ejemplo, estás resolviendo una ecuación matricial.

Manera alternativa

Como dije, el teorema de la matriz inversa funciona muy bien para tamaños $\left[ 2\times 2 \right]$ y $\left[ 3\times 3 \right]$ (en el último caso, no es tan “genial” " ), pero para matrices de gran tamaño comienza la tristeza.

Pero no te preocupes: existe un algoritmo alternativo con el que puedes encontrar tranquilamente la inversa incluso para la matriz $\left[ 10\times 10 \right]$. Pero, como suele suceder, para considerar este algoritmo necesitamos un poco de base teórica.

Transformaciones elementales

Entre todas las posibles transformaciones matriciales, hay varias especiales: se llaman elementales. Hay exactamente tres de esas transformaciones:

  1. Multiplicación. Puedes tomar la $i$ésima fila (columna) y multiplicarla por cualquier número $k\ne 0$;
  2. Suma. Agregue a la $i$-ésima fila (columna) cualquier otra $j$-ésima fila (columna) multiplicada por cualquier número $k\ne 0$ (puede, por supuesto, hacer $k=0$, pero ¿cuál es el punto? ? Nada cambiará).
  3. Nueva disposición. Tome las filas (columnas) $i$ésima y $j$ésima e intercambie lugares.

Por qué estas transformaciones se llaman elementales (para matrices grandes no parecen tan elementales) y por qué solo hay tres: estas preguntas están fuera del alcance de la lección de hoy. Por tanto, no entraremos en detalles.

Otra cosa es importante: tenemos que realizar todas estas perversiones en la matriz adjunta. Sí, sí: has oído bien. Ahora habrá una definición más: la última de la lección de hoy.

matriz adjunta

Seguramente en el colegio resolviste sistemas de ecuaciones mediante el método de la suma. Bueno, resta otra línea de una línea, multiplica alguna línea por un número, eso es todo.

Entonces: ahora todo será igual, pero de forma “adulta”. ¿Estás listo?

Definición. Sea una matriz $A=\left[ n\times n \right]$ y una matriz identidad $E$ del mismo tamaño $n$. Entonces la matriz adjunta $\left[ A\left| E\bien. \right]$ es una nueva matriz de tamaño $\left[ n\times 2n \right]$ que se ve así:

\[\izquierda[ A\izquierda| E\bien. \right]=\left[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

En resumen, tomamos la matriz $A$, a la derecha le asignamos la matriz identidad $E$ del tamaño requerido, las separamos con una barra vertical por belleza - aquí tienes el adjunto :)

¿Cuál es el chiste? Esto es lo que:

Teorema. Sea la matriz $A$ invertible. Considere la matriz adjunta $\left[ A\left| E\bien. \derecha]$. Si usa conversiones de cadenas elementales llévelo a la forma $\left[ E\left| Brillante. \right]$, es decir multiplicando, restando y reordenando filas para obtener de $A$ la matriz $E$ de la derecha, entonces la matriz $B$ obtenida de la izquierda es la inversa de $A$:

\[\izquierda[ A\izquierda| E\bien. \right]\a \left[ E\left| Brillante. \right]\Rightarrow B=((A)^(-1))\]

¡Es así de simple! En resumen, el algoritmo para encontrar la matriz inversa se ve así:

  1. Escribe la matriz adjunta $\left[ A\left| E\bien. \derecha]$;
  2. Realice conversiones de cadenas elementales hasta que aparezca $E$ en lugar de $A$;
  3. Por supuesto, también aparecerá algo a la izquierda: una determinada matriz $B$. Esto será lo contrario;
  4. ¡GANANCIA!:)

Por supuesto, es mucho más fácil decirlo que hacerlo. Así que veamos un par de ejemplos: para tamaños $\left[ 3\times 3 \right]$ y $\left[ 4\times 4 \right]$.

Tarea. Encuentra la matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 y 5 y 1 \\ 3 y 2 y 1 \\ 6 y -2 y 1 \\\end(array) \right]\ ]

Solución. Creamos la matriz adjunta:

\[\left[ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 3 y 2 y 1 y 0 y 1 y 0 \\ 6 y -2 y 1 y 0 y 0 y 1 \\\end(array) \right]\]

Dado que la última columna de la matriz original está llena de unos, resta la primera fila del resto:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 3 y 2 y 1 y 0 y 1 y 0 \\ 6 y - 2 y 1 y 0 y 0 y 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\\end(matrix)\to \\ & \to \left [ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 2 y -3 y 0 y -1 y 1 y 0 \\ 5 y -7 y 0 y -1 y 0 & 1 \\\end(array) \right] \\ \end(align)\]

No hay más unidades, excepto la primera línea. Pero no lo tocamos, de lo contrario las unidades recién eliminadas comenzarán a "multiplicarse" en la tercera columna.

Pero podemos restar la segunda línea dos veces de la última; obtenemos una en la esquina inferior izquierda:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 2 y -3 y 0 y -1 y 1 y 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrix) \ \\ \downarrow \\ -2 \\\end(matrix)\to \\ & \left [ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 2 y -3 y 0 y -1 y 1 y 0 \\ 1 y -1 y 0 y 1 y -2 & 1 \\\end(array) \right] \\ \end(align)\]

Ahora podemos restar la última fila de la primera y dos veces de la segunda; de esta manera ponemos a “cero” la primera columna:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 2 y -3 y 0 y -1 y 1 y 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -1 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \ a \left[ \begin(array)(rrr|rrr) 0 y 6 y 1 y 0 y 2 y -1 \\ 0 y -1 y 0 y -3 y 5 y -2 \\ 1 y -1 y 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multiplica la segunda línea por −1, luego réstala 6 veces de la primera y suma 1 vez a la última:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 y 6 y 1 y 0 y 2 y -1 \\ 0 y -1 y 0 y -3 y 5 y -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matriz) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -6 \\ \updownarrow \\ +1 \\\end (matriz)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Todo lo que queda es intercambiar las líneas 1 y 3:

\[\left[ \begin(array)(rrr|rrr) 1 y 0 y 0 y 4 y -7 y 3 \\ 0 y 1 y 0 y 3 y -5 y 2 \\ 0 y 0 y 1 y - 18 y 32 y -13 \\\end(array) \right]\]

¡Listo! A la derecha está la matriz inversa requerida.

Respuesta. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Tarea. Encuentra la matriz inversa:

\[\left[ \begin(matriz) 1 y 4 y 2 y 3 \\ 1 y -2 y 1 y -2 \\ 1 y -1 y 1 y 1 \\ 0 y -10 y -2 y -5 \\\end(matriz) \right]\]

Solución. Redactamos nuevamente el adjunto:

\[\left[ \begin(array)(rrrr|rrrr) 1 y 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 1 y -2 y 1 y -2 y 0 y 1 y 0 y 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Lloremos un poco, estemos tristes por lo mucho que nos toca contar ahora... y empecemos a contar. Primero, “pongamos a cero” la primera columna restando la fila 1 de las filas 2 y 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 y 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 1 y -2 y 1 y -2 y 0 y 1 y 0 y 0 \\ 1 y -1 y 1 y 1 y 0 y 0 y 1 y 0 \\ 0 y -10 y -2 y -5 y 0 y 0 y 0 y 1 \\\end(matriz) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 0 y -6 y -1 y -5 y -1 y 1 y 0 y 0 \\ 0 y -5 y -1 y -2 y -1 y 0 y 1 y 0 \\ 0 y -10 y -2 y -5 y 0 y 0 y 0 y 1 \\\end(array) \right] \\ \end(align)\]

Vemos demasiadas “desventajas” en las líneas 2 a 4. Multiplica las tres filas por −1 y luego quema la tercera columna restando la fila 3 del resto:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 y 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 0 y -6 y -1 y -5 y - 1 y 1 y 0 y 0 \\ 0 y -5 y -1 y -2 y -1 y 0 y 1 y 0 \\ 0 y -10 y -2 y -5 y 0 y 0 y 0 y 1 \\ \end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \izquierda| \cdot \left(-1 \right) \right. \\ \izquierda| \cdot \left(-1 \right) \right. \\\end(matriz)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 y 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 0 y 6 y 1 y 5 y 1 y -1 y 0 y 0 \\ 0 y 5 y 1 y 2 y 1 y 0 y -1 y 0 \\ 0 y 10 y 2 y 5 y 0 y 0 y 0 y -1 \\ \end (matriz) \right]\begin(matrix) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrix)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 y -6 y 0 y -1 y -1 y 0 y 2 y 0 \\ 0 y 1 y 0 y 3 y 0 y -1 y 1 y 0 \\ 0 y 5 y 1 y 2 y 1 y 0 y -1 y 0 \\ 0 y 0 y 0 y 1 y -2 y 0 y 2 y -1 \\\end(array) \right] \\ \end(align)\]

Ahora es el momento de “freír” la última columna de la matriz original: resta la fila 4 del resto:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(matriz ) \right]\begin(matrix) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 y -6 y 0 y 0 y -3 y 0 y 4 y -1 \\ 0 y 1 y 0 y 0 y 6 y -1 y -5 y 3 \\ 0 y 5 y 1 y 0 y 5 y 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Lanzamiento final: “queme” la segunda columna restando la línea 2 de las líneas 1 y 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( matriz) \right]\begin(matrix) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Y nuevamente la matriz identidad está a la izquierda, lo que significa que la inversa está a la derecha :)

Respuesta. $\left[ \begin(matriz) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matriz) \right]$

Se nos dará una matriz cuadrada. Necesitas encontrar la matriz inversa.

Primera manera. El teorema 4.1 de existencia y unicidad de la matriz inversa indica una de las formas de encontrarla.

1. Calcula el determinante de esta matriz. Si, entonces la matriz inversa no existe (la matriz es singular).

2. Construya una matriz a partir de complementos algebraicos de elementos matriciales.

3. Transponer la matriz para obtener la matriz adjunta. .

4. Encuentre la matriz inversa (4.1) dividiendo todos los elementos de la matriz adjunta por el determinante

Segunda vía. Para encontrar la matriz inversa, puedes utilizar transformaciones elementales.

1. Construya una matriz de bloques asignando a una matriz dada una matriz identidad del mismo orden.

2. Usando transformaciones elementales realizadas en las filas de la matriz, lleve su bloque izquierdo a su forma más simple. En este caso, la matriz de bloques se reduce a la forma en la que se obtiene una matriz cuadrada como resultado de transformaciones de la matriz identidad.

3. Si, entonces el bloque es igual a la inversa de la matriz, es decir, si, entonces la matriz no tiene inversa.

De hecho, con la ayuda de transformaciones elementales de las filas de la matriz, su bloque izquierdo se puede reducir a una forma simplificada (ver Fig. 1.5). En este caso, la matriz de bloques se transforma a la forma donde hay una matriz elemental que satisface la igualdad. Si la matriz no es degenerada, entonces, según el párrafo 2 de las Observaciones 3.3, su forma simplificada coincide con la matriz identidad. Entonces de la igualdad se deduce que. Si la matriz es singular, entonces su forma simplificada difiere de la matriz identidad y la matriz no tiene inversa.

11. Ecuaciones matriciales y su solución. Forma matricial de grabación SLAE. Método matricial (método de matriz inversa) para la resolución de SLAE y condiciones para su aplicabilidad.

Las ecuaciones matriciales son ecuaciones de la forma: A*X=C; X*A=C; A*X*B=C donde las matrices A, B, C son conocidas, la matriz X es desconocida, si las matrices A y B no son degeneradas, entonces las soluciones de las matrices originales se escribirán en la forma apropiada: X = A -1 * C; X=C*A-1; X=A-1 *C*B-1

Forma matricial de sistemas de escritura de ecuaciones algebraicas lineales. A cada SLAE se pueden asociar varias matrices; Además, el propio SLAE se puede escribir en forma de ecuación matricial. Para SLAE (1), considere las siguientes matrices: La matriz A se llama

matriz del sistema . Los elementos de esta matriz representan los coeficientes de un SLAE determinado. La matriz A˜ se llama

sistema de matriz extendida . Se obtiene añadiendo a la matriz del sistema una columna que contiene los términos libres b1,b2,...,bm. Por lo general, esta columna está separada por una línea vertical para mayor claridad. La matriz columna B se llama matriz de miembros libres.

, y la matriz de columna X es

matriz de incógnitas

Las matrices asociadas al sistema se pueden escribir de varias formas: todo depende del orden de las variables y ecuaciones del SLAE considerado. Pero en cualquier caso, el orden de las incógnitas en cada ecuación de un SLAE determinado debe ser el mismo.

El método matricial es adecuado para resolver SLAE en los que el número de ecuaciones coincide con el número de variables desconocidas y el determinante de la matriz principal del sistema es diferente de cero. Si el sistema contiene más de tres ecuaciones, entonces encontrar la matriz inversa requiere un esfuerzo computacional significativo, por lo que en este caso es recomendable utilizar método gaussiano.

12. SLAE homogéneos, condiciones para la existencia de sus soluciones distintas de cero. Propiedades de soluciones parciales de SLAE homogéneas.

Una ecuación lineal se dice homogénea si su término libre es igual a cero y no homogénea en caso contrario. Un sistema que consta de ecuaciones homogéneas se llama homogéneo y tiene la forma general:

13 .El concepto de independencia lineal y dependencia de soluciones parciales de un SLAE homogéneo. Sistema fundamental de soluciones (FSD) y su determinación. Representación de la solución general de un SLAE homogéneo a través del FSR.

Sistema de funciones y 1 (incógnita ), y 2 (incógnita ), …, y norte (incógnita ) se llama linealmente dependiente en el intervalo ( a , b ), si hay un conjunto de coeficientes constantes distintos de cero al mismo tiempo, de modo que la combinación lineal de estas funciones sea idénticamente igual a cero en ( a , b ): Para . Si la igualdad para es posible sólo para , el sistema de funciones y 1 (incógnita ), y 2 (incógnita ), …, y norte (incógnita ) se llama linealmente independiente en el intervalo ( a , b ). En otras palabras, las funciones y 1 (incógnita ), y 2 (incógnita ), …, y norte (incógnita ) linealmente dependiente en el intervalo ( a , b ), si hay un igual a cero en ( a , b ) su combinación lineal no trivial. Funciones y 1 (incógnita ),y 2 (incógnita ), …, y norte (incógnita ) linealmente independiente en el intervalo ( a , b ), si sólo su combinación lineal trivial es idénticamente igual a cero en ( a , b ).

Sistema de decisión fundamental (FSR) Un SLAE homogéneo es la base de este sistema de columnas.

El número de elementos en el FSR es igual al número de incógnitas del sistema menos el rango de la matriz del sistema. Cualquier solución del sistema original es una combinación lineal de soluciones del FSR.

Teorema

La solución general de un SLAE no homogéneo es igual a la suma de una solución particular de un SLAE no homogéneo y la solución general del SLAE homogéneo correspondiente.

1 . Si las columnas son soluciones de un sistema homogéneo de ecuaciones, entonces cualquier combinación lineal de ellas también es una solución del sistema homogéneo.

De hecho, de las igualdades se deduce que

aquellos. una combinación lineal de soluciones es una solución de un sistema homogéneo.

2. Si el rango de la matriz de un sistema homogéneo es igual a , entonces el sistema tiene soluciones linealmente independientes.

De hecho, utilizando las fórmulas (5.13) para la solución general de un sistema homogéneo, encontramos soluciones particulares, dando a las variables libres la siguiente conjuntos de valores estándar (cada vez asumiendo que una de las variables libres es igual a uno y el resto son iguales a cero):

que son linealmente independientes. De hecho, si construyes una matriz a partir de estas columnas, sus últimas filas forman la matriz identidad. En consecuencia, el menor ubicado en las últimas líneas no es igual a cero (es igual a uno), es decir es básico. Por tanto, el rango de la matriz será igual. Esto significa que todas las columnas de esta matriz son linealmente independientes (ver Teorema 3.4).

Cualquier conjunto de soluciones linealmente independientes de un sistema homogéneo se llama sistema fundamental (conjunto) de soluciones .

14 Menor de décimo orden, menor básico, rango de la matriz. Calcular el rango de una matriz.

El orden k menor de una matriz A es el determinante de alguna de sus submatrices cuadradas de orden k.

En una matriz A de dimensiones m x n, un menor de orden r se llama básico si es distinto de cero, y todos los menores de orden superior, si existen, son iguales a cero.

Las columnas y filas de la matriz A, en cuya intersección hay una base menor, se denominan columnas y filas de la base de A.

Teorema 1. (Sobre el rango de la matriz). Para cualquier matriz, el rango menor es igual al rango de fila e igual al rango de columna.

Teorema 2. (Sobre la base menor). Cada columna de la matriz se descompone en una combinación lineal de sus columnas base.

El rango de una matriz (o rango menor) es el orden de la base menor o, en otras palabras, el orden más grande para el cual existen menores distintos de cero. El rango de una matriz cero se considera 0 por definición.

Observemos dos propiedades obvias de rango menor.

1) El rango de una matriz no cambia durante la transposición, ya que cuando se transpone una matriz, se transponen todas sus submatrices y las menores no cambian.

2) Si A’ es una submatriz de la matriz A, entonces el rango de A’ no excede el rango de A, ya que un menor distinto de cero incluido en A’ también está incluido en A.

15. El concepto de vector aritmético de dimensiones. Igualdad de vectores. Operaciones con vectores (suma, resta, multiplicación por un número, multiplicación por una matriz). Combinación lineal de vectores.

recogida ordenada norte los numeros reales o complejos se llaman vector n-dimensional. los numeros se llaman coordenadas vectoriales.

Dos vectores (distintos de cero) a Y b son iguales si están igualmente dirigidos y tienen el mismo módulo. Todos los vectores cero se consideran iguales. En todos los demás casos, los vectores no son iguales.

Suma de vectores. Hay dos formas de sumar vectores: 1. Regla del paralelogramo. Para sumar los vectores y, colocamos los orígenes de ambos en el mismo punto. Construimos hasta formar un paralelogramo y desde el mismo punto trazamos una diagonal del paralelogramo. Esta será la suma de los vectores.

2. El segundo método para sumar vectores es la regla del triángulo. Tomemos los mismos vectores y . Sumaremos el comienzo del segundo al final del primer vector. Ahora conectemos el comienzo del primero y el final del segundo. Esta es la suma de los vectores y . Usando la misma regla, puedes sumar varios vectores. Los organizamos uno tras otro y luego conectamos el principio del primero con el final del último.

Resta de vectores. El vector está dirigido en dirección opuesta al vector. Las longitudes de los vectores son iguales. Ahora está claro qué es la resta de vectores. La diferencia de vectores y es la suma del vector y el vector.

Multiplicar un vector por un número

Multiplicar un vector por un número k produce un vector cuya longitud es k veces la longitud. Es codireccional con el vector si k es mayor que cero y de dirección opuesta si k es menor que cero.

El producto escalar de vectores es el producto de las longitudes de los vectores por el coseno del ángulo entre ellos. Si los vectores son perpendiculares, su producto escalar es cero. Y así se expresa el producto escalar a través de las coordenadas de los vectores y .

Combinación lineal de vectores.

Combinación lineal de vectores. llamado vector

Dónde - coeficientes de combinación lineal. Si una combinación se llama trivial si no es trivial.

16 .Producto escalar de vectores aritméticos. Longitud del vector y ángulo entre vectores. El concepto de ortogonalidad vectorial.

El producto escalar de los vectores a y b es el número

El producto escalar se utiliza para calcular: 1) encontrar el ángulo entre ellos; 2) encontrar la proyección de los vectores; 3) calcular la longitud del vector 4) las condiciones de perpendicularidad de los vectores;

La longitud del segmento AB se llama distancia entre los puntos A y B. El ángulo entre los vectores A y B se llama ángulo α = (a, b), 0≤ α ≤P. Por lo cual necesitas rotar 1 vector para que su dirección coincida con otro vector. Siempre que sus orígenes coincidan.

Un ortom a es un vector a que tiene longitud unitaria y dirección a.

17. Sistema de vectores y su combinación lineal. El concepto de dependencia lineal e independencia de un sistema de vectores. Teorema sobre las condiciones necesarias y suficientes para la dependencia lineal de un sistema de vectores.

Un sistema de vectores a1,a2,...,an se llama linealmente dependiente si existen números λ1,λ2,...,λn tales que al menos uno de ellos es distinto de cero y λ1a1+λ2a2+...+λnan=0 . En caso contrario, el sistema se llama linealmente independiente.

Dos vectores a1 y a2 se llaman colineales si sus direcciones son iguales o opuestas.

Tres vectores a1, a2 y a3 se llaman coplanares si son paralelos a algún plano.

Criterios geométricos para la dependencia lineal:

a) el sistema (a1,a2) es linealmente dependiente si y sólo si los vectores a1 y a2 son colineales.

b) el sistema (a1,a2,a3) es linealmente dependiente si y sólo si los vectores a1,a2 y a3 son coplanares.

teorema. (Condición necesaria y suficiente para la dependencia lineal sistemas vectores.)

Sistema vectorial vector espacio es lineal dependiente si y sólo si uno de los vectores del sistema se expresa linealmente en términos de los demás vector este sistema.

Corolario 1. Un sistema de vectores en un espacio vectorial es linealmente independiente si y sólo si ninguno de los vectores del sistema se expresa linealmente en términos de otros vectores de este sistema.2. Un sistema de vectores que contiene un vector cero o dos vectores iguales es linealmente dependiente.

La matriz A -1 se llama matriz inversa con respecto a la matriz A si A*A -1 = E, donde E es la matriz identidad de enésimo orden. Una matriz inversa sólo puede existir para matrices cuadradas.

Objeto del servicio. Utilizando este servicio en línea puede encontrar complementos algebraicos, matriz transpuesta A T, matriz aliada y matriz inversa. La decisión se realiza directamente en el sitio web (en línea) y es gratuita. Los resultados del cálculo se presentan en un informe en formato Word y Excel (es decir, es posible comprobar la solución). ver ejemplo de diseño.

Instrucciones. Para obtener una solución, es necesario especificar la dimensión de la matriz. A continuación, complete la matriz A en el nuevo cuadro de diálogo.

Dimensión de la matriz 2 3 4 5 6 7 8 9 10

Ver también Matriz inversa usando el método de Jordano-Gauss

Algoritmo para encontrar la matriz inversa.

  1. Encontrar la matriz transpuesta A T .
  2. Definición de complementos algebraicos. Reemplaza cada elemento de la matriz con su complemento algebraico.
  3. Compilación de una matriz inversa a partir de sumas algebraicas: cada elemento de la matriz resultante se divide por el determinante de la matriz original. La matriz resultante es la inversa de la matriz original.
Próximo algoritmo para encontrar la matriz inversa similar al anterior excepto por algunos pasos: primero se calculan los complementos algebraicos y luego se determina la matriz aliada C.
  1. Determina si la matriz es cuadrada. Si no, entonces no existe una matriz inversa para ello.
  2. Cálculo del determinante de la matriz A. Si no es igual a cero continuamos con la solución, en caso contrario la matriz inversa no existe.
  3. Definición de complementos algebraicos.
  4. Llenando la matriz de unión (mutua, adjunta) C .
  5. Compilación de una matriz inversa a partir de sumas algebraicas: cada elemento de la matriz adjunta C se divide por el determinante de la matriz original. La matriz resultante es la inversa de la matriz original.
  6. Hacen una comprobación: multiplican las matrices original y resultante. El resultado debería ser una matriz de identidad.

Ejemplo No. 1. Escribamos la matriz en la forma:


Sumas algebraicas.
Un 1,1 = (-1) 1+1
-1 -2
5 4

∆ 1,1 = (-1 4-5 (-2)) = 6
Un 1,2 = (-1) 1+2
2 -2
-2 4

∆ 1,2 = -(2 4-(-2 (-2))) = -4
Un 1,3 = (-1) 1+3
2 -1
-2 5

∆ 1,3 = (2 5-(-2 (-1))) = 8
Un 2,1 = (-1) 2+1
2 3
5 4

∆ 2,1 = -(2 4-5 3) = 7
Un 2,2 = (-1) 2+2
-1 3
-2 4

∆ 2,2 = (-1 4-(-2 3)) = 2
Un 2,3 = (-1) 2+3
-1 2
-2 5

∆ 2,3 = -(-1 5-(-2 2)) = 1
Un 3,1 = (-1) 3+1
2 3
-1 -2

∆ 3,1 = (2 (-2)-(-1 3)) = -1
Un 3,2 = (-1) 3+2
-1 3
2 -2

∆ 3,2 = -(-1 (-2)-2 3) = 4
Un 3,3 = (-1) 3+3
-1 2
2 -1

∆ 3,3 = (-1 (-1)-2 2) = -3
Entonces matriz inversa se puede escribir como:
Un-1 = 1/10
6 -4 8
7 2 1
-1 4 -3

Un -1 =
0,6 -0,4 0,8
0,7 0,2 0,1
-0,1 0,4 -0,3

Otro algoritmo para encontrar la matriz inversa.

Presentemos otro esquema para encontrar la matriz inversa.
  1. Encuentre el determinante de una matriz cuadrada A dada.
  2. Encontramos complementos algebraicos para todos los elementos de la matriz A.
  3. Escribimos sumas algebraicas de elementos de fila a columnas (transposición).
  4. Dividimos cada elemento de la matriz resultante por el determinante de la matriz A.
Como vemos, la operación de transposición se puede aplicar tanto al principio, sobre la matriz original, como al final, sobre las sumas algebraicas resultantes.

Caso especial: La inversa de la matriz identidad E es la matriz identidad E.



Este artículo también está disponible en los siguientes idiomas: tailandés

  • Próximo

    MUCHAS GRACIAS por la información tan útil del artículo. Todo se presenta muy claramente. Parece que se ha trabajado mucho para analizar el funcionamiento de la tienda eBay.

    • Gracias a ti y a otros lectores habituales de mi blog. Sin ustedes, no habría estado lo suficientemente motivado como para dedicar mucho tiempo al mantenimiento de este sitio. Mi cerebro está estructurado de esta manera: me gusta profundizar, sistematizar datos dispersos, probar cosas que nadie ha hecho antes ni visto desde este ángulo. Es una lástima que nuestros compatriotas no tengan tiempo para comprar en eBay debido a la crisis en Rusia. Compran en Aliexpress desde China, ya que los productos allí son mucho más baratos (a menudo a expensas de la calidad). Pero las subastas en línea de eBay, Amazon y ETSY fácilmente darán a los chinos una ventaja en la gama de artículos de marca, artículos antiguos, artículos hechos a mano y diversos productos étnicos.

      • Próximo

        Lo valioso de sus artículos es su actitud personal y su análisis del tema. No abandonéis este blog, vengo aquí a menudo. Deberíamos ser muchos así. Envíame un correo electrónico Recientemente recibí un correo electrónico con una oferta de que me enseñarían cómo operar en Amazon y eBay.

  • Y recordé tus artículos detallados sobre estos oficios. área Releí todo nuevamente y concluí que los cursos son una estafa. Todavía no he comprado nada en eBay. No soy de Rusia, sino de Kazajstán (Almaty). Pero tampoco necesitamos ningún gasto adicional todavía.
    Te deseo buena suerte y mantente a salvo en Asia.