Pommes der Pinguin hält einen grossen gelben Stern in den Händen
Pommes der Pinguin hält einen grossen gelben Stern in den Händen
30 Tage kostenlos testen
30 Tage kostenlos testen
Über 1,6 Millionen Schüler*innen nutzen sofatutor Über 1,6 Millionen Schüler*innen nutzen sofatutor
Lernpakete anzeigen
Lernpakete anzeigen
Lernpakete anzeigen

Inverse Matrizen

Im Folgenden findest du die Definition und Einführung in die Berechnung von inversen Matrizen. Außerdem werden die Voraussetzungen für die Existenz einer Inversen erläutert.

Inhaltsverzeichnis zum Thema

Was ist eine inverse Matrix?

Zum Einstieg wird nochmal die Bedeutung des Kehrwertes wiederholt. Der Kehrwert einer von $0$ verschiedenen Zahl $a$, ist in der Arithmetik diejenige Zahl, die mit $a$ multipliziert $1$ ergibt.

$a \cdot a^{-1}=a \cdot \frac{1}{a}= \frac{a}{a}=1$

$a^n \cdot a^{-n}=a^n \cdot \frac{1}{a^n}= \frac{a^n}{a^n}=1$

Wird eine Zahl mit ihrem Kehrwert multipliziert, ist das Ergebnis $1$. Diese Überlegung wird nun auf Matrizen angewendet. Es soll demnach eine Matrix gefunden werden, welche multipliziert mit der Ausgangsmatrix die Einheitsmatrix, im Allgemeinen mit $I$ bezeichnet, ergibt. Eine solche Matrix wird auch inverse Matrix oder kurz Inverse, früher auch Kehrmatrix, genannt und mit $A^{-1}$ bezeichnet.

inverse Matrix

Sei $A$ eine Matrix, die eine inverse Matrix $A^{-1}$ besitzt und $I$ die Einheitsmatrix mit derselben Dimension wie $A$, dann gilt:

$A \cdot A^{-1}=I$.

Beachte, dass es sich hierbei um eine Matrixmultiplikation handelt.

Voraussetzung für die Existenz einer inversen Matrix

Nicht jede Matrix besitzt eine inverse Matrix. Nur quadratische Matrizen, also Matrizen mit gleicher Zeilen- und Spaltenanzahl, können eine Inverse besitzen.

Quadratische Matrizen mit gleicher Zeilen- und Spaltenanzahl werden häufig auch als ${n\times n}$ Matrizen, gesprochen n kreuz n und formal geschrieben mit $A \in \mathbb{R}^{n\times n}$, bezeichnet. Für solche quadratischen Matrizen $A \in \mathbb{R}^{n\times n}$ existiert eine inverse Matrix $A^{-1} \in \mathbb{R}^{n\times n}$, wenn die Determinante der Matrix $A$ ungleich Null ist: $\det (A) \neq 0$.

Matrizen, in denen Zeilen oder Spalten linear abhängig voneinander sind, deren Determinante also gleich $0$ sind, besitzen keine inverse Matrix und werden auch als singuläre Matrizen bezeichnet. Reguläre oder invertierbare Matrizen sind hingegen Matrizen, die eine inverse Matrix besitzen.

Möglichkeiten der Berechnung einer inversen Matrix

Im folgenden Abschnitt werden unterschiedliche Berechnungsvarianten zur Bestimmung einer solchen inversen Matrix vorgestellt. Es wird sich an dieser Stelle auf die zwei bekanntesten Verfahren beschränkt.

Bestimmung der inversen Matrix über die Adjunkte

Die Adjunkte wird meist mit $adj(A)$ bezeichnet. Die Adjunkte ist die Transponierte der Kofaktormatrix einer Ausgangsmatrix $A$. Die Kofaktormatrix $Cof(A)$ enthält alle Unterdeterminanten der Ausgangsmatrix $A$. Dabei wird allen Elementen, deren Summe aus ihrer Zeilennummer und ihrer Spaltennummer ungerade ist, ein negatives Vorzeichen hinzugefügt.

Die inverse Matrix $A^{-1}$ lässt sich auch mit Hilfe der Adjunkten der Matrix $A$ bestimmen:

$A^{-1}=\frac{1}{\det (A)} \cdot adj (A)$.

Dieses Verfahren wird häufig bei $2 \times 2$ Matrizen angewendet, da sich hier die Determinanten schnell berechnen lassen:

$A^{-1}=\begin{pmatrix} a& b\\ c& d \end{pmatrix}^{-1}=\frac{1}{\det (A)} \cdot adj \begin{pmatrix} a& b\\ c& d \end{pmatrix}=\frac{1}{(ad-bc)} \cdot \begin{pmatrix} d& -b\\ -c& a \end{pmatrix}$

Als Beispiel sei die Matrix $A$ gegeben. Die inverse Matrix $A^{-1}$ soll berechnet werden, wobei:

$A=\begin{pmatrix} 1& 3\\ 4& 2 \end{pmatrix}$

Die Berechnung der Inversen $A^{-1}$ mittels Adjunkten wäre dann die folgende:

$A^{-1}=\frac{1}{\det A} \cdot adj \begin{pmatrix} 1& 3\\ 4& 2 \end{pmatrix}=\frac{1}{(1\cdot 2-3 \cdot 4)} \cdot \begin{pmatrix} 2& -3\\ -4& 1 \end{pmatrix}$

$=\frac{1}{(-10)} \cdot \begin{pmatrix} 2& -3\\ -4& 1 \end{pmatrix}= \begin{pmatrix} -0,2& 0,3\\ 0,4& -0,1 \end{pmatrix}$

An dieser Stelle sei noch auf die Berechnung der Inversen einer Matrix mittels Cramerscher Regel hingewiesen. Das Verfahren basiert ebenfalls auf der Berechnung der Determinanten, wird aber in der Praxis auf Grund des Rechenaufwandes nicht so häufig angewendet.

Gauß-Jordan-Verfahren

Das Gauß-Jordan-Verfahren ist eine Erweiterung des gaußschen Eliminationsverfahrens zum Lösen von linearen Gleichungssystemen. Soll also zu einer Matrix $A$ die inverse Matrix $A^{-1}$ berechnet werden, so muss die Matrix um die Einheitsmatrix in der Dimension von $A$ erweitert werden. Es genügt nicht, die Matrix wie sonst in die reduzierte Stufenform zu bringen. Die linke Seite der Matrix muss in die Form der Einheitsmatrix gebracht werden, dann steht auf der rechten Seite die inverse Matrix $A^{-1}$.

Zur Veranschaulichung der Berechnung des Inversen mittels Gauß-Jordan-Verfahren ein Beispiel:

Gesucht ist die inverse Matrix $A^{-1}$ von der Matrix $A$, wobei $A$ gegeben ist mit:

$A=\begin{pmatrix} 1 & 2 & 1 \\ 4 & 6 & 1 \\ 0 & 1 & 2 \end{pmatrix} $

Lösung:

$ \begin{array} {c c c c} (A \vert E) = & \left(\begin{matrix} 1 & 2 & 1 \\ 4 & 6 & 1 \\ 0 & 1 & 2 \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{matrix} \right)\right. & \underrightarrow{\text {II} -4\cdot \text {I}} & \left( \begin{matrix} 1 & 2 & 1 \\ \mathbf{0} &\mathbf{ -2 }& \mathbf{-3} \\ 0 & 1 & 2 \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ \mathbf{-4} &\mathbf{1} & \mathbf{0}\\ 0 & 0 & 1 \end{matrix} \right)\right. \\ \underrightarrow{ \frac{\text {II}} {-2}} & \left( \begin{matrix} 1 & 2 & 1 \\ \mathbf{0} & \mathbf{1} &\mathbf{ \frac{3}{2}} \\ 0 & 1 & 2 \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ \mathbf{2}& \mathbf{-\frac{1}{2}} & \mathbf{0}\\ 0 & 0 & 1 \end{matrix} \right)\right. & \underrightarrow{\text {III} -\text {II}} & \left( \begin{matrix} 1 & 2 & 1 \\ 0 & 1 & \frac{3}{2}\\ \mathbf{0} & \mathbf{0} & \mathbf{\frac{1}{2}} \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ 2 & -\frac{1}{2} & 0\\ \mathbf{ -2} &\mathbf{ \frac{1}{2}} & \mathbf{1} \end{matrix} \right)\right. \\ \underrightarrow{2 \cdot \text {III}} & \left( \begin{matrix} 1 & 2 & 1 \\ 0 & 1 & \frac{3}{2}\\ \mathbf{0} & \mathbf{0} & \mathbf{1} \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ 2 & -\frac{1}{2}& 0\\ \mathbf{-4} & \mathbf{1} & \mathbf{2} \end{matrix} \right)\right. & \underrightarrow{ \text {II}-\frac{3}{2} \cdot \text {III}} & \left( \begin{matrix} 1 & 2 & 1 \\ 0 & 1 & 0\\ \mathbf{0} & \mathbf{0} & \mathbf{1} \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ 8 & -2& -3\\ \mathbf{-4} & \mathbf{1} & \mathbf{2} \end{matrix} \right)\right. \\ \underrightarrow{ \text {I}-2 \cdot \text {II}} & \left( \begin{matrix} \mathbf{1} & \mathbf{0} & \mathbf{1} \\ 0 & 1 & 0\\ 0 & 0 & 1 \end{matrix} \left\vert \begin{matrix} \mathbf{-15} & \mathbf{4} & \mathbf{6}\\ 8 & -2& -3\\ -4 & 1 & 2 \end{matrix} \right)\right. & \underrightarrow{ \text {I}-\text {III}} & \left( \begin{matrix} \mathbf{1} & \mathbf{0} & \mathbf{0} \\ 0 & 1 & 0\\ 0 & 0 & 1 \end{matrix} \left\vert \begin{matrix} \mathbf{-11} & \mathbf{3} & \mathbf{4}\\ 8 & -2& -3\\ -4 & 1 & 2 \end{matrix} \right)\right. \end{array}$

$ \rightarrow A^{-1}= \begin{pmatrix} -11 & 3 & 4\\ 8 & -2& -3\\ -4 & 1 & 2\end{pmatrix}$

Zur Kontrolle kannst du nun mittels Matrixmultiplikation prüfen, ob gilt:

$A \cdot A^{-1}= \begin{pmatrix} 1 & 2 & 1 \\ 4 & 6 & 1 \\ 0 & 1 & 2 \end{pmatrix} \cdot \begin{pmatrix} -11 & 3 & 4\\ 8 & -2& -3\\ -4 & 1 & 2 \end{pmatrix}= \begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{pmatrix}$

Wichtige Rechenregeln und nützliche Eigenschaften

Eigenschaften

  • Der Rang einer Matrix ist gleich dem Rang ihrer Inversen: $rg(A)=rg(A^{-1})$.
  • Die inverse Matrix einer Inversen entspricht der Ausgangsmatrix: $(A^{-1})^{-1}=A$.
  • Die Determinante einer inversen Matrix entspricht dem Inversen der Determinanten der Ausgangsmatrix: $\det (A^{-1})=\det (A)^{-1}$.

Rechenregeln

  • Das Inverse eines Matrixprodukts entspricht dem Produkt der inversen Matrizen: $(A \cdot B)^{-1}=B^{-1} \cdot A^{-1}$.
  • Für die Inverse des Produkts mehrerer Matrizen gilt die allgemeine Produktformel:

$ \quad (A_1 \cdot A_2 \cdot \dots. \cdot A_n)^{-1}=(A_n)^{-1} \cdot \dots. \cdot (A_1)^{-1}$.

  • Für die Multiplikation mit einem Skalar $k \neq 0$ gilt analog: $(k \cdot A)^{-1}=k^{-1} \cdot A^{-1}.$
  • Das Inverse einer Transponierten Matrix entspricht der transponierten inversen Matrix: $(A^{T})^{-1}=(A^{-1})^{T}$.

Alle Videos zum Thema

Videos zum Thema

Inverse Matrizen (1 Video)