Mathematik-Tutorial: Eigenwerte und Eigenvektoren von Matrizen.

 
Links: Übersicht.

 

Gegeben seien eine quadratische Matrix A, ein Vektor u und eine Konstante e. Wenn diese die Gleichung

A u = e · u

erfüllen, dann ist u ein Eigenvektor der Matrix A und e der zugehörige Eigenwert.

Ein Beispiel ist die Matrix (5, 2; 2, 8) und der Vektor (1; 2): die Multiplikation (5, 2; 2, 8) (1; 2) ergibt (9; 18), also 9 ·(1; 2).

Die Matrizeneigenwertgleichung ist niemals eindeutig: ein Eigenvektor u kann mit jeder beliebigen Konstanten multipliziert werden und erfüllt trotzdem die Eigenwertgleichung

A u = e · u ;

der Eigenwert e bleibt davon unberührt. Um die Zahl der möglichen Lösungen einzuschränken und zugleich die Grundlage für viele weiterführende Anwendungen zu legen werden die Eigenvektoren meistens normiert.

Im Beispiel der Matrix (5, 2; 2, 8) bedeutet das

 (5, 2; 2, 8) (1/sqrt5; 2/sqrt5) = 9 · (1/sqrt5; 2/sqrt5) .

Die Matrizeneigenwertgleichung ist noch aus einem anderen Grund niemals eindeutig: für eine Matrix der Dimension n gibt es n verschiedene Eigenvektoren u1, u2, ... un. Zu jedem Eigenvektor ui gehört ein Eigenwert ei, wobei diese Zuordnung nicht eineindeutig sein muss: verschiedene Eigenvektoren können den selben Eigenwert ergeben; wenn das der Fall ist, nennt man diesen Eigenwert "entartet".

Im Beispiel der Matrix (5, 2; 2, 8) ist auch der Vektor (2/sqrt5; -1/sqrt5) ein Eigenvektor:

 (5, 2; 2, 8) (2/sqrt5; -1/sqrt5) = 4 · (2/sqrt5; -1/sqrt5) .

Die verschiedenen Eigenvektoren können in einer Matrix U zusammengefasst werden. Die Matrizengleichung

A U = U E

ergibt dann für E eine Diagonalmatrix, deren Diagonalelemente die Eigenwerte sind.

Im Beispiel der Matrix (5, 2; 2, 8) :

 (5, 2; 2, 8) (2/sqrt5, 1/sqrt5; -1/sqrt5, 2/sqrt5) = (2/sqrt5, 1/sqrt5; -1/sqrt5, 2/sqrt5) (4, 0; 0, 9) .

Da die verschiedenen Eigenvektoren orthogonal sind, ist die Matrix U eine orthogonale Matrix, d.h. ihre Transponierte UT ist gleich ihrer Inversen U-1. Die Gleichung

A U = U E

wird daher auch oft in der folgenden "bilinearen Form" angeschrieben:

UT A U = E .

Es gibt eine ganze Reihe von numerischen Verfahren zur Bestimmung von Eigenwerten und Eigenvektoren von Matrizen, die zum Teil sehr spezielle Fälle zum Thema haben. Eine häufiger Fall sind symmetrische Matrizen, etwa Matrizen mit zweiten Ableitungen, für die fxy = fyx gilt; für solche Matrizen ist beispielsweise das klassische Jacobi-Verfahren ausgelegt.

Zwei Zusammenhänge zwischen einer Matrix A und ihren Eigenwerten e1, e2, ... en  sind erwähnenswert:

  1. Summei ei = Summei Aii : die Summe der Eigenwerte ist gleich der Spur der Matrix;
  2. Produkti ei = det A : das Produkt der Eigenwerte ist gleich der Determinante der Matrix.

Eigenwerte einer Matrix können daher z.B. zur Berechnung ihrer Determinante verwendet werden - wahrscheinlich nicht immer die optimale Methode, die Determinante zu ermitteln, aber sicher die schnellste, falls die Eigenwerte bereits bekannt sind oder ebenfalls gefragt sind.

Die Eigenwerte einer Matrix können auch dazu verwendet werden, beliebige Potenzen m einer Matrix zu ermitteln. Es gilt nämlich

Am = U Em UT  ;

da E eine Diagonalmatrix ist, reduziert sich die Berechnung von Em darauf, jedes Diagonalelement Eii durch Eiim zu ersetzen. Die Inverse einer Matrix kann daher aus ihren Eigenwerten und Eigenvektoren als U E-1 UT berechnet werden. Wieder gilt: sicher nicht die effektivste Methode, um die Inverse einer Matrix zu berechnen, aber sicher die schnellste, falls die Eigenwerte und -vektoren bereits bekannt oder ebenfalls gefragt sind.

Links:

Weiter: Jacobi-Verfahren.
Zurück: Matrizen.
Ganz zurück: Einleitung.
 
Autor:  Dr. Michael Ramek.


 


Informations required by Austrian law (Offenlegung gem. §25 MedienG): Dr. Michael Ramek, Graz.