<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="de">
	<id>https://demowiki.knowlus.com/index.php?action=history&amp;feed=atom&amp;title=Eigenwerte_und_Eigenvektoren</id>
	<title>Eigenwerte und Eigenvektoren - Versionsgeschichte</title>
	<link rel="self" type="application/atom+xml" href="https://demowiki.knowlus.com/index.php?action=history&amp;feed=atom&amp;title=Eigenwerte_und_Eigenvektoren"/>
	<link rel="alternate" type="text/html" href="https://demowiki.knowlus.com/index.php?title=Eigenwerte_und_Eigenvektoren&amp;action=history"/>
	<updated>2026-04-09T23:51:47Z</updated>
	<subtitle>Versionsgeschichte dieser Seite in Demo Wiki</subtitle>
	<generator>MediaWiki 1.44.2</generator>
	<entry>
		<id>https://demowiki.knowlus.com/index.php?title=Eigenwerte_und_Eigenvektoren&amp;diff=9131&amp;oldid=prev</id>
		<title>imported&gt;Baletiballo: Den üblichen englischen Begriff &quot;eigenvalues&quot; in die Liste der engl. Namen aufgenommen. War bisher nur indirekt drei Absätze weiter oben angedeutet.</title>
		<link rel="alternate" type="text/html" href="https://demowiki.knowlus.com/index.php?title=Eigenwerte_und_Eigenvektoren&amp;diff=9131&amp;oldid=prev"/>
		<updated>2025-09-26T08:06:23Z</updated>

		<summary type="html">&lt;p&gt;Den üblichen englischen Begriff &amp;quot;eigenvalues&amp;quot; in die Liste der engl. Namen aufgenommen. War bisher nur indirekt drei Absätze weiter oben angedeutet.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Neue Seite&lt;/b&gt;&lt;/p&gt;&lt;div&gt;[[Datei:Mona Lisa with eigenvector.png|mini|270px|In dieser [[Scherung (Geometrie)|Scherung]] der Mona Lisa wurde das Bild so verformt, dass der rote Pfeil (Vektor) seine Richtung (entlang der vertikalen Achse) nicht geändert hat, der blaue Pfeil jedoch schon. Der rote Vektor ist ein Eigenvektor der Scherabbildung, während der blaue Vektor dies aufgrund seiner Richtungsänderung nicht ist. Da der rote Vektor nicht skaliert wird, ist sein zugehöriger Eigenwert&amp;amp;nbsp;1.]]&lt;br /&gt;
&lt;br /&gt;
Ein &amp;#039;&amp;#039;&amp;#039;Eigenvektor&amp;#039;&amp;#039;&amp;#039; einer [[Abbildung (Mathematik)|Abbildung]] ist in der [[Lineare Algebra|linearen Algebra]] ein vom [[Nullvektor]] verschiedener [[Vektor]], dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur skaliert, wobei man den Skalierungsfaktor als &amp;#039;&amp;#039;&amp;#039;Eigenwert&amp;#039;&amp;#039;&amp;#039; der Abbildung bezeichnet.&lt;br /&gt;
&lt;br /&gt;
Eigenwerte charakterisieren wesentliche Eigenschaften [[Lineare Abbildung|linearer Abbildungen]], etwa ob ein entsprechendes [[lineares Gleichungssystem]] eindeutig lösbar ist oder nicht. In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften eines [[Mathematisches Modell|mathematischen Modells]]. Die Verwendung des Präfixes „Eigen-“ für charakteristische Größen in diesem Sinne lässt sich auf eine Veröffentlichung von [[David Hilbert]] aus dem Jahre 1904 zurückführen&amp;lt;ref name=&amp;quot;Hilberts&amp;quot; /&amp;gt; und wird als [[Germanismus]] auch in einigen weiteren Sprachen, darunter dem [[Englische Sprache|Englischen]], verwendet.&lt;br /&gt;
&lt;br /&gt;
Die im Folgenden beschriebene mathematische Problemstellung heißt &amp;#039;&amp;#039;spezielles Eigenwertproblem&amp;#039;&amp;#039; und bezieht sich nur auf lineare Abbildungen eines endlichdimensionalen [[Vektorraum]]s in sich selbst ([[Endomorphismus|Endomorphismen]]), wie sie durch quadratische [[Matrix (Mathematik)|Matrizen]] dargestellt werden.&lt;br /&gt;
&lt;br /&gt;
Hierbei stellt sich die Frage, unter welchen Bedingungen eine Matrix [[Ähnlichkeit (Matrix)|ähnlich]] zu einer [[Diagonalmatrix]] ist.&amp;lt;ref name=&amp;quot;Kowalsky&amp;quot; /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In der englischen Literatur existieren eine Vielzahl an weiteren Begriffen für die Eigenwerte, so werden sie außer {{enS|eigenvalues}} auch {{enS|characteristic roots, latent roots, characteristic values}} oder {{enS|proper values}} genannt.&lt;br /&gt;
&lt;br /&gt;
== Definition ==&lt;br /&gt;
Ist &amp;lt;math&amp;gt;V&amp;lt;/math&amp;gt; ein Vektorraum über einem [[Körper (Algebra)|Körper]] &amp;lt;math&amp;gt;K&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;f\colon V \to V&amp;lt;/math&amp;gt; ein [[Endomorphismus]], so bezeichnet man als &amp;#039;&amp;#039;Eigenvektor&amp;#039;&amp;#039; einen Vektor &amp;lt;math&amp;gt;v \ne 0&amp;lt;/math&amp;gt;, der durch &amp;lt;math&amp;gt;f&amp;lt;/math&amp;gt; auf ein Vielfaches &amp;lt;math&amp;gt;\lambda\,v&amp;lt;/math&amp;gt; von sich selbst mit &amp;lt;math&amp;gt;\lambda \in K&amp;lt;/math&amp;gt; abgebildet wird:&lt;br /&gt;
: &amp;lt;math&amp;gt;f(v) = \lambda \, v&amp;lt;/math&amp;gt;&lt;br /&gt;
Den Faktor &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; nennt man dann den zugehörigen &amp;#039;&amp;#039;Eigenwert.&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
Anders formuliert: Hat für ein &amp;lt;math&amp;gt;\lambda \in K&amp;lt;/math&amp;gt; die Gleichung&lt;br /&gt;
: &amp;lt;math&amp;gt;f(v) = \lambda \, v&amp;lt;/math&amp;gt;&lt;br /&gt;
eine Lösung &amp;lt;math&amp;gt;v \ne 0&amp;lt;/math&amp;gt; (der Nullvektor ist natürlich immer eine Lösung), so heißt &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; &amp;#039;&amp;#039;Eigenwert&amp;#039;&amp;#039; von &amp;lt;math&amp;gt;f.&amp;lt;/math&amp;gt; Jede Lösung &amp;lt;math&amp;gt;v \ne 0&amp;lt;/math&amp;gt; heißt &amp;#039;&amp;#039;Eigenvektor&amp;#039;&amp;#039; von &amp;lt;math&amp;gt;f&amp;lt;/math&amp;gt; zum Eigenwert &amp;lt;math&amp;gt;\lambda.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hat der Vektorraum eine endliche Dimension &amp;lt;math&amp;gt;\operatorname{dim}(V)=n\in\N,&amp;lt;/math&amp;gt; so kann jeder Endomorphismus &amp;lt;math&amp;gt;f&amp;lt;/math&amp;gt; durch eine quadratische &amp;lt;math&amp;gt;\left(n\times n\right)&amp;lt;/math&amp;gt;-Matrix &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; beschrieben werden. Die obige Gleichung lässt sich dann als Matrizengleichung&lt;br /&gt;
: &amp;lt;math&amp;gt;A \cdot x = \lambda \,x&amp;lt;/math&amp;gt;&lt;br /&gt;
schreiben, wobei &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; hier einen Spaltenvektor bezeichnet. Man nennt in diesem Fall eine Lösung &amp;lt;math&amp;gt;x \ne 0&amp;lt;/math&amp;gt; Eigenvektor und &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; Eigenwert der Matrix &amp;lt;math&amp;gt;A.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung kann man auch in der Form&lt;br /&gt;
: &amp;lt;math&amp;gt;A \cdot x = \lambda \,E \cdot x&amp;lt;/math&amp;gt;&lt;br /&gt;
schreiben, wobei &amp;lt;math&amp;gt;E&amp;lt;/math&amp;gt; die [[Einheitsmatrix]] bezeichnet, und äquivalent zu&lt;br /&gt;
: &amp;lt;math&amp;gt;(A - \lambda E) \cdot x = 0&amp;lt;/math&amp;gt;&lt;br /&gt;
oder&lt;br /&gt;
: &amp;lt;math&amp;gt;(\lambda E - A) \cdot x = 0&amp;lt;/math&amp;gt;&lt;br /&gt;
umformen.&lt;br /&gt;
&lt;br /&gt;
== Berechnung der Eigenwerte ==&lt;br /&gt;
Bei kleinen Matrizen können die Eigenwerte symbolisch (exakt) berechnet werden. Bei großen Matrizen ist dies oft nicht möglich, sodass hier [[Algorithmus|Verfahren]] der [[Numerische Mathematik|numerischen Mathematik]] zum Einsatz kommen.&lt;br /&gt;
&lt;br /&gt;
=== Symbolische Berechnung ===&lt;br /&gt;
Die Gleichung&lt;br /&gt;
: &amp;lt;math&amp;gt;(A - \lambda E) \cdot x = 0&amp;lt;/math&amp;gt;&lt;br /&gt;
definiert die Eigenwerte und stellt ein homogenes [[lineares Gleichungssystem]] dar.&amp;lt;br /&amp;gt;&lt;br /&gt;
Da &amp;lt;math&amp;gt;x \neq 0&amp;lt;/math&amp;gt; vorausgesetzt wird, ist dieses genau dann lösbar, wenn&lt;br /&gt;
: &amp;lt;math&amp;gt;\det (A - \lambda E) = 0&amp;lt;/math&amp;gt;&lt;br /&gt;
gilt. Diese [[Determinante]] heißt „[[charakteristisches Polynom]]“. Es handelt sich um ein [[Polynom#Definition|normiertes Polynom]] &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ten Grades in &amp;lt;math&amp;gt;\lambda.&amp;lt;/math&amp;gt; Seine [[Faktorisierung von Polynomen|Nullstellen]], also die Lösungen der Gleichung&lt;br /&gt;
: &amp;lt;math&amp;gt;\lambda^n+\alpha_{n-1}\cdot\lambda^{n-1}+\dotsb+\alpha_1\cdot\lambda+\alpha_0=0&amp;lt;/math&amp;gt;&lt;br /&gt;
über &amp;lt;math&amp;gt;K&amp;lt;/math&amp;gt;, sind die Eigenwerte. Da ein Polynom vom Grad &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; höchstens &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; Nullstellen hat, gibt es auch höchstens &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; Eigenwerte. Zerfällt das Polynom vollständig in Linearfaktoren, so gibt es genau &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; Nullstellen, wobei mehrfache Nullstellen mit ihrer Vielfachheit gezählt werden. Ist der Grad &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; eine ungerade Zahl und gilt &amp;lt;math&amp;gt;K=\R&amp;lt;/math&amp;gt;, dann ist mindestens einer der Eigenwerte reell.&lt;br /&gt;
&lt;br /&gt;
=== Eigenraum zum Eigenwert ===&lt;br /&gt;
Ist &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; ein Eigenwert der linearen Abbildung &amp;lt;math&amp;gt;f\colon V \to V&amp;lt;/math&amp;gt;, dann nennt man die Menge aller Eigenvektoren zu diesem Eigenwert vereinigt mit dem Nullvektor den [[Eigenraum]] zum Eigenwert &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt;. Der Eigenraum ist durch&lt;br /&gt;
: &amp;lt;math&amp;gt;\operatorname{Eig} (f, \lambda) := \{v \in V \,\mid\, f(v) = \lambda \cdot v \}&amp;lt;/math&amp;gt;&lt;br /&gt;
definiert. Falls die [[Dimension (Mathematik)|Dimension]] des Eigenraums größer als 1 ist, wenn es also mehr als einen [[Lineare Unabhängigkeit|linear unabhängigen]] Eigenvektor zum Eigenwert &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; gibt, so nennt man den zum Eigenraum zugehörigen Eigenwert &amp;#039;&amp;#039;ausgeartet&amp;#039;&amp;#039; (früher auch &amp;#039;&amp;#039;entartet&amp;#039;&amp;#039;).&amp;lt;ref name=&amp;quot;GoldhornHeinz2010&amp;quot; /&amp;gt; Die [[Dimension (Mathematik)|Dimension]] des Eigenraums &amp;lt;math&amp;gt;\operatorname{Eig} \left (f, \lambda\right)&amp;lt;/math&amp;gt; wird als [[geometrische Vielfachheit]] von &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; bezeichnet.&lt;br /&gt;
&lt;br /&gt;
Eine Verallgemeinerung des Eigenraums ist der [[Hauptraum]].&lt;br /&gt;
&lt;br /&gt;
=== Spektrum und Vielfachheiten ===&lt;br /&gt;
Für den Rest dieses Abschnittes sei &amp;lt;math&amp;gt;K=\Complex.&amp;lt;/math&amp;gt; Dann besitzt jede &amp;lt;math&amp;gt;\left(n\times n\right)\text{-Matrix } A&amp;lt;/math&amp;gt; genau &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; Eigenwerte, wenn man diese mit ihren Vielfachheiten zählt. Mehrfaches Vorkommen eines bestimmten Eigenwertes fasst man zusammen und erhält so nach Umbenennung die Aufzählung &amp;lt;math&amp;gt;\lambda_1, \dotsc, \lambda_k&amp;lt;/math&amp;gt; der &amp;#039;&amp;#039;verschiedenen&amp;#039;&amp;#039; Eigenwerte mit ihren Vielfachheiten &amp;lt;math&amp;gt;\mu_1, \dotsc, \mu_k.&amp;lt;/math&amp;gt; Dabei ist &amp;lt;math&amp;gt;1\leq k \leq n&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;\textstyle \sum_{i=1}^k \mu_i=n.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die eben dargestellte Vielfachheit eines Eigenwertes als Nullstelle des charakteristischen Polynoms bezeichnet man als &amp;#039;&amp;#039;&amp;#039;algebraische Vielfachheit.&amp;#039;&amp;#039;&amp;#039; Eigenwerte der algebraischen Vielfachheit &amp;lt;math&amp;gt;1&amp;lt;/math&amp;gt; werden als &amp;#039;&amp;#039;&amp;#039;einfacher Eigenwert&amp;#039;&amp;#039;&amp;#039; bezeichnet.&lt;br /&gt;
&lt;br /&gt;
Die Menge der Eigenwerte wird &amp;#039;&amp;#039;Spektrum&amp;#039;&amp;#039; genannt und &amp;lt;math&amp;gt;\sigma\left(A\right)&amp;lt;/math&amp;gt; geschrieben, sodass also&lt;br /&gt;
: &amp;lt;math&amp;gt;\sigma(A)=\{\lambda\in\mathbb{C}\,|\,\exists x\neq 0\colon Ax =\lambda x\}&amp;lt;/math&amp;gt;&lt;br /&gt;
gilt. Als [[Spektralradius]] bezeichnet man den Betrag des betragsmäßig größten Eigenwerts.&lt;br /&gt;
&lt;br /&gt;
Gilt für einen Eigenwert, dass seine algebraische Vielfachheit gleich seiner [[Eigenraum#Geometrische Vielfachheit|geometrischen Vielfachheit]] ist, so spricht man von einem &amp;#039;&amp;#039;&amp;#039;halbeinfachen Eigenwert&amp;#039;&amp;#039;&amp;#039; (aus dem englischen ‚semisimple‘). Dies entspricht genau der [[Diagonalisierbarkeit]] der Blockmatrix zum gegebenen Eigenwert.&lt;br /&gt;
&lt;br /&gt;
Kennt man die Eigenwerte sowie ihre algebraischen und geometrischen Vielfachheiten (siehe unten), kann man die [[Jordansche Normalform]] der Matrix erstellen.&lt;br /&gt;
&lt;br /&gt;
==== Beispiel ====&lt;br /&gt;
Es sei die quadratische Matrix&lt;br /&gt;
: &amp;lt;math&amp;gt;A=\begin{pmatrix}0 &amp;amp; 2 &amp;amp; -1 \\&lt;br /&gt;
  2 &amp;amp; -1 &amp;amp; 1 \\&lt;br /&gt;
  2 &amp;amp; -1 &amp;amp; 3&lt;br /&gt;
  \end{pmatrix}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
gegeben. Subtraktion der mit &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; multiplizierten [[Einheitsmatrix]] von &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; ergibt:&lt;br /&gt;
: &amp;lt;math&amp;gt;&lt;br /&gt;
  A-\lambda E =&lt;br /&gt;
  \begin{pmatrix}&lt;br /&gt;
  0 - \lambda &amp;amp; 2 &amp;amp; -1 \\&lt;br /&gt;
  2 &amp;amp; -1 - \lambda &amp;amp; 1 \\&lt;br /&gt;
  2 &amp;amp; -1 &amp;amp; 3 - \lambda&lt;br /&gt;
  \end{pmatrix}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Ausrechnen der [[Determinante (Mathematik)|Determinante]] dieser Matrix (mit Hilfe der [[Regel von Sarrus]]) liefert:&lt;br /&gt;
: &amp;lt;math&amp;gt;\begin{matrix}\det(A-\lambda E)&amp;amp;=&amp;amp;(0-\lambda)(-1-\lambda)(3-\lambda)+4+2-(2\lambda+2+\lambda+12-4\lambda) \\ &amp;amp;=&amp;amp;-\lambda^3+2\lambda^2+4\lambda-8 \\ &amp;amp;=&amp;amp;-(\lambda-2)(\lambda-2)(\lambda+2) \end{matrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
Die Eigenwerte sind die Nullstellen dieses Polynoms, man erhält:&lt;br /&gt;
: &amp;lt;math&amp;gt;\lambda_{1,2}=2,\ \lambda_3=-2&amp;lt;/math&amp;gt;&lt;br /&gt;
Der Eigenwert 2 hat eine algebraische Vielfachheit 2, weil er die doppelte Nullstelle des charakteristischen Polynoms ist.&lt;br /&gt;
&lt;br /&gt;
=== Numerische Berechnung ===&lt;br /&gt;
Während die exakte Berechnung der Nullstellen des charakteristischen Polynoms schon für dreireihige Matrizen nicht so einfach ist, wird sie für große Matrizen meist unmöglich, sodass man sich dann auf das Bestimmen von Näherungswerten beschränkt. Hierzu werden Verfahren bevorzugt, die sich durch [[Stabilität (Numerik)|numerische Stabilität]] und geringen Rechenaufwand auszeichnen. Dazu gehören Methoden für dichtbesetzte kleine bis mittlere Matrizen, wie&lt;br /&gt;
* der [[QR-Algorithmus]],&lt;br /&gt;
* der [[QZ-Algorithmus]],&lt;br /&gt;
* der [[QS-Algorithmus]] und&lt;br /&gt;
* die [[Deflation (Mathematik)|Deflation]]&lt;br /&gt;
sowie spezielle Methoden für [[Symmetrische Matrix|symmetrische]] Matrizen als auch Methoden für [[Dünnbesetzte Matrix|dünnbesetzte]] große Matrizen wie&lt;br /&gt;
* die [[Potenzmethode]],&lt;br /&gt;
* die [[inverse Iteration]],&lt;br /&gt;
* das [[Lanczos-Verfahren]],&lt;br /&gt;
* die [[Unterraumiteration]],&lt;br /&gt;
* das [[Arnoldi-Verfahren]],&lt;br /&gt;
* das [[Jacobi-Verfahren (Eigenwerte)|Jacobi-Verfahren]] und&lt;br /&gt;
* das [[Jacobi-Davidson-Verfahren]].&lt;br /&gt;
Des Weiteren gibt es noch Methoden zur Abschätzung, z.&amp;amp;nbsp;B. mithilfe&lt;br /&gt;
* der [[Matrixnorm#Abschätzung der Eigenwerte|Matrixnorm]] und&lt;br /&gt;
* der [[Gerschgorin-Kreis]]e,&lt;br /&gt;
die immer eine grobe Abschätzung (unter gewissen Bedingungen sogar genaue Bestimmung) zulassen.&lt;br /&gt;
* Die [[Folded Spectrum Method]] liefert mit jedem Durchlauf einen Eigenvektor, der jedoch auch aus der Mitte des Spektrums stammen kann.&lt;br /&gt;
&lt;br /&gt;
== Berechnung der Eigenvektoren ==&lt;br /&gt;
=== Algorithmus ===&lt;br /&gt;
Für einen Eigenwert &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; lassen sich die Eigenvektoren aus der Gleichung&lt;br /&gt;
: &amp;lt;math&amp;gt;(A-\lambda E) \cdot x = 0&amp;lt;/math&amp;gt;&lt;br /&gt;
bestimmen. Die Eigenvektoren spannen den [[Eigenraum]] auf, dessen Dimension als &amp;#039;&amp;#039;geometrische Vielfachheit&amp;#039;&amp;#039; des Eigenwertes bezeichnet wird. Für einen Eigenwert &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; der geometrischen Vielfachheit &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; lassen sich also &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; linear unabhängige Eigenvektoren &amp;lt;math&amp;gt;x_1, \dotsc, x_\mu&amp;lt;/math&amp;gt; finden, sodass die Menge aller Eigenvektoren zu &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; gleich der Menge der [[Linearkombination]]en von &amp;lt;math&amp;gt;x_1, \dotsc, x_\mu&amp;lt;/math&amp;gt; ist. Die Menge &amp;lt;math&amp;gt;\left\{x_1, \dotsc, x_\mu\right\}&amp;lt;/math&amp;gt; heißt dann eine &amp;#039;&amp;#039;Basis aus Eigenvektoren&amp;#039;&amp;#039; des zum Eigenwert &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; gehörenden Eigenraumes.&lt;br /&gt;
&lt;br /&gt;
Die geometrische Vielfachheit eines Eigenwertes kann man also auch als die maximale Anzahl [[linear unabhängig]]er Eigenvektoren zu diesem Eigenwert definieren.&lt;br /&gt;
&lt;br /&gt;
Die geometrische Vielfachheit ist höchstens gleich der algebraischen Vielfachheit.&lt;br /&gt;
&lt;br /&gt;
=== Beispiel ===&lt;br /&gt;
Gegeben ist wie in obigem Beispiel die quadratische Matrix&lt;br /&gt;
: &amp;lt;math&amp;gt;A=\begin{pmatrix}0 &amp;amp; 2 &amp;amp; -1 \\ 2 &amp;amp; -1 &amp;amp; 1 \\ 2 &amp;amp; -1 &amp;amp; 3 \end{pmatrix}.&amp;lt;/math&amp;gt;&lt;br /&gt;
Die Eigenwerte &amp;lt;math&amp;gt;\lambda_{1,2}=2, \, \lambda_3=-2&amp;lt;/math&amp;gt; wurden oben schon berechnet. Zunächst werden hier die Eigenvektoren (und der durch die Eigenvektoren aufgespannte [[Eigenraum]]) zum Eigenwert &amp;lt;math&amp;gt;\lambda=2&amp;lt;/math&amp;gt; berechnet:&lt;br /&gt;
: &amp;lt;math&amp;gt;&lt;br /&gt;
  A - 2 \cdot E =&lt;br /&gt;
  \begin{pmatrix}&lt;br /&gt;
  -2 &amp;amp; 2 &amp;amp; -1 \\&lt;br /&gt;
  2 &amp;amp; -3&amp;amp; 1 \\&lt;br /&gt;
  2 &amp;amp; -1 &amp;amp; 1&lt;br /&gt;
  \end{pmatrix}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Man muss also das folgende lineare Gleichungssystem lösen:&lt;br /&gt;
: &amp;lt;math&amp;gt;&lt;br /&gt;
  \begin{pmatrix}&lt;br /&gt;
  -2 &amp;amp; 2 &amp;amp; -1 \\&lt;br /&gt;
  2 &amp;amp; -3&amp;amp; 1 \\&lt;br /&gt;
  2 &amp;amp; -1 &amp;amp; 1&lt;br /&gt;
  \end{pmatrix} \cdot x= \begin{pmatrix}0\\ 0\\ 0 \end{pmatrix}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Bringt man die Matrix auf obere [[Lineares Gleichungssystem#Dreiecksform|Dreiecksform]], so erhält man:&lt;br /&gt;
: &amp;lt;math&amp;gt;&lt;br /&gt;
  \begin{pmatrix}&lt;br /&gt;
  1 &amp;amp; 0 &amp;amp; \frac{1}{2} \\&lt;br /&gt;
  0 &amp;amp; 1 &amp;amp; 0 \\&lt;br /&gt;
  0 &amp;amp; 0 &amp;amp; 0&lt;br /&gt;
  \end{pmatrix} \cdot x= \begin{pmatrix}0\\ 0\\ 0 \end{pmatrix}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Die gesuchten Eigenvektoren sind alle Vielfachen des Vektors &amp;lt;math&amp;gt;x=\begin{pmatrix}\frac{1}{2}, &amp;amp; 0, &amp;amp; -1 \end{pmatrix}^\top&amp;lt;/math&amp;gt; (jedoch nicht das Nullfache des Vektors, da der Nullvektor niemals ein Eigenvektor ist).&lt;br /&gt;
&lt;br /&gt;
Obwohl der Eigenwert &amp;lt;math&amp;gt;\lambda=2&amp;lt;/math&amp;gt; eine algebraische Vielfachheit von 2 hat, existiert &amp;#039;&amp;#039;nur ein&amp;#039;&amp;#039; linear unabhängiger Eigenvektor (der Eigenraum zu dem Eigenwert ist &amp;#039;&amp;#039;ein&amp;#039;&amp;#039;dimensional); also hat dieser Eigenwert eine geometrische Vielfachheit von 1. Das hat eine wichtige Konsequenz: Die Matrix ist nicht [[Diagonalisierbar#Diagonalisierbarkeit|diagonalisierbar]]. Man kann nun versuchen, die Matrix stattdessen in die [[Jordansche Normalform]] überzuführen. Dazu muss ein weiterer Eigenvektor zu diesem Eigenwert „erzwungen“ werden. Solche Eigenvektoren nennt man [[Generalisierter Eigenvektor|generalisierte Eigenvektoren]] oder [[Hauptvektor]]en.&lt;br /&gt;
&lt;br /&gt;
Für den Eigenwert &amp;lt;math&amp;gt;\lambda=-2&amp;lt;/math&amp;gt; geht man genauso vor:&lt;br /&gt;
: &amp;lt;math&amp;gt;&lt;br /&gt;
  \begin{pmatrix}&lt;br /&gt;
  2 &amp;amp; 2 &amp;amp; -1 \\&lt;br /&gt;
  2 &amp;amp; 1 &amp;amp; 1 \\&lt;br /&gt;
  2 &amp;amp; -1 &amp;amp; 5&lt;br /&gt;
  \end{pmatrix} \cdot x= \begin{pmatrix}0\\ 0\\ 0 \end{pmatrix}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Wieder bringt man die Matrix auf Dreiecksform:&lt;br /&gt;
: &amp;lt;math&amp;gt;&lt;br /&gt;
  \begin{pmatrix}&lt;br /&gt;
  1 &amp;amp; 0 &amp;amp; \frac{3}{2} \\&lt;br /&gt;
  0 &amp;amp; 1 &amp;amp; -2 \\&lt;br /&gt;
  0 &amp;amp; 0 &amp;amp; 0&lt;br /&gt;
  \end{pmatrix} \cdot x= \begin{pmatrix}0\\ 0\\ 0 \end{pmatrix}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
Hier ist die Lösung der Vektor &amp;lt;math&amp;gt;\begin{pmatrix}\frac{3}{2}, &amp;amp; -2, &amp;amp; -1 \end{pmatrix}^\top,&amp;lt;/math&amp;gt; wieder mit allen seinen vom Nullvektor verschiedenen Vielfachen.&lt;br /&gt;
&lt;br /&gt;
== Eigenschaften ==&lt;br /&gt;
* Die Eigenvektoren sind nur bis auf einen Faktor bestimmt. Wenn &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; ein Eigenvektor ist, dann ist auch &amp;lt;math&amp;gt;q\cdot x&amp;lt;/math&amp;gt; mit beliebigem &amp;lt;math&amp;gt;q&amp;lt;/math&amp;gt; Eigenvektor.&lt;br /&gt;
* Ist &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; ein Eigenwert der [[Reguläre Matrix|invertierbaren Matrix]] &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; zum Eigenvektor &amp;lt;math&amp;gt;x,&amp;lt;/math&amp;gt; so ist &amp;lt;math&amp;gt;\tfrac{1}{\lambda}&amp;lt;/math&amp;gt; Eigenwert der [[Inverse Matrix|inversen Matrix]] von &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; zum Eigenvektor &amp;lt;math&amp;gt;x.&amp;lt;/math&amp;gt;&lt;br /&gt;
* Sind &amp;lt;math&amp;gt;\lambda_i&amp;lt;/math&amp;gt; die Eigenwerte der Matrix &amp;lt;math&amp;gt;A\in\mathbb{C}^{n \times n},&amp;lt;/math&amp;gt; so gilt&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;&lt;br /&gt;
\sum_{i=1}^n \lambda_i = \operatorname{Spur}A&lt;br /&gt;
\quad \text{und} \quad&lt;br /&gt;
\prod_{i=1}^n \lambda_i = \operatorname{det} A \,,&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
: wobei bei mehrfachen Eigenwerten die Vielfachheit zu beachten ist. Hier bezeichnet &amp;lt;math&amp;gt;\operatorname{Spur}A&amp;lt;/math&amp;gt; die [[Spur (Mathematik)|Spur]] der Matrix &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt;.&lt;br /&gt;
* Das [[#Spektrum und Vielfachheiten|Spektrum]] einer Matrix &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; ist gleich dem Spektrum der [[Transponierte Matrix|transponierten Matrix]], also:&lt;br /&gt;
::&amp;lt;math&amp;gt;\sigma(A) = \sigma\left(A^\top\right).&amp;lt;/math&amp;gt;&lt;br /&gt;
: Analog gilt&lt;br /&gt;
::&amp;lt;math&amp;gt;\sigma\left(A^*\right) = \sigma\left(\overline{A}\right) = \overline{\sigma(A)}.&amp;lt;/math&amp;gt;&lt;br /&gt;
* Jede quadratische Matrix &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; über dem Körper &amp;lt;math&amp;gt;\mathbb{C}&amp;lt;/math&amp;gt; der komplexen Zahlen ist [[Ähnlichkeit (Matrix)|ähnlich]] zu einer oberen [[Dreiecksmatrix]] &amp;lt;math&amp;gt;B.&amp;lt;/math&amp;gt; Die Eigenwerte von &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; sind genau die Diagonaleinträge der Matrix &amp;lt;math&amp;gt;B.&amp;lt;/math&amp;gt;&lt;br /&gt;
* Eigenvektoren zum Eigenwert &amp;lt;math&amp;gt;1&amp;lt;/math&amp;gt; sind Fixpunkte in der Abbildungsgeometrie. Ein anschauliches Beispiel hierfür ist die Drehung eines Balls: Da sich der Radius des Balls hierbei nicht verändert, ist der Eigenwert der Drehung &amp;lt;math&amp;gt;1&amp;lt;/math&amp;gt; und die Drehachse ist ein Eigenvektor mit zwei Fixpunkten auf der Balloberfläche. Nach dem [[Satz vom Fußball]] gibt es somit zwei Punkte auf einem Fußball, die sich vor dem Anstoß zur ersten und zur zweiten Halbzeit am jeweils gleichen Punkt des Raumes befinden.&lt;br /&gt;
&lt;br /&gt;
Speziell für reelle [[Symmetrische Matrix|symmetrische]] oder komplexe [[Hermitesche Matrix|hermitesche Matrizen]] gilt:&lt;br /&gt;
&lt;br /&gt;
* Alle Eigenwerte sind stets [[Reelle Zahlen|reell]]. Im Rahmen der [[Hauptachsentransformation]] werden die Eigenwerte auch &amp;#039;&amp;#039;Hauptwerte&amp;#039;&amp;#039; genannt.&amp;lt;ref name=&amp;quot;KreissigBenedix2002&amp;quot;&amp;gt;{{Literatur |Autor=Reiner Kreissig, Ulrich Benedix |Titel=Höhere technische Mechanik: Lehr- und Übungsbuch |Verlag=Springer DE |Datum=2002 |ISBN=978-3-7091-6135-7 |Seiten=12 |Online={{Google Buch |BuchID=BvG7A7sCBzoC |Seite=12}}}}&amp;lt;/ref&amp;gt; Ist die Matrix zudem [[positiv definit]], so sind auch ihre Eigenwerte echt positiv.&lt;br /&gt;
* Es lässt sich immer eine [[Orthonormalbasis]] aus Eigenvektoren angeben.&amp;lt;ref name=&amp;quot;tuebingen&amp;quot; /&amp;gt; Dies ist eine direkte Folgerung aus dem [[Spektralsatz]]. Insbesondere sind Eigenvektoren zu verschiedenen Eigenwerten [[Orthogonalität|zueinander orthogonal]].&lt;br /&gt;
* Die aus den [[Vorzeichen (Zahl)|Vorzeichen]] der Eigenwerte ermittelte [[Signatur (lineare Algebra)|Signatur]] der Matrix bleibt nach dem [[Trägheitssatz von Sylvester]] unter [[Kongruenz (Matrix)|Kongruenztransformationen]] erhalten.&lt;br /&gt;
* Über den [[Rayleigh-Quotient]] lässt sich zu jedem Eigenvektor der zugehörige Eigenwert ermitteln. Mit dem [[Satz von Courant-Fischer]] lässt sich jeder Eigenwert als minimaler beziehungsweise maximaler Rayleigh-Quotient darstellen.&lt;br /&gt;
* Für das [[Betragsquadrat]] der Komponenten &amp;lt;math&amp;gt;v_{ij}&amp;lt;/math&amp;gt; der auf Betrag 1 normierten Eigenvektoren &amp;lt;math&amp;gt;v_i&amp;lt;/math&amp;gt; der Matrix &amp;lt;math&amp;gt;A\in\mathbb{C}^{n \times n}&amp;lt;/math&amp;gt; gilt mit deren Eigenwerten &amp;lt;math&amp;gt;\lambda_i&amp;lt;/math&amp;gt; und den Eigenwerten &amp;lt;math&amp;gt;\mu_{jk}&amp;lt;/math&amp;gt; der [[Hauptuntermatrix|Hauptuntermatrizen]] &amp;lt;math&amp;gt;M_j&amp;lt;/math&amp;gt; von &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt;:&amp;lt;ref&amp;gt;{{Internetquelle |autor=P. B. Denton, S. J. Parke, T. Tao, X. Zhang |url=https://arxiv.org/abs/1908.03795 |titel=Eigenvectors from Eigenvalues |seiten=1–3 |datum=2019-08-10 |format=PDF |sprache=en |abruf=2019-11-29}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;&lt;br /&gt;
|v_{ij}|^2\prod_{k=1;k\ne i}^n\big(\lambda_i-\lambda_k\big)&lt;br /&gt;
=\prod_{k=1}^{n-1}\big(\lambda_i-\mu_{jk}\big)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Eigenvektoren kommutierender Matrizen ==&lt;br /&gt;
Für kommutierende diagonalisierbare (insbesondere symmetrische) Matrizen ist es möglich, ein System gemeinsamer Eigenvektoren zu finden:&lt;br /&gt;
&lt;br /&gt;
Kommutieren zwei Matrizen &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;B&amp;lt;/math&amp;gt; (gilt also &amp;lt;math&amp;gt;AB=BA&amp;lt;/math&amp;gt;) und ist &amp;lt;math&amp;gt;\lambda&amp;lt;/math&amp;gt; ein nichtentarteter Eigenwert (d.&amp;amp;nbsp;h., der zugehörige Eigenraum ist eindimensional) von &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; mit Eigenvektor &amp;lt;math&amp;gt;v,&amp;lt;/math&amp;gt; so gilt&lt;br /&gt;
: &amp;lt;math&amp;gt;ABv=BAv=\lambda Bv.&amp;lt;/math&amp;gt;&lt;br /&gt;
Auch &amp;lt;math&amp;gt;Bv&amp;lt;/math&amp;gt; ist also ein Eigenvektor von &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; zum Eigenwert &amp;lt;math&amp;gt;\lambda.&amp;lt;/math&amp;gt; Da dieser Eigenwert nicht entartet ist, muss &amp;lt;math&amp;gt;Bv&amp;lt;/math&amp;gt; ein Vielfaches von &amp;lt;math&amp;gt;v&amp;lt;/math&amp;gt; sein. Das bedeutet, dass &amp;lt;math&amp;gt;v&amp;lt;/math&amp;gt; auch ein Eigenvektor der Matrix &amp;lt;math&amp;gt;B&amp;lt;/math&amp;gt; ist.&lt;br /&gt;
&lt;br /&gt;
Aus diesem einfachen Beweis geht hervor, dass die Eigenvektoren zu nichtentarteten Eigenwerten mehrerer paarweise kommutierender Matrizen Eigenvektoren aller dieser Matrizen sind.&lt;br /&gt;
&lt;br /&gt;
Allgemein können auch für kommutierende diagonalisierbare Matrizen mit entarteten Eigenwerten gemeinsame Eigenvektoren gefunden werden.&amp;lt;ref name=&amp;quot;Joshi1995&amp;quot; /&amp;gt; Aus diesem Grund können mehrere paarweise kommutierende diagonalisierbare Matrizen auch simultan (d.&amp;amp;nbsp;h. mit einer Basistransformation für alle Matrizen) [[Diagonalmatrix|diagonalisiert]] werden.&lt;br /&gt;
&lt;br /&gt;
== Linkseigenvektoren und verallgemeinertes Eigenwertproblem ==&lt;br /&gt;
Manchmal bezeichnet man einen so definierten Eigenvektor auch als &amp;#039;&amp;#039;Rechtseigenvektor&amp;#039;&amp;#039; und definiert dann entsprechend den Begriff des &amp;#039;&amp;#039;Linkseigenvektors&amp;#039;&amp;#039; durch die Gleichung&lt;br /&gt;
: &amp;lt;math&amp;gt;x^* \cdot A= \lambda \, x^*.&amp;lt;/math&amp;gt;&lt;br /&gt;
Linkseigenvektoren finden sich z.&amp;amp;nbsp;B. in der Stochastik bei der Berechnung von [[Stationäre Verteilung|stationären Verteilungen]] von [[Markow-Kette]]n mittels einer [[Übergangsmatrix]].&lt;br /&gt;
&lt;br /&gt;
Wegen &amp;lt;math&amp;gt;(x^* \cdot A)^* = A^* \cdot x&amp;lt;/math&amp;gt; sind die Linkseigenvektoren von &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; gerade die Rechtseigenvektoren der [[Adjungierte Matrix|adjungierten Matrix]] &amp;lt;math&amp;gt;A^*.&amp;lt;/math&amp;gt;&lt;br /&gt;
Bei [[Normale Matrix|normalen Matrizen]] fallen Links- und Rechtseigenvektoren zusammen.&lt;br /&gt;
&lt;br /&gt;
Allgemeiner kann man auch quadratische Matrizen &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;B&amp;lt;/math&amp;gt; und die Gleichung&lt;br /&gt;
: &amp;lt;math&amp;gt;A \cdot x = \lambda \, B \cdot x&amp;lt;/math&amp;gt;&lt;br /&gt;
untersuchen. Dieses [[Verallgemeinertes Eigenwertproblem|verallgemeinerte Eigenwertproblem]] wird hier jedoch nicht weiter betrachtet.&lt;br /&gt;
&lt;br /&gt;
== Spektraltheorie in der Funktionalanalysis ==&lt;br /&gt;
{{Hauptartikel|Spektraltheorie}}&lt;br /&gt;
&lt;br /&gt;
=== Eigenwerte und Eigenfunktionen ===&lt;br /&gt;
In der [[Funktionalanalysis]] betrachtet man lineare Abbildungen zwischen linearen [[Funktionenraum|Funktionenräumen]] (also lineare Abbildungen zwischen unendlichdimensionalen Vektorräumen). Meistens spricht man von [[Linearer Operator|linearen Operatoren]] anstatt von linearen Abbildungen. Sei &amp;lt;math&amp;gt;V&amp;lt;/math&amp;gt; ein Vektorraum über einem Körper &amp;lt;math&amp;gt;K&amp;lt;/math&amp;gt; mit &amp;lt;math&amp;gt;\dim(V) = \infty&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; ein linearer Operator. In der Funktionalanalysis ordnet man &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt; ein Spektrum zu. Dieses besteht aus allen &amp;lt;math&amp;gt;\lambda \in K,&amp;lt;/math&amp;gt; für die der Operator &amp;lt;math&amp;gt;A - \lambda\operatorname{Id}&amp;lt;/math&amp;gt; nicht invertierbar ist. Dieses Spektrum muss jedoch nicht –&amp;amp;nbsp;wie bei Abbildungen zwischen endlichdimensionalen Vektorräumen&amp;amp;nbsp;– diskret sein. Denn im Gegensatz zu den linearen Abbildungen zwischen endlichdimensionalen Vektorräumen, die nur &amp;lt;math&amp;gt;n \in \N&amp;lt;/math&amp;gt; verschiedene Eigenwerte haben, haben lineare Operatoren im Allgemeinen unendlich viele Elemente im Spektrum. Daher ist es zum Beispiel möglich, dass das Spektrum von linearen Operatoren [[Häufungspunkt]]e besitzt. Um die Untersuchung des Operators und des Spektrums zu vereinfachen, unterteilt man das Spektrum in unterschiedliche Teilspektren. Elemente, die die Gleichung &amp;lt;math&amp;gt;Ax - \lambda \operatorname{Id}x=0&amp;lt;/math&amp;gt; für ein &amp;lt;math&amp;gt;x \neq 0&amp;lt;/math&amp;gt; lösen, nennt man wie in der linearen Algebra &amp;#039;&amp;#039;Eigenwerte.&amp;#039;&amp;#039; Die Gesamtheit der Eigenwerte nennt man das &amp;#039;&amp;#039;Punktspektrum&amp;#039;&amp;#039; von &amp;lt;math&amp;gt;A.&amp;lt;/math&amp;gt; Wie in der linearen Algebra wird jedem Eigenwert ein Raum von Eigenvektoren zugeordnet. Da die Eigenvektoren meist als Funktionen aufgefasst werden, spricht man auch von Eigenfunktionen.&lt;br /&gt;
&lt;br /&gt;
=== Beispiel ===&lt;br /&gt;
Sei &amp;lt;math&amp;gt;\Omega \subset \R&amp;lt;/math&amp;gt; offen. Dann besitzt der [[Differentialrechnung|Ableitungsoperator]] &amp;lt;math&amp;gt;\tfrac{\mathrm d}{\mathrm d x}\colon C^\infty(\Omega,\Complex) \to C^\infty(\Omega,\Complex)&amp;lt;/math&amp;gt; ein nichtleeres Punktspektrum. Betrachtet man nämlich für alle &amp;lt;math&amp;gt;x \in \Omega&amp;lt;/math&amp;gt; die Gleichung&lt;br /&gt;
: &amp;lt;math&amp;gt;\frac{\mathrm d f}{\mathrm d x}(x) = \lambda f(x)&amp;lt;/math&amp;gt;&lt;br /&gt;
und wählt &amp;lt;math&amp;gt;f(x) = e^{\lambda x},&amp;lt;/math&amp;gt; dann sieht man, dass die Gleichung &amp;lt;math&amp;gt;\tfrac{\mathrm d}{\mathrm d x}e^{\lambda x} = \lambda e^{\lambda x}&amp;lt;/math&amp;gt; für alle &amp;lt;math&amp;gt;\lambda \in \Complex&amp;lt;/math&amp;gt; erfüllt ist. Also ist jedes &amp;lt;math&amp;gt;\lambda\in\Complex&amp;lt;/math&amp;gt; ein Eigenwert mit zugehöriger Eigenfunktion &amp;lt;math&amp;gt;e^{\lambda x}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Praktische Beispiele ==&lt;br /&gt;
Durch Lösung eines Eigenwertproblems berechnet man&lt;br /&gt;
* [[Eigenfrequenz]]en, [[Moden|Eigenformen]] und gegebenenfalls auch die Dämpfungscharakteristik eines schwingungsfähigen Systems,&lt;br /&gt;
* die [[Knicklast]] eines Knickstabs (siehe [[Balkentheorie]]),&lt;br /&gt;
* das [[Beulversagen]] (eine Art des Materialversagens durch unzureichende [[Steifigkeit]]) eines leeren Rohres unter Außendruck,&lt;br /&gt;
* die Hauptkomponenten einer [[Punktmenge]] (z.&amp;amp;nbsp;B. zur Kompression von Bildern oder zur Bestimmung von Faktoren in der Psychologie: [[Hauptkomponentenanalyse]]),&lt;br /&gt;
* die [[Hauptspannung]]en in der [[Festigkeitslehre]] (Umrechnung der Spannungen in ein Koordinatensystem, in dem es keine Schubspannungen gibt),&lt;br /&gt;
* die [[Hauptstreckung]]en in der Festigkeitslehre als Eigenwerte der [[Deformationstensor]]en,&lt;br /&gt;
* die Hauptträgheitsachsen eines [[Asymmetrie#Mechanik|asymmetrischen]] Querschnitts (um einen [[Balkentheorie|Balken]] –&amp;amp;nbsp;Träger oder Ähnliches&amp;amp;nbsp;– in diesen beiden Richtungen unabhängig voneinander zu berechnen),&lt;br /&gt;
* vielfältige andere technische Problemstellungen, die mit der jeweils spezifisch definierten &amp;#039;&amp;#039;Stabilität&amp;#039;&amp;#039; eines Systems zu tun haben,&lt;br /&gt;
* den [[PageRank]] einer Homepage als Eigenvektor der [[Google-Matrix]], dort gewertet als ein Maß für die relative Wichtigkeit einer Homepage im Internet,&lt;br /&gt;
* die Grenzverteilungen von [[Markow-Kette]]n mit diskretem Zustandsraum und diskreten Zeitschritten, die durch eine [[stochastische Matrix]] beschrieben werden (die Linkseigenvektoren zum Eigenwert&amp;amp;nbsp;1 sind die [[Stationäre Verteilung|stationären Verteilungen]], die Rechtseigenvektoren zum Eigenwert&amp;amp;nbsp;1 sind die [[Absorbierender Zustand|Absorptionswahrscheinlichkeiten]]),&lt;br /&gt;
* die Drehachse und damit die Fixpunkte, von denen der [[Satz vom Fußball]] spricht.&lt;br /&gt;
* die [[Eigengesicht]]er in der automatisierten Gesichtserkennung.&lt;br /&gt;
* das [[Spektrum (Graphentheorie)|Spektrum]] eines Graphens (Spektrale [[Graphentheorie]])&lt;br /&gt;
Eigenwerte spielen in der [[Quantenmechanik]] eine besondere Rolle. Physikalische Größen wie z.&amp;amp;nbsp;B. der [[Drehimpuls]] werden hier durch [[Operator (Mathematik)|Operatoren]] repräsentiert. Messbar sind nur die Eigenwerte der Operatoren. Hat z.&amp;amp;nbsp;B. der [[Hamiltonoperator]], der die Energie eines quantenmechanischen Systems repräsentiert, ein diskretes [[Spektrum (Operatortheorie)|Spektrum]], so kann die Energie nur [[Diskreter Wert|diskrete Werte]] annehmen, was z.&amp;amp;nbsp;B. für die Energieniveaus in einem [[Atom]] typisch ist. So stellen bei den Lösungen der bekannten [[Schrödingergleichung]] (im Jahr 1926 durch den Physiker [[Erwin Schrödinger]] aufgestellt) die Eigenwerte die erlaubten Energiewerte der Elektronen und die Eigenfunktionen die zugehörigen Wellenfunktionen der Elektronen dar.&lt;br /&gt;
&lt;br /&gt;
Auch die Unmöglichkeit der gleichzeitigen präzisen Messung gewisser Größen (z.&amp;amp;nbsp;B. von Ort und Impuls), wie von der [[Heisenbergsche Unschärferelation|Heisenbergschen Unschärferelation]] ausgedrückt, ist letztlich darauf zurückzuführen, dass für die jeweiligen Operatoren kein gemeinsames System von Eigenvektoren existiert.&lt;br /&gt;
&lt;br /&gt;
== Literatur ==&lt;br /&gt;
* Gerd Fischer: &amp;#039;&amp;#039;Lineare Algebra.&amp;#039;&amp;#039; Vieweg-Verlag, ISBN 3-528-03217-0.&lt;br /&gt;
* Hans-Joachim Kowalsky, Gerhard O. Michler: &amp;#039;&amp;#039;Lineare Algebra.&amp;#039;&amp;#039; Gruyter, ISBN 3-11-017963-6.&lt;br /&gt;
* Dietlinde Lau: &amp;#039;&amp;#039;Algebra und Diskrete Mathematik 1.&amp;#039;&amp;#039; Springer, ISBN 3-540-72364-1.&lt;br /&gt;
* Gilbert Strang: &amp;#039;&amp;#039;Introduction to Linear Algebra.&amp;#039;&amp;#039; Cambridge University Press, ISBN 0-9802327-1-6.&lt;br /&gt;
* Günter Gramlich: &amp;#039;&amp;#039;Lineare Algebra.&amp;#039;&amp;#039; Fachbuchverlag Leipzig im Carl Hanser Verlag, ISBN 3-446-22122-0.&lt;br /&gt;
&lt;br /&gt;
== Weblinks ==&lt;br /&gt;
{{Wikiversity|Kurs:Lineare Algebra (Osnabrück 2024-2025)/Teil I/Vorlesung 21|Vorlesung über Eigenwerte und Eigenvektoren}}&lt;br /&gt;
* {{Internetquelle&lt;br /&gt;
 |url=http://www.mia.uni-saarland.de/Teaching/MFI07/kap45.pdf&lt;br /&gt;
 |titel=Kapitel: Eigenwerte und Eigenvektoren&lt;br /&gt;
 |format=PDF&lt;br /&gt;
 |offline=1&lt;br /&gt;
 |archiv-url=https://web.archive.org/web/20121119065630/http://www.mia.uni-saarland.de/Teaching/MFI07/kap45.pdf&lt;br /&gt;
 |archiv-datum=2012-11-19&lt;br /&gt;
 |abruf=2014-10-30}} Von Joachim Weickert ([[Universität des Saarlandes]]): &amp;#039;&amp;#039;Mathematical Image Analysis Group.&amp;#039;&amp;#039; (PDF; 66&amp;amp;nbsp;kB).&lt;br /&gt;
* [[MIT OpenCourseWare]]: &amp;#039;&amp;#039;[https://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/video-lectures/lecture-21-eigenvalues-and-eigenvectors/ Eigenvectors and Eigenvalues.]&amp;#039;&amp;#039; Video der Vorlesung „Lineare Algebra“ von Gilbert Strang, MIT, 2000.&lt;br /&gt;
* Z.&amp;amp;nbsp;Bai, J.&amp;amp;nbsp;Demmel, J.&amp;amp;nbsp;Dongarra, A.&amp;amp;nbsp;Ruhe, H.&amp;amp;nbsp;van der Vorst: [https://www.netlib.org/utk/people/JackDongarra/etemplates/book.html &amp;#039;&amp;#039;Templates for the Solution of Algebraic Eigenvalue Problems: a Practical Guide.&amp;#039;&amp;#039;] SIAM, Philadelphia, 2000. Sehr umfangreiches englisches Werk.&lt;br /&gt;
* [https://info.mathematik.uni-stuttgart.de/HM-Stroppel-Material/Eigenvektoren/ Interaktive Applets]&amp;amp;nbsp;– von der Uni Stuttgart. Spiegelung, Projektion, Scherung, Drehung.&lt;br /&gt;
&lt;br /&gt;
== Einzelnachweise ==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Hilberts&amp;quot;&amp;gt;&lt;br /&gt;
[http://faql.de/etymologie.html#eigen FAQL.de], abgerufen am 10. Juni 2013, zitiert David Hilberts Artikel &amp;#039;&amp;#039;Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen,&amp;#039;&amp;#039; veröffentlicht 1904 in den &amp;#039;&amp;#039;Nachrichten von der Königlichen Gesellschaft der Wissenschaften zu Göttingen, mathematisch-physikalische Klasse.&amp;#039;&amp;#039;&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Kowalsky&amp;quot;&amp;gt;&lt;br /&gt;
{{Literatur&lt;br /&gt;
 |Autor=Hans-Joachim Kowalsky, Gerhard O. Michler&lt;br /&gt;
 |Titel=Lineare Algebra&lt;br /&gt;
 |Auflage=12&lt;br /&gt;
 |Verlag=Walter de Gruyter&lt;br /&gt;
 |Ort=Berlin&lt;br /&gt;
 |Datum=2003&lt;br /&gt;
 |ISBN=3-11-017963-6&lt;br /&gt;
 |Seiten=121}}&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Joshi1995&amp;quot;&amp;gt;&lt;br /&gt;
{{cite book |author=A. W. Joshi|title=Matrices and tensors in physics |url=http://books.google.com/books?id=FesDylvUy00C |accessdate=2012-02-29 |year=1995 |publisher=New Age International |isbn=978-81-224-0563-7 |pages=117 |language=en}}&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;tuebingen&amp;quot;&amp;gt;{{Internetquelle |url=http://mfb.informatik.uni-tuebingen.de/book/node221.html |titel=Symmetrische Abbildungen und Matrizen |kommentar=Theorem&amp;amp;nbsp;10.75 |abruf=2023-02-02 |archiv-url=https://archive.ph/20120718132726/http://mfb.informatik.uni-tuebingen.de/book/node221.html |archiv-datum=2012-07-18 |offline=}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;GoldhornHeinz2010&amp;quot;&amp;gt;&lt;br /&gt;
{{cite book|author=Karl-Heinz Goldhorn, Hans-Peter Heinz, Margarita Kraus|title=Moderne mathematische Methoden der Physik|url=http://books.google.com/books?id=eRuoVwjjRF0C&amp;amp;pg=PA87|accessdate=2012-02-29|date=2010-09-09|publisher=Springer|isbn=978-3-642-05184-5|pages=87}}&lt;br /&gt;
&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Normdaten|TYP=s|GND=4013802-1}}&lt;br /&gt;
&lt;br /&gt;
[[Kategorie:Lineare Algebra]]&lt;/div&gt;</summary>
		<author><name>imported&gt;Baletiballo</name></author>
	</entry>
</feed>