<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="de">
	<id>https://demowiki.knowlus.com/index.php?action=history&amp;feed=atom&amp;title=Gram-Schmidtsches_Orthogonalisierungsverfahren</id>
	<title>Gram-Schmidtsches Orthogonalisierungsverfahren - Versionsgeschichte</title>
	<link rel="self" type="application/atom+xml" href="https://demowiki.knowlus.com/index.php?action=history&amp;feed=atom&amp;title=Gram-Schmidtsches_Orthogonalisierungsverfahren"/>
	<link rel="alternate" type="text/html" href="https://demowiki.knowlus.com/index.php?title=Gram-Schmidtsches_Orthogonalisierungsverfahren&amp;action=history"/>
	<updated>2026-04-10T16:49:42Z</updated>
	<subtitle>Versionsgeschichte dieser Seite in Demo Wiki</subtitle>
	<generator>MediaWiki 1.44.2</generator>
	<entry>
		<id>https://demowiki.knowlus.com/index.php?title=Gram-Schmidtsches_Orthogonalisierungsverfahren&amp;diff=5867&amp;oldid=prev</id>
		<title>imported&gt;314artemis: /* growthexperiments-addlink-summary-summary:2|0|0 */</title>
		<link rel="alternate" type="text/html" href="https://demowiki.knowlus.com/index.php?title=Gram-Schmidtsches_Orthogonalisierungsverfahren&amp;diff=5867&amp;oldid=prev"/>
		<updated>2025-05-23T05:03:08Z</updated>

		<summary type="html">&lt;p&gt;&lt;span class=&quot;autocomment&quot;&gt;growthexperiments-addlink-summary-summary:2|0|0&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Neue Seite&lt;/b&gt;&lt;/p&gt;&lt;div&gt;Das &amp;#039;&amp;#039;&amp;#039;Gram-Schmidt’sche Orthogonalisierungsverfahren&amp;#039;&amp;#039;&amp;#039; ist ein [[Algorithmus]] aus dem [[Teilgebiete der Mathematik|mathematischen Teilgebiet]] der [[Lineare Algebra|linearen Algebra]]. Er erzeugt zu jedem System [[linear unabhängig]]er Vektoren aus einem [[Prähilbertraum]] (einem [[Vektorraum]] mit [[Skalarprodukt]]) ein [[Orthogonalsystem]], das denselben [[Untervektorraum]] [[Erzeugendensystem|erzeugt]]. Eine Erweiterung stellt das &amp;#039;&amp;#039;&amp;#039;Gram-Schmidt’sche Orthonormalisierungsverfahren&amp;#039;&amp;#039;&amp;#039; dar: Statt eines Orthogonalsystems berechnet es ein [[Orthonormalsystem]]. Verwendet man ein System von [[Basisvektor]]en als Eingabe für die Algorithmen, so berechnen sie eine Orthogonal- bzw. [[Orthonormalbasis]].&lt;br /&gt;
&lt;br /&gt;
Die beiden Verfahren sind nach [[Jørgen Pedersen Gram]] und [[Erhard Schmidt (Mathematiker)|Erhard Schmidt]] benannt. Sie wurden allerdings bereits früher in den Werken von [[Pierre-Simon Laplace]] und [[Augustin-Louis Cauchy]] verwendet.&lt;br /&gt;
&lt;br /&gt;
Für die [[Numerik|numerische Berechnung]] durch einen Computer mit [[Gleitpunktarithmetik]] sind die Gram-Schmidt-Verfahren schlecht geeignet. Durch akkumulierte [[Rundungsfehler]] sind die berechneten Vektoren nicht mehr orthogonal. Es existieren aber [[Arnoldi-Verfahren|Modifikationen des Verfahrens]], die diesen Nachteil nicht haben. Andere [[Orthogonalisierungsverfahren]] basieren auf [[Householdertransformation]]en oder [[Givens-Rotation]]en.&lt;br /&gt;
&lt;br /&gt;
== Vorbemerkung ==&lt;br /&gt;
Im Folgenden werden Elemente des betrachteten Vektorraums (Vektoren) mit einfachen lateinischen Buchstaben wie &amp;lt;math&amp;gt;v&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;w&amp;lt;/math&amp;gt; bezeichnet, gegebenenfalls mit Indizes wie &amp;lt;math&amp;gt;v_i&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;w_j&amp;lt;/math&amp;gt;. Es wird sowohl auf übergesetzte Pfeile als auch auf Fettdruck verzichtet. &lt;br /&gt;
Das Skalarprodukt wird durch spitze Klammern dargestellt: &amp;lt;math&amp;gt;\langle v, w \rangle&amp;lt;/math&amp;gt;. Im komplexen Fall wird dabei die Konvention verwendet, dass das [[Skalarprodukt]] im ersten Argument semilinear, im zweiten Argument linear ist, das heißt&lt;br /&gt;
:&amp;lt;math&amp;gt;\langle \lambda v, w \rangle = \overline \lambda \langle v, w \rangle,\quad \langle  v, \lambda w \rangle = \lambda \langle v, w \rangle&amp;lt;/math&amp;gt;&lt;br /&gt;
für alle Vektoren &amp;lt;math&amp;gt;v&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;w &amp;lt;/math&amp;gt; und alle &amp;lt;math&amp;gt;\lambda \in \Complex&amp;lt;/math&amp;gt;. Im komplexen Fall kommt es deshalb bei den unten dargestellten Formeln auf die Reihenfolge der Faktoren im Skalarprodukt an, im reellen Fall jedoch nicht.&lt;br /&gt;
&lt;br /&gt;
Zudem bezeichnet &amp;lt;math&amp;gt;\|v\|=\sqrt{\langle v, v\rangle}&amp;lt;/math&amp;gt; die [[Norm (Mathematik)|Norm]] des Vektors &amp;lt;math&amp;gt;v&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
== Algorithmus des Orthogonalisierungsverfahrens ==&lt;br /&gt;
[[File:Gram-Schmidt orthonormalization process.gif|miniatur|Illustration des Gram-Schmidt-Verfahrens an einem Beispiel mit drei Vektoren]]&lt;br /&gt;
&lt;br /&gt;
Der folgende Algorithmus berechnet zu den linear unabhängigen Vektoren &amp;lt;math&amp;gt;w_1, \dots, w_n&amp;lt;/math&amp;gt; ein [[Orthogonalsystem]] von &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; paarweise orthogonalen Vektoren, das denselben Untervektorraum erzeugt.&lt;br /&gt;
&lt;br /&gt;
Die einzelnen Vektoren &amp;lt;math&amp;gt;v_1, \dots, v_n&amp;lt;/math&amp;gt; des Orthogonalsystems berechnen sich wie folgt:&lt;br /&gt;
:&amp;lt;math&amp;gt;v_1 = w_1\,&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;v_2 = w_2 - \frac{\langle v_1, w_2\rangle}{\langle v_1, v_1\rangle} \, v_1&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;v_3 = w_3 - \frac{\langle v_1, w_3\rangle}{\langle v_1, v_1\rangle} \, v_1 - \frac{\langle v_2, w_3\rangle}{\langle v_2, v_2\rangle} \, v_2&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\vdots&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;v_n = w_n - \frac{\langle v_1, w_n\rangle}{\langle v_1, v_1\rangle} \, v_1 - \frac{\langle v_2, w_n\rangle}{\langle v_2, v_2\rangle} \, v_2 - \dotsb - \frac{\langle v_{n-1}, w_n\rangle}{\langle v_{n-1}, v_{n-1}\rangle} \, v_{n-1}&lt;br /&gt;
= w_n - \sum_{i=1}^{n-1} \frac{\langle v_i, w_n\rangle}{\langle v_i, v_i\rangle} \, v_i&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Anders gesagt werden die &amp;lt;math&amp;gt;v_j&amp;lt;/math&amp;gt; für &amp;lt;math&amp;gt;j=1,2,\dots,n&amp;lt;/math&amp;gt; also rekursiv durch &lt;br /&gt;
:&amp;lt;math&amp;gt;v_j = w_j - \sum_{i=1}^{j-1} \frac{\langle v_i, w_j\rangle}{\langle v_i, v_i\rangle} \, v_i&amp;lt;/math&amp;gt;&lt;br /&gt;
definiert.&lt;br /&gt;
&lt;br /&gt;
=== Beispiel ===&lt;br /&gt;
Im &amp;lt;math&amp;gt;\mathbb{R}^3&amp;lt;/math&amp;gt; versehen mit dem [[Standardskalarprodukt]] &amp;lt;math&amp;gt;\langle\cdot,\cdot \rangle&amp;lt;/math&amp;gt; seien zwei linear unabhängige Vektoren vorgegeben, die einen Untervektorraum erzeugen:&lt;br /&gt;
:&amp;lt;math&amp;gt; w_1 = \begin{pmatrix} 3 \\ 1 \\ 2 \end{pmatrix},\quad w_2 = \begin{pmatrix} 2 \\ 2 \\ 2 \end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
Es werden nun zwei orthogonale Vektoren &amp;lt;math&amp;gt;v_1&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;v_2&amp;lt;/math&amp;gt; berechnet, die denselben Untervektorraum erzeugen:&lt;br /&gt;
:&amp;lt;math&amp;gt;v_1 = w_1 = \begin{pmatrix} 3 \\ 1 \\ 2 \end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;v_2 = w_2 - \frac{\langle v_1, w_2\rangle}{\langle v_1, v_1\rangle} \cdot v_1&lt;br /&gt;
= \begin{pmatrix} 2 \\ 2 \\ 2 \end{pmatrix} - \frac{12}{14} \cdot \begin{pmatrix} 3 \\ 1 \\ 2 \end{pmatrix}&lt;br /&gt;
= \frac{1}{7} \begin{pmatrix} -4 \\ 8 \\ 2 \end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Algorithmus des Orthonormalisierungsverfahrens ==&lt;br /&gt;
&lt;br /&gt;
Der folgende Algorithmus berechnet zu den linear unabhängigen Vektoren &amp;lt;math&amp;gt;w_1, \dots, w_n&amp;lt;/math&amp;gt; ein [[Orthonormalsystem]] von &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; normierten, paarweise orthogonalen Vektoren, das denselben Untervektorraum erzeugt. Er ist identisch mit einer Normierung der orthogonalen Vektoren, welche durch den obigen Algorithmus bestimmt wurden.&lt;br /&gt;
&lt;br /&gt;
Die einzelnen Vektoren &amp;lt;math&amp;gt;v_1, \dots, v_n&amp;lt;/math&amp;gt; des Orthonormalsystems erhält man, indem zuerst jeweils ein orthogonaler Vektor berechnet und anschließend normalisiert wird:&lt;br /&gt;
:&amp;lt;math&amp;gt;v_1 = \frac{w_1}{\left\|w_1\right\|}&amp;lt;/math&amp;gt; (Normalisieren des ersten Vektors &amp;lt;math&amp;gt;w_1&amp;lt;/math&amp;gt;)&lt;br /&gt;
:&amp;lt;math&amp;gt;v_2^\prime = w_2 - \langle v_1, w_2 \rangle \cdot v_1&amp;lt;/math&amp;gt; (Orthogonalisieren des zweiten Vektors &amp;lt;math&amp;gt;w_2&amp;lt;/math&amp;gt;)&lt;br /&gt;
:&amp;lt;math&amp;gt;v_2 = \frac{v_2^\prime}{\left\|v_2^\prime\right\|}&amp;lt;/math&amp;gt; (Normalisieren des Vektors &amp;lt;math&amp;gt;v_2^\prime&amp;lt;/math&amp;gt;)&lt;br /&gt;
:&amp;lt;math&amp;gt;v_3^\prime = w_3 - \langle v_1, w_3 \rangle \cdot v_1 - \langle v_2, w_3 \rangle \cdot v_2&amp;lt;/math&amp;gt; (Orthogonalisieren des dritten Vektors &amp;lt;math&amp;gt;w_3&amp;lt;/math&amp;gt;)&lt;br /&gt;
:&amp;lt;math&amp;gt;v_3 = \frac{v_3^\prime}{\left\|v_3^\prime\right\|}&amp;lt;/math&amp;gt; (Normalisieren des Vektors &amp;lt;math&amp;gt;v_3^\prime&amp;lt;/math&amp;gt;)&lt;br /&gt;
::&amp;lt;math&amp;gt;\vdots&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;v_n^\prime = w_n - \sum_{i=1}^{n-1} \langle v_i, w_n \rangle \cdot v_i&amp;lt;/math&amp;gt; (Orthogonalisieren des &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;-ten Vektors &amp;lt;math&amp;gt;w_n&amp;lt;/math&amp;gt;)&lt;br /&gt;
:&amp;lt;math&amp;gt;v_n = \frac{v_n^\prime}{\left\|v_n^\prime\right\|}&amp;lt;/math&amp;gt; (Normalisieren des Vektors &amp;lt;math&amp;gt;v_n^\prime&amp;lt;/math&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
Anders gesagt werden die &amp;lt;math&amp;gt;v_j&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;v_j^\prime&amp;lt;/math&amp;gt; für &amp;lt;math&amp;gt;j=1,2,\dots,n&amp;lt;/math&amp;gt; also rekursiv durch &lt;br /&gt;
:&amp;lt;math&amp;gt;v_j^\prime = w_j - \sum_{i=1}^{j-1} \langle v_i, w_j \rangle \cdot v_i&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;v_j = \frac{v_j^\prime}{\left\|v_j^\prime\right\|}&amp;lt;/math&amp;gt; definiert.&lt;br /&gt;
&lt;br /&gt;
Im Allgemeinen erhält man durch dieses Verfahren kein besonders ausgezeichnetes System. Im &amp;lt;math&amp;gt;\R^3&amp;lt;/math&amp;gt; muss z. B. erst ein Umordnungsschritt nachgeschaltet werden, um ein Rechts- oder Linkssystem zu erhalten.&lt;br /&gt;
&lt;br /&gt;
=== Beispiel ===&lt;br /&gt;
&lt;br /&gt;
Im &amp;lt;math&amp;gt;\mathbb{R}^2&amp;lt;/math&amp;gt; versehen mit dem [[Standardskalarprodukt]] &amp;lt;math&amp;gt;\langle\cdot,\cdot \rangle&amp;lt;/math&amp;gt; seien zwei Basisvektoren gegeben:&lt;br /&gt;
:&amp;lt;math&amp;gt; w_1 = \begin{pmatrix} 3 \\ 1  \end{pmatrix},\quad w_2 = \begin{pmatrix} 2 \\ 2 \end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es werden nun zwei Vektoren &amp;lt;math&amp;gt;v_1&amp;lt;/math&amp;gt; und &amp;lt;math&amp;gt;v_2&amp;lt;/math&amp;gt; berechnet, die eine Orthonormalbasis des &amp;lt;math&amp;gt;\mathbb{R}^2&amp;lt;/math&amp;gt; bilden.&lt;br /&gt;
:&amp;lt;math&amp;gt;v_1 = \frac {w_1} {\left\|w_1\right\|} = \frac {1} {\sqrt{10}} \cdot \begin{pmatrix} 3 \\ 1 \end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;v_2^\prime = w_2 - \langle v_1, w_2 \rangle \cdot v_1&lt;br /&gt;
= \begin{pmatrix} 2 \\ 2 \end{pmatrix} - \frac{1}{\sqrt{10}}\cdot \left\langle \begin{pmatrix} 3 \\ 1 \end{pmatrix},\begin{pmatrix} 2 \\ 2 \end{pmatrix} \right\rangle \cdot \frac{1}{\sqrt{10}} \begin{pmatrix} 3 \\ 1 \end{pmatrix}&lt;br /&gt;
= \frac{1}{5} \begin{pmatrix} -2 \\ 6 \end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;v_2 = \frac{v_2^\prime}{\left\|v_2^\prime\right\|}&lt;br /&gt;
= \sqrt{\frac{25}{40}} \cdot \frac{1}{5} \begin{pmatrix} -2 \\ 6 \end{pmatrix}&lt;br /&gt;
= \frac{1}{\sqrt{10}} \cdot \begin{pmatrix} -1 \\ 3 \end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Anmerkungen ==&lt;br /&gt;
&lt;br /&gt;
Eine besondere Eigenschaft der beiden Verfahren ist, dass nach jedem Zwischenschritt die bisher berechneten Vektoren &amp;lt;math&amp;gt;v_1, \dots, v_i&amp;lt;/math&amp;gt; den gleichen Vektorraum erzeugen wie die Vektoren &amp;lt;math&amp;gt;w_1, \dots, w_i&amp;lt;/math&amp;gt;. Die Vektoren &amp;lt;math&amp;gt;v_1, \dots, v_i&amp;lt;/math&amp;gt; bilden also eine Orthogonal- bzw. Orthonormalbasis der entsprechenden Untervektorräume. Anders ausgedrückt ist die Transformationsmatrix, die die Koordinaten des einen Systems im anderen ausdrückt, eine rechtsobere Dreiecksmatrix. Diese hat außerdem eine positive Determinante, daher hat die resultierende Orthogonal- bzw. Orthonormalbasis die gleiche Orientierung wie die Ausgangsbasis.  Fasst man die orthonormalen Vektoren &amp;lt;math&amp;gt;v_1, \dots, v_n&amp;lt;/math&amp;gt; als Spalten einer Matrix &amp;#039;&amp;#039;Q&amp;#039;&amp;#039; zusammen, ebenso die Vektoren des Ausgangssystems &amp;lt;math&amp;gt;w_1, \dots, w_n&amp;lt;/math&amp;gt; zu einer Matrix &amp;#039;&amp;#039;A&amp;#039;&amp;#039;, so gibt es eine Dreiecksmatrix &amp;#039;&amp;#039;R&amp;#039;&amp;#039; mit &amp;#039;&amp;#039;A=QR&amp;#039;&amp;#039;, es wird also eine [[QR-Zerlegung]] bestimmt. Dementsprechend kann das Ergebnis der Gram-Schmidt-Orthonormalisierung auch mit anderen Methoden zur QR-Zerlegung bestimmt werden, die mit [[Givens-Rotation]]en oder [[Householdertransformation|Householder-Spiegelungen]] arbeiten.&lt;br /&gt;
&lt;br /&gt;
Berechnet man ein Orthonormalsystem von Hand, ist es oftmals einfacher, zunächst ein Orthogonalsystem auszurechnen und dann die einzelnen Vektoren zu normieren. Dadurch erspart man sich das zweifache Normieren und kann oftmals mit einfacheren Werten rechnen. Gegebenenfalls lohnt es sich, vor dem Erstellen des Orthogonalsystems/Orthonormalsystems das [[Gaußsches Eliminationsverfahren|Gauß’sche Eliminationsverfahren]] durchzuführen.&lt;br /&gt;
&lt;br /&gt;
== Prinzip des Verfahrens ==&lt;br /&gt;
&lt;br /&gt;
Sind die orthogonalen Vektoren &amp;lt;math&amp;gt;v_1, \ldots, v_{k-1}&amp;lt;/math&amp;gt; bereits bestimmt, versuchen wir, von &amp;lt;math&amp;gt;w_k&amp;lt;/math&amp;gt; eine passende [[Linearkombination]] der Vektoren &amp;lt;math&amp;gt;v_1, \ldots, v_{k-1}&amp;lt;/math&amp;gt; abzuziehen,&lt;br /&gt;
sodass der Differenzvektor&lt;br /&gt;
:&amp;lt;math&amp;gt;v_k = w_k - \sum_{i=1}^{k-1} \lambda_i v_i&amp;lt;/math&amp;gt;&lt;br /&gt;
zu allen Vektoren &amp;lt;math&amp;gt;v_1, \ldots, v_{k-1}&amp;lt;/math&amp;gt; orthogonal wird. Dies ist gleichbedeutend damit, dass das Skalarprodukt&lt;br /&gt;
&amp;lt;math&amp;gt;\langle v_j,v_k \rangle&amp;lt;/math&amp;gt;&lt;br /&gt;
für alle &amp;lt;math&amp;gt;j=1,\ldots,k-1&amp;lt;/math&amp;gt; den Wert 0 ergibt. Eine solche Linearkombination ergibt sich, wenn für jedes &amp;lt;math&amp;gt;i&amp;lt;/math&amp;gt; der Ausdruck&lt;br /&gt;
:&amp;lt;math&amp;gt;\lambda_i = \frac {\langle v_i,w_k \rangle}{\langle v_i,v_i \rangle}&amp;lt;/math&amp;gt;&lt;br /&gt;
gewählt wird. Eine Kontrollrechnung zeigt, dass dadurch alle Skalarprodukte &amp;lt;math&amp;gt;\langle v_j,v_k \rangle&amp;lt;/math&amp;gt; mit &amp;lt;math&amp;gt;j \neq k&amp;lt;/math&amp;gt; den Wert 0 annehmen:&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{align}\langle v_j,v_k \rangle&lt;br /&gt;
&amp;amp;= \left\langle v_j,w_k - \sum_{i=1}^{k-1} \lambda_i v_i \right\rangle\\&lt;br /&gt;
&amp;amp;= \langle v_j,w_k \rangle - \sum_{i=1}^{k-1} \frac {\langle v_i,w_k \rangle}{\langle v_i,v_i \rangle} \langle v_j,v_i \rangle\\&lt;br /&gt;
&amp;amp;= \langle v_j,w_k \rangle - \langle v_j,w_k \rangle\\&lt;br /&gt;
&amp;amp;= 0\end{align}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Orthonormalisierung unendlicher Systeme von Vektoren ==&lt;br /&gt;
In einem beliebigen [[Hilbertraum]] &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; lässt sich das Verfahren auch auf unendliche Systeme unabhängiger Vektoren anwenden, wobei die Unabhängigkeit in dem Sinne zu verstehen ist, dass kein Element im [[Abgeschlossene Hülle|Abschluss]] der [[lineare Hülle|linearen Hülle]] der übrigen Vektoren liegt. Den Fall eines [[Abzählbare Menge|abzählbaren]] Systems (d.&amp;amp;nbsp;h. &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt; ist ein  [[separabler Hilbertraum]]) kann direkt auf den oben dargestellten endlichen Fall zurückgeführt werden: Gegeben sei eine unabhängige Folge &amp;lt;math&amp;gt;\left(w_n\right)_{n\in \N}&amp;lt;/math&amp;gt;, so erhält man eine entsprechende orthonormale Folge &amp;lt;math&amp;gt;\left(v_n\right)_{n\in \N}&amp;lt;/math&amp;gt;, indem man für jedes &amp;lt;math&amp;gt;n\in \N&amp;lt;/math&amp;gt; das obige Verfahren anwendet und &amp;lt;math&amp;gt;v_n&amp;lt;/math&amp;gt; erhält. Allgemeiner kann jedes unabhängige System nach dem [[Wohlordnungssatz]] als Folge &amp;lt;math&amp;gt;\left(w_\alpha\right)_{\alpha&amp;lt;d}&amp;lt;/math&amp;gt; für eine [[Kardinalzahl (Mathematik)|Kardinalzahl]] &amp;lt;math&amp;gt;d&amp;lt;/math&amp;gt; und [[Ordinalzahl]]en &amp;lt;math&amp;gt;\alpha&amp;lt;/math&amp;gt; angesehen werden (im Falle einer [[Dichte Teilmenge|dichten]] linearen Hülle des unabhängigen Systems ist &amp;lt;math&amp;gt;d&amp;lt;/math&amp;gt; gerade die [[Dimension (Mathematik)|Dimension]] von &amp;lt;math&amp;gt;H&amp;lt;/math&amp;gt;). Bezeichne nun &amp;lt;math&amp;gt;\pi_A\colon H \to A&amp;lt;/math&amp;gt; die [[Orthogonalprojektion|orthogonale Projektion]] auf einen abgeschlossenen Teilraum &amp;lt;math&amp;gt;A&amp;lt;/math&amp;gt;, die aufgrund der Vollständigkeit des Raumes stets existiert, und &amp;lt;math&amp;gt;\hat{x}&amp;lt;/math&amp;gt; bezeichne die Normierung &amp;lt;math&amp;gt;\textstyle \frac{x}{\left\|x\right\|}&amp;lt;/math&amp;gt;. So ergibt sich ein Orthonormalsystem &amp;lt;math&amp;gt;\left(v_\alpha\right)_{\alpha&amp;lt;d}&amp;lt;/math&amp;gt; durch&lt;br /&gt;
:&amp;lt;math&amp;gt;A_\alpha := \overline{\operatorname{span}\left(\left\{w_\beta \colon \beta &amp;lt; \alpha\right\}\right)}&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;v_\alpha := \widehat{\left(w_\alpha - \pi_{A_\alpha}\left(w_\alpha\right)\right)}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Per [[transfinite Induktion|transfiniter Induktion]] lässt sich dann zeigen, dass &amp;lt;math&amp;gt;A_\alpha = \overline{\operatorname{span}\left(\left\{v_\beta \colon \beta &amp;lt; \alpha\right\}\right)}&amp;lt;/math&amp;gt;, sogar für &amp;lt;math&amp;gt;\alpha=d&amp;lt;/math&amp;gt;. Expliziter lässt sich das Verfahren per [[transfinite Rekursion|transfiniter Rekursion]] wie folgt schreiben:&lt;br /&gt;
:&amp;lt;math&amp;gt;v_\alpha := \widehat{\left(w_\alpha - \sum_{\beta &amp;lt; \alpha}\langle v_\beta, w_\alpha\rangle \cdot v_\beta\right)}&amp;lt;/math&amp;gt;&lt;br /&gt;
Hierbei ist die Summe aufgrund der [[besselsche Ungleichung|besselschen Ungleichung]] [[Wohldefiniertheit|wohldefiniert]] (insbesondere sind stets nur abzählbar viele Summanden ungleich Null).&lt;br /&gt;
&lt;br /&gt;
== Literatur ==&lt;br /&gt;
* K. Kirchgessner, M. Schreck: &amp;#039;&amp;#039;Vektoranalysis für Dummies. Das Pocketbuch Paperback &amp;#039;&amp;#039;. Wiley-VCH, 2012. ISBN 978-3-527-70742-3&lt;br /&gt;
&lt;br /&gt;
[[Kategorie:Lineare Algebra]]&lt;/div&gt;</summary>
		<author><name>imported&gt;314artemis</name></author>
	</entry>
</feed>