Kurs:Numerik I/Orthonormalisierungsverfahren

Einleitung Bearbeiten

Diese Seite kann als Wiki2Reveal Folien angezeigt werden. Einzelne Abschnitte werden als Folien betrachtet und Änderungen an den Folien wirken sich sofort auf den Inhalt der Folien aus.

Einführung - Orthogonalisierungsverfahren Bearbeiten

In diesem Abschnitt soll für eine gegebene Matrix   mit   eine Zerlegung der Form

 

bestimmt werden, wobei   eine orthogonale Matrix ist und   eine um Nullzeilen ergänzte obere Dreiecksmatrix ist,

Orthogonale Matrix Bearbeiten

Eine orthogonole eine reguläre (invertierbare) Matrix mit der Eigenschaft

 

Wenn man nun das Matrixprodukt   berechnet, dann bilden die Spaltenvektoren   Orthonormalbasis vom   mit:

 .

Orthonormal Vektoren und Einheitsmatrix Bearbeiten

  • Die Orthogonalität der Spaltenvektoren   führt zu der Eigenschaft   für  .
  • Die Normalisierung der Basisvektoren   führt zu der Eigenschaft   und damit auch  , was den Diagonalelementen der Matrix   entspricht.

Um Nullzeilen ergänzte obere Dreieckmatrix Bearbeiten

In der Zerlegung   ist   mit einer oberen Dreiecksmatrix  , die wie folgt mit Nullzeilen ergänzt wird:

 

Im Fall   ist demnach insbesondere  .

Ziel der QR/QS Zerlegung Bearbeiten

Wie wir zeigen wollen, ermöglicht eine solche QR- bzw. QS-Zerlegung von   sowohl die stabile Lösung linearer Gleichungssysteme   als auch die stabile Lösung von Ausgleichsproblemen

 

Dafür benötigen wir einige Eigenschaften orthogonaler Matrizen.

Elementare Eigenschaften orthogonaler Matrizen Bearbeiten

In der Geometrie der Ebene kennt man die Kongruenzabbildungen, bei denen die Bilder von Strecken wieder Strecken der gleichen Länge abgebildet. Kongruenzabbildungen, wie Geradenspiegelungen sind dabei längentreu und winkeltreu, d.h. unter der Abbildung bleiben Winkel zwischen Strecken und die Länge von Strecken unverändert (invariant). Orthogonale Matrizen besitzen als Abbildung die Eigenschaft der Längeninvarianz.

Lemma - Längeninvarianz/Isometrie für orthogonale Matrizen Bearbeiten

Sei   eine orthogonale Matrix. Dann ist auch   eine orthogonale Matrix und es gilt

 

Bemerkung Bearbeiten

Eine orthogonal Matrix kann man als Abbildung von   nach   auffassen. Eine orthogonal Matrix verändert dabei die Länge des Vektors nicht in der Euklidischen Norm  . Der Begriff der Isometrie ist dabei allgemein für metrische Räumen definiert. Ein zentrische Streckung   mit einem Streckungsfaktor   ist z.B. keine Isometrie, da unter der Abbildung der Bildvektor   die  -fache Länge von   besitzt.

Beweis Bearbeiten

Der Beweis erfolgt in zwei Schritten:

  • Man zeigt, dass auch die transponierte Matrix eine orthogonale Matrix ist.
  • Man zeigt die Längeninvarianz unter Darstellung des Skalarproduktes als Matrixmultiplikation (d.h.  , wobei   als Spaltenvektoren aufgefasst werden und   als Matrizenprodukt einer  -Matrix   und einer  -Matrix   ist.

Beweis 1 - inverse Matrix - orthogonale Matrix Bearbeiten

Wegen

 

ist auch   eine orthogonale Matrix.

Beweis 2 - Umformungen in einer Matrixmultiplikation Bearbeiten

Des Weiteren hat man für  

 

und somit auch   für die orthogonale Matrix  .

q.e.d.

Bermerkung Bearbeiten

Die Eigenschaft der Längentreue der durch   und   definierten linearen Abbildungen bezeichnet man auch als isometrisch bezüglich der Euklidischen Norm, bzw. als Isometrie.

Lemma - Euklidische Norm und Determinante orthogonaler Matrizen Bearbeiten

Für die Operatornorm   einer linearen Abbildung und für die Determinante orthogonaler Matrizen gilt:

  • (i)  ,
  • (ii)  .

Beweis - Euklidische Norm und Determinante orthogonaler Matrizen Bearbeiten

Der Beweis gliedert sich in zwei Teilaussagen

  • (i) zur Operatornorm für lineare Abbildung und
  • (ii) zur Determinate von orthogonalen Matrizen.

Beweis (i) Längeninvarianz/Isometrie Bearbeiten

Wenn man das Lemma Längeninvarianz bzw. Isometrie für orthogonale Matrizen auf   und   anwendet, erhält man die Aussage (i) über die Definition der Operatornorm mit:

 

Beweis (ii) Längeninvarianz/Isometrie Bearbeiten

Mit der Einheitsmatrix   und der Multiplikativität der Determinanten   folgt die Aussage (ii) über die Eigenschaft, dass die transponierte Matrix   multiplikativ invers zu der Matrix   ist.

 

Dabei geht in die Gleichungskette ein, dass die Determinante der transponierten Matrix und der Matrix selbst gleich sind. q.e.d.

Korollar - Konditionszahl orthogonaler Matrizen Bearbeiten

Seien   eine reguläre und   eine orthogonale Matrix. Dann gilt für die Konditionszahl

 

Beweis Bearbeiten

Der Beweis gliedert sich in die folgenden Teile:

  • Verwendung der Längeninvarianz/Isometrie für orthogonale Abbildungen

Beweis 1 - Längeninvarianz orthogonaler Abbildungen Bearbeiten

Nach Lemma zur Längeninvarianz/Isometrie für orthogonale Abbildungen gilt   für alle  . Mit   erhält man

 

für   und somit

Beweis 2 - Längeninvarianz orthogonaler Abbildungen Bearbeiten

 

Weiter gilt mit Lemma 3.24 (i)

 

und folglich  . Damit ergibt sich

 

q.e.d.

Multiplikation einer quadratischen Matrix   von links mit einer orthogonalen Matrix führt also auf eine Matrix mit derselben Kondition wie  . Weiter gilt:

Lemma - Produkt orthogonaler Matrizen Bearbeiten

Seien   orthogonale Matrizen. Dann ist auch   eine orthogonale Matrix.

Beweis. Bearbeiten

Die Aussage des Lemma folgt aus

 

q.e.d.

3.4.2 Lösung linearer Gleichungssysteme mittels QR-Zerlegung Bearbeiten

Wir betrachten nun wieder die Lösung eines linearen Gleichungssystems   für eine reguläre Matrix   und beliebige rechte Seite   und gehen davon aus, dass eine Zerlegung der Form   von   mit einer orthogonalen Matrix   und einer oberen Dreiecksmatrix   gegeben ist (vgl. (3.37) - (3.39)). Wegen Lemma 3.24 gilt offenbar

 

Weiter hat man die Äquivalenzen

 

und mit Korollar 3.25 die Beziehungen

 

D. h., das Gleichungssystem   ist äquivalent zu dem gestaffelten Gleichungssystem  , wobei die Matrix   bezüglich der Spektralnorm keine schlechtere Kondition als   aufweist und gemäß 3.40   gilt.

3.4.3 QR-Zerlegung mittels Gram-Schmidt-Orthogonalisierung Bearbeiten

Es sei nun   eine quadratische Matrix mit   und es seien eine orthogonale Matrix   und eine obere Dreiecksmatrix   gesucht, so dass

(3.41)  

gilt. Schreiben wir   und   mit Vektoren   in der Form

 

so ist die Gleichung (3.41) offenbar äquivalent mit den Gleichungen

(3.42)  

wobei   für   berücksichtigt wurde. Dabei sind die     linear unabhängig und die     wegen der Orthogonalität von   paarweise orthonormal und damit auch linear unabhängig. Die Gleichungen (3.42) implizieren somit für  

(3.43)  

Folglich suchen wir eine orthogonale Basis   des  , für welche die Gleichungen (3.42) erfüllt sind. Wir wollen im Folgenden zeigen, dass man eine solche durch Orthogonalisierung der     mittels des aus der Linearen Algebra bekannten Gram-Schmidt-Orthonormierungsverfahrens erhält.

Sind     die gegebenen Spalten von  , welche nach Voraussetzung eines Basis des   bilden, so lautet für diese das Gram-Schmidt-Orthonormierungsverfahren, wobei wir die durch das Verfahren erzeugten Vektoren gleich mit   bezeichnen:

(3.44)  

Bekanntlich gilt für die so erzeugten Vektoren     die Identität (3.43) und sind diese paarweise orthonormal.

Aus den Gleichungen (3.44) leitet man unmittelbar die folgenden Gleichungen her:

 

Wie ein Vergleich mit den Gleichungen (3.42) zeigt, erhält man demnach die gewünschte QR-Faktorisierung von   für die Matrix   mit den durch das Gram-Schmidt-Verfahren erzeugten Vektoren     und die obere Dreiecksmatrix  , welche folgende Elemente hat:

 

Der hier beschriebene Orthogonalisierungsprozess ist aber unter Umständen nicht gutartig, etwa für   und damit   (s. Beispiel 3.4 in Band 1 von Quarteroni/Sacco/Saleri und S. 177 bei Stoer). Mit wachsendem   kann die Orthogonalität immer stärker verloren gehen. Deshalb werden zumeist andere Methoden, wie die im folgenden Abschnitt dargestellte, zur QR-Faktorisierung von   herangezogen.

3.4.4 QS-Zerlegung mittels Householder-Transformationen Bearbeiten

Sei nun allgemeiner   mit   gegeben. Gegenstand dieses Abschnitts ist die Bestimmung einer Zerlegung der Form   mit einer orthogonalen Matrix   und einer im Fall   nichtquadratischen Matrix   wie in (3.39) mittels sog. Householder-Transformationen. In diesem Zusammenhang zeigen wir zunächst:

Lemma 3.27 Bearbeiten

Es sei   ein Vektor mit   und   die Matrix
(3.45)  
Dann gilt
(3.46)   (  ist symmetrisch),
(3.47)   (  ist involutorisch),
(3.48)   (  ist orthogonal).

Beweis. Bearbeiten

Die Beziehungen (3.46) und (3.47) ergeben sich aus

 
 

Die Identität (3.48) folgt aus (3.46) und (3.47).

q.e.d.

Eine Matrix vom Typ   (3.45) für ein   mit   nennen wir Householder-Matrix und eine lineare Abbildung

 

mit einer Householder-Matrix   bezeichnen wir als Householder-Transformation.

Householder-Matrizen kann man dazu verwenden, einen Block von Komponenten eines gegebenen Vektors   (durch Multiplikation mit einer solchen Matrix von links) zu Null zu setzen. Will man insbesondere alle Komponenten von   außer der  -ten Komponente Null setzen, so muss man den Vektor   zur Konstruktion von   so wählen, wie er im folgenden Lemma angegeben wird. Dabei ist wieder mit   die  -te Spalte von   gemeint.

Lemma 3.28 Bearbeiten

Gegeben sei   mit  . Weiter sei
(3.49)  
mit
(3.50)  
Dann hat man   und für  
(3.51)  

Beweis. Bearbeiten

Wegen   ist der Nenner in (3.49) ungleich Null und damit   in (3.49) wohldefiniert. Offenbar ist  . Ferner gilt

 

und damit

 

Zusammen mit (3.49) gelangt man zu der Darstellung

 

Bemerkung 3.29 Bearbeiten

Zur Vermeidung von Stellenauslöschungen bei der Berechnung von (3.50) ist es offenbar sinnvoll,   zu wählen, wobei   die  -te Komponente von   bezeichnet.

Wir geben ein Beispiel.

Beispiel 3.30 Bearbeiten

Sei   und  . Dann errechnen wir   und setzen wir somit   sowie

 

Es ergibt sich

 

und demnach

 

Will man für ein   die Komponenten     von   unverändert lassen und gleichzeitig     erreichen, bekommt man dies, indem man   von links mit der Transformationsmatrix

 

multipliziert. Dabei ist   die  -Einheitsmatrix und   die  -Householder-Matrix der Form

 

welche mit dem aus den letzten   Komponenten von   bestehenden Vektor   und der ersten Spalte   der Einheitsmatrix   gebildet wird. Denn ist   der aus den ersten   Komponenten von   bestehende Vektor, so hat man nach Lemma 3.28

 

Nun ist klar, wie man eine Matrix   in die Form   mit einer orthogonalen Matrix   und eine Matrix   der Gestalt (3.39) zerlegen kann. Ausgehend von   werden sukzessive Matrizen der Form

(3.52)  

bestimmt, so dass dann schließlich   die gewünschte Gestalt hat. Die Matrizen in (3.52) werden dabei sukzessive durch Transformationen der Form

(3.53)  

mit Householder-Matrizen

 

erzeugt, wobei   mit

 

so zu wählen ist, dass mit einem  

 

gilt. Im Fall   erreicht man dies gemäß Lemma 3.28 mit

 

Im selteneren Fall   kann man offenbar   bzw.   in (3.53) wählen. Nach Lemma 3.27 sind dann die Matrizen   und damit die Matrizen   orthogonal und symmetrisch, so dass man wegen

 
 
 
 
 

mit

 

wegen (3.47) die gewünschte Zerlegung   erhält. Gemäß Lemma 3.26 ist   tatsächlich eine orthogonale Matrix.

Man beachte, dass man   für die Lösung des Gleichungssystems   mit   (sowie für die des Ausgleichsproblems in Abschnitt 4.3) gar nicht benötigt, sondern nur den Vektor  . Wegen   ist dabei

 

so dass man mit   wie mit   verfahren kann:

 
 
 
 
 

Man beachte, dass mit

 

gemäß (3.52) und (3.53)

 

gilt, also wie beim Gauß-Algorithmus nur die verbleibende Restmatrix   in   und analog der verbleibende Anteil der rechten Seite zu transformieren ist. Weiter sei gesagt, dass Householder-Transformationsmatrizen niemals explizit durch Matrixmultiplikation gebildet werden sollten. Denn eine Matrixmultiplikation   mit   und   kostet   Multiplikationen. Die benötigten Matrixmultiplikationen für   berechne man daher wie folgt:

(3.54)  

Zunächst ermittele man also den Vektor   und dann "aufdatiere" man die Matrix  . Für ein solches Vorgehen benötigt man nur   Multiplikationen.

Bemerkung 3.31 Bearbeiten

Will man die Vektoren   aufbewahren, weil man z. B. ein Gleichungssystem   mit derselben Matrix und verschiedenen rechten Seiten zu lösen hat, so kann man für jedes   das Diagonalelement   zunächst gesondert speichern und anschließend den Vektor   in der  -ten Spalte der Matrix   eintragen (s. Beispiel 3.32). Auf diese Weise spart man Speicherplatz, was bei sehr großen Matrizen relevant ist.

Beispiel 3.32 Bearbeiten

Man berechne eine QS-Zerlegung von   und   für

 

Wir setzen   und   und bekommen zunächst

 

Damit folgt

 
 
 

Für   benötigt man nun die Produkte   und  , die man analog zu (3.54) berechnet. Es ist

 
 

und demnach

 
 

Demzufolge ergibt sich

 
 

Wollte man den Vektor   aufbewahren, um damit zu einem späteren Zeitpunkt die Zerlegung von   wieder erzeugen zu können, so legt man einen Arbeitsvektor   an, setzt man   und trägt man   in die erste Spalte von   ein, so dass sich ergibt:

 

In der Praxis kann man   und auch   wieder   nennen, da man   selbst nicht mehr benötigt.

Nun verfährt man analog mit der Restmatrix bzw. dem Restvektor

 

Man bekommt

 
 
 
 
 
 
 
 

Damit ergibt sich nun

 

Will man die   wiederverwenden, so bilde man mit   und dem oben definierten  

 

Aus   und   könnte man   in offensichtlicher Weise gewinnen.


Man kann sich überlegen, dass eine QS-Zerlegung von   mittels Householder-Transformationen etwa

 

Multiplikationen benötigt, also

(3.55)   für   und   für  

und damit bei quadratischen Matrizen etwa doppelt so viele wesentliche Rechenoperationen wie der Gauß-Algorithmus. Neben dem Einsatz für die bereits besprochene stabile Lösung von linearen Gleichungssystemen werden wir im nächsten Abschnitt eine weitere wichtige Anwendung einer solchen QS-Zerlegung geben.


Siehe auch Bearbeiten

Seiteninformation Bearbeiten

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal Bearbeiten

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Numerik I' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.