Diese Gradientenmethode startet mit einem Vektor und tastet sich über
eine Folge von Iterationsschritten
zum
tiefsten
-dimensionalen Punkt des quadratischen Funktionals
(4.28) hinab.
Die Richtung des Fortschreitens, für welche maximal reduziert wird,
ist durch den negativen Gradienten
gegeben. Die Richtung ist aber auch das Residuum
des zu lösenden Gleichungssystems, das darüber Aufschluß gibt,
wie groß die Abweichung von ist. Der Vektor
ist die Differenz vom Istwert der -ten Iteration zum Sollwert
. Es ist auch
leicht zu sehen, daß
auch als
darstellbar ist. Eine neue Lösung kann aus einer alten Lösung
mit
gewonnen werden. Die noch offene Frage, welche die Wahl der Schrittweite
betrifft, wird durch eine Minimumssuche von
entlang der Linie
gelöst.
Ist nämlich die Richtungsableitung null,
so ist
ein Minimum entlang der Suchrichtung
. Mit Hilfe der Kettenregel
erhält man die Form
Setzt man diesen Ausdruck null, so sieht man, daß die Schrittweite
so gewählt werden muß, daß
und
orthogonal aufeinander sind. Zur
Berechnung von
wird die Beziehung
von der Iteration gänzlich auf
zurückgeführt.
Der Algorithmus der Methode des steilsten Abstiegs kann nun mit
formuliert werden, wobei als Abbruchkriterium eine -Norm des Residuums
bezogen auf die rechte Seite gewählt wurde.
Unglücklicherweise ist die Iterationszahl sehr hoch, wenn die Konditionszahl,
das Verhältnis vom größten zu kleinsten Eigenwert, sehr groß ist.
In diesem Fall sind die Isolinien von
langgestreckte Hyperellipsoide. Bei zwei Unbekannten ist die Funktion
vergleichbar mit einem langgestreckten Tal, wobei der Anstieg vom Minimum in
Längsrichtung viel kleiner ist als in Querrichtung. Die Hauptachsen des
Ellipsoids sind die Eigenwerte.
Wendet man die Methode des steilsten Abstiegs an, so bewegt man sich mehr in
Querrichtung als in Längsrichtung zum tiefsten Punkt hin. Die Suchrichtungen, die
durch die Residuen vorgegeben werden, sind einander, bis auf das Vorzeichen, ähnlich
und bewirken eine langsame Konvergenz.