Unter den Liniensuchverfahren (englisch line search algorithms), auch allgemeine Abstiegsverfahren mit Richtungssuche[1] genannt, versteht man in der Optimierung eine Reihe von iterativen Verfahren, um das lokale Minimum einer Funktion zu finden. Die grundlegende Idee ist es, die Funktion in jedem Schritt entlang einer bestimmten Richtung zu minimieren. Beispiele für Algorithmen, die den Liniensuchverfahren zugeordnet werden können, sind das Gradientenverfahren (Verfahren des steilsten Abstiegs) und das Newton-Verfahren.[2]

Beschreibung

Bearbeiten

Allen Liniensuchverfahren gemein ist die folgende grundlegende Vorgehensweise, um aus einem bestehenden Zwischenergebnis   ein neues Zwischenergebnis   zu berechnen:[2]

  1. Bestimme eine Suchrichtung in Form eines Vektors  .
  2. Berechne eine Schrittweite   durch Minimierung der eindimensionalen Hilfsfunktion   mit Bezug auf  . Dieser Schritt wird auch Liniensuche genannt.
  3. Berechne die neue Lösung  

Das Minimum der Hilfsfunktion aus Schritt 2 wird in der Regel nicht exakt bestimmt. Falls doch, spricht man von einer exakten Liniensuche.[3]

Einzelnachweise

Bearbeiten
  1. Rüdiger Reinhardt, Armin Hoffmann, Tobias Gerlach: Nichtlineare Optimierung. Springer-Verlag, Berlin Heidelberg 2013, Kap. 3.3, doi:10.1007/978-3-8274-2949-0.
  2. a b Josef Kallrath: Gemischt-ganzzahlige Optimierung: Modellierung in der Praxis. 2. Auflage. Springer Fachmedien Wiesbaden, 2013, S. 107, doi:10.1007/978-3-658-00690-7.
  3. Markos Papageorgiou, Marion Leibold, Martin Buss: Optimierung. 4. Auflage. Springer-Verlag, Berlin Heidelberg 2015, S. 43 ff., doi:10.1007/978-3-662-46936-1.