Viele Probleme in den angewandten Wissenschaften und in den Naturwissenschaften sind vom Typ
Minimiere f(x) über alle x in Z,
wobei Z eine Teilmenge von R^n und f:Z -> R eine stetige, reellwertige Funktion in n Veränderlichen ist. In diesem Kurs wollen wir die Theorie und Numerik solcher Probleme behandeln.
In der Optimierung interessieren nun besonders zwei Fälle, zum einen der Fall Z=R^n, bei dem man von einem unrestringierten Optimierungsproblem spricht, und zum anderen der Fall des restringierten Optimierungsproblems, bei dem der zulässige Bereich mittels Funktionen g_i,h_j in C(R^n) durch
Z:={x in R^n | h_j(x)=0, g_i(x) <= 0}
gegeben ist. Alle im Problem vorkommenden Funktionen werden als mindestens einmal stetig differenzierbar vorausgesetzt.
Im Kurs werden zunächst ein Modellalgorithmus und Schrittweitenregeln für Probleme der unrestringierten Optimierung vorgestellt. Hieraus können wir allgemeine Konvergenzaussagen gewinnen. Im Folgenden lernen wir dann verschiedene Algorithmen für die unrestringierte Optimierung kennen. Nach der Bereitstellung einiger theoretischer Grundlagen zu restringierten Problemen, wenden wir uns auch dort den Algorithmen zu. Die Kapitelüberschriften lauten
- Einführung
- Grundlagen
- Ein Modellalgorithmus
- Schrittweitenregeln
- Das Gradientenverfahren
- Verfahren der konjugierten Richtungen
- Das Newton-Verfahren
- Quasi-Newton-Verfahren
- Trust-Region-Verfahren
- Grundlagen der restringierten Optimierung
- Quadratische Optimierungsprobleme
- Penalty- und Barriere-Methoden
- Eine Penalty-Multiplier-Methode
- Das lokale SQP-Verfahren