Dieses Buch gibt eine Einführung in die Theorie und Methoden der stetigen Optimierung mit einigen Anwendungen auch im Bereich der diskreten Optimierung. Bei der linearen Optimierung werden zunächst die klassische Simplexmethode und die neueren Innere Punkte Methoden vorgestellt. Es werden dann konvexe und glatte nichtlineare Probleme sowie semidefinite lineare Programme betrachtet, wobei stets das Verständnis der Optimalitätsbedingungen benutzt wird, um die Lösungsverfahren, darunter auch Innere-Punkte-Methoden, vorzustellen. Zu einigen praktischen Anwendungen werden ausführliche Beispiele beschrieben. TOCAus dem Inhalt Teil 1 Lineare Optimierung; Definition und Anwendungsbeispiele; Die Simplexmethode; Anwendungen; Netzwerke.- Teil 2 Nichtlineare Minimierung I; Nichtrestringierte Minimierung; Minimierung skalarer Funktionen; cg-Verfahren; Quasi-Newton-Verfahren; Nichtlineare Ausgleichsprobleme; Trust-Region Algorithmus.- Teil 3 Optimalitätsbedingungen; Konvexe Mengen; Trennungssätze; Optimalitätsbedingungen für konvexe Programme; Optimalitätsbedingungen erster Ordnung für glatte, nichtkonvexe Programme.- Teil 4 Nichtlineare Minimierung II; Minimierungsverfahren für Probleme mit Nebenbedingungen; Innere Punkte-Methoden für konvexe Probleme; Einige Anwendungen aus der Statik und der Kontrolltheorie aus der kombinatorischen Optimierung; Innere-Punkte-Methoden für nichtlineare Probleme; Straffunktionen; erweiterte Lagrangefunktion; SQP-Verfahren. Quelle:
|