Dieses Buch führt in die Theorie und Methoden der stetigen Optimierung ein und zeigt darüber hinaus einige Anwendungen aus der diskreten Optimierung: Als gängige Verfahren für lineare Programme werden die Simplex- und Innere-Punkte-Methode vorgestellt. Im Bereich der nichtrestringierten Optimierung werden neben deterministischen Abstiegsverfahren und Trust-Region-Verfahren auch stochastische Abstiegsverfahren analysiert, die etwa beim maschinellen Lernen zum Einsatz kommen. Nach einer detaillierten Betrachtung der Optimalitätsbedingungen für nichtlineare Optimierungsprobleme mit Nebenbedingungen folgt eine Analyse von Verfahren der erweiterten Lagrangefunktion und ADMM sowie von SQP-Verfahren. Der Hauptteil schließt mit einer Betrachtung von semidefiniten Programmen und deren Anwendungen.
Für die zweite Auflage wurden zahlreiche Passagen überarbeitet und mehrere neue Abschnitte zu aktuellen Verfahren und Anwendungen ergänzt.
Das Buch basiert auf einer zweisemestrigen Lehrveranstaltung der Autoren und enthält zahlreiche Übungsaufgaben. Es richtet sich an Leser, die Grundkenntnisse in Analysis, linearer Algebra und numerischer Mathematik mitbringen.