Lehrinhalte
Der Kurs behandelt die kontinuierliche Optimierung. Der Fokus liegt auf nicht-linearen mathematischen Programmen (Optimierung unter Randbedingungen).
Teil 1 führt in effiziente 'downhill'-Methoden ohne Randbedingungen ein:
* Gradientenabstieg, Backtracking, Wolfe-Bedingungen, Konvergenzeigenschaften
* Covariante Gradienten, Newton-Verfahren, Quasi-Newtonverfahren, BFGS
Teil 2 führt in effiziente Optimierungsalgorithmen unter Randbedingungen ein:
* Grundlagen zu KKT Bedingungen
* Log-Barrier-Methode, Augmented Lagrangian, primal-dual Newton
* Differenzierbare Optimierung
* Konvexe Programme, bound constraints, Phase I
Teil 3 behandelt weiterführende Themen, die jährlich variieren; bspw.:
* Stochastische Gradienten Methoden zur NN-Optimierung
* No Free Lunch, Bayes'sche Optimierung, globale Optimierung
* Stochastische, black-box, & evolutionäre Algorithmen
* Existierende Software, CERES, strukturierte NLPs, constraint graphs