Lehrinhalte
- Grundlagen zur Datenvorbehandlung wie Multikollinearität, lineare Abhängigkeiten, Imputation fehlender Werte, Anomaliedetektion, Umgang mit Ausreißern,
- Methoden zur Feature-Selektion und Extraktion zum Beispiel unter Nutzung von step-wise variable selection, Lasso, L1/L2-Regularisierung und PCA,
- überwachte Methoden des maschinellen Lernens, um Regressionsprobleme zu lösen
- nichtlineare Methoden wie Support Vector Regression, Gauß-Prozess-Regression und künstliche neuronale Netze,
- rekurrente neuronale Netze zur dynamischen, datengetriebenen Modellierung.
Alle Inhalte werden anhand von verfahrenstechnischen Beispielen erläutert.