Lehrinhalte
Grundlagen neuronaler Netze, einschließlich Perzeptron, multi-layer perceptrons, Aktivierungsfunktionen, loss functions, error backpropagation, und die Fragen der Optimierung und Regularisierung. Gängige Optimierungstechniken wie SGD, Momentum und RMSProp. Gängige Regularisierungstechniken wie weight decay, Dropout und Lipschitz-Beschränkungen. Vorstellung beliebter Architekturen wie das Convolutional Neural Network, Autoencoder und rekurrente neuronale Netze. Deep-Learning-Framework PyTorch.