Lernergebnisse
Nach erfolgreichem Abschluss des Moduls verfügen die Studierenden über:
Wissen:
• Eigenschaften, Funktionalität und Anwendungen von Sensoren wie LIDAR, RADAR und Kameras, speziell in autonomen Systemen.
• Mathematische und physikalische Prinzipien elektromagnetischer Wellen und der Signalausbreitung.
• Grundlagen der Sensordatenerfassung, -verarbeitung und -fusion.
• Sensordatengestützte Methoden der Zustandserfassung und Navigation, z. B. SLAM, Optical Flow
• Machine Learning Techniken zur sensorgestützten Objekterkennung, -klassifikation und -segmentierung.
• Herausforderungen in der autonomen Navigation, Hinderniserkennung und Umgebungswahrnehmung.
Fähigkeiten:
• Verarbeitung von Rohdaten aus LIDAR-, RADAR-, IMU- und Kamerasensoren zu verwendbaren 2D- und 3D-Informationen.
• Integration und Synchronisation von Daten mehrerer Sensoren.
• Nutzung und Entwicklung von Algorithmen zur Sensordatenverarbeitung, Zustandserfassung und Navigation.
• Integration von Machine Learning zur Lösung spezifischer Aufgaben.
• Implementierung von ROS2-basierten Systemen für eine einfache Kommunikation zwischen Sensoren und Auswertungsprogrammen.
Kompetenzen:
• Umgang mit Herausforderungen in (multi-)sensorgestützten Systemen, einschließlich Rauschen, Datenauflösung, Latenz und Umwelteinflüssen.
• Auswahl geeigneter Sensoren und Algorithmen zur Lösung sensorgestützter Navigations- und Erkennungsprobleme in kleinen Teams.
• Analyse und Test der Systemperformance.