Sind Sie sich sicher?
Lernergebnisse:
Studierende erwerben ein tiefes Verständnis für die mathematischen Grundlagen der Diskretisierung von akustischen Gleichungen im Zeitbereich mittels finiter Differenzen. Sie lernen, partielle Differentialgleichungen effektiv zu approximieren, um Schallausbreitung und -entstehung zu simulieren. Zusätzlich entwickeln sie die Fähigkeiten zur Implementierung von numerischen Algorithmen, um realistische akustische Szenarien zu modellieren. Die Lernergebnisse umfassen die kritische Analyse der Ergebnisse und deren Anwendung in Raumakustik und Lärmbekämpfung.
Der Kurs vermittelt ein fundiertes Verständnis für die numerische Modellierung akustischer Phänomene im Zeitbereich und bereitet auf anspruchsvolle Aufgaben in der akustischen Forschung und Industrie vor.
Lehrinhalte:
Übersicht über numerische Verfahren der Akustik im Zeitbereich, optimierte Finite-Differenzen-Verfahren höherer Ordnung, optimierte zeitliche Integrationsverfahren mit geringer Dispersion und Dissipation, spektrale Ableitungen, lineare und nicht-lineare Modellgleichungen, nichtreflektierende
Abstrahl- und Ausström-Randbedingungen, Impedanz-/Wand-Randbedingungen, nicht-lineare Wellenausbreitung, Anwendung der erlernten Berechnungsverfahren auf akustische Problemstellungen.
Die Distribution auditiver Kommunikationsangebote (Musik, Reportagen, Nachrichten, Features, Podcasts, Hörspiele, Hörbücher) wie auch deren alltägliche Rezeption erfolgt heute über digitale Medien wie CDs, DVD/BlueRay, MP3-Downloads, Videoportale und Streaming-Anbieter. Mit der nahezu vollständig vollzogenen Digitalisierung der „klingenden tönenden Formen“ (Hanslick) in unserer Medienkultur ergeben sich nicht nur neue Forschungsfragen, sondern in Gestalt des algorithmischen Tracking digitaler Audiomediennutzung, sowie dem zunehmenden Einsatz von Music Information Retrieval (MIR) und Machine Learning Verfahren auch neue Forschungsmethoden zur musikwissenschaftlichen Untersuchung des Rezeptionsverhaltens im Bereich der sogenannten „Computational Methods“. Das Seminar wird einen theoretisch-praktischen Einblick in die Potenziale und Grenzen dieser neuen Analysemöglichkeiten für die Musiknutzungsforschung bieten, indem aktuelle Forschungsarbeiten aus dem Bereich der „Computational Music Studies“ referiert und diskutiert werden. Im Wintersemester wird ein Anschlussseminar angeboten werden, in dem eigene CMS-Forschungsideen auf Basis von R und der Spotify API realisiert werden können.
Die Lehrveranstaltung wird im hybriden Format angeboten (in Präsenz und per Zoom).
Zoom: https://tu-berlin.zoom.us/j/69595287006?pwd=aTdySU0wYU5KWUVSclduYlJkRnMxZz09
Ob bei einer Live-Musikperformance, in Club und Diskothek, oder bei der Musikrezeption im Alltag: Musikerfahrungen werden heute größtenteils technisch vermittelt und unterliegen gleichzeitig darauf bezogen komplexen habituellen Mustern, Erwartungsstrukturen und Rezeptionsmodi. Entlang der Produktions- und Distributionskette einer musikalischen Idee von ihrer Performance und Aufnahme, über die Abmischung und das Mastering im Tonstudio; bis hin zur Rezeption unter Verwendung unterschiedlicher Wiedergabegeräte in unterschiedlichen Alltagskontexten soll in diesem musikpsychologischen Literaturseminar ein Überblick über die empirische Forschung dazu geliefert und diskutiert werden, welche außermusikalischen Faktoren das affektive Musikerleben in welcher Weise beeinflussen können.
Die Interaktion mit computerisierten Umgebungen gehört längst zum Alltag vieler Menschen. Durch die Reduktion visueller Schnittstellen in vielen Anwendungen gerät die auditive Kommunikation zwischen Mensch und Maschine zunehmend in den Fokus der Interaktionsgestaltung. Dabei gehen aktuelle Interaktionsszenarien über rein funktionale Anforderungen hinaus. Im Spannungsfeld von Markenkommunikation, funktionalen Anforderungen und komplexen Informationsstrukturen besteht der Anspruch, den Austausch mit intelligenten Systemen zu einem intuitiv erfassbaren und emotional gestalteten Erlebnis für NutzerInnen werden zu lassen.
In diesem Kurs gestalten die StudentInnen gemeinsam multimodale Interaktionsszenarien in Zusammenarbeit mit Projektpaten aus der Industrie. Sie entwickeln Interaktionskonzepte, darauf bezogene Prototypen und evaluieren diese mit psychologischen Methoden auf ihre funktionale und emotionale Wirkung. Durch die Kombination von praxisbezogener NutzerInnenzentrierter Designforschung und psychologischen Evaluationsmethoden entsteht so ein moderner ganzheitlicher Ansatz im Bereich der Forschung und Entwicklung von auditiver Mensch-Maschine-Interaktion.