Sind Sie sich sicher?
Die Distribution auditiver Kommunikationsangebote (Musik, Reportagen, Nachrichten, Features, Podcasts, Hörspiele, Hörbücher) wie auch deren alltägliche Rezeption erfolgt heute über digitale Medien wie CDs, DVD/BlueRay, MP3-Downloads, Videoportale und Streaming-Anbieter. Mit der nahezu vollständig vollzogenen Digitalisierung der „klingenden tönenden Formen“ (Hanslick) in unserer Medienkultur ergeben sich nicht nur neue Forschungsfragen, sondern in Gestalt des algorithmischen Tracking digitaler Audiomediennutzung, sowie dem zunehmenden Einsatz von Music Information Retrieval (MIR) und Machine Learning Verfahren auch neue Forschungsmethoden zur musikwissenschaftlichen Untersuchung des Rezeptionsverhaltens im Bereich der sogenannten „Computational Methods“. Das Seminar wird einen theoretisch-praktischen Einblick in die Potenziale und Grenzen dieser neuen Analysemöglichkeiten für die Musiknutzungsforschung bieten, indem aktuelle Forschungsarbeiten aus dem Bereich der „Computational Music Studies“ referiert und diskutiert werden. Im Wintersemester wird ein Anschlussseminar angeboten werden, in dem eigene CMS-Forschungsideen auf Basis von R und der Spotify API realisiert werden können.
Die Lehrveranstaltung wird im hybriden Format angeboten (in Präsenz und per Zoom). Der Zugang zum Zoom-Raum findet sich auf der verlinkten Seite im ISIS-Lernmanagementsystem.
Ob bei einer Live-Musikperformance, in Club und Diskothek, oder bei der Musikrezeption im Alltag: Musikerfahrungen werden heute größtenteils technisch vermittelt und unterliegen gleichzeitig darauf bezogen komplexen habituellen Mustern, Erwartungsstrukturen und Rezeptionsmodi. Entlang der Produktions- und Distributionskette einer musikalischen Idee von ihrer Performance und Aufnahme, über die Abmischung und das Mastering im Tonstudio; bis hin zur Rezeption unter Verwendung unterschiedlicher Wiedergabegeräte in unterschiedlichen Alltagskontexten soll in diesem musikpsychologischen Literaturseminar ein Überblick über die empirische Forschung dazu geliefert und diskutiert werden, welche außermusikalischen Faktoren das affektiv-emotionale Musikerleben in welcher Weise beeinflussen können.
Die Interaktion mit computerisierten Umgebungen gehört längst zum Alltag vieler Menschen. Durch die Reduktion visueller Schnittstellen in vielen Anwendungen gerät die auditive Kommunikation zwischen Mensch und Maschine zunehmend in den Fokus der Interaktionsgestaltung. Dabei gehen aktuelle Interaktionsszenarien über rein funktionale Anforderungen hinaus. Im Spannungsfeld von funktionalen Anforderungen, komplexen Informationsstrukturen und Markenkommunikation besteht der Anspruch, den Austausch mit intelligenten Systemen zu einem intuitiv erfassbaren, nutzenorientierten und emotional gestalteten Erlebnis für NutzerInnen werden zu lassen.
In diesem Kurs gestalten die Studierenden gemeinsam auditive Interaktionsszenarien in Zusammenarbeit mit Projektpaten aus der Industrie. Sie entwickeln Interaktionskonzepte, darauf bezogene Prototypen und evaluieren diese auf ihre funktionale und emotionale Wirkung. So entsteht ein praxisbezogener Einblick in einen ganzheitlichen Ansatz der Forschung und Entwicklung im Bereich auditiver Mensch-Maschinen-Kommunikation.