In der Übersicht
In diesem Projekt wird die künstliche Audiosynthese und musikalische Merkmale, welche für die menschliche Kognition entscheidenden sind, am Beispiel des Yodels untersucht.
Bisher waren autoregressive Modelle für Musikerzeugung in Audio-Wellenform in der Lage, die Klangfarbe zu imitieren. Jedoch konnten die Strukturen menschlicher Kompositionen nicht reproduziert werden. Die Musiksynthese auf Notenbasis hat zwar organischere Ergebnisse erzielt, eignet sich aber nicht für Musikgattungen, wie z.B. Jodelmusik, die oft nicht in schriftlicher Form zur Verfügung stehen.
Wir planen eine gemeinsame Analyse von generativen Modellen und musikalischen Signaturen im Falle des natürlichen Jodels, wobei wir uns auf die jüngsten wissenschaftlichen Durchbrüche in beiden Bereichen stützen wollen. Neue Verfahren aus dem Bereich Deep Learning für Zeitreihen-Analyse sollen dabei angewendet werden, um Musikstrukturen generieren zu können. Annotation von relevanten Stellen aus Musik-theoretischer Sicht helfen dabei sowohl den Modellen im Lernprozess, wie auch lassen sie interessante Analyse dieser Abschnitte zu. Durch die Unterscheidung von künstlichen und menschlichen Kompositionen erhoffen wir uns, ein neues Verständnis von Musikqualität und menschlicher Kognition herauszuarbeiten.