Seit einigen Jahren nimmt KI vermehrt Einzug in die Musikwelt. Dieser Trend lässt sich sowohl an einer florierenden Landschaft neuer Tools als auch an der wachsenden Zahl an Forschungspublikationen in diesem Bereich erkennen. In diesem Artikel sollen aktuelle Einsatzgebiete von KI im Musikbereich und die Trends der letzten Jahre vorgestellt werden. So wird der alltägliche Musikgenuss durch KI oft beeinflusst, ohne dass dies wahrgenommen wird.

Taryn Southern gilt als die erste größere Sängerin, die auf Künstliche Intelligenz (KI) in ihren Musikproduktion setzt. Bereits 2017 erschien die erste Single aus ihrem Album „I AM AI“, deren Backingtrack komplett von einer Künstlichen Intelligenz generiert wurde. Mittlerweile stellt sie keine Ausnahme mehr dar. Künstler*innen wie beispielsweise Hexagon Machine veröffentlichen auf den gängigen Streamingplattformen ein Album nach dem anderen, wobei jeder Song nach wie vor ein Unikat ist.

KI im Musikstreaming

Neben der Musik mancher Künstler*innen stecken auch die Streamingplattformen selbst voller künstlicher Intelligenz. Beispielsweise empfiehlt der Radio-Modus eines Anbieters ähnliche Songs auf Basis eines initial gewählten Startsongs. Diese sogenannten Empfehlungssysteme sind in der Lage, anhand einer erlernten Ähnlichkeitsmetrik zueinander passende Musikstücke zu identifizieren. Diese Metrik beruht vornehmlich auf dem Hörverhalten der Nutzenden, berücksichtigt aber auch die musikalischen Eigenschaften der Musikstücke. Zu diesen Eigenschaften gehören zum Beispiel Genre, Tempo, Taktart und Tonart. Diese Eigenschaften können heutzutage mit Hilfe von neuronalen Netzen und Deep Learning mit hinreichender Genauigkeit geschätzt werden.

Funktionen wie „Automix“ ersetzen mittlerweile den menschlichen DJ und sind in der Lage, nahtlose Übergänge zwischen Songs in einer Playlist zu schaffen. Dies gelingt der KI durch eine Analyse der Anfänge und Enden der aufeinander folgenden Songs. Indem die Beats detektiert werden, wird ein auf den Takt genaues Mixing selbst in der Zufallswiedergabe ermöglicht.

Daher ist es nicht verwunderlich, dass die großen Streaminganbieter zu den Sponsoren der größten Konferenz für Musikinformationsrückgewinnung, die ISMIR, gehören.

KI komponiert Hintergrundmusik

Auch in der Welt der Filmmusik hat die Künstliche Intelligenz bereits ihren Einzug erhalten. Die Zeit des ziellosen Durchstöberns riesiger Hintergrundmusik-Datenbanken ist vorbei. Die Analyse von Emotionen ist seit einigen Jahren nicht mehr nur auf Textinhalte wie Rezensionen beschränkt, sondern lässt sich auch auf Musik anwenden. Durch das Training von neuronalen Netzen mit gesammelten subjektiven Eindrücken ist es möglich, die ausgelösten Emotionen einer Hintergrundmusik maschinell zu bestimmen. Die dadurch entstehenden neuen Filtermöglichkeiten erleichtern die Suche nach der richtigen Hintergrundmusik für ein Videoprojekt immens.

Neben der Klassifizierung eröffnet auch die Generierung von Hintergrundmusik neue Optionen. Es gibt Onlinedienste, die auf Knopfdruck einen neuen einzigartigen Musiktrack mit einem vordefinierten Stimmungsbild erzeugen. Durch den geringen menschlichen Aufwand bei der Erstellung einer solchen Komposition sind die Lizenzkosten für eine exklusive Nutzung nur minimal.

KI unterstützt Musizierende

Auch Musizierende dürfen sich über neue Möglichkeiten und Werkzeuge freuen. Durch den Einsatz von KI lassen sich Audiosignale so verändern, dass die Klänge von sonst sehr teuren analogen Verstärkern und Effektgeräten imitiert werden. Die verwendeten Algorithmen sind dabei so weit optimiert, dass diese in Echtzeit auf einem Raspberry Pi implementiert werden können.

Auch die endlose Suche nach den richtigen Akkorden und passenden Notenblättern zu einem bestehenden Song hat ein Ende gefunden. Mittlerweile gibt es mehrere Apps, die die Erkennung von Akkorden in einem Musikvideo von YouTube ermöglichen. Viele bieten auch gleich die Möglichkeit an, das Stück in eine beliebige Ziel-Tonart zu transponieren und bieten Gitarrist*innen eine detaillierte Ansicht, wie der Akkord zu greifen ist. Es gibt sogar bereits erste Apps, die die Erzeugung von Notenblättern aus Musikaufnahmen (Musiktranskription) ermöglichen. Dadurch wird beispielsweise das Nachspielen einer Cover-Version auf dem eigenen Instrument oder die Komposition neuer Musikstücke mit dem eigenen Instrument um ein Vielfaches erleichtert und beschleunigt.

Wie geht es weiter?

In den letzten Jahren hat eine rasante Entwicklung in der Musikindustrie stattgefunden und ein Ende ist noch nicht in Sicht. Künstliche Intelligenz eröffnet dabei viele neue Wege, um die Kreativität der Musikschaffenden und den Hörgenuss der Konsumierenden zu verbessern. Bereits in der näheren Zukunft könnte es möglich werden, ganze Tracks von Bands per Knopfdruck in eine Partitur zu transkribieren. Diese Partitur könnte durch Künstliche Intelligenz nach Belieben arrangiert  und an die Besetzung einer Cover-Band angepasst werden. Bei der Aufführung könnte die Cover-Band mit KI-Effekten ihre Instrumente mit einzigartigen Klangfarben ausstatten.

Es ist davon auszugehen, dass die Zahl von mit KI komponierten und produzierten Tracks in den nächsten Jahren rasant wachsen wird. Maschinelles Lernen wird es ermöglichen, die veröffentlichten Tracks so zu optimieren, dass die Anzahl der Streams maximiert wird. Diese Auswirkungen werden vermutlich im Mainstreambereich am meisten zu spüren sein.

Bei all den neuen Möglichkeiten, die Künstliche Intelligenz schafft, sollte das eigentliche Ziel nicht aus den Augen verloren werden: die menschliche Kreativität zu unterstützen!

 

Titelbildistockphotos.com/gorodenkoff
Inhalte nicht verfügbar.
Bitte erlauben Sie Cookies durch ein Klick auf Akzeptieren.
Sebastian Murgul ist Mitgründer von Klangio (ehemals Melody Scanner) und externer Doktorand am KIT. Zusammen mit Alexander Lüngen hat er sich das Ziel gesetzt, KI als Werkzeug für Musizierende zu etablieren. Hierfür forscht und entwickelt Klangio an einem neuartigen KI-System, das in der Lage ist, Musikaufnahmen in Notenblätter zu transkribieren.