Anton Jann, 03.02.2025

Neben meinem Studium bin ich regelmäßig als DJ in den Kölner Clubs unterwegs. Oft liefen mir bei der Vorbereitung auf meine Gigs KI generierte Songs über den Weg. Als es der KI-Song „Verknallt in einen Talahon“ dann sogar in die deutschen Charts schaffte, dachte ich, der müsste auch mal im Club laufen. Anscheinend schien er vor allem der jüngeren Generation zu gefallen. Entgegengesetzt zu meiner Erwartung floppte das Lied auf der rappelvollen Tanzfläche jedoch komplett und war ein regelrechter Stimmungskiller. Niemand sang mit oder schien den Song irgendwie zu mögen, sodass ich nach dem ersten Refrain schon in den nächsten Track überblenden musste, um die Stimmung zu retten. Das war das erste und letzte Mal, dass ich einen KI-Song spielte. Trotzdem sind diese momentan teilweise sogar sehr erfolgreich. Die Zielgruppe der Songs scheint also vorhanden zu sein. Aber wie nehmen die Menschen diese wahr und warum kommen sie auf der Tanzfläche nicht an?
In einem Zeitalter, in dem fast jeder Künstliche Intelligenz im Alltag nutzt, ist es selbstverständlich, dass auch Musiker KI nutzen. Die Musikbranche ist daher momentan besonders aufgrund erfolgreicher KI-Produktionssoftwares in Aufruhr. Sie ermöglichen den Usern mit einfachen Prompts vollständige scheinbar hochwertige Songs zu erzeugen. Laien erkennen nicht einmal, dass die Lieder künstlich generiert sind, weshalb viele Kreative um ihre Jobs fürchten. Auch die urheberrechtliche Frage steht im Raum. Doch sind die KI-Songs wirklich so gut, dass die Sorgen der Musikbranche berechtigt sind?

Um über all diese Fragen zu sprechen, bin ich bei Julian David zu Gast. Er arbeitet als professioneller Musikproduzent sowohl für Künstler und Bands als auch für TV-Shows, wie etwa das ZDF Magazin Royale. Eine Woche vor Weihnachten besuche ich ihn in Köln-Ehrenfeld. Sein Studio liegt in einem großen Komplex, in dem sich noch weitere Studios und auch ein Musikverlag befinden. Hier direkt das richtige Studio zu finden, ist ein wenig mühselig. Nach ein paar Umwegen bin ich aber dann doch endlich richtig. Mich erwartet ein unfassbar gemütliches Musikstudio, in dem man sich richtig wohlfühlen kann. Zwischen sämtlichen Instrumenten, Keyboards, Synthesizern und großen Musikboxen bietet eine einladende Couch den perfekten Rahmen für das Interview. Julian David benutzt KI sowohl im Alltag als auch für sein breit aufgestelltes Arbeitsfeld. Auch wenn er sich vorstellen kann, in welchen Bereichen KI nützlich sein kann, hat er sie für die Musikproduktion an sich, noch nicht verwendet:
„Da es in der Natur der KIs liegt, dass immer die statistisch wahrscheinlichste Antwort gewählt wird, ist das im kreativen Bereich nicht immer das, was man sucht.“
Momentan sind Udio und Suno die beiden bekanntesten Websites zum Erstellen von KI-Musik. Schon mit den kostenlosen Testversionen kann man sich innerhalb von wenigen Klicks, eigene Songs erstellen lassen. Dem User werden hier sämtliche Möglichkeiten geboten, um Einfluss auf sein Lied zu nehmen. Es reicht schon, einen Prompt mit wenigen Wörtern anzugeben, anhand dessen dann der Song erstellt wird. Auf der anderen Seite kann man aber auch einen selbst geschriebenen Songtext hochladen, der dann vertont wird. Zu jedem Prompt erstellt die KI mehrere kurze Clips, die man dann ausbauen oder verändern kann. Die Ergebnisse sind äußerst durchwachsen. So benötigt es immer detailliertere Prompts, bis man etwas in der Art bekommt, in der man es haben möchte. Die Songs haben oft eine schlechte Soundqualität und klingen sehr austauschbar. Auch Julian David ist aufgefallen, dass es schwierig sei, die Melodien der KI nachzusingen oder nachzupfeifen:
„Die KI-Melodien sind zwar plausibel, aber bleiben nicht wie bei einem echten Hit im Kopf hängen.“
Eine Ausnahme ist jedoch der erfolgreichste deutsche KI-Song mit gehörigem Ohrwurmpotential. Der Produzent Josua Waghubinger alias „Butterbro“ schaffte es mit dem Song „Verknallt in einen Talahon“ bis auf Platz 48 der deutschen Singlecharts. Er sieht sich selber als Songwriter, da er den Text selbst schrieb und auf Grundlage dessen von Udio über hundert Song-Versionen generieren lies. Zur Empörung über den Erfolg mit KI-Songs sagt er im WDR, dass der technologische Fortschritt immer schon kritisiert worden sei. So seien auch Depeche Mode in den 80er Jahren schon dafür bemängelt worden, dass sie ausschließlich elektronische Instrumente verwendeten.
Abgesehen von einem kontroversen Beatles Song mit KI-bearbeiteten Aufnahmen von John Lennon, gab es jedoch kaum weitere bekannte KI-Songs in Deutschland. Für die professionelle Musikproduktion reiche die Qualität einfach noch nicht aus, so Julian David. KI-Musik könne bisher nur die klassische Katalogmusik ersetzen. Also Musik, die zum Beispiel in Social Media-Videos im Hintergrund läuft. Hier lohne sich der Aufwand einfach nicht mehr, die Musik von Hand zu produzieren. KI werde im Moment also hauptsächlich dafür verwendet, kostengünstig möglichst viel Musik zu erzeugen. Trotzdem könne KI laut Julian David durchaus bei der professionellen Musikproduktion zu einer Produktionssteigerung führen. Hiermit meint er aber nicht etwa Suno oder Udio, mit denen man direkt den ganzen Song produzieren lässt, sondern KIs, die nur Teile der Arbeit übernehmen. So könne etwa ChatGPT gut zur Inspiration beim Songwriting verwendet werden. Zudem gebe es innerhalb der Produktionssoftwares teilweise schon KI-gestützte Mastering-Tools, welche dann Vorschläge zu EQ und Kompression machen würden. Udio und Suno könnten eher genutzt werden, um eine Sampling-Bibliothek zu ersetzen, indem man sich von der KI einzelne Schnipsel vorschlagen lasse. Diese könne man dann einbauen oder nur als Inspiration verwenden. Als Produzent vollständige Songs von der KI produzieren zu lassen, ist somit aber noch undenkbar:
„Die direkte Zusammenarbeit mit den Künstlern ist äußerst wichtig, da auch die Schreibprozesse immer sehr persönlich sind. Das kann eine KI nicht ersetzen.“
Die weit verbreitete Angst vor KI in der Musikbranche ist trotzdem nicht ganz unbegründet. So sei es laut Julian David definitiv problematisch, dass die Menge an Songs durch die unzähligen KI-Produktionen extrem zu nehme und es deshalb relativ unwahrscheinlich sei, dass der Einzelurheber am Schluss dann überhaupt noch etwas daran verdiene. Als Musiker dann nur noch von seinem Herzensprojekt zu leben, sei immer schwieriger. Etwas Hoffnung gibt hier jedoch das Urheberrecht. Udio und Suno werden zurzeit von großen Musiklabels in den USA verklagt, da die KI-Softwares auf dem bestehenden Musikkatalog basieren. Zudem reichte auch die deutsche GEMA als erste Verwertungsgesellschaft weltweit eine Klage gegen Suno und Open AI (ChatGPT) ein. Sollte es dazu kommen, dass die Firmen für die Rechte der lizenzierten Songs bezahlen müssen, wäre deren Geschäftsmodell nicht mehr profitabel.

In Zukunft bleibt daher abzuwarten, inwiefern mit KI-Songs langfristiger Erfolg erreicht werden kann. Julian David ist davon überzeugt, dass sich auch eine Gegenbewegung entwickeln werde, die den Fokus wieder nur auf menschlich handgemachte Musik lege. Momentan ist es einfach nicht vorstellbar, dass die Menschen wirklich Fans von Produzenten werden, die nur KI-Songs veröffentlichen. Viele fragen sich ja heutzutage schon, warum sie zu Konzerten von DJs/Produzenten gehen sollten, die ihre Songs nur vom Band abspielen. Wieso sollte man dann zu einem Konzert von einem KI-Produzenten gehen, wenn er die Musik nichtmal nur nicht live spielt, sondern auch gar nicht selbst gemacht hat? Julian David kann sich einzelne solcher Phänomene vor allem im asiatischen Raum vorstellen, glaubt jedoch nicht, dass sich das auf den Mainstream ausbreiten könne. Es fehle einfach der persönliche und menschliche Bezug zu dem Produkt, da die meisten Menschen Musik zur Identifikation hören würden und daher immer auch eine Person hinter der Musik brauchen würden. Es benötige eine Connection zwischen Künstlern und Fans, damit diese zu den Konzerten kommen und auf die Songs tanzen würden. Wie auch das „Talahon“-Beispiel im Club zeigt, ist das bei KI-Songs nicht der Fall. Jeder Song erfahre eine Abwertung, sobald der Konsument weiß, dass KI im Spiel ist, so Julian David. Das Wichtigste sei, dass die Songs die Menschen emotional berühren. Ein KI-Song kann solche Emotionen einfach nicht erzeugen – zumindest noch nicht!