top of page

Wenn KI komponiert

Aktualisiert: 26. Mai

Sie ist momentan in aller Munde, und ihr Einfluss auf die Bildungs- und Arbeitswelt ist zurzeit unabsehbar: die Künstliche Intelligenz (KI). Vor wenigen Monaten hat das Infinityfestival Basel ein Projekt lanciert, in dem Stücke im Stile Brahms von zwei Komponisten komponiert wurden. Der eine Komponist arbeitete dabei mit KI und ließ das Stück mit Hilfe von ChatGPT komponieren, der andere komponierte nach gängiger Vorgehensweise selbst. Die beiden Resultate waren recht unterschiedlich, und mit etwas Fachwissen konnte man das menschliche vom künstlich erstellten Produkt damals recht gut unterscheiden. Momentan ist es jedoch schwierig zu beurteilen, wie sich die Fähigkeiten der KI in Zukunft weiterentwickeln werden.

Da ich zurzeit eine Weiterbildung als «Picts» (Personal IT-Supporter) machte, nutzte ich die Gelegenheit, mich mit den musikalischen Fähigkeiten der KI etwas genauer auseinanderzusetzen. Was kann eine KI heute schon, und was nicht? Wie funktioniert eine KI, und was bedeutet das für ihre Kompositionsfähigkeit? Ausgangspunkt des Projekts war eine selbstständige Arbeit, in der ein Schüler eine Nocturne im Stile von Chopin komponiert hatte. Könnte das nun schon ein KI-Produkt sein? Wie kann ich das feststellen? Gestern war gerade ein Artikel in einer Zeitung, in dem darüber berichtet wurde, dass ein Student eine ganze Bachelorarbeit (Note 6) mit KI erstellt hatte. Wird also der Umgang mit KI in Zukunft zu einer wichtigen Kompetenz in der Arbeitswelt werden?

Die Hauptarbeit meines Projekts erledigte ich im letzten März 2024 . Ich suchte also nach KI-Anwendungen, die im Stile von Chopin komponieren konnten. Dabei zeigte sich ein Grundproblem: Die Kompositionsweisen in der modernen, computergestützten Arbeitswelt unterscheiden sich wesentlich vom Vorgehen, wie ein Komponist wie Chopin in seiner Zeit komponiert hatte. Damals wurde der Kompositionsprozess noch mit Noten und Papier vollzogen und die Stücke in traditioneller, musikalischer Notation verfasst.

Was bedeutet das nun, wenn eine KI in der heutigen Zeit komponiert? Muss sie das auch nach historischer Vorgehensweise können, oder reicht es, wenn sie einfach das musikalische Klangbild eines Nocturne nach Vorbild selbständig erzeugen kann? Ich habe also in meinen Recherchen genau nach solchen Verbindungen gesucht und musste feststellen, dass die Frage, was in der heutigen Zeit musikalische «Komposition» ist und welche Vorgehensweisen dabei verwendet werden, nicht eindeutig beantwortet werden kann. Offensichtlich ist jedoch, dass Notation in vielen jüngeren Stilen der Rock- und Popszene keine große Rolle mehr spielt und heute im Songwriting häufig direkt mit klanglichen Strukturen gearbeitet wird.

Interessant ist nun, dass neuere KI-Anwendungen hier auch unterschiedlich ansetzen, je nachdem, mit welchen Informationen sie gefüttert werden. Die Plattform «CassetteAI» arbeitet zum Beispiel mit midibasierten, virtuellen Instrumenten und wurde vermutlich auch mit vielen Midifiles gefüttert. Dementsprechend kann «CassetteAI» Midifiles produzieren, die anschließend auch wieder in Notationsform dargestellt werden können. Wie ChatGPT für das anfangs erwähnte «Brahms-Kompositionsprojekt» gefüttert worden war, blieb in allen Berichterstattungen völlig unklar. Der betreffende Komponist schrieb einfach, er habe der KI das Komponieren wie einem Kleinkind beibringen müssen.

Gemäß meinen Beobachtungen ist die KI momentan noch nicht so weit, dass sie ein Nocturne im Stile Chopins inklusive Notation einfach per Knopfdruck erstellen kann. Die Entwicklung ist zurzeit jedoch derart rasant und unübersichtlich, dass ich mir dabei nicht hundertprozentig sicher sein kann. Als ich meine Beobachtungen zur Kompositionsfähigkeit von KI kürzlich ein paar Kolleginnen und Kollegen präsentierte, erzählte mir ein Fachkollege, dass die neue Plattform «Udio» (Release 10. April 2024) echte, überzeugende Chopin-Nocturnes erstellen könne. Ich habe mir das Tool natürlich gleich angeschaut und war von seinen Fähigkeiten beeindruckt. Die Produktionen klingen wirklich erstaunlich gut, mit dem einzigen Unterschied, dass sie zumindest in der Gratisversion nicht als Notation dargestellt, sondern nur als Audiofiles abgespielt werden können. Wurde «Udio» im Gegensatz zu «CassetteAI» demnach vor allem mit Audiofiles gefüttert? Der Klang seiner Erzeugnisse lässt dies vermuten. Was bedeutet das für die Urheberrechte? Kann «Udio» die Stücke auch in notierter Form darstellen? Braucht es in Zukunft die traditionelle musikalische Notation überhaupt noch, wenn je länger, je mehr alles in Computersprachen bearbeitet und umgesetzt wird? Fragen über Fragen.

Was sich in meinen Nachforschungen deutlich gezeigt hat, ist einmal mehr: Die Würze liegt im Detail. Was heißt «komponieren» in einer immer technischer orientierten Musikwelt? Die Aussage «KI kann komponieren» ist sehr schnell gemacht und sicher nicht falsch. Aber wie macht sie das? Mit welchen Daten wird sie gefüttert? Welche Rolle spielt der Faktor Mensch dabei? Hier fehlt es in der aktuellen Berichterstattung oft an Klarheit und Transparenz, was zu einseitig-banalen, plakativen Meinungsbildungen führt. Am Schluss ist es der Mensch, der seit tausenden von Jahren Musik macht und Musik machen möchte. Computergestützte Praktiken sind dabei eine nützliche Hilfe, können aber das menschliche, echte Musizieren nie ersetzen, sowie vor weit mehr als hundert Jahren Musikautomaten keine echte Konzertmusik ersetzen konnten. Es gibt aber sicherlich gute Gründe, KI-basierte Musik zu produzieren, nämlich beispielsweise um effizient, niederschwellig und unreflektiert in einer immer technokratischeren Welt das große Geschäft damit zu machen.


Diesen Text habe ich selber geschrieben und von ChatGPT (gratisversion, 3.5) korrigieren lassen.





 

 

74 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page