Als aufgeschlossene und neugierige Pianistin und Dozentin für Klavier und zeitgenössische bzw. Neue Musik an der Hochschule für Künste in Bremen beschäftige ich mich beruflich und privat mit den neuesten Entwicklungen rund um Musik – so auch in letzter Zeit immer mehr mit dem Thema der Künstlichen Intelligenz (KI) in der Musik.
Um Themen unserer Zeit mit der Musik unserer Zeit zu verknüpfen, live zu präsentieren und damit greifbar zu machen, habe ich 2015 die Gesprächskonzertreihe „ Let´s talk music “in Bremen ins Leben gerufen. Gäste aus verschiedenen Bereichen der Wissenschaft, der Neurologie, der Musikpsychologie und der Künstlichen Intelligenz sind dort vertreten und kommen mit dem Publikum in angeregte Gespräche. Die Musik des 20. und 21. Jahrhunderts ist meine Leidenschaft und ich versuche sie in meinen Konzerten an mein Publikum und in meinem Unterricht an meine Studierenden weiterzugeben. Dabei erweitert mein Interesse für neue Entwicklungen aus Forschung und Wissenschaft fortwährend diesen Erfahrungsschatz, den ich mir in jahrelanger Arbeit erworben habe. Ich kann daher gleichermaßen aus dem Erfahrungsschatz einer Dozentin und Musikerin sprechen, wenn es um Künstliche Intelligenz in der Musik geht.
Menschliche und Künstliche Intelligenz
Die menschliche Intelligenz betrifft viele Eigenschaften: die eigene Wahrnehmung, Entscheidungen fällen, motorische Handlungen durchführen und Strategien verfolgen.
Die Künstliche Intelligenz versucht, die menschliche mittels Computerprogrammen oder Robotern zu simulieren. Vor einigen Jahren war sie nur in bizarren Geschichten zu finden. Heute ist sie jedoch längst allgegenwärtig. Nun verfügt beinahe jeder Mensch, der ein Smartphone besitzt, über KI. Als Beispiel wäre hier Siri (iPhone) zu nennen, welches eine sogenannte Narrow-AI-Technologie darstellt. Es handelt sich dabei um ein System, das einzelne vorgegebene Aufgaben lösen soll.
Darüber hinaus nutzen sehr viele Menschen bereits sogenannte Chat Bots wie Amazon Echo – besser bekannt als „Alexa“ –, die Lieblingslieder spielen oder auch eine Pizza bestellen kann.
KI beeinflusst und bereichert also schon jetzt unseren Alltag. Das, was alle KI-Systeme gemeinsam haben, sind Algorithmen, die Daten interpretieren und dadurch Muster erkennen und Regeln erlernen.
Wenn ein Programm also anhand von Beispielen selbstständig lernt und dabei Lösungen entwickelt, nennt man das „Machine Learning“ (maschinelles Lernen). Die aktuell komplexeste Variante dieses Verfahrens ist das „Deep Learning“ (tiefgehendes Lernen). Maschinen wie Handys können auf diese Weise erlernen, auf Fotos Gesichter oder Tiere zu erkennen. Nachdem das Programm mit zahlreichen Bildern gefüttert wurde, sucht es nach gemeinsamen Variablen und Gesetzmäßigkeiten, um ein Muster zu finden. Durch ständiges Feedback, ob Entscheidungen kontinuierlich richtig getroffen werden, können Muster weiter optimiert und verfeinert werden. Je mehr Daten das System verwertet, desto zuverlässiger wird es.
Tagtäglich füttert jeder von uns die schier unendlichen Datenmassen im Netz. Unsere Fußspuren in der digitalen Welt liefern den Unternehmen Informationen zur Verbesserung oder Erarbeitung ihrer Systeme. Jede Google-Suche, jeder Klick und jede Anwendung einer App ergänzt die globale Datenmenge.
In Zukunft wird Künstliche Intelligenz nicht nur im Internet oder beim autonomen Fahren wegweisend sein, sondern auch eine entscheidende Rolle in der Musik übernehmen.
Künstliche Intelligenz in der Musik
Wenn man Universitäten betrachtet, so beschäftigt sich fast jede mit KI. Die Kombination von ihr mit Musik ist nichts Außergewöhnliches mehr. Sie wird schon seit 30 Jahren erforscht. KI-Systeme in der Musik können auf verschiedenen Ansätzen beruhen. Der bekannteste Ansatz ist die Rekombination von Mustern. Musik-Professor David Cope ist einer der Pioniere von KI in der Musik, der die Rekombination von Mustern ab dem Jahr 1970 erforscht hat. Er hat die Software „EMI – Experimental Musical Intelligence“ entwickelt.

©Andreas Caspari
Die Musik von David Cope beziehungsweise seinem Programm hat mich in Erstaunen versetzt. Die Software kann jedes musikalische Muster erkennen und fortschreiben. Wenn man das System also beispielsweise mit der Musik von Mozart arbeiten lässt, komponiert es Werke, die klingen, als stammten sie von Mozart. Und es funktioniert: Die Stücke lassen vermuten, es handle sich um verschollene Werke der großen Komponisten, die kürzlich erst in einer verstaubten Sammlung geborgen wurden.
Ich kann Ihnen sagen: Ich selber hatte meine Probleme, die maschinelle Musik von der menschlichen Musik zu unterscheiden. Der individuelle Stil der Komponisten war absolut überzeugend getroffen. Ich hatte zwar Vermutungen, was von der KI und was vom Komponisten kommt, aber ich konnte es eben nicht mit absoluter Sicherheit sagen.
Ich konnte mich aber in die Musik hineinbegeben, sie nachempfinden und sie künstlerisch ausgestalten, so wie ich es bei allen Interpretationen großer Werke mache. Letztendlich hat mir mein Wissen über die Komponisten selbst als auch Hinweise aus den Bereichen der Musiktheorie geholfen, eine klare Zuweisung zu machen. Es waren sekundäre Hinweise wie Pralltriller und zu weite Griffe bei Chopin, die ich so nie gesehen hatte. Dadurch erst wurde klar, dass die Stücke keine Originale waren.
Es gibt drei Phasen nach Cope, um Originalmusik zu komponieren: Die Dekonstruktion schon bestehender Kompositionen, also die Analyse und Separation in verschiedene Teile und rhythmische Strukturen, sowie die Identifikation von Gemeinsamkeiten und einer Merkmalsstruktur. Der dritte Schritt beschreibt die Rekombination der Teile, die in ein neues Ganzes kombiniert werden.
Sind Computer die besseren Komponisten? Doch wie kann Künstliche Intelligenz die klassische Musik bereichern und ergänzen? Und was bedeutet das für Interpreten in der heutigen Zeit?
Computer könnten als Assistenten für Aufführungssituationen von Komponisten dienen wie die Flow Machine von Sony . So ist es zum Beispiel immer noch ein Problem, umfangreiche Partituren zu spielen und dabei die Notenblätter nicht umwenden zu können, weil man mit beiden Händen an den Tasten beschäftigt ist. Wenn der Notentext digitalisiert wäre und ein Computer erkennen würde, wo gerade gespielt wird, könnte der Seitenumbruch exakt im richtigen Moment passieren. Das wäre extrem hilfreich.
Auch andere Assistenzsysteme könnte ich mir vorstellen, zum Beispiel bei der Einstudierung komplexer Kammermusik-Werke.
Im Bereich Kreativität bin ich da eher skeptisch. Da ist zur Zeit auch noch nicht ansatzweise etwas wirklich Gutes dabei. Vorstellen kann ich mir aber, dass Künstliche Intelligenz eine Art Ideenpool liefert, aus dem der Mensch/Komponist dann das wählt, was ihm gut genug oder inspirierend genug erscheint, um es weiter auszuarbeiten.
Mir als Dozentin wird oft die Frage gestellt, ob Interpreten sich der Angst stellen müssen, durch Computer ersetzt zu werden. Und dazu sage ich ganz klar: Nein. Die Rolle des Interpreten sehe ich momentan überhaupt nicht in Gefahr. Einem Notentext Leben einzuhauchen ist derzeit keiner Künstlichen Intelligenz möglich. Ebenso wenig schafft es ein Roboter, ein Instrument zu spielen.
Ein Musikstück, das nicht von einem Musiker, sondern von einem System (als Midi-File zum Beispiel) gespielt wird, klingt nicht einmal ansatzweise nach erlebter und gefühlter Musik. Solch ein Stück ist also für den Zuhörer unzureichend.
Wir als Zuhörer wollen von Musik berührt werden, sie soll unseren Alltag, unser Leben bereichern und verschönern. Dies sind aus meiner Sicht intrinsische Bewertungsfunktionen, die auch situationsabhängig sind. Es geht dabei um den Grad der wahrgenommenen Kreativität, den Grad der emotionalen Erregung und den Grad der Spannung.
Programme haben so etwas nicht und werden sowas meiner Meinung nach auch in naher Zukunft nicht schaffen können.
AIVA: Die Künstliche Intelligenz komponiert die Musik der Zukunft