Von Lovis Determann, Dr. Heike Plitt und Christina Scheer
Autos mit Fahrassistenz, personalisierte Videoempfehlungen auf YouTube oder Sprachassistenzen wie Alexa und Siri – Künstliche Intelligenz (KI) ist aus unserem Alltag kaum noch wegzudenken, auch wenn wir das gar nicht immer bewusst wahrnehmen. Wie verhält es sich jedoch mit dem Einsatz von KI im musiktherapeutischen Rahmen? Diesem Thema haben sich jüngst gleich zwei Veranstaltungen intensiv gewidmet.
Ringvorlesung „Digitalisierung in den Künstlerischen Therapien“
#digiarthe, die Arbeitsgruppe im WFKT zum Thema „Digitalisierung in den Künstlerischen Therapien“, veranstaltet im WS 2024/25 eine öffentliche Ringveranstaltung zum Thema „Digitale Räume in den Künstlerischen Therapien“. Im Rahmen dieser Ringvorlesung sprach Frau Dr. Petra Kern zu dem Thema „Eine neue Ära der Arbeit: KI in den künstlerischen Therapien“. Die Moderation an diesem Abend übernahm Dr. Heike Plitt.
Die international nicht nur in Deutschland, sondern auch in den USA und Kanada zertifizierte Musiktherapeutin Frau Dr. Kern zeigt vielseitige Möglichkeiten auf, wie KI sinnvoll und effizient einsetzbar ist, um individuell zugeschnittene Texte, Bilder, Musik und Videos für den therapeutischen Kontext zu generieren. Lebendig und konkret beleuchtet die direkt aus Kalifornien zugeschaltete digitale Vorreiterin, wie KI-Tools bei der Planung, Durchführung und Auswertung therapeutischer Prozesse eingesetzt werden können, um den Arbeitsalltag in den künstlerischen Therapien zukunftsweisend und effizient zu gestalten. Das mit Hilfe von KI produzierte Buch “Pippin das Klavier” (Kern, 2024) zeigt schließlich, wie die praktische Anwendung von KI-Tools in der Musiktherapie mit Kindern beispielhaft gelingt.
“KI ersetzt nicht Kreativität, sondern sie stärkt sie”
ist ihr Fazit, das Frau Dr. Kern nicht stehen lässt, ohne reflektiert und differenziert ethische Voraussetzungen darzulegen, derer es bedarf, um KI verantwortungsbewusst als zusätzliches Tool zum Analogen in den künstlerischen Therapien einzusetzen.

10. Online-Konversation Ethik in der Musiktherapie
Gleich einen Tag später fand die 10. Online-Konversation Ethik in der Musiktherapie zum Thema „Künstliche Intelligenz in der Musiktherapie? Ethische Abwägungen am Beispiel von ChatGPT“ statt. Das Format der Online-Konversationen zur Ethik in der Musiktherapie wurde von Prof. Dr. Eckhard Weymann (ehem. Leitung Institut für Musiktherapie, Hochschule für Musik und Theater Hamburg) und Prof. Dr. Dr. Thomas Stegemann (Institut für Musiktherapie der Universität für Musik und Darstellende Kunst Wien) ins Leben gerufen mit dem Ziel, ethisches Denken und ethische Diskurse in der musiktherapeutischen Fachwelt zu befeuern.
Grundidee der 10. Online-Konversation zum Thema KI ist es, sich als Einsteiger:innen einem großen und komplexen Thema zuzuwenden. Es sollen laut Weymann „dicke Bretter“ angesprochen werden, wie die Frage nach dem Menschenbild, das dem Einsatz von KI zugrunde liegt, der Auswirkungen und Anforderungen an die therapeutisch-künstlerische Haltung sowie dem Aspekt der Datensicherheit beim Einsatz von KI in der Musiktherapie: Was gebe ich von mir, aber auch von den Klient:innen preis? Dabei wird darauf hingewiesen, dass der Abend nicht dazu dienen soll, Antworten zu liefern, sondern mehr, Fragen zu formulieren und sich ihnen zu nähern.
Intelligenz – eine Metapher?
Einleitend werden grundlegende Aspekte zum Thema KI benannt. Das Wesen der KI ist es, Aufgaben zu erledigen, die eigentlich menschliche Intelligenz erfordern. Dazu gehören Problemlösungsfähigkeiten, Lernen, Erkennen von Mustern oder die Fähigkeit, Entscheidungen zu treffen. Dabei kann festgehalten werden, dass der Begriff der Intelligenz hier möglicherweise metaphorisch verstanden werden sollte, denn KI-Systeme werden mit großen Datenmengen gespeist, auf deren Grundlage sie ihre Aufgaben erfüllen. So kommt es beispielsweise zum Phänomen des „Halluzinierens“, wenn die KI die Antwort auf eine Frage nicht weiß – sie kann dann „falsche Schlüsse“ ziehen und falsche Angaben machen, ohne dies zu „merken“ und kenntlich zu machen, dass ihr Informationen fehlen.
So gibt es u.a. mit einem der KI-Pioniere, dem britisch-kanadischen Informatiker und Physik-Nobelpreisträger Geoffrey Hinton durchaus kritische Stimmen, die heute vor den möglichen Konsequenzen der Entwicklung von KI warnen:
„Es könnte am Ende nicht gut ausgehen“ (Hinton in der Tagesschau vom 8. Oktober 2024).
Auch der israelische Historiker Yual Noah Harari weist in seinem 2024 erschienenen Buch “Nexus. Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz ” auf mögliche Gefahren der Entwicklung von KI hin. Sie ist ein „Akteur“ und die bisher erste Technologie, die menschliche Entscheidungen überflüssig macht.
ChatGPT
Ein verbreitetes KI-Tool ist das Programm „ChatGPT“, das in der inzwischen vierten Version im Jahr 2023 das bayerische Abitur mit der Note 2 bestanden hat. Es handelt sich um ein Tool, das in Gesprächsform interagiert (Chat). Es wurde im Voraus mit Unmengen von Daten gespeist (Pre-trained) und ist in der Lage, neue Inhalte zu generieren und nicht nur zu wiederholen (Generative), sowie Sprache effektiv zu verarbeiten und zu verstehen (Transformer).
Bezogen auf den Einsatz von KI wie ChatGPT in der Musiktherapie nennen Weymann und Stegemann verschiedene bedenkenswerte Aspekte: Haber et al. (2024) bezeichnen KI beispielsweise als „the Artificial Third“ in der Psychotherapie und sprechen von dem Potenzial einer vierten narzisstischen Kränkung. Mit Blick auf die Musiktherapie wäre die KI dann „das Vierte“ in der Therapie, da die Musik gemeinhin als das „Dritte“ betrachtet wird.
Zudem wird das „Harm-Modell“ von Brea Murakami vorgestellt, das sich damit beschäftigt, wie in der Musiktherapie negative Effekte entstehen oder begünstigt werden können. Sie entwickelte ein komplexes Modell, das, so Weymann und Stegemann, durch den Einsatz von KI in der Musiktherapie um ein Vielfaches komplizierter und anfälliger werden könnte.
Als weiteren Aspekt beziehen sich Stegemann und Weymann auf die Empfehlung der UNESCO zur Ethik der KI, die als Kompass für „Menschenwürde, Wohlergehen und Schadensverhütung“ verstanden werden kann.

(Screenshot aus der Präsentation während der Ethik-Online-Konversation am 8.11.2024 (die Rechte liegen bei den Autoren: Stegemann & Weymann, 2024)
Gespräch mit Josephine Geipel und Anne-Katrin Jordan
Zu einem Expertinnengespräch waren Prof. Dr. Anne-Katrin Jordan und Prof. Dr. Josephine Geipel geladen, die in einem Selbstversuch ergründeten, inwieweit Musiktherapieprozesse durch ChatGPT Unterstützung erfahren könnten. Über den Selbstversuch „Der Einbezug von ChatGPT in die musiktherapeutische Praxis“ wurde unter anderem in der Musiktherapeutischen Umschau Band 45 (02/2024) sowie im Blogbeitrag von Anne-Katrin Jordan (“Künstliche Intelligenz in der Musiktherapie mit ChatGPT & Co?” vom 16. Juni 2023) berichtet. In ihrem Artikel verweisen Jordan und Geipel auch auf ethische Grenzen, die in dem Versuch, der aus drei hypothetischen Fällen bestand und in Form von Rollenspielen durchgeführt wurde, sichtbar werden konnten.
Im Gespräch mit Eckhard Weymann und Thomas Stegemann berichtet Josephine Geipel, wie sie und Anne-Katrin Jordan auf das Thema und die Idee des Selbstversuches gekommen sind. Dabei beschreibt Josephine Geipel, sich selbst als Interessierte und Lernende zu verstehen und führt aus, sie sei der Meinung, dass man sich mit dem Thema KI auseinandersetzen müsse. Nicht zuletzt, da wie bereits erwähnt, KI in vielen Bereichen unseres alltäglichen Lebens mittlerweile selbstverständlich dazu gehört. Die Beschäftigung mit dem Thema sei – so Geipel – von der Frage geleitet, wo KI Möglichkeiten bereit hält, auch die musiktherapeutische Praxis zu verbessern. Letztlich haben vor allem ethische Aspekte zur Durchführung in Form von Selbstversuchen angeregt.
Dabei haben Fragen an den Patient:innenschutz und Überlegungen hinsichtlich eines Eingriffs in die therapeutische Beziehung eine besondere Rolle gespielt. In den drei durchgeführten Rollenspielen zu den Themen Klangreise, Songwriting und Erstellen einer Playlist, erlebten Jordan und Geipel, dass die Einbeziehung von KI auf beiden Seiten – auf der, der Therapeutin als auch der, der Patientin – als Störfaktor wahrgenommen wurde. Das könne auch zu Unsicherheiten bei Patient:innen führen, meint Geipel.
Ob dieses Erleben nicht auch auf Unerfahrenheit zurückzuführen und eine Frage der Gewöhnung sei, bezweifelt Josephine Geipel zwar nicht, sie gibt jedoch zu bedenken, dass durch die Hinzunahme einer KI ein zusätzlicher Kommunikationskanal bereitsteht. Diese Gleichzeitigkeit stellt ihrer Einschätzung nach eine besondere Herausforderung an die Wahrnehmung dar. Weiter greift Anne-Katrin Jordan die Frage auf, inwieweit einer KI wie ChatGPT zu trauen sei, welche Informationen wirklich korrekt seien oder wann die KI vielleicht auch halluziniert habe, und verweist im Dialog mit Josephine Geipel auf die Problematik, dass die Inhalte, die durch die KI generiert werden, nicht der Kontrolle der/des Therapeut:in unterliegen.
Das sei insbesondere im Zusammenhang mit potenziell diskriminierenden Inhalten oder der Reproduktion von Stereotypen zu bedenken, denn auch die Trainingsdaten von ChatGPT unterlägen bereits einem Bias. Geipel und Jordan können hierbei mit ihrer Erfahrung und aus Recherchen jedoch bestätigen, dass dem auch entgegenzuwirken sei. ChatGPT sei kein Tool, das einmal aufgesetzt würde und dann fertig sei, es bilde sich fortlaufend um und würde beständig nachjustiert, berichtet Geipel. Anne-Katrin Jordan ergänzt, dass auch in der aktiven Nutzung gegengesteuert werden könne:
„Ich kann immer wieder gleiche Befehle wiederholen und ChatGPT merkt sich das.“
So könne man laut Jordan eine KI für bestimmte Themen sensibilisieren.
Stimmungsbild zwischen Skepsis und Neugier
Eckhard Weymann betont zu Beginn der Veranstaltung, dass Ethik nicht als eine Sammlung von Regeln und Pflichten zu verstehen ist, sondern von der Auseinandersetzung mit Werten, Haltungen und Positionen lebt – vor allem in Gesprächen. In diesem Sinne ist diese 10. Online Konversation Ethik nicht nur durch eine gemeinsame Diskussion partizipativ angelegt – einige Wochen zuvor fand sich in verschiedenen Newslettern, zum Beispiel in dem der Deutschen Musiktherapeutischen Gesellschaft (DMTG), eine kurze online Befragung zu Vorerfahrungen und Einstellungen zu KI.
Mit insgesamt zwölf Fragen wurden neben dem grundsätzlichen persönlichen Interesse und alltagspraktischen Erfahrungen mit KI auch ethische Aspekte, die in dem Thema enthalten sind, befragt. Im Befragungszeitraum vom 15. August 2024 bis 15. Oktober 2024 wurden dabei 81 vollständige Datensätze im deutschsprachigen Raum erhoben.
Eingangs wurde erfragt, inwieweit das Thema KI im Zusammenhang mit der Musiktherapie auf Interesse stößt. Zur Beantwortung dieser Frage stand eine mehrstufige Ratingskala zur Verfügung (1= gar nicht / 10 = sehr stark). In den Antworten bildet sich eine leichte Tendenz zu mehrheitlich eher weniger Interesse ab. Das mag auch in Verbindung mit der darauffolgenden Frage im Zusammenhang stehen, in der Auskunft darüber gegeben werden sollte, ob es im eigenen musiktherapeutischen Berufsalltag bereits konkreten Kontakt mit dem Thema KI gegeben hat. Hierbei verneinen 76% Prozent der Befragten, während 24% angeben, im Berufsalltag bereits mit KI in Kontakt gekommen zu sein.
Als Nutzungsfelder hierbei werden u.a. Textbearbeitung und Literaturrecherche in den Bereichen Forschung und Lehre benannt. In der tatsächlichen musiktherapeutischen Praxis findet KI den Angaben der Befragten zufolge vor allem Anwendung im Bereich Songwriting, beim Erfinden und Vertonen von Geschichten – etwa in den Neonatal Intensive Care Units (NICU) – und in der Gruppenmusiktherapie im Zusammenhang mit Liedvorschlägen.
Den aktiven Einsatz von KI in der musiktherapeutischen Praxis bejahen der Umfrage zufolge 13% der Teilnehmenden und benennen dabei unter anderem die Nutzung im Bereich Sprachübersetzung, als Recherchetool, zur Unterstützung bei der Liedersuche, beim Erstellen von Songtexten, aber auch zum Transkribieren oder Analysieren von Musik. Weiter wurde erfragt, ob der Einsatz von KI in der musiktherapeutischen Praxis grundsätzlich vorstellbar sei, wobei sich in den Antworten ein sehr gemischtes Bild ergibt. Während sich von den 81 Befragten 33% eine Einbindung von KI durchaus vorstellen können, halten 37% den Einsatz für undenkbar. Weitere 30% enthalten sich bei dieser Frage.
Insgesamt lässt sich aus der Befragung ein gemischtes Stimmungsbild gewinnen. In den gegebenen Antworten bildet sich eine starke Ablehnung ab, wobei auch sichtbar wird, dass es (noch) wenig Wissen und wenige Berührungspunkte und Erfahrungen im Berufsalltag mit der Verwendung von KI gibt. Die Ablehnung mag also auch durch Vorbehalte genährt sein. Weiter zeigt sich auch, dass einige der Befragten durchaus Chancen in der Verwendung von KI sehen – z.B. zur Arbeitserleichterung in administrativen Bereichen, zur Unterstützung bei Musikrecherchen, der Analyse von Musik aus Therapieprozessen, zum Generieren von Songs und Songtexten aber auch zur Vorbereitung von Kongressen oder Mitgliederversammlungen – um nur einige zu nennen.
Mit einer großen Mehrheit von 67% zeigen sich unter den Befragten jedoch auch Bedenken und Befürchtungen gegenüber dem Einsatz von KI in der Musiktherapie. Ähnlich wie durch Josephine Geipel und Anne-Katrin Jordan beschrieben, scheinen sich viele der Befragten Gedanken um den Schutz von Patient:innen und Patient:innendaten, wie auch den Schutz der therapeutischen Beziehung zu machen. Gleichzeitig wird der Verwendung von KI die Gefahr eines Verlustes in Bereiche wie Authentizität, Empathie, Resonanz oder Kreativität gegenübergestellt.
„Ich sehe es als einen politischen Auftrag, mich für die unmittelbare menschliche Beziehung stark zu machen“,
lautet eine Antwort auf die Frage nach Bedenken und Befürchtungen. Es wird weiter beschrieben, dass „Lebendigkeit und Kreativität, Phantasie, achtsames Erleben, Aktivität, Beziehung, Nähe…“ gefährdet sein könnten, KI jedoch auch Interesse weckt:
„Damit kann man Neues entdecken, Überbrückung zwischen Generationen, zwischen Sprachen, zwischen Lebenswelten…“.

Immerhin 91% der Befragten geben an, den Eindruck zu haben, dass die Verwendung von KI in Therapieprozessen berufsethische Fragestellungen berührt. Und damit wird deutlich, dass das Thema nicht ausschließlich polarisiert, sondern zum Nachdenken anregt und Fragen aufwirft. Eine der befragten Personen fasst ein paar dieser Fragen abschließend wie folgt zusammen:
„Das Wertesystem wird hinterfragt. Worüber definiert sich der Wert eines Menschen? Ist die KI der bessere Mensch? Versteht mich die KI besser als ein anderer Mensch? Was ist Wahrheit? Kann sich die KI irren? […] Und auch: Was ist Kunst? Was ist der Wert eines künstlerischen Werkes, das von einer KI erzeugt wurde? Relativiert dies den Wert von Kunst, die von Menschen erschaffen wurde?“
KI als Boden für lebhaften Diskurs
Zum Abschluss der Online-Konversation gibt es Raum für Diskussionen. Zunächst wird im Podium, bestehend aus Anne-Katrin Jordan, Josephine Geipel und den beiden Gastgebern, gesprochen. Es wird ein Plädoyer formuliert, das die Notwendigkeit unterstreicht, sich mit dem Thema KI auseinanderzusetzen, damit wir als Musiktherapeut*innen für diese Entwicklung gewappnet sind und sie einzuschätzen wissen. Zudem wird eine Kernfrage herausgearbeitet: Wie kann KI in der Musiktherapie wirksam sein? Sollte sie eine Erweiterung, Reduzierung oder Ersatz für menschliche Zuwendung darstellen?
Im Plenum gibt es unterschiedliche Kommentare und Haltungen zum Thema. Es gibt Stimmen, die mit der Notwendigkeit einer Auseinandersetzung mit KI übereinstimmen, während andere Teilnehmende ehrlich äußern, sich nicht mit dieser Technologie auseinandersetzen zu wollen. Eine Teilnehmerin plädiert für die Leibhaftigkeit der Begegnung in der Musiktherapie und formuliert bezogen auf KI „mich interessiert das überhaupt nicht“.
Eine weitere Teilnehmerin betont das Phänomen der Angst vor dem Unbekannten und bemerkt, dass die Tools nur so gut sind, wie die Informationen, mit denen sie gefüttert werden. Sie plädiert außerdem für Transparenz im Umgang mit KI im Rahmen einer musiktherapeutischen Behandlung und betont, dass das Einverständnis der Klient:innen unerlässlich ist.
An anderer Stelle wird benannt, dass sich mit Blick auf die Informationen, mit denen die KI-Tools gespeist werden, weitere ethische Probleme ergeben, die bereits auch in den Medien diskutiert werden, wie z.B. Voreingenommenheit von KI oder Verstärkung von Vorurteilen. Dies fordert eine erhöhte Wachsamkeit bei den Therapeut:innen, wenn sie KI in der Musiktherapie einsetzen, wobei gleichzeitig betont wird, dass es Möglichkeiten gibt, solche Lücken zu schließen und dass es durchaus Programme mit ethischen Komponenten gibt, wie z.B. ChatGPT.
Take-Home-Message von ChatGPT
Abschließend wird ebendieses Tool mit den Veranstaltungsfolien gespeist und gebeten, eine Take-Home-Message zu verfassen, die nun auch als Schlusswort für diesen Beitrag dienen soll:

Zum Abschluss ein Hinweis: Die nächste Online-Konversation Ethik in der Musiktherapie findet am 21. März 2025 um 17 Uhr statt.
Quellen
Haber, Yuval et al. (2024). The Artificial Third: A Broad View of the Effects of Introducing Generative Artificial Intelligence on Psychotherapy.
Harari, Yuval Noah (2024). Nexus. Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz. Penguin Books.
Hinton, Geoffrey E., Plaut, David C., Shallice, Tim (1993). Simulating Brain Damage. Scientific American, Band 269, Nr. 4, Oktober 1993, S. 76–82.
Murakami, Brea (2021). The music therapy and harm model (MTHM): Conceptualizing harm within music therapy practice. Ecos 6.
HEIKE PLITT
Dr. phil. Heike Plitt ist Lehrmusiktherapeutin (DMtG) sowie systemische (Familien)-Therapeutin und zertifizierte Paartherapeutin (DGFS). Sie leitet eine psychologische Beratungsstelle für Paar-, Familien und Lebensfragen des Bistums Münster. Forschungsschwerpunkte: Mentalisierung, Persönlichkeitsstörungen, Paartherapie, Kompetenztraining und Hypnotherapie. Sie ist Mitglied der Ethikkommission der Deutschen Musiktherapeutischen Gesellschaft und des Verbundprojektes Digitalisierung und künstlerische Therapien #DIGIARTHE. www.music-relation.de.
CHRISTINA SCHEER
Christina Scheer ist zertifizierte Musiktherapeutin DMTG und hat vor ihrem Masterabschluss in Musiktherapie an der HfMT Hamburg, Instrumentalpädagogik und Elementare Musikpädagogik (BoM) an der Hochschule für Musik Saar studiert. Ihre Arbeitsschwerpunkte liegen im Bereich Palliative Care, der Arbeit mit Menschen mit Abhängigkeitserkrankungen sowie im Feld (Sozial-)Psychiatrie. Sie ist seit 2021 Mitglied der Ethikkommission der DMTG.