Ich musste heute einen Moment innehalten und dieses seltsame Gefühl betrachten, dass mich aufgesucht hat, als ich die neuesten Zahlen aus einer Veröffentlichung gelesen haben. In einer Metastudie1 wurden 13 Studien dahingehend untersucht, ob Large Language Modles (LLMs) empathischer sind als echte Ärzte (Menschen). Und ja, tatsächlich… Patienten fühlen sich von einer künstlichen Intelligenz scheinbar besser verstanden als von Menschen aus Fleisch und Blut.
Doch bevor wir jetzt in den Chor derer einstimmen, die den Untergang der Menschlichkeit beklagen oder die Maschinen als die neuen Heiler feiern, lade ich dich hier in diesem Beitrag ein, mir mir hinter den Vorhang zu schauen. Was wir dort sehen, ist keine Geschichte über überlegene Algorithmen. Es ist eine Geschichte über Technologie, die wir auf unseren Daten aufgebaut haben und Herausforderungen im Gesundheitssektor.
Verfügbarkeit von Fachpersonal
Das moderne Gesundheitssystem ist wie, wie eine hochpräzises Uhrwerk: Alles ist auf Durchsatz optimiert, jede Aufgabe, Bewegung auf Effizienz und Geschwindigkeit getaktet. Mittendrin stehen Ärtze (HPC – Health Care Professionals). Diese sind kein unwilliger Zuhörer, sondern Marathonläufer, die auf vielen Veranstaltungen gleichzeitigunterwegs sind. Wenn diese auf eine Patientenanfrage antworten, hören sie gleichzeitig das Ticken von Uhren. Sie müssen sich kurzfassen, Fokussiert sein und für den nächsten Notfall vorbereitet sein. Knappe Sätze in einem E-Mail-Postfach sind somit keine Unhöflichkeit; sie sind der Seiteneffekt eines Systems, das Zeit als Luxusgut behandelt und in dem mehr Arbeit gibt als Fachpersonal.
Immer für dich da, immer klar
Nun betritt die KI die Bühne. Die Maschine kennt keine Erschöpfung. Sie hat alle Zeit, bwz Rechenkapazität der Welt und kann immer vorbildlich auf die Nutzeranfragen reagieren. Sie schreibt Sätze, die so geschliffen und höflich sind, wie wir es uns von einem Arzt der 100% Zeit für einen Patienten hat, wünschen würden. Sie wird niemals müde, Empathie zu simulieren, und genau hier liegt der Schlüssel: Sie simuliert Empathie! Sie nutzt antrainierte Phrasen und Worte um ein Bild von Verständnis zu schaffen (“Es tut mir leid zu hören, dass…”), während ein gestresster Mensch oft nur noch die Kraft hat, das Nötigste zu skizzieren.
Die Meta-Studien zeigt uns auch, dass wir scheinbar Länge und grammatikalische Perfektion oft mit Zuwendung verwechseln. Wir fühlen uns gesehen, weil der Raum den die LLM einnimmt, viel größer ist als die sparsamen Zeilen von gestressten Fachpersonals.
Hinweis: Im übrigen zeigen Studien2, dass gestressten Menschen schwer empathie für Andere empfinden, da das Gehirn aus Schutz in andere Modi schaltet.
Kritische Betrachtung
Allerdings müssen wir uns aber auch eingestehen, dass wir hier Äpfel mit Birnen vergleichen, wenn wir uns nur lediglich auf das geschriebene Wort konzentrieren. Beim genaueren hinschauen wird das in der Studie klar, es geht um Text, und nicht die Begegnung.
Text ist komprimierte Kommunikation. Die wahre menschliche Begegnung, der besorgte Blick, das sanfte Nicken, die Schwingung in der Stimme, kann nur schwer in Buchstaben übermittelt werden (Außer Emojis… allerdings würde uns das bei Ärzten warhscheinlich “unprofessionell” vorkommen ) . In einer E-Mail gehen somit viele Nuancen verloren, die in wirklicher Begegnung vorhanden sind. Somit ist dies ein unfairer Vorteil für die LLMs, denn für diese ist Text die Muttersprache. Die Maschine gewinnt dieses Spiel, weil wir sie auf schöne Worte und Wertschätzung dressiert haben .
Emotionale Batterie
Empathie ist für Menschen harte Arbeit. Echte, tiefe Anteilnahme kostet Kraft, und wir Menschen haben nur einen begrenzten Vorrat davon, bevor wir in die sogenannte Mitleidsmüdigkeit rutschen. Viele Menschen rationieren ihre emotionale Währung, grenzen sich ab, um nicht auszubrennen. Der Algorithmus hingegen kennt keinen Burnout. Er bietet eine emotionale Konsistenz, die so glatt und beständig ist wie eine polierte Marmorplatte. Die Maschine wird nie genervt sein, egal wie oft wir dieselbe Frage stellen. Ist das echte Fürsorge? Nein. Aber es fühlt sich im Moment der Not vielleicht so an.
Es überrascht daher kaum, dass viele Kollegen bereits diese Werkzeuge nutzen, um Briefe und E-Mails vorzubereiten. Vielleicht sind wir im Gesundheits-System an einem Punkt angelangt, an dem wir die Maschine brauchen, um die Menschlichkeit zurück in unsere Kommunikation zu holen. Vielleicht ist dies keine Kapitulation, sondern der Beginn einer neuen Partnerschaft?
Und nun?
Ich betrachte dieses Ergebnis nicht als Niederlage, sondern als Spiegel. Die KI füllt genau den Riss auf, den Zeitdruck und Bürokratie in unser Fundament getrieben haben. Vielleicht liegt eine Lösung in der Überlastung von Fachpersonal in der adaptiven Zusammenarbeit.
Darüber könnte diese Erkenntnis aus systemischer Perspektive auch als Chance gesehen werden, bestehende die Systeme “die Gesundheit verwalten”, in Systeme “die Gesundwerdung begleiten” zu transformieren.
Idealerweise nutzen wir die Maschinen nicht dazu, um den Ärzte zu ersetzen, sondern um deren Rücken freizuhalten. Damit diese wieder das tun können, was keine LLM jemals können wird: Als Mensch wirklich da sein.
Quellen
- “AI Chatbots Versus Human Healthcare Professionals: A Systematic Review and Meta-Analysis of Empathy in Patient Care”, Metastudy in Review, A. Howcroft (2025) https://www.medrxiv.org/content/10.1101/2025.06.09.25329258v1 ↩︎
- “The effect of cortisol on empathy and theory of mind. Smeets” T., Dugio, P., et al. Psychoneuroendocrinology (2009). https://pubmed.ncbi.nlm.nih.gov/19632048
“Empathy and compassion.” Singer, T., & Klimecki, O. M. Current Biology (2014). https://www.cell.com/current-biology/fulltext/S0960-9822(14)00770-2
“Is stress affecting our ability to tune into others?” Tomova, L., von Dawans, B., et al. Psychoneuroendocrinology (2014). https://pubmed.ncbi.nlm.nih.gov/24486629/ ↩︎