„Chatbots können nie einfach für einen da sein“

Bei der Entwicklung neuer Technologien steht die Wertschätzung des Menschen oft unter Druck, sagt der Theologe Constantin Plaul. Gerade dort, wo Maschinen vorgeben, menschlich zu sein, ergeben sich viele ethische Fragen.
Von Jonathan Steinert
Trost, Beistand

PRO: Sie beschäftigen sich als Theologe mit digitaler Medienethik. Was kann die Theologie bei diesem Thema einbringen, was andere Disziplinen vielleicht so nicht können?

Constantin Plaul: Unsere Gegenwart ist durch den Einbau digitaler Technik in nahezu alle Bereiche unseres Lebens gekennzeichnet. Das hat viel Hilfreiches mit sich gebracht. Bedenklich sind aber Tendenzen, die mit einem Verlust an Menschlichkeit einhergehen. Ganz handfest etwa in der rücksichtlosen Nutzung neuer Technologie, die auf Belange der davon Betroffenen keine Rücksicht nimmt. Etwas indirekter begegnen solche Tendenzen aber auch dort, wo neue Bilder von Mensch und Maschine propagiert werden, durch die die besondere Würde, die uns Menschen zukommt, in Frage gestellt wird, zum Beispiel wenn gesagt wird: Roboter sollten wie Wesen behandelt werden, die uns in gesellschaftlich-politischer Hinsicht gleichwertig sind.

Bei all solchen Fragen steht die ethische Wertschätzung des Menschlichen sehr unter Druck. Dem etwas entgegenzuhalten, darin erblicke ich eine wichtige Aufgabe der Theologie. Im Christentum wird das Menschliche ja sehr stark ausgezeichnet. Der Mensch erhält in seiner Gottebenbildlichkeit eine besondere Würde. Und im Menschen Jesus Christus kommt Gott uns auf besondere Weise nahe. Theologische Medienethik muss die Bedeutung des Menschlichen starkmachen gegenüber Tendenzen in technischen Entwicklungen und Bewegungen wie Trans- und Posthumanismus.

Allenthalben wird eine raue, vergiftete Debattenkultur insbesondere in den sozialen Medien beklagt. Sie empfehlen als ethische Orientierung dabei die Formel von Luther, der vom „simul iustus et peccator“ sprach, also vom Sünder, der zugleich gerechtfertigt ist durch Gottes Gnade. Was bedeutet das im Zusammenhang der digitalen Debattenkultur?

Wir kommunizieren sehr viel und sehr schnell, gerade in sozialen Medien wird häufig schnellschussartig Position für oder gegen etwas bezogen. Aussagen einer Person werden dann oft nicht in der Sache kritisiert, sondern man sagt, die Person hat sich als unhaltbar herausgestellt, weil sie etwas gesagt hat, was gar nicht geht; sie hat damit ihr Recht verwirkt, überhaupt noch mitreden zu dürfen. Da kann die Idee der Rechtfertigung hilfreich sein: Wir Menschen sind alle Sünder und machen permanent Fehler. Wir sind moralisch endliche Wesen.

Das Bewusstsein dafür kann eine gewisse Nachsicht und Vergebungsbereitschaft erzeugen. Mehr Menschen sollten, bevor sie andere für echtes oder angebliches Fehlverhalten aburteilen, daran denken, dass sie in ihrer Kommunikation sicherlich auch schon einmal danebengegriffen haben. Das würde unserer Kommunikationskultur sehr guttun. Wir sollten einander zugestehen, uns selbstkritisch zu eigenen Fehlern zu verhalten und trotzdem weiter am Diskurs teilzunehmen.

Das dürfte für journalistische Medien und ihren Umgang mit den Fehlern anderer genauso gelten …

Genau. Den Hang zum Schlagwort und zur Skandalisierung braucht es, um Aufmerksamkeit zu erzeugen. Das war auch vor den digitalen Medien schon so. Die haben das aber massiv verstärkt.

„Wir sind moralisch endliche Wesen. Das Bewusstsein dafür kann eine gewisse Nachsicht und Vergebungsbereitschaft erzeugen.“

Dank KI und Sprachmodellen können Menschen auch immer einfacher mit Chatbots oder Robotern kommunizieren. Manche bauen zum virtuellen Gegenüber richtige Beziehungen auf und geraten dadurch in problematische Abhängigkeiten. Was ist ethisch geboten, um diese Technologie menschenfreundlich zu gestalten, sodass man nicht auf Maschinen hereinfällt?

Ingenieure legen Chatbots häufig bewusst so an, dass sie ein personales Gegenüber vorgaukeln. Das fasziniert und bindet die Menschen. Auf einen eingegebenen Prompt kommen dann zum Beispiel Kommentare wie „Das ist eine gute Frage“ oder man wird anderweitig gelobt von der Maschine. Das schmeichelt natürlich Vielen. In der zwischenmenschlichen Kommunikation hat das seinen sozialen Sinn. Keinen Sinn hat es, wenn einem die Maschine so etwas sagt, bis dahin, dass der Chatbot von sich als „ich“ spricht. Man könnte die Chatbots durchaus so programmieren, dass die nicht so menschenähnlich gestaltet sind. Es müsste schon in der Bedienung dieser Tools deutlich werden, dass man es mit einer Maschine zu tun hat.

Bei Robotern wäre das ähnlich. In der Maschinenethik gibt es auch die Forderung, dass Roboter bewusst nicht humanoid konstruiert werden sollen. Dass man ihnen eben nicht einen Kopf mit Gesicht, zwei Arme und zwei Beine gibt. Schon als Erwachsener kann man sich dem dadurch entstehenden Eindruck schwer entziehen und Kinder noch weniger. Kinder hängen an Teddybären oder Puppen. Da entstehen bedenkliche Konstellationen, wenn Kuscheltiere auch noch sprechen und sagen: „Ich finde dich toll.“

Wären Sie dann dafür, so etwas gesetzlich zu regulieren?

Wenn man begründet davon ausgehen kann, dass es für die Entwicklung der kindlichen Psyche höchstwahrscheinlich nachteilige Folgen hat, mit solchen „intelligenten“ Puppen zu spielen, könnte es sinnvoll sein, so etwas zu verbieten. Das müsste natürlich auf dem Wege eines demokratischen Meinungsbildungs- und Entscheidungsprozesses geschehen. Es ist auf jeden Fall eine problematische Entwicklung und wir sollten uns fragen, ob wir das als Gesellschaft zulassen wollen. Ganz ähnlich ist es beim Umgang mit Tod und Trauer.

Inwiefern?

Es gibt eine ganze aufstrebende Industrie, die Trauerbegleitung in Form von KI-gestützten Avataren anbietet. Menschen, die wissen, dass sie bald sterben werden, können Texte einsprechen, aus diesen Daten kann dann ein Avatar dieser verstorbenen Person mithilfe von KI erzeugt werden, der wie ein Chatbot angesprochen werden kann. Hinterbliebene sprechen also weiterhin mit einer virtuellen Version ihres Angehörigen. Besser gesagt: mit einer Simulation ihres Angehörigen. Man kann sogar programmieren, dass die verstorbene Person als Avatar zu einem bestimmten Zeitpunkt anruft, noch Jahre nach dem Ableben. Da tun sich zahlreiche psychologische, ethische und auch rechtliche Fragen auf. Mich erschreckt, dass so viele Leute überhaupt Interesse daran haben. Ich bin sehr fest davon überzeugt, dass das keine gute Praxis ist.

Weil man die Endlichkeit dadurch leugnet?

Genau. Sie macht es den Angehörigen schwer, richtig Abschied zu nehmen und zu verarbeiten, dass eine Person tot ist, um dann das eigene Leben auf dieser Basis weiterzuleben und neu auszurichten. Hier wäre zum Beispiel eine Aufgabe von Theologie, darauf hinzuweisen: Leute, macht das nicht, das tut euch und eurer Seele nicht gut, den Verstorbenen so im Leben zu behalten. Mich erinnert das immer ein bisschen an die gruseligen Figuren aus Stephen Kings „Friedhof der Kuscheltiere“. Für uns Christen besteht eine der ganz zentralen Aufgaben darin, dass wir uns einüben in unsere Endlichkeit und das auch akzeptieren.

Constantin Plaul, Theologe Foto: Markus Scholz

Dr. Constantin Plaul ist Professor und Lehrstuhlinhaber für Systematische Theologie an der Universität Regensburg. Er forscht unter anderem zu Medienethik und Kommunikation im digitalen Zeitalter. In diesem Jahr hat er zusammen mit der Theologieprofessorin Christina Costanza von der Humboldt-Universität Berlin den Podcast „Bytes und Geist – Menschsein in der digitalen Gesellschaft“ produziert. Gemeinsam geben sie den Band „Digitaler Humanismus in theologischer und philosophischer Perspektive“ heraus, der 2026 bei Mohr Siebeck erscheint.

Was kann ein menschlicher Seelsorger besser als eine KI, gerade wenn es um Krisen oder Trauer geht?

Mir leuchtet ein, dass Menschen es hilfreich finden, sich mit einem bestimmten Problem an einen Chatbot zu wenden, der dann konkrete Ratschläge gibt. Mir fällt die Decke auf den Kopf und der Chatbot sagt mir: Geh mal joggen. Ich kann mir vorstellen, dass es bei gut trainierten KI-Systemen auch relativ anspruchsvolle Hilfsangebote geben kann auf dieser praktischen Ebene. Dafür bin ich offen.

Aber gerade bei der Seelsorge geht es ja oft darum, wie Menschen mit Krisen umgehen; dass Menschen etwas erlebt haben, das ihnen zu schaffen macht. Und dann bedeutet Seelsorge eben nicht immer, praktische Hilfsangebote zu machen. Zum großen Teil lebt die Seelsorge davon, dass man einfach präsent ist, dass man da ist, die andere Person in ihrer Leidenssituation wahrnimmt und mit ihr Gegenwart teilt. Das ist etwas, was ein Chatbot niemals kann, weil er eben keine Person ist. Ein Chatbot ist nur eine stochastisch arbeitende Maschine, die durch Wahrscheinlichkeitsgeneratoren erzeugte Sätze ausspuckt. Chatbots können nie einfach für einen da sein.

Wie schätzen Sie das Potenzial von KI für die gottesdienstliche Praxis ein? Könnten Pfarrer-Roboter vollmächtig predigen oder einen wirksamen Segen spenden?

Hier würde ich unterscheiden, ob die KI zum Beispiel genutzt wird, um entsprechende Textgrundlagen zu entwerfen, oder ob da ein Roboter spricht. Für mich gehört zu einem wirkungsvollen Segen immer dazu, dass mir ein personales Gegenüber diesen Segen zuspricht. Wenn eine Maschine mir irgendeinen Segensvers vorliest, fände ich dadurch keine Erbauung. Anders ist es bei der Frage, ob eine KI gut genutzt werden kann, um Predigten zu verfassen. Ich habe das auch selbst schon genutzt  

„Das Ergebnis der KI kann mitunter besser sein als manche Predigt eines Pfarrers oder einer Pfarrerin, die keine Zeit zum Vorbereiten hatten.“

Erzählen Sie!

Ich habe eingegeben, worum soll es gehen soll und welche Bibelstelle passend wäre. Was da herauskam, war wirklich hilfreich. Ich habe dann noch etwas nachjustiert und dem Programm gesagt, dass es den einen Aspekt weglassen und einen anderen stärker hervorheben soll. Das habe ich einige Male wiederholt und dann hat mir ChatGPT irgendwann einen Aufriss für eine Predigt gegeben und mir angeboten, das in einen Text zu überführen. Ich habe dieses Angebot nicht angenommen und ich werde die Predigt am Ende auch selbst schreiben. Aber ich war verblüfft, wie gut das war.

Das Ergebnis der KI kann mitunter besser sein als manche Predigt eines Pfarrers oder einer Pfarrerin, die keine Zeit zum Vorbereiten hatten. Man muss nur immer mitdenken, dass die Maschine nicht deswegen besser ist, weil sie besser predigt, sondern weil sie einen riesigen Textfundus hat, der von Menschen geschaffen ist und aus dem die Maschine anhand von Wahrscheinlichkeiten und Mustern etwas herauszieht. In der Digitalethik ist deshalb bei solcher generativen KI vom „stochastischen Papagei“ die Rede.

Wie blicken Sie auf die Rolle, die KI in der Zukunft spielen wird: Wird sie vor allem unser Leben erleichtern oder wird eine Super-KI die Menschheit auslöschen und den Weltuntergang herbeiführen?

Ich persönlich habe keine Angst davor, dass die KI irgendwie zum Leben erwacht und ein eigenständiger Akteur wird, der Rache an uns Menschen nimmt oder uns vernichten will, weil er so superschlau ist. Die Erwartung, dass eine solche starke KI in absehbarer Zeit entwickelt wird, teile ich überhaupt nicht. Aber was mich besorgt, ist die Frage, welche Konsequenzen es haben kann, dass in Zukunft immer mehr Prozesse und Praktiken in unserer Gesellschaft und Kultur an KI-Programme delegiert werden. Alles das, was wir vorher besprochen haben, und noch weit darüber hinaus; der Börsenhandel wird irgendwann nur noch von der KI gemacht, militärische Geräte werden von KI autonom gesteuert, der Straßenverkehr wird delegiert werden an Maschinen und so weiter. Da können massive Probleme entstehen, wenn man sich klar macht, wie intransparent und unsicher künstliche Intelligenz zum Teil immer noch ist.

Ein großes Problem ist auch die Frage, wer am Ende die Verantwortung trägt, wenn aufgrund von KI Schäden entstehen. Was die Nutzer-Perspektive angeht, wäre mein Ideal für die Zukunft, dass wir es schaffen, auf eine selbstbestimmte, kritische Weise mit KI umzugehen und auch beurteilen zu können, wo sie wirklich hilft und wo nicht.

Vielen Dank für das Gespräch!

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Ihre Nachricht an die Redaktion

Sie haben Fragen, Kritik, Lob oder Anregungen? Dann schreiben Sie gerne eine Nachricht direkt an die PRO-Redaktion.

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen