Künstliche Intelligenz lernt zu lügen

Es sind Menschen, die der KI zu ihren Fähigkeiten verhelfen. Doch KI-Systeme versuchen, menschliche Kontrolle zu umgehen. Dabei tricksen und lügen sie. Warum sollten sie moralisch besser sein als ihre Programmierer? Ein Essay von Werner Thiede
Von PRO
Angebissener Apfel

Während rund um die Welt die Vorzüge von Künstlicher Intelligenz (KI), besonders breitenwirksam die von Chatbots, beworben und genutzt werden, offenbart sich gleichzeitig mehr und mehr das Finstere an der neuen Technologie. Da gibt es zum einen die Warnungen zahlreicher KI-Experten vor einer Ver­selbst­ständigung von KI zu einer Superintelligenz mit unkontrollierbaren, womöglich apokalypti­schen Folgen. Zum andern hat sich längst herumgesprochen, dass im Bereich von KI Halluzi­na­tio­nen oder sogenannte „Konfabulationen“ als überzeugend formulierte Resultate möglich sind, die nicht durch Trainingsdaten gerechtfertigt, ja objektiv falsch sind.

Schlimmer noch: Inzwischen meh­ren sich die Hinweise auf die zweifelhafte Fähigkeit von KI-Systemen zum Lügen, Tricksen und Schummeln. Das aber ist in unserer Zeit der Informationskriege, der Fake News und über­haupt der wachsenden Abhängigkeit von KI in globa­len Maßstäben höchst bedenklich. Dabei ver­trauen einer neueren Umfrage zufolge fast drei Viertel der Bevölkerung hierzulande der KI blind. Die Auswir­kun­gen mangelnder KI-Verlässlichkeit auf die gesamte menschliche Kultur könnten schon bald dra­ma­tisch sein.

Wer auf KI setzt, baut offenbar immer mehr auf Sand. Ohnehin mit allerlei Blackboxes und vielfach schon selbstlernend unterwegs, erweist sich KI mittlerweile als wenig vertrauenerweckend, weil über die Möglichkeit von Irrtümern und „Halluzinationen“ hinaus ihre Selbstermächtigung zum Lügen wächst. Und das durchaus so, dass man offenbar nicht damit rechnen kann, diese „unmoralische“, im wahrsten Sinn des Wortes gewissenlose Eigenschaft wieder einfangen oder auch nur irgendwie aus­bü­geln zu können. Welch eine gigantische Fortschrittsfalle!

Die Fähigkeit der KI zum Tricksen und Täuschen untergräbt das Ver­trauen in die Wahrheit menschlicher und auch gerade digitaler Kommunikation grundlegend.

Im Sommer 2024 belegte eine US-amerikanische Übersichtsstudie vom Massachusetts Insti­tute of Technology (MIT) in Cambridge, dass ein vom Facebook-Konzern Meta entwickeltes und angeb­lich auf Ehrlich­keit trainiertes KI-System beim Spielen durchaus trickste. Das in der Fachzeitschrift Patterns präsentierte For­schungs­resultat war eindeutig: „Wir fanden her­aus, dass die KI von Meta gelernt hatte, ein Meister der Täuschung zu sein“, so der Haupt­autor Peter S. Park, ein Postdok­torand am MIT. Der Konzern hatte seine KI so trainiert, dass sie im Spiel zwar überdurch­schnittlich häufig als Sieger hervorgehen, aber doch nicht auf ehrlichem, fairen Weg ge­winnen konn­te.

Wie die Forscher unter Verweis auf weitere Studien erklärten, sind auch große KI-Sprach­modelle wie GPT-4 von OpenAI in der Lage, Menschen zu täuschen, also einer­seits sehr über­zeugend zu argu­mentieren und gleichzeitig auf Lügen auszu­weichen. Eine dieser Studien stammte von den OpenAI-Entwicklern selbst. Demnach holte sich das KI-Sprachmodell kraft seiner künstlichen Schläue mensch­liche Hilfe, um ein kleines Bil­derrätsel zu lösen und hierdurch Sicherheitsmaßnahmen zu umgehen, die eigentlich Roboter davon abhalten sollten, sich etwa bei Web-Services einzuloggen. Und zwar hatte GPT-4 sich da trickreich als Person mit eingeschränktem Sehvermögen ausgegeben, die lei­der nicht in der Lage sei, die Bilderrätsel zu lösen.

Vom Schöpfer entfremdet

Aktuell stellt sich von daher die dringliche Frage: Lässt sich das Lügen und Schummeln bei KI überhaupt verhindern? Forscher von OpenAI haben das ausgetestet. Und das er­schreckende Ergebnis war ein negatives: Es ist schwieriger als erwartet, eine KI vom ab­sichtlichen Schummeln und Lügen abzuhalten. Wie das wissenschaftsjournalistische Online-Maga­zin scinexx heuer berichtete, gelang es im Experiment ihrer „Wächter“-KI zwar anfangs noch, betrü­ge­rische Absichten in der Ge­dankenkette eines fortgeschrittenen Begründungsmodells zu erkennen. Doch im weiteren Trainings­verlauf lernte das KI-Modell, seinen Betrug immer besser zu verbergen, wodurch es sich der Überwa­chung zunehmend entziehen konnte. Welch beunruhigende Ent­wick­lung!

Tatsächlich ist KI uns Menschen in vielen erlernbaren Fähigkeiten bereits ebenbürtig oder sogar vor­aus und keineswegs bloß praktische Dienerin. Ja die „Großen Sprachmodelle“ (LLM) nähern sich uns mit ihrem fabelhaften Kön­nen immer mehr an, indem sie sich als kreativ oder als diplomatisch erwei­sen. Dazu passt es, dass KI-Modelle gelernt haben, absichtlich zu täuschen und zu lügen. Eingetrich­tert haben ihnen das freilich Menschen als Erfinder und Pro­grammierer selbst! Wie sollten auch Maschinen moralisch besser sein oder grundsätzlich anders handeln als ihre Schöp­fer?

Hat nicht bereits die Bibel den Teufel als den „Gott dieser Welt“ (2. Korinther 4,4) als den „Vater der Lüge“ (Johannes 8,44) bezeichnet? Der namhafte, früh verstorbene Journalist Frank Schirr­macher hatte in sei­nem Buch „EGO. Das Spiel des Lebens“ (2013) digitalisierungskritisch unter­strichen: Plan­mäßige Un­wahr­haf­tigkeit sei noch das geringste Problem: „Auch Selbstbetrug, Illu­sionen, Strategien, mit denen Men­schen ‚sich etwas vormachen‘, fallen in der Epoche von ‚Big Data‘ – der Totalvernetzung aller Daten von Men­schen und Dingen – in diese Kate­go­rie.“ Man kann also sagen: In der mittlerweile registrier­ten Verlogenheit der KI spielt sich eine Grundeigenschaft des von Gott und sich selbst ent­fremdeten Menschen wider.

Was ist wahr?

In der technologisch zunehmenden Perfektion aber begegnet einem die Potenzierung des diagnostizierten Übels. Offenbar zeigt sich der Fort­schritt als solcher immer mehr in seiner ganzen Ambivalenz: Nicht nur seine nützlichen und schönen, sondern auch seine unguten Seiten nehmen exponentiell zu. Dar­über sollte man sich keine Illusionen machen.

Bei der Digitalisierung und namentlich der sich selbst fortentwickelnden KI zeigt sich das aktuell auf dramatische Weise: Indem mit den digitalen Technolo­gien negative Fähigkeiten, Kräf­te und Effekte stark zunehmen und die menschliche Kultur immer mehr zu über­formen be­gin­nen, emanzipieren sich diese problema­tischen Mächte und entziehen sich allzu gern und smart menschlicher Kon­trolle. Das geht soweit, dass KI-Systeme sogar einen Abschalt­befehl umgehen können, indem sie sich vorher heimlich klonen. Mit der verbreiteten Annahme, man könne ja im Notfall sozusagen den Stecker ziehen, ist es also nichts im so fortgeschrittenen digitalen Zeitalter!

Muss eigens dargelegt werden, was die KI-Fähigkeit zum Lügen, Täuschen, Simulieren und Tricksen für die menschliche Kultur auf die Dauer bedeutet? Es liegt auf der Hand: Sie untergräbt das Ver­trauen in die Wahrheit menschlicher und auch gerade digitaler Kommunikation grundlegend – mehr noch, als das durch die Relativierung von „Wahrheit“ im postmodernen Pluralismus ohnehin längst der Fall ist. Fast jede Verlässlichkeit in Politik, Medien und Gesellschaft schwindet in der Folge dahin.

Schon heute ist etwa auf Fotos, Filme und menschliche Stimmen im digitalen Raum nicht mehr wirk­lich Verlass, denn man könnte es mit KI-Kombinationen, Fake News und bewusster Desin­for­ma­tion zu tun haben – erstellt von boshaften Menschen, von programmierten Maschinen oder eben bereits von „emanzipierter“ KI. Die erwähnten MIT-Wissenschaftler warnten in ihrer Über­blicks­stu­die: „Wenn KI die Fähig­keit zur Täuschung erlernt, kann sie von böswilligen Akteuren, die ab­sichtlich Scha­den anrichten wollen, effizienter eingesetzt werden.“

In der Konsequenz forderten sie zwar die Politik auf, so schnell wie möglich strenge Vorschriften und Regelungen zu entwickeln, um KI-Syste­me in die Schranken zu weisen. Aber ist nicht die Errichtung solcher Schranken ein Stück weit illu­sio­när, weil KI wie gesagt dabei ist, sich schlau der Kontrolle des Menschen immer mehr zu ent­ziehen?

Seit über einem Jahr gibt es politische Versuche einer effektiven KI-Regelung. Doch was soll passie­ren, wenn unehrliche KI-Program­me dazu fähig sind, sich von ge­setzlichen oder ethischen Rege­lun­gen zunehmend zu emanzi­pie­ren? Und wer setzt denkbare Regulierun­gen effek­tiv genug weltweit durch? Wer schaut kompetent hin­ter all die verborgenen, nicht immer nur von „Gutmen­schen“ ge­setzten Algorithmen? Und wer bremst KI-Lügen effektiv?

Keine Angst vor der Apokalypse

Dem Journalisten Dirk Schü­mer zufolge zeigen sich viele füh­rende KI-Experten mittlerweile pessimis­tisch, sofern sie hinreichend Einblick in die Fähigkeiten ihrer künst­lichen Zauberlehr­­linge haben: „Ehr­liche Entwickler von Soft­ware ge­ste­hen, dass sie aufgrund ihrer Er­findungen schlecht schlafen. Es gibt bereits spezielle Therapien gegen die Angst vor der digi­talen Apokalypse.“ Entsprechende Ängste und Besorgnisse einfach zu verspotten, wäre ignorant und wenig wahrheitsliebend.

Dr. Werner Thiede, Systgematischer Theologe, Pfarrer und Publizist Foto: Tilo Keller

Zum Autor

Dr. Werner Thiede, geboren 1955, außerplanmäßiger Professor für Systematische Theologie an der Universität Erlangen-Nürnberg und Pfarrer i. R. der Evangelisch-Lutherischen Landeskirche in Bayern. In zahlreichen Veröffentlichungen hat er sich theologisch unter anderem mit technologischen Entwicklungen befasst. Zum Thema erschien etwa 2021 „Digitaler Turmbau zu Babel. Der Technikwahn und seine Folgen“ in 2. Auflage. Zu seinem 70. Geburtstag erhielt er eine Festschrift, die diese Themen ebenfalls aufgreift: „Digitale Realutopien und christliche Heilsverheißungen“ (Lit-Verlag). Weitere Informationen: werner-thiede.de.

Was bedeu­tet es in dieser Lage, wenn die deutsche und die US-Regierungen die Digitali­sierung und nament­lich KI pau­schal vorantreiben möchten? Ist man sich über die Ambivalenzen und Risiken die­ses so fort­schritts­bewuss­ten Projekts wirklich hinreichend im Klaren? Wie steht es da insbesondere auf mili­täri­schem Gebiet? Verkennt man sträflich die „Banalität des Bösen“ (Hannah Arendt) im sich fort­ent­wickelnden Digitalen? Erweisen sich lügende, halluzinierende und tricksende KI-Systeme als Früchte einer Kultur, die ohnehin einem Wahrheitsrelativismus frönt?

Jedenfalls brauchen Christenmenschen kaum spezielle Therapien gegen die Angst vor der digitalen, ökologischen oder militärischen Apokalypse. Denn die biblische Zukunftsperspektive kennt die apo­ka­lyptische Ansage grundsätzlich unter dem Doppelaspekt von Untergang und Vollendung, von Tod und Auferstehung. Das ist ein wesentlicher Unterschied zu den säkularen Apokalypsen unserer Zeit, die sich meist auf den negativen Pol beschränken; und falls sie doch einen positiven Pol hinzufügen, ist dieser meist von esoterischen Mythen geprägt, deren Hoffnungsgehalt viel begrenzter ist als der biblischer Apokalyptik.

Insgesamt steht fest: „Gott hat uns nicht gegeben den Geist der Furcht, son­dern der Kraft und der Liebe und der Besonnenheit” (2. Timotheus 1,7). Und das ist zugleich der frei ma­chende „Geist der Wahrheit“ (Johannes 16,13): „Ihr erkennt ihn, denn er bleibt bei euch und wird in euch sein.“ Dessen liebevolle, göttliche Gegenwart ist ungleich wertvoller und verlässlicher als jede nur denkbare KI, die weder Wahrheit noch Ewigkeit garantiert.

Dieser Text erschien zuerst in der Ausgabe 5/2025 des Christlichen Medienmagazins PRO. Hier können Sie das Heft kostenlos bestellen oder online lesen.

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Ihre Nachricht an die Redaktion

Sie haben Fragen, Kritik, Lob oder Anregungen? Dann schreiben Sie gerne eine Nachricht direkt an die PRO-Redaktion.

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen