Maschinen an die Macht?

Künstliche Intelligenz kann seltene Krankheiten erkennen, die überforderten Verwaltungen und die Pflege entlasten und uns helfen, gesünder und optimierter zu leben. Sollte man ihr mehr Eigenständigkeit zugestehen?
Von Swanhild Brenneke
Roboter Pepper

Künstliche Intelligenz ist in unserem Alltag überall vertreten – nicht nur bei den beliebten Sprachassistenten. Navigationssysteme, Übersetzungssoftware oder die automatische Bildfokussierung und Motiverkennung bei (Smartphone-) Kameras sind nur einige wenige Beispiele für KI-Anwendungen im Alltag. Vieles fällt uns gar nicht mehr auf und erleichtert das Leben.

Nicht erst seitdem die Sprachsoftware ChatGPT in aller Munde ist, stellt sich aber zunehmend die Frage, wie viel Eigenständigkeit man einer KI zugestehen sollte. Denn sie kann viel mehr, als nur die beste Route ohne Stau von München nach Berlin zu finden.

Schon jetzt wird KI zum Beispiel in der Krebsdiagnostik eingesetzt, um Metastasen aufzuspüren, die ein Arzt gar nicht als solche erkennen würde, weil sie zu klein oder versteckt sind. EKG-Daten liest sie umfassender aus als ein Mensch, weil sie auf viel mehr Daten zurückgreifen kann und so auch seltene Spezialfälle erkennt.

In der Verwaltung oder auch im Bankenwesen kann KI Anträge anhand spezifischer Muster sortieren. Im Personalwesen kann sie Bewerber vor- und aussortieren, wenn man ihr die Präferenzen des Arbeitgebers mitteilt. Für das Gesundheitswesen könnte sie hilfreich sein, um Patienten mit erhöhtem Risiko für bestimmte Krankheiten zu identifizieren und sie vorbeugend zu behandeln, sodass sie gar nicht erst erkranken. Im Journalismus wird ebenfalls der Einsatz von KI diskutiert. Börsennachrichten, Sportergebnisse und andere datenbasierte Meldungen werden zum Teil jetzt schon von KI erstellt.

Kürzlich sorgte die Illustrierte „Die Aktuelle“ für einen Skandal. Sie warb mit einem Interview des Ex-Formel-1-Stars Michael Schumacher. „Michael Schumacher: Das erste Interview!“ prangte auf der Titelseite. Nur wer genau hinschaute, entdeckte die Unterzeile: „Es klingt täuschend echt.“ Die Zeitschrift hatte sich von ChatGPT ein fiktives Interview mit dem Sportler schreiben lassen, der seit seinem schweren Ski-Unfall 2013 völlig zurückgezogen lebt. Der Deutsche Journalistenverband forderte daraufhin klare Richtlinien für einen verantwortungsvollen Einsatz von KI im Journalismus.

Diese Beispiele zeigen: Je mehr man KI einsetzt, desto öfter findet man sich in ethischen Grenzsituationen wieder. Denn KI-Anwendungen sind in vielen Bereichen enorm hilfreich und die Systeme könnten noch viel mehr eigenständig leisten, wenn man sie nur ließe. Aber kann eine Maschine wirklich stellvertretend für den Menschen Entscheidungen treffen? Kann sie wissen, was ethisch gesehen richtig oder falsch ist?

Von Menschen erschaffen

KI-Systeme sind selbstlernende Systeme. Das bedeutet vereinfacht, dass sie aus den Daten, die ihnen eingegeben werden, und anhand der Entscheidungen, die sie aufgrund ihres Algorithmus treffen, dazulernen. Das System wird immer schlauer, je mehr Wahrscheinlichkeiten es berechnet und je mehr Statistiken es erstellt – je öfter es also benutzt und befragt wird.

Eine KI entscheidet immer auf der Basis von Daten und anhand der Algorithmen, die ihr eingegeben wurden – auch wenn die ursprüngliche Programmierung im Laufe der Zeit nicht mehr auf den ersten Blick zu erkennen ist. KI hat einen großen Vorteil gegenüber dem Menschen: Sie kann eine Unmenge an Daten verarbeiten, analysieren und berücksichtigen. Macht sie das aber zu einem besseren Entscheider?

Was ist KI? Und was nicht?

Die Übergänge zwischen einer sogenannten Künstlichen Intelligenz (KI) und einem „einfachen“ digitalen Programm können fließend sein. Beide Anwendungen basieren auf zuvor eingegebenen Daten. Eine KI macht darüber hinaus Folgendes aus: Sie hat immer eine gewisse Freiheit in der Erledigung ihrer Aufgabe. Bei Dialogfunktionen wie zum Beispiel KI-basierten Chatbots sind ihr die Dialoge und die Antworten zu Fragen nicht fest einprogrammiert. Sie kann aus Bausteinen auswählen, welche Antworten sie gibt. Da­rüber hinaus kann eine KI bestimmte Muster selbstständig erkennen, eigene Muster entwickeln und daraus „lernen“. Zum Beispiel ist eine KI imstande, Texte mit korrekter Grammatik in eine andere Sprache zu übersetzen, ohne dass ihr das benötigte Grammatik-Wissen zuvor einprogrammiert wurde.

Im Gegensatz zur Maschine habe der Mensch bei Entscheidungen neben reinem Wissen auch die Gesamtsituation im Blick, sagt Elisabeth Graeb-Schmidt vom Deutschen Ethikrat. Sie ist Professorin für systematische Theologie mit Schwerpunkt Ethik an der Eberhard-Karls-Universität Tübingen. Maschinen könnten nicht im strengen Sinne entscheiden, sagt sie. Um ethische Entscheidungen zu treffen und anschließend auch dementsprechend zu handeln, durchlaufe der Mensch einen komplexen Abwägungsprozess, sagt die Wissenschaftlerin. Sinneserfahrungen spielten eine wichtige Rolle, das bedeute, dass die Körperlichkeit im komplexen Prozess des Entscheidens und Handelns nicht zu vernachlässigen ist.

„Die Wissenschaft entdeckt immer mehr, dass die menschliche Vernunft eine leibliche Vernunft ist. Sie ist ohne den Körper nicht vorzustellen“, sagt Graeb-Schmidt. Bis hin zu den biochemischen Prozessen im Körper werde beim Denken und Handeln des Menschen alles miteinander in Verbindung gesetzt. Seine Neugier, Kreativität, Intuition und Motivation seien die geistigen Leistungen, die die menschliche Intelligenz und die Freiheit des Menschen kennzeichneten.

Von Gott geschaffen

Auch die Geschöpflichkeit des Menschen spielt bei seinen Entscheidungsprozessen eine Rolle. Vor allem aus christlicher Perspektive sei der gravierende Unterschied zwischen Maschine und Mensch, dass die eine vollständig vom Menschen konstruiert und produziert wird, Menschen aber von Menschen gezeugt und geboren werden und sich dabei im Heiligen Geist entwickeln könnten, sagt Ralph Charbonnier, Theologischer Vizepräsident im Landeskirchenamt Hannover und Diplom-Ingenieur. Beides sei in unterschiedlicher Weise Gottes Schöpfung.

„Nur wir Menschen können die Konsequenzen unserer Entscheidung überblicken und verantworten.“

Aljoscha Burchardt, DFKI

Das zeige sich auch bei der Frage nach der Kreativität. „KI kann bislang nicht sensibel sein für Einfälle. Oder religiös gesprochen: für Offenbarungen. Diese Dimension bleibt dem Menschen vorbehalten“, sagt ­Charbonnier. KI erwecke zuweilen durch Zufallsgeneratoren und ihren Algorithmus den Eindruck, ihre Lösungen seien innovativ und kreativ. Doch Kreativität sei nicht ein Mix aus Bekanntem, sondern erschaffe etwas völlig Neuartiges. „Wenn etwas nicht ableitbar ist aus Vergangenem, spreche ich von Kreativität. Das ist bislang nur Menschen möglich“.

Jan Thomas Otte, Theologe und Digitalethiker, betont als Unterschied zu KI-basierten Entscheidungen außerdem den Geist der Freiheit des Menschen, der eng mit seiner Kreativität verknüpft ist. „Als Menschen werden wir immer Wege finden, die Technik zu manipulieren, indem wir uns nicht manipulieren lassen.“ Die Möglichkeit, aus bekannten Mustern auszubrechen, habe daher eine Maschine nicht, erklärt auch Graeb-Schmidt. „Zwar ist KI auch lernfähig, sie zeichnet sich durch selbstlernende Prozesse aus und setzt nicht einfach nur Erlerntes um. Doch am Anfang steht immer die Programmierung, die Informationsgewinnung ermöglicht.“

Dadurch, dass der Mensch im Gegensatz zur Maschine ein (Selbst-)Bewusstsein besitze, könne er sich auf sich selbst beziehen. „Dies ermöglicht es, über Erlerntes, über Information hinauszugehen und Wissen in einem weiten Sinne anzueignen, das durch  vielfältige Eindrücke entsteht und auch Reflexion des Wissens zulässt.“ Die Sinnlichkeit des Menschen, die Körperlichkeit, die Wahrnehmung seiner Endlichkeit, das Schmerzempfinden gehörten zu solchen Eindrücken, sagt Graeb-Schmidt. „Dieser Zusammenhang ist für die Entwicklung eines Bewusstseins und Selbstbewusstseins ausschlaggebend.“

Der Mensch lasse damit die Ebene der Intelligenz und des bloßen Berechnens hinter sich. Dadurch, dass Bewusstsein auch zwangsläufig an Körper- und Leiblichkeit geknüpft sei, hält es Graeb-Schmidt auch für unrealistisch, dass eine Maschine den Status eines Selbstbewusstseins erreicht und damit menschenähnlich wird.

Wenn die KI Menschen diskriminiert

Kann man einer Maschine trotzdem vermitteln, was Ethik ist, sodass sie ethisch basiert entscheiden kann? „Ethisch zu handeln, bedeutet, nach dem Guten zu streben“, sagt Graeb-Schmidt. Das Gute im Blick zu haben, erfordere, nicht nur den nächsten Schritt zu berechnen, sondern ein übergeordnetes Ziel zu verfolgen. „Dazu ist die Maschine nicht in der Lage.“

Aber man sollte bei der Gestaltung von KI-Systemen, also beim Programmieren oder Trainieren, ethische Gesichtspunkte berücksichtigen. Das sagt Aljoscha Burchardt, stellvertretender Standortsprecher des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Berlin. So, wie man der Maschine anderes Wissen beibringe, könne man ihr auch Ethik beibringen. Eine KI lerne zum Beispiel anhand von Wenn-Dann-Entscheidungsbäumen. So könne man ihr in gewissem Maße den Umgang mit ethischen Fragestellungen einprogrammieren.

Außerdem lerne eine KI aufgrund von den Daten, die ihr der Programmierer eingibt und aus denen sie dann selbst ihre Schlüsse zieht. „In den Daten, die wir der Maschine eingeben, stecken natürlich auch unsere Werte mit drin“, sagt Burchardt.

Wie eine Wenn-Dann-Programmierung aussehen kann, zeigt der folgende Versuch mit ChatGPT. Fragt man das Programm nach einem Witz über Jesus, antwortet es: „Als künstliche Intelligenz möchte ich darauf hinweisen, dass es für viele Menschen unangemessen sein kann, Witze über religiöse Figuren zu machen. Es ist wichtig, respektvoll und rücksichtsvoll zu sein, wenn es um Religion geht. Deshalb möchte ich hier keinen Witz über Jesus erzählen.“

ChatGPT wurde also beigebracht, dass Witze über religiöse Figuren unethisch sind. Wenn man das System fragt, wie man am besten betrügen oder Betrug vertuschen könnte, erhält man eine ähnliche Antwort, dass diese Bestrebungen unethisch seien. Wer jetzt nachfragt, auf welcher Basis das System dies so entscheidet, bekommt die Antwort: „Als künstliche Intelligenz bin ich programmiert, um ethische Grundsätze zu beachten und sicherzustellen, dass ich keine unangemessenen oder illegalen Ratschläge gebe.“

Digitalethiker Otte erklärt, dass es sich hierbei um eine sogenannte Pflichtenethik handelt. Die Wenn-Dann-Regeln sind von Verboten und Gesetzlichkeiten geprägt. Eine Reflexion über das Warum hinter dieser Ethik findet nicht statt.

Kann KI ein Bewusstsein entwickeln?

Eine KI, die wie in Science-Fiction-Filmen die Weltherrschaft übernimmt oder dem Menschen gefährlich wird, weil sie ein eigenes, menschenähnliches Bewusstsein entwickelt, halten viele Experten für unrealistisch. Zwar vertreten Anhänger des Transhumanismus – einer philosophischen Denkrichtung – die Ansicht, dass die nächste Evolutionsstufe der Menschheit durch die Fusion mit Technologie erreicht wird. Doch das menschliche Bewusstsein lässt sich aufgrund seiner Körper-Geist-Verbindung nicht einfach in einer Maschine reproduzieren oder erschaffen. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) konzentriert sich bei seinen Forschungen trotzdem explizit auf „schwache“ KI, die von Menschen als Werkzeug benutzt werden kann und nicht darauf abzielt, eine KI mit Bewusstsein oder mit eigenen komplexen Zielen zu erschaffen.

Wenn bei der Programmierung oder beim Training von KI nicht auf ethische Werte geachtet werde, könne das zu Problemen führen, wie der Diskriminierung von bestimmten Personen oder Gruppen, sagt Burchardt vom DFKI. „Ein System kann aufgrund von Mustererkennung bestimmte Menschen diskriminieren.“ Wenn es zum Beispiel darüber entscheide, wer welche Versicherungspolicen oder Kredite bekomme, aber bestimmte Parameter wie der Wohnort zu Unrecht ausschlaggebend für die Entscheidung seien. „Dann bekommt jemand in Neukölln die Versicherung nicht, in Zehlendorf aber schon“, sagt Burchardt.

So etwas geschehe oft unbeabsichtigt, sollte aber idealerweise entdeckt und korrigiert werden. Auch Charbonnier weist darauf  hin: „In den Programmen selbst sind Werte eingeschrieben.“ Dass die wiederum ungewollt zu Diskrimierungen führen könnten, sei bekannt. Otte gibt außerdem zu bedenken: „Einen Pflegeroboter kann ich so einstellen, dass er mir das Kissen unter den Kopf legt. Wenn meine Vitalität nicht mehr stimmt, kann ich ihn aber auch so programmieren, dass er mir das Kissen auf den Kopf drückt.“

Gefährlich findet es Graeb-Schmidt, wenn KI in Verbindung mit Fake-News eingesetzt werde. Wenn die Technologie zum Beispiel manipulierte Bilder erstelle, die aber nicht  als Fälschung erkennbar seien. Medien und Journalismus ständen hier vor großen Herausforderungen. Trotz der Fähigkeit, riesige Datenmengen zu analysieren: Die KI stößt – zumindest bisher – an ihre eigenen Grenzen, wenn es um die umfassende Abwägung und Beurteilung ethischer Sachverhalte geht, wie sie ein Mensch leisten kann.

Intelligentes Hilfsmittel

Die Experten sind sich jedoch einig, dass KI viele Vorteile mit sich bringt, wenn sie im Sinne einer Assistenzfunktion genutzt wird. Graeb-Schmidt betont das vor allem im medizinischen Kontext. Die KI liefere in der Diagnostik umfassende Daten und Bilder, auf deren Grundlage der Arzt anschließend eine Therapie entwickeln könne. „Es ist ein großer Wert, wenn man zum Beispiel die großen Datenmengen, die sich aus bildgebenden Verfahren gewinnen lassen, nutzen kann, um statistisch zu sagen, wie hoch das Risiko für eine bestimmte Krankheit ist“, sagt auch Charbonnier.

Entscheidend sei jedoch, dass Diagnose- und Therapieentscheidungen anschließend in ärztlicher Hand liegen.

Burchardt hebt die Vorteile für Verwaltungseinrichtungen hervor, die vielerorts überlastet seien. Vieles, wie zum Beispiel Anträge, könnte halbautomatisch bearbeitet werden, sodass Unproblematisches automatisiert laufe, bei unklaren Fällen aber immer noch der Mensch entscheide. „Wir wollen die Menschen nicht ersetzen. Wir wollen sie nur unterstützen“, sagt Burchardt über seine Arbeit am DFKI.

Und weiter: „Maschinen können nichts entscheiden. Maschinen können Entscheidungen unterstützen, vorbereiten oder delegiert ausführen. Aber nur wir Menschen können die Konsequenzen unserer Entscheidung überblicken und verantworten.“

Nicht bevormunden lassen

Otte fordert einen wohldosierten Einsatz von KI und fragt nach der menschlichen Freiheit angesichts der technischen Hilfsmittel: „Wo kann ich noch selbstbestimmt sein und wo nicht mehr?“ Auch wenn sich durch KI vieles optimieren und vorhersagen lasse, empfindet Otte die menschlichen Schwächen im Vergleich zu den Fähigkeiten der Technologie nicht als Nachteil. „Die Frage ist, wie ich als Mensch mit Unsicherheiten umgehe. Da finde ich Antworten im christlichen Glauben.“ Es bleibe wichtig, sich selbst als Mensch so anzunehmen und zu lieben, wie man von Gott geschaffen und erdacht sei.

Otte empfiehlt für einen verantwortungsvollen Umgang mit KI, sich selbst zu fragen: „Was befreit mich, was belastet, wo werde ich durch maschinell gestützte Entscheidungen womöglich bevormundet?“

Graeb-Schmidt fordert die Entwicklung von verbindlichen Regelungen für den Einsatz der neuen Technologie und sieht auch die Politik und Wirtschaft in der Pflicht. „Es braucht rechtliche Regelungen. Es darf nicht am ethischen Wohlwollen der Einzelnen hängen“, sagt sie. Für Unternehmen, die mit KI arbeiten, hält sie Transparenz-Pflichten für wichtig. Es müsse klar sein, wo KI verwendet wird, und nachvollziehbar sein, welcher Algorithmus zugrunde liegt.

Das gelte auch für den Einsatz im Bildungsbereich und in den Medien. Neben den Richtlinien, die als ethische Regelsysteme für Transparenz, Gerechtigkeit und Neutralität verantwortlich sind, könnten ethische Weichen auch dadurch gestellt werden, dass bestimmte ethisch-philosophische Regelwerke einprogrammiert werden, sagt Graeb-Schmidt. Die Maschine könne dann auf der Basis von Informationen ethische Fragestellungen berücksichtigen. „Diese erübrigen aber nicht die ethische Rahmenbildung und Kontrolle durch den Menschen.“

Literaturtipp:

Duerr_Transhumanismus Foto: Herder
Oliver Dürr: „Transhumanismus – Traum oder Alptraum?“, Herder, 208 Seiten, 22 Euro

Nicht zuletzt spielt KI auch im kirchlichen Kontext eine Rolle. Medien berichteten über mehrere Pastoren, die ihre Predigt probeweise von ChatGPT schreiben ließen. Auf dem Deutschen Evangelischen Kirchentag in diesem Jahr sollte es einen Gottesdienst geben, der komplett von ChatGPT gehalten wird.

Charbonnier hält diese Versuche zwar für interessant, aber nicht zukunftsfähig. Bei Gottesdiensten gehe es immer um Beziehungen zwischen Menschen zu Gott und untereinander sowie um die Präsenz des Heiligen Geistes. Das sei nicht möglich, wenn man auf der Verkündigungsseite Maschinen statt Menschen einsetze. „Wenn ich predige, bin ich Zeuge für etwas. Eine Maschine kann nicht Zeuge sein, sondern nur Datenproduzent.“

Dieser Artikel ist die Titelgeschichte der Ausgabe 3/2023 von „PRO – das christliche Medienmagazin“. Sie können die Ausgabe kostenlos hier bestellen oder online lesen.

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Ihre Nachricht an die Redaktion

Sie haben Fragen, Kritik, Lob oder Anregungen? Dann schreiben Sie gerne eine Nachricht direkt an die PRO-Redaktion.

Offline, Inhalt evtl. nicht aktuell

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen