Digitale Assistenten sind weit verbreitet, um sich mittels Künstlicher Intelligenz (KI) über das Weltgeschehen zu informieren. Doch fast jede zweite Antwort, die diese Systeme liefern, ist inhaltlich mit Fehlern behaftet. Das zeigt die internationale Studie „News Integrity in AI Assistants“ der Europäischen Rundfunkunion (EBU), die am Mittwoch veröffentlicht wurde.
Laut der Studie wiesen 45 Prozent der untersuchten KI-Antworten mindestens einen gravierenden Fehler auf. In 31 Prozent der Fälle waren die Quellenangaben problematisch. Zudem enthielten 20 Prozent der Antworten veraltete oder von der KI erfundene Informationen. Die Studie kommt zu dem Schluss: „KI-Assistenten bieten noch immer keinen zuverlässigen Zugang zu Nachrichten.“
An der Untersuchung unter Federführung der BBC beteiligten sich 22 öffentlich-rechtliche Medienhäuser aus 18 Ländern, darunter ARD, ZDF, France Télévisions, CBC/Radio-Canada und PBS. Dabei wurden mehr als 3.000 Antworten der KI-Systeme ChatGPT, Copilot, Gemini und Perplexity von Journalisten auf ihre journalistische Qualität hin überprüft. Zu den Prüf-Kriterien gehörten laut Angaben einer Pressemitteilung vom Mittwoch die Genauigkeit der Information, die Angabe von Quellen sowie die Unterscheidung zwischen Meinung und Fakten und auch, ob die angebotene Information in einem Bezugsrahmen eingebettet wurde.
Mit Blick auf die einzelnen Assistenten verzeichnete laut Studie Gemini mit 76 Prozent den höchsten Anteil an erheblichen Fehlern – etwa doppelt so viel wie Copilot (37 Prozent), ChatGPT (36 Prozent) und Perplexity (30 Prozent).