KI-Modelle zur Herstellung von Bildern und Videos werden immer besser. Immer mehr Menschen nutzen die Modelle für ihre Hobbys, die Schule oder den Beruf. Doch durch die Technik entstehen nicht nur harmlose Produkte, sondern auch künstliche Abbildungen von sexuellem Kindesmissbrauch. Sie wirken inzwischen so realistisch, dass sie selbst von Ermittlern kaum noch von echten Bildern unterschieden werden können.
Diesem Thema geht die Doku „Gefährliche Intelligenz – Kindesmissbrauch mit KI“ des Bayerischen Rundfunks nach, die seit dem 1. Dezember in der ARD-Mediathek steht. Die Doku stellt Fragen wie: Warum ist es so einfach, pornografische Abbildungen mit KI herzustellen? Was unternehmen Sicherheitsbehörden und nichtstaatliche Anlaufstellen? Und welche Auswirkungen haben diese Bilder im echten Leben?
Die „Internet Watch Foundation“ (IWF) ist eine europäische Meldestelle für kinderpornografische Inhalte, die Bilder und Videos prüft und versucht, diese dauerhaft aus dem Internet zu löschen. Ihre Beobachter werden in der Doku zitiert, neben Forschenden aus Darmstadt, einem Kriminalbeamten für Cyberkriminalität und einem Generalstaatsanwalt.
Seit 2023 sehen Analysten der IWF KI-generierte Missbrauchsabbildungen. Innerhalb von zwei Jahren haben sich diese nicht nur stark verbessert, auch ihre Anzahl hat sich vervielfacht.
Dan Sexton, technischer Leiter der IWF, erklärt, heute könne jeder unbegrenzt Missbrauchsdarstellungen herstellen. Dafür brauche es nur Zeit und etwas technisches Grundwissen. In den Foren für KI-generierte Kinderpornografie gehe es weniger um das Teilen von Bildern und Videos, sondern um „Erfahrungswerte und präzise Anleitungen“ für die Herstellung.
Viele Opfer sind ahnungslos
Die Bedeutung von Aufnahmen echten Missbrauchs sei dabei eher höher als vorher: „Die Story hinter dem Bild ist eben auch ein Triggerpunkt für manche Konsumenten“, meint Markus Hartmann, leitender Oberstaatsanwalt. KI-generierte Bilder ermöglichten seinem Eindruck nach „einen einfacheren Einstieg“ in die Szene.
Für die Generierung von Abbildungen nutzen Täter echte Aufnahmen. Oft harmlose Alltagsaufnahmen, die die KI verändert und sexualisiert. Dabei suchten die Täter meist nach Aufnahmen eines bestimmten Kindes, das ihnen gefiele, sagt Thomas Goger von der Zentralstelle Cyberkriminalität Bayern. Viele der Opfer wüssten nicht, wofür ihre Bilder verwendet würden, ergänzt die Moderatorin.
Aktuell ist die Herstellung solchen Materials erlaubt, wenn man dieses nicht an andere weitergibt. Das trage dazu bei, „sexualisierte Gewalt an Kindern zu normalisieren und es senkt die Hemmschwelle“. Kerry Smith, Geschäftsführerin der IWF, fordert deshalb ein generelles Verbot von KI-generierter Kinderpornografie.
Die Doku bietet einen guten, informativen Überblick über diese neue Dimension von Missbrauchsdarstellungen im Netz. Auch zeigt sie mögliche Lösungswege auf und vermittelt so, dass wir dem neuen Phänomen nicht hilflos gegenüberstehen. Jeder Bürger könne den Betroffenen helfen, indem er Fälle von Kinderpornografie melde.
Dabei ist die Doku sehr sachlich und mehr an technischen Fragen interessiert, ohne dabei die Opferperspektive zu vergessen. Das macht sie auch für sensiblere Menschen erträglich. Sehenswert ist die Doku für alle, die sich über digitale Gefahren und Handlungsmöglichkeiten dagegen informieren wollen.
Gefährliche KI: Neue Dimension des Kindesmissbrauchs, 44 Minuten, ARD Mediathek.
Wenn Sie von sexualisierter Gewalt betroffen sind oder waren oder bei einer anderen Person den Verdacht haben, dass diese sexuellen Missbrauch erleidet, können Sie sich anonym an folgendes Hilfe-Telefon wenden (Hilfe-Telefon Sexueller Missbrauch): 0800 22 55 530