In drei Schritten gegen gefälschte Videos

Gefälschte und manipulierte Videos können eine Gefahr für die demokratische Meinungsbildung sein – vor allem, wenn sie gezielt in Sozialen Medien verbreitet werden. Darauf weist eine von der Konrad-Adenauer-Stiftung veröffentlichte Studie hin. Sie schlägt eine politische Strategie vor, um solchen sogenannten Deep Fakes zu begegnen.
Von PRO
Technisch wird es immer einfacher, Videos zu manipulieren und dabei zum Beispiel einer Person Worte in den Mund zu legen, die sie nie gesagt hat

Eine aktuelle Studie der Konrad-Adenauer-Stiftung in Zusammenarbeit mit dem Counter Extremism Project untersucht das Gefahrenpotential von Deep Fakes für Demokratien und Gesellschaften. Bei Deep Fakes handelt es sich um technisch erzeugte Video-Fälschungen, in denen Gesichter und Stimmen beliebiger Personen täuschend echt simuliert werden können.

Mit dieser frei verfügbaren Technologie kommen laut der Studie große Gefahren auf Demokratien und Gesellschaften zu – gerade wenn sie in gezielten Desinformationskampagnen über Soziale Medien eingesetzt wird. Dort könnten gefälschte Videos mit Falschinformationen in kurzer Zeit große Teile der Bevölkerung erreichen. Staaten oder Einzelpersonen könnten damit Wahlen beeinflussen oder Unruhe in der Gesellschaft fördern.

Momentan könnten Fälschungen noch relativ leicht erkannt werden. Wie die Studie mit Beispielen in politischen Kontexten zeigt, hätten Nutzer in den Sozialen Netzwerken manipulierte Videos trotz ihrer geringen technischen Qualität als echt eingestuft und geteilt. So seien Deep Fakes beispielsweise vor den britischen Parlamentswahlen strategisch eingesetzt worden, um die Wahlaussichten prominenter Politiker zu verringern.

Der amerikanische Comedian Jordan Peele (re.) gab sich in einem Video dank geschickter Software als der ehemalige US-Präsident Barack Obama (li.) aus Foto: Youtube / BuzzFeedVideo
Der amerikanische Comedian Jordan Peele (re.) gab sich in einem Video dank geschickter Software als der ehemalige US-Präsident Barack Obama (li.) aus

Diese Gefahr steige weiter, weil sich die technischen Möglichkeiten verbesserten. Dies führe einerseits zu geringeren technischen Anforderungen, um gefälschte Videos zu produzieren, andererseits steige die Qualität und damit die vermeintliche Echtheit. Fälschungen seien immer schwerer zu erkennen. Gerade „klassischen“ politischen Desinformationskampagnen, die beispielsweise mit Falschmeldungen arbeiteten, könnten vermeintlich echte Videos zusätzliche Glaubwürdigkeit verleihen. Die Studie verweist auf die Nachrichtendienstgemeinschaft der Vereinigten Staaten, die schon 2019 Deep Fakes als eine der größten globalen Bedrohungen eingestuft habe.

Strategie für die Politik

Um Gesellschaft und Demokratie vor den schädlichen Auswirkungen von Deep Fakes auf Information und Meinungsbildung zu schützen, schlagen die Autoren eine dreiteilige Strategie vor. Sie umfasst zunächst, die Rechtslage so anzupassen, dass sie klar zwischen legalem und illegalem Gebrauch der Technologie unterscheidet. Ein legaler Kontext sei beispielsweise die Nutzung in Bereichen der Satire, Kunst oder politischer Kritik. Illegale sei die Anwendung dann, wenn es um Betrugsversuche oder die Erstellung von nicht einvernehmlicher Pornographie gehe, bei der die Gesichter von unbeteiligten Personen in Porno-Videos eingefügt werden. Das ist bereits strafbar. Aber auch politische Falschmeldungen und Desinformationskampagnen müssten durch Gesetzesanpassungen strafrechtlich verfolgbar gemacht werden, fordern die Autoren der Studie.

Der technische Teil der Strategie hat zwei Ziele: Zertifikate für authentische Videos und technisch gestützte, zweifelsfreie Identifikation von manipulierten Videos. Die Öffentlichkeit aufzuklären und ihre Kompetenz im Umgang mit Deep Fakes zu steigern, gerade auch in Sozialen Medien, ist die dritte Empfehlung der Studie. Eine politische Debatte über geeignete Abwermaßnahmen sei dringend nötig.

Von: Immanuel Dobrowolski

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Ihre Nachricht an die Redaktion

Sie haben Fragen, Kritik, Lob oder Anregungen? Dann schreiben Sie gerne eine Nachricht direkt an die PRO-Redaktion.

Offline, Inhalt evtl. nicht aktuell

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen