Technisch wird es immer einfacher, Videos zu manipulieren und dabei zum Beispiel einer Person Worte in den Mund zu legen, die sie nie gesagt hat

Technisch wird es immer einfacher, Videos zu manipulieren und dabei zum Beispiel einer Person Worte in den Mund zu legen, die sie nie gesagt hat

In drei Schritten gegen gefälschte Videos

Gefälschte und manipulierte Videos können eine Gefahr für die demokratische Meinungsbildung sein – vor allem, wenn sie gezielt in Sozialen Medien verbreitet werden. Darauf weist eine von der Konrad-Adenauer-Stiftung veröffentlichte Studie hin. Sie schlägt eine politische Strategie vor, um solchen sogenannten Deep Fakes zu begegnen.

Eine aktuelle Studie der Konrad-Adenauer-Stiftung in Zusammenarbeit mit dem Counter Extremism Project untersucht das Gefahrenpotential von Deep Fakes für Demokratien und Gesellschaften. Bei Deep Fakes handelt es sich um technisch erzeugte Video-Fälschungen, in denen Gesichter und Stimmen beliebiger Personen täuschend echt simuliert werden können.

Mit dieser frei verfügbaren Technologie kommen laut der Studie große Gefahren auf Demokratien und Gesellschaften zu – gerade wenn sie in gezielten Desinformationskampagnen über Soziale Medien eingesetzt wird. Dort könnten gefälschte Videos mit Falschinformationen in kurzer Zeit große Teile der Bevölkerung erreichen. Staaten oder Einzelpersonen könnten damit Wahlen beeinflussen oder Unruhe in der Gesellschaft fördern.

Momentan könnten Fälschungen noch relativ leicht erkannt werden. Wie die Studie mit Beispielen in politischen Kontexten zeigt, hätten Nutzer in den Sozialen Netzwerken manipulierte Videos trotz ihrer geringen technischen Qualität als echt eingestuft und geteilt. So seien Deep Fakes beispielsweise vor den britischen Parlamentswahlen strategisch eingesetzt worden, um die Wahlaussichten prominenter Politiker zu verringern.

Der amerikanische Comedian Jordan Peele (re.) gab sich in einem Video dank geschickter Software als der ehemalige US-Präsident Barack Obama (li.) aus

Diese Gefahr steige weiter, weil sich die technischen Möglichkeiten verbesserten. Dies führe einerseits zu geringeren technischen Anforderungen, um gefälschte Videos zu produzieren, andererseits steige die Qualität und damit die vermeintliche Echtheit. Fälschungen seien immer schwerer zu erkennen. Gerade „klassischen“ politischen Desinformationskampagnen, die beispielsweise mit Falschmeldungen arbeiteten, könnten vermeintlich echte Videos zusätzliche Glaubwürdigkeit verleihen. Die Studie verweist auf die Nachrichtendienstgemeinschaft der Vereinigten Staaten, die schon 2019 Deep Fakes als eine der größten globalen Bedrohungen eingestuft habe.

Strategie für die Politik

Um Gesellschaft und Demokratie vor den schädlichen Auswirkungen von Deep Fakes auf Information und Meinungsbildung zu schützen, schlagen die Autoren eine dreiteilige Strategie vor. Sie umfasst zunächst, die Rechtslage so anzupassen, dass sie klar zwischen legalem und illegalem Gebrauch der Technologie unterscheidet. Ein legaler Kontext sei beispielsweise die Nutzung in Bereichen der Satire, Kunst oder politischer Kritik. Illegale sei die Anwendung dann, wenn es um Betrugsversuche oder die Erstellung von nicht einvernehmlicher Pornographie gehe, bei der die Gesichter von unbeteiligten Personen in Porno-Videos eingefügt werden. Das ist bereits strafbar. Aber auch politische Falschmeldungen und Desinformationskampagnen müssten durch Gesetzesanpassungen strafrechtlich verfolgbar gemacht werden, fordern die Autoren der Studie.

Der technische Teil der Strategie hat zwei Ziele: Zertifikate für authentische Videos und technisch gestützte, zweifelsfreie Identifikation von manipulierten Videos. Die Öffentlichkeit aufzuklären und ihre Kompetenz im Umgang mit Deep Fakes zu steigern, gerade auch in Sozialen Medien, ist die dritte Empfehlung der Studie. Eine politische Debatte über geeignete Abwermaßnahmen sei dringend nötig.

Von: Immanuel Dobrowolski

Sie können sich über Disqus, facebook, Twitter oder Google anmelden um zu kommentieren. Bitte geben Sie einen Namen, unter dem Ihr Kommentar veröffentlicht wird, und eine E-Mail-Adresse ein. Die E-Mail-Adresse wird nicht veröffentlicht. Um Missbrauch zu vermeiden, werden wir Ihren Kommentar erst nach Prüfung auf unserer Seite freischalten. Wir behalten uns vor, nur sachliche und argumentativ wertvolle Kommentare online zu stellen. Bitte achten Sie auch darauf, dass wir Beiträge mit mehr als 1600 Zeichen nicht veröffentlichen. Mit Abgabe des Kommentars erkennen Sie die Nutzungsbedingungen an.

Datenschutz
Die Technik der Kommentarfunktion "DISQUS" wird von einem externen Unternehmen, der Big Head Labs, Inc., San Francisco/USA., zur Verfügung gestellt. Weitere Informationen, insbesondere darüber, ob und wie personenbezogene Daten erhoben und verarbeitet werden, finden Sie in unserer Datenschutzerklärung.

Moderation
Die Moderation der Kommentare liegt allein bei der Christlichen Medieninitiative pro e.V. Allgemein gilt: Kritische Kommentare und Diskussionen sind willkommen, Beschimpfungen / Beleidigungen hingegen werden entfernt. Wie wir moderieren, erklären wir in den Nutzungsbedingungen.

comments powered by Disqus