Bewegtbild scheint absolut authentisch zu sein. Aber selbst Videos können heute ohne großen Aufwand manipuliert werden.

Bewegtbild scheint absolut authentisch zu sein. Aber selbst Videos können heute ohne großen Aufwand manipuliert werden.

Traue deinen Augen nicht

Der Mensch sieht, was vor Augen ist, heißt es in der Bibel. Das ist problematisch, denn das Sichtbare kann gefälscht sein: Mit Algorithmen und Apps lassen sich Videos heute leichter denn je manipulieren. Aber mit einer gesunden Skepsis und einem geschärften Blick auf die Quellen einer Information braucht keiner eine „Infokalypse“ zu fürchten.

Das ist eine unangenehme Überraschung, wenn plötzlich im Internet ein Sexvideo kursiert, in dem man selbst zu sehen ist. Aber was, wenn man in der gefilmten Situation auf keinen Fall dabei gewesen sein kann – und trotzdem im Video vorkommt? Dann wird es unheimlich. So ging es unter anderem den Schauspielerinnen Gal Gadot und Taylor Swift. Gefälschte Pornos mit den Gesichtern von Promis, statt denen der tatsächlichen Darsteller, tauchten Ende vergangenen Jahres zuerst auf der Plattform Reddit auf.

Fotos auf diese Weise zu manipulieren, Personen hinein- oder herauszuschneiden oder auf andere Weise zu verändern, ist längst kein Kunststück mehr. Aber auch Videos lassen sich mittlerweile so bearbeiten. Software, um fremde Gesichter in vorhandene Videos zu übertragen, ist im Internet frei verfügbar, auch Anleitungen dazu, wie sie zu bedienen ist. „Deepfakes“ nennen sich solche Videos, die mit Künstlicher Intelligenz aus zahlreichen Bildern – von denen das Internet voll ist – eine digitale Version des Gesichts errechnen, das sämtliche Ausdrücke beherrscht. Das wird dann auf ein Vorlage-Video übertragen. So ist es auch möglich, Angela Merkel das Gesicht Donald Trumps zu geben oder jenem das von Vladimir Putin.

Forscher der Universität Washington stellten im vergangenen Jahr einen Algorithmus vor, mit dem sie den früheren US-Präsidenten Barack Obama in einem Video sogar beliebige Dinge sagen lassen konnten. Anhand einer Reihe von Videos seiner wöchentlichen Ansprachen lernte die Software, bei welchem sprachlichen Laut sich Obamas Lippen, Mund und Kinn wie bewegen. Aus diesen Informationen bauten die Forscher die Mundpartie digital nach, sodass diese sich auch zu anderen Worten auf die richtige Weise bewegte. Diesen digitalen Gesichtsausschnitt legten die Wissenschaftler auf das Gesicht Obamas in einem anderen Video.

So ließen sie Obama im Weißen Haus Dinge sagen, die eigentlich aus einem Interview stammen, das er als Student gegeben hatte. Oder Sätze, die jemand anderes sagte, kamen im Video plötzlich über Obamas Lippen – gesteuert von Algorithmen. Wissenschaftler der Universität München haben eine Technik entwickelt, mit der sich die Gesichtsausdrücke einer Person im Video manipulieren und steuern lassen. Gewissermaßen wird das Gesicht im Video mit einer digitalen Maske überlagert. Die gibt das Lächeln, Zwinkern, Gähnen, Naserümpfen einer anderen Person wieder. In einem Video, das den früheren US-Präsidenten George W. Bush zeigt, bewegt der das Gesicht genau so, wie ein Mitarbeiter des Forscherteams es mit seinem Gesicht vormacht.

Menschen glauben, was sie sehen

Bislang galten Videos als eine zuverlässige Quelle, weil sie Personen beim Handeln und Sprechen zeigen, sodass der Zuschauer den Eindruck bekommt, Augenzeuge davon zu werden. Aber angesichts der technischen Möglichkeiten ist nun auch hier eine gesunde Skepsis geboten. Computer können Fälschungen leicht entlarven. Aber für den Zuschauer sind solche Manipulationen kaum zu erkennen. Der Digital-Experte Aviv Ovadya warnt deshalb vor einer „Infokalypse“.

Er ist sicher, dass Menschen glauben, was sie sehen, sofern es in ihr Weltbild passt. „Ich glaube nicht, dass sich die Wahrheit durchsetzt, zumindest nicht im momentanen System. Momentan haben wir es mit vielen Akteuren zu tun, für die der Faktor Wahrheit keinerlei Bedeutung zum Erreichen ihrer Ziele hat“, sagte der frühere Google-Berater im Interview der Nachrichtenplattform jetzt.de von der Süddeutschen Zeitung. Für ihn ist der Kampf um Informationen und Deutungshoheiten eine Schlacht, die „auf einem Spielfeld stattfindet, auf dem die Anti-Wahrheits-Fraktion einen systematischen Vorteil hat“.

Gefälschte Videos könnten internationale Krisen auslösen, wenn irgendjemand ein Video veröffentlicht, in dem er etwa dem US-Präsidenten eine Kriegsdrohung in den Mund legt. Oder der Bundeskanzlerin eine Beleidigung gegen den chinesischen Präsidenten. „Es ist heute bereits möglich, so etwas künstlich herzustellen, bald kann das absolut jeder. Woher soll der Bürger, die Öffentlichkeit, dann noch wissen, was wahr ist?“

Ovadya, der jetzt als Cheftechnologe für das Social Media Responsibility Center an der Universität Michigan tätig ist, fürchtet zwei Folgen: Sogenannte Echokammern, in denen sich Menschen mit festgefügten Weltbildern gegenseitig bestätigen, werden zu in sich abgeschlossenen Öffentlichkeiten, „die ganz und gar in ihrer eigenen, zurechtmanipulierten Wahrheit leben“. Die andere Gefahr sei, dass Menschen gar nichts mehr glauben.

Aber er ist sicher: Man kann viel dagegen tun. Deshalb appelliert er an Unternehmen, Entwickler und Politiker, solche Technologien verantwortungsvoll anzuwenden. Der Münchener Informatiker Matthias Nießner sieht das Ganze etwas entspannter als sein amerikanischer Kollege und warnt im Nachrichtenmagazin Der Spiegel vor Panikmache. Er arbeitet derzeit an einem Plugin für Internetbrowser, das automatisch erkennt, ob ein Video echt oder gefälscht ist. Den Medien empfiehlt er, die Echtheit ihrer Online-­Beiträge mit fälschungssicheren digitalen Wasserzeichen zu bestätigen.

Auch die Nutzer sind verantwortlich

Nicht nur Fotos und Videos, auch ganze Webseiten lassen sich mit einer einfachen, kostenlosen App fälschen: Man braucht nur die Adresse einer Webseite, etwa der eines Nachrichtenportals, in die App einzugeben. Die erstellt ein Duplikat der Seite und der Nutzer kann dann nach Lust und Laune neue Texte und Bilder dort einfügen und austauschen. Die Adresse der neuen Seite ist dem Original so ähnlich, dass der Betrug beim flüchtigen Lesen nicht auffällt. So lassen sich Falschinformationen einer vermeintlich zuverlässigen Quelle zuschreiben. Webseiten mit einem Sicherheitszertifikat sind allerdings davor geschützt.

Kommt angesichts der neuen Techniken und der allgemeinen Lust an Fake News die große Verunsicherung? Das kann passieren. Aber nicht zuletzt ist jeder Internetnutzer selbst gefragt, verantwortungsvoll mit Techniken und Informationen umzugehen. Nur weil es kos­tenlose Fälschungs-Apps gibt, muss man sie nicht auch nutzen und andere damit hereinlegen. Wer bei der Wahrheit bleibt, der schafft Vertrauen. Und wem eine Information im Internet fragwürdig vorkommt, hat verschiedene Möglichkeiten, nachzurecherchieren und ihre Herkunft zu überprüfen. Wenn es nicht mindes­tens eine weitere unabhängige Quelle dafür gibt, darf sie getrost angezweifelt werden.

Von: Jonathan Steinert

Sie können sich über Disqus, facebook, Twitter oder Google+ anmelden um zu kommentieren. Bitte geben Sie einen Namen, unter dem Ihr Kommentar veröffentlicht wird, und eine E-Mail-Adresse ein. Die E-Mail-Adresse wird nicht veröffentlicht. Um Missbrauch zu vermeiden, werden wir Ihren Kommentar erst nach Prüfung auf unserer Seite freischalten. Wir behalten uns vor, nur sachliche und argumentativ wertvolle Kommentare online zu stellen. Bitte achten Sie auch darauf, dass wir Beiträge mit mehr als 1600 Zeichen nicht veröffentlichen. Mit Abgabe des Kommentars erkennen Sie die Nutzungsbedingungen an.

Datenschutz
Die Technik der Kommentarfunktion "DISQUS" wird von einem externen Unternehmen, der Big Head Labs, Inc., San Francisco/USA., zur Verfügung gestellt. Weitere Informationen, insbesondere darüber, ob und wie personenbezogene Daten erhoben und verarbeitet werden, finden Sie in unserer Datenschutzerklärung.

Moderation
Die Moderation der Kommentare liegt allein beim Christlichen Medienverbund KEP e.V. Allgemein gilt: Kritische Kommentare und Diskussionen sind willkommen, Beschimpfungen / Beleidigungen hingegen werden entfernt. Wie wir moderieren, erklären wir in den Nutzungsbedingungen.

comments powered by Disqus

Anzeige

Anzeige