Was die Nutzer auf Facebook zu sehen bekommen, wählen Algorithmen danach aus, was möglichst viele Reaktionen hervorrufen kann

Was die Nutzer auf Facebook zu sehen bekommen, wählen Algorithmen danach aus, was möglichst viele Reaktionen hervorrufen kann

„Facebook tötet die Demokratie“

Tristan Harris und Roger McNamee waren Teil der digitalen Industrie des Silicon Valleys und sind ausgestiegen. In einem Interview der Süddeutschen Zeitung warnen sie vor den Auswirkungen von Algorithmen, die Nachrichten-Feeds in Sozialen Netzwerken bestimmen. Sie fürchten um die Demokratie.

Nachrichten-Feeds in Sozialen Netzwerken werden durch Algorithmen erstellt. Inhalte, die die stärksten Reaktionen hervorrufen, werden dadurch häufiger angezeigt. Das erklären Tristan Harris und Roger McNamee, zwei Aussteiger aus der digitalen Industrie, in einem Interview der Süddeutschen Zeitung, und warnen vor dieser Verstärkung bestimmter Nachrichten und Emotionen. Facebook kombiniere Sucht, Wut und Hass, um die Aufmerksamkeit der Nutzer zu binden, und gefährde damit die Demokratie.

Hass, Desinformation und Verschwörungstheorien seien laut McNamee die Inhalte, die Facebooks Algorithmus vorrangig auswähle. Videos von Verschwörungstheoretikern würden öfter empfohlen als alle seriösen Nachrichtenseiten zusammen, bemerkte Harris. Dies führe dazu, dass viele Amerikaner glaubten, der Klimawandel werde durch „Chemtrails“, im Auftrag der Regierung verbreitete Chemikalien aus Flugzeugen, verursacht. Auch die Haltung von Impfgegnern oder eine verzerrte Wahrnehmung von Politik führt Harris auf die Macht der Algorithmen zurück. „Dieses System hat uns radikalisiert. Ich versuche, den Menschen zu zeigen, dass das ein künstlicher Prozess über Jahre war, damit sie aus der Matrix ausbrechen können“, sagte er.

„Man müsste algorithmische Verstärkung abschaffen“, forderte McNamee. Nachrichten-Feeds sollten stattdessen wieder nach Thema und Veröffentlichung sortiert werden und dem Nutzer nicht mehr von Algorithmen ausgewählte Standpunkte aufdrängen. Dies sei gerade bei Wahlen wichtig. „Facebook ist eine Maschine, die die Demokratie tötet“, sagte Harris. Dagegen tue der Konzern nichts. „Er müsste den Nachrichten-Feed oder die Werbung für längere Zeit abschalten, zumindest während den Wahlkämpfen.“

„Programmierer sollten ‚hippokratischen Eid‘ ablegen“

Demokratien seien unterschiedlich anfällig. „Das Wunderbare an Kontinentaleuropa ist, dass seine politischen Institutionen stark genug sind, allen politischen Angriffen zum Trotz“, sagte McNamee. In den USA, Großbritannien, Brasilien und Indien habe die Technik aber den Ausgang von Wahlen beeinflusst. Digital-Unternehmen würden sich dieser Verantwortung entziehen. Nur Druck von außen könne helfen, das Geschäft mit der Aufmerksamkeit zu beenden, sagte Harris.

Harris und McNamee sehen die Verantwortung aber nicht nur bei den Konzernen, sondern fordern auch einen „hippokratischen Eid“ für Programmierer, die an den Algorithmen arbeiten. „Ein Bauingenieur kann zur Verantwortung gezogen werden, wenn ein Gebäude einstürzt. Programmierer gehen kein persönliches Risiko ein“, sagte McNamee. Harris fügte hinzu: „Es sollte sein wie bei den Programmierern von Boeing: Die mussten auf dem Jungfernflug des Flugzeugs, das sie programmiert hatten, mitfliegen.“

Tristan Harris hat Informatik und Verhaltenspsychologie studiert. Er arbeitete bis 2015 bei Google, zuletzt in der Position eines „Design-Ethikers“. Nach seinem Ausstieg gründete er einen gemeinnützigen Verein, das Zentrum für Humane Technologie, das sich für eine Regulation und Neuausrichtung von Sozialen Medien einsetzt. Roger McNamee ist Geschäftsmann. Er investierte früh in Facebook und beriet Marc Zuckerberg. Durch den US-Wahlkampf 2016 entwickelte er eine kritische Haltung zu Sozialen Netzwerken. Mittlerweile besitzt er keine Facebook-Aktien mehr.

Von: Immanuel Dobrowolski

Sie können sich über Disqus, facebook, Twitter oder Google anmelden um zu kommentieren. Bitte geben Sie einen Namen, unter dem Ihr Kommentar veröffentlicht wird, und eine E-Mail-Adresse ein. Die E-Mail-Adresse wird nicht veröffentlicht. Um Missbrauch zu vermeiden, werden wir Ihren Kommentar erst nach Prüfung auf unserer Seite freischalten. Wir behalten uns vor, nur sachliche und argumentativ wertvolle Kommentare online zu stellen. Bitte achten Sie auch darauf, dass wir Beiträge mit mehr als 1600 Zeichen nicht veröffentlichen. Mit Abgabe des Kommentars erkennen Sie die Nutzungsbedingungen an.

Datenschutz
Die Technik der Kommentarfunktion "DISQUS" wird von einem externen Unternehmen, der Big Head Labs, Inc., San Francisco/USA., zur Verfügung gestellt. Weitere Informationen, insbesondere darüber, ob und wie personenbezogene Daten erhoben und verarbeitet werden, finden Sie in unserer Datenschutzerklärung.

Moderation
Die Moderation der Kommentare liegt allein bei der Christlichen Medieninitiative pro e.V. Allgemein gilt: Kritische Kommentare und Diskussionen sind willkommen, Beschimpfungen / Beleidigungen hingegen werden entfernt. Wie wir moderieren, erklären wir in den Nutzungsbedingungen.

comments powered by Disqus