Facebook soll ethische Forschungsstandards einhalten

Das soziale Netzwerk Facebook kann erkennen, ob ein Nutzer suizidgefährdet ist und dann Hilfe anbieten. Fachleute fordern die Offenlegung des Verfahrens und die Einhaltung wissenschaftlicher Standards von Facebook.
Von Norbert Schäfer
Die Entwicklung künstlicher Intelligenz muss auch ethisch vertretbar sein

Das soziale Netzwerk Facebook kann mittels Analyse von Beiträgen und Kommentaren durch einen Algorithmus erkennen, ob ein Benutzer suizidgefährdet ist. Erkennt die Künstliche Intelligenz eine mögliche Selbstmordabsicht beim Benutzer, alarmiert das Programm einen Facebook-Mitarbeiter. Der bietet Hilfe an und informiert Behörden. Das berichtet die Tageszeitung Die Welt. Dem Artikel zufolge verfügt Facebook bereits seit 2017 über entsprechende technische Möglichkeiten. Nach Einschätzung der Zeitung ist das Suizidschutzprogramm „nach der Datenschutzgrundverordnung hierzulande rechtlich nicht statthaft“.

Nutzer werden Gegenstand wissenschaftlicher Untersuchungen

Der Welt-Artikel wirft die Frage auf, ob das Frühwarnsystem gegen Selbstötungsabsichten ethisch vertretbar ist, weil es „intime“ Details der Facebook-Nutzer auswertet. Verschiedene Experten sehen das kritisch. Wissenschaftler erkennen in der Entwicklung solcher Algorithmen und Verfahren eine Art medizinischer Forschung und fordern, dass diese „ethische Standards“, „Transparenz des Prozesses“ und „die in der Forschung üblichen Regeln“ einhält. Die Forscher ziehen auch mögliche soziale Folgen in Betracht, etwa wenn Nutzer „fälschlicherweise in den Verdacht geraten, Selbsttötungsgedanken in sich zu tragen“. Die Wissenschaftler bemängeln auch, dass die Nutzer ohne Zustimmung in wissenschaftliche Untersuchungen verwickelt werden. Dies verstoße gegen „ethische Standards und Übereinkommen der wissenschaftlichen Forschung“.

Dem Bericht zufolge fordert die Medizinethikerin Christiane Woopen vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (Ceres), dass unabhängige Wissenschaftler den Nachweis über den positiven Nutzen des Verfahrens belegen müssten. Die dazu erforderlichen Daten will Facebook jedoch nicht offenlegen. Das Unternehmen führt an, „dass es kontraproduktiv sein könnte, wenn Facebook zu viele Details über seinen Suizidalgorithmus verrate“.

Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Uni Paderborn fordert eine „Regelung, die die Sammlung und den Umgang mit solchen Daten allgemeinverbindlich und im Sinne des Gemeinwohls festschreibt“.

Von: Norbert Schäfer

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Ihre Nachricht an die Redaktion

Sie haben Fragen, Kritik, Lob oder Anregungen? Dann schreiben Sie gerne eine Nachricht direkt an die PRO-Redaktion.

Offline, Inhalt evtl. nicht aktuell

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen