Das christliche Medienmagazin

Facebook soll ethische Forschungsstandards einhalten

Das soziale Netzwerk Facebook kann erkennen, ob ein Nutzer suizidgefährdet ist und dann Hilfe anbieten. Fachleute fordern die Offenlegung des Verfahrens und die Einhaltung wissenschaftlicher Standards von Facebook.
Von Norbert Schäfer
Die Entwicklung künstlicher Intelligenz muss auch ethisch vertretbar sein

Foto: Gerd Altmann

Die Entwicklung künstlicher Intelligenz muss auch ethisch vertretbar sein

Das soziale Netzwerk Facebook kann mittels Analyse von Beiträgen und Kommentaren durch einen Algorithmus erkennen, ob ein Benutzer suizidgefährdet ist. Erkennt die Künstliche Intelligenz eine mögliche Selbstmordabsicht beim Benutzer, alarmiert das Programm einen Facebook-Mitarbeiter. Der bietet Hilfe an und informiert Behörden. Das berichtet die Tageszeitung Die Welt. Dem Artikel zufolge verfügt Facebook bereits seit 2017 über entsprechende technische Möglichkeiten. Nach Einschätzung der Zeitung ist das Suizidschutzprogramm „nach der Datenschutzgrundverordnung hierzulande rechtlich nicht statthaft”.

Nutzer werden Gegenstand wissenschaftlicher Untersuchungen

Der Welt-Artikel wirft die Frage auf, ob das Frühwarnsystem gegen Selbstötungsabsichten ethisch vertretbar ist, weil es „intime“ Details der Facebook-Nutzer auswertet. Verschiedene Experten sehen das kritisch. Wissenschaftler erkennen in der Entwicklung solcher Algorithmen und Verfahren eine Art medizinischer Forschung und fordern, dass diese „ethische Standards”, „Transparenz des Prozesses” und „die in der Forschung üblichen Regeln” einhält. Die Forscher ziehen auch mögliche soziale Folgen in Betracht, etwa wenn Nutzer „fälschlicherweise in den Verdacht geraten, Selbsttötungsgedanken in sich zu tragen”. Die Wissenschaftler bemängeln auch, dass die Nutzer ohne Zustimmung in wissenschaftliche Untersuchungen verwickelt werden. Dies verstoße gegen „ethische Standards und Übereinkommen der wissenschaftlichen Forschung”.

Dem Bericht zufolge fordert die Medizinethikerin Christiane Woopen vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (Ceres), dass unabhängige Wissenschaftler den Nachweis über den positiven Nutzen des Verfahrens belegen müssten. Die dazu erforderlichen Daten will Facebook jedoch nicht offenlegen. Das Unternehmen führt an, „dass es kontraproduktiv sein könnte, wenn Facebook zu viele Details über seinen Suizidalgorithmus verrate“.

Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Uni Paderborn fordert eine „Regelung, die die Sammlung und den Umgang mit solchen Daten allgemeinverbindlich und im Sinne des Gemeinwohls festschreibt“.

Von: Norbert Schäfer

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Diskutieren Sie mit!

Wir freuen uns, wenn Sie uns Ihre Meinung sagen. Gerne klar, ehrlich, prägnant – aber bitte immer respektvoll, damit sich viele Menschen mit unterschiedlicher Meinung beteiligen. Daher achten wir besonders auf eine respektvolle Debattenkultur.
Jeder Leserkommentar wird vor der Veröffentlichung geprüft. Bitte beachten Sie dazu unsere Kommentar-Richtlinien. Manchmal kann es etwas dauern, bis ein Kommentar freigeschaltet ist. Sie haben ab Veröffentlichung sieben Tage Zeit, einen Artikel zu kommentieren. Danach wird der Kommentarbereich automatisch geschlossen.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden.

Offline, Inhalt evtl. nicht aktuell

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen