Das christliche Medienmagazin

Facebook soll ethische Forschungsstandards einhalten

Das soziale Netzwerk Facebook kann erkennen, ob ein Nutzer suizidgefährdet ist und dann Hilfe anbieten. Fachleute fordern die Offenlegung des Verfahrens und die Einhaltung wissenschaftlicher Standards von Facebook.
Von Norbert Schäfer
Die Entwicklung künstlicher Intelligenz muss auch ethisch vertretbar sein

Foto: Gerd Altmann

Die Entwicklung künstlicher Intelligenz muss auch ethisch vertretbar sein

Das soziale Netzwerk Facebook kann mittels Analyse von Beiträgen und Kommentaren durch einen Algorithmus erkennen, ob ein Benutzer suizidgefährdet ist. Erkennt die Künstliche Intelligenz eine mögliche Selbstmordabsicht beim Benutzer, alarmiert das Programm einen Facebook-Mitarbeiter. Der bietet Hilfe an und informiert Behörden. Das berichtet die Tageszeitung Die Welt. Dem Artikel zufolge verfügt Facebook bereits seit 2017 über entsprechende technische Möglichkeiten. Nach Einschätzung der Zeitung ist das Suizidschutzprogramm „nach der Datenschutzgrundverordnung hierzulande rechtlich nicht statthaft”.

Nutzer werden Gegenstand wissenschaftlicher Untersuchungen

Der Welt-Artikel wirft die Frage auf, ob das Frühwarnsystem gegen Selbstötungsabsichten ethisch vertretbar ist, weil es „intime“ Details der Facebook-Nutzer auswertet. Verschiedene Experten sehen das kritisch. Wissenschaftler erkennen in der Entwicklung solcher Algorithmen und Verfahren eine Art medizinischer Forschung und fordern, dass diese „ethische Standards”, „Transparenz des Prozesses” und „die in der Forschung üblichen Regeln” einhält. Die Forscher ziehen auch mögliche soziale Folgen in Betracht, etwa wenn Nutzer „fälschlicherweise in den Verdacht geraten, Selbsttötungsgedanken in sich zu tragen”. Die Wissenschaftler bemängeln auch, dass die Nutzer ohne Zustimmung in wissenschaftliche Untersuchungen verwickelt werden. Dies verstoße gegen „ethische Standards und Übereinkommen der wissenschaftlichen Forschung”.

Dem Bericht zufolge fordert die Medizinethikerin Christiane Woopen vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (Ceres), dass unabhängige Wissenschaftler den Nachweis über den positiven Nutzen des Verfahrens belegen müssten. Die dazu erforderlichen Daten will Facebook jedoch nicht offenlegen. Das Unternehmen führt an, „dass es kontraproduktiv sein könnte, wenn Facebook zu viele Details über seinen Suizidalgorithmus verrate“.

Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Uni Paderborn fordert eine „Regelung, die die Sammlung und den Umgang mit solchen Daten allgemeinverbindlich und im Sinne des Gemeinwohls festschreibt“.

Von: Norbert Schäfer

Ihr Beitrag für christliche Werte in den Medien
Bei PRO sind alle Beiträge frei zugänglich und kostenlos - und das wird auch so bleiben. PRO finanziert sich durch freiwillige Spenden.

Wir arbeiten in der PRO-Redaktion jeden Tag dafür, Ihnen solide Informationen zu liefern über Themen, die Sie interessieren.

Nur mit Ihrer Unterstützung können wir weiterhin den christlichen Journalismus bieten, den Sie von PRO kennen.

Viele PRO-Leser helfen schon mit. Sind Sie dabei?

Schreiben Sie einen Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Bitte beachten Sie unsere Kommentar-Richtlinien. Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden.

Offline, Inhalt evtl. nicht aktuell

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen