Das christliche Medienmagazin

Facebook soll ethische Forschungsstandards einhalten

Das soziale Netzwerk Facebook kann erkennen, ob ein Nutzer suizidgefährdet ist und dann Hilfe anbieten. Fachleute fordern die Offenlegung des Verfahrens und die Einhaltung wissenschaftlicher Standards von Facebook.
Von PRO
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on email
Die Entwicklung künstlicher Intelligenz muss auch ethisch vertretbar sein

Foto: Gerd Altmann

Die Entwicklung künstlicher Intelligenz muss auch ethisch vertretbar sein

Das soziale Netzwerk Facebook kann mittels Analyse von Beiträgen und Kommentaren durch einen Algorithmus erkennen, ob ein Benutzer suizidgefährdet ist. Erkennt die Künstliche Intelligenz eine mögliche Selbstmordabsicht beim Benutzer, alarmiert das Programm einen Facebook-Mitarbeiter. Der bietet Hilfe an und informiert Behörden. Das berichtet die Tageszeitung Die Welt. Dem Artikel zufolge verfügt Facebook bereits seit 2017 über entsprechende technische Möglichkeiten. Nach Einschätzung der Zeitung ist das Suizidschutzprogramm „nach der Datenschutzgrundverordnung hierzulande rechtlich nicht statthaft”.

Nutzer werden Gegenstand wissenschaftlicher Untersuchungen

Der Welt-Artikel wirft die Frage auf, ob das Frühwarnsystem gegen Selbstötungsabsichten ethisch vertretbar ist, weil es „intime“ Details der Facebook-Nutzer auswertet. Verschiedene Experten sehen das kritisch. Wissenschaftler erkennen in der Entwicklung solcher Algorithmen und Verfahren eine Art medizinischer Forschung und fordern, dass diese „ethische Standards”, „Transparenz des Prozesses” und „die in der Forschung üblichen Regeln” einhält. Die Forscher ziehen auch mögliche soziale Folgen in Betracht, etwa wenn Nutzer „fälschlicherweise in den Verdacht geraten, Selbsttötungsgedanken in sich zu tragen”. Die Wissenschaftler bemängeln auch, dass die Nutzer ohne Zustimmung in wissenschaftliche Untersuchungen verwickelt werden. Dies verstoße gegen „ethische Standards und Übereinkommen der wissenschaftlichen Forschung”.

Dem Bericht zufolge fordert die Medizinethikerin Christiane Woopen vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (Ceres), dass unabhängige Wissenschaftler den Nachweis über den positiven Nutzen des Verfahrens belegen müssten. Die dazu erforderlichen Daten will Facebook jedoch nicht offenlegen. Das Unternehmen führt an, „dass es kontraproduktiv sein könnte, wenn Facebook zu viele Details über seinen Suizidalgorithmus verrate“.

Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Uni Paderborn fordert eine „Regelung, die die Sammlung und den Umgang mit solchen Daten allgemeinverbindlich und im Sinne des Gemeinwohls festschreibt“.

Von: Norbert Schäfer

Schreiben Sie einen Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden.

Offline, Inhalt evtl. nicht aktuell