Die Entwicklung künstlicher Intelligenz muss auch ethisch vertretbar sein

Die Entwicklung künstlicher Intelligenz muss auch ethisch vertretbar sein

Facebook soll ethische Forschungsstandards einhalten

Das soziale Netzwerk Facebook kann erkennen, ob ein Nutzer suizidgefährdet ist und dann Hilfe anbieten. Fachleute fordern die Offenlegung des Verfahrens und die Einhaltung wissenschaftlicher Standards von Facebook.

Das soziale Netzwerk Facebook kann mittels Analyse von Beiträgen und Kommentaren durch einen Algorithmus erkennen, ob ein Benutzer suizidgefährdet ist. Erkennt die Künstliche Intelligenz eine mögliche Selbstmordabsicht beim Benutzer, alarmiert das Programm einen Facebook-Mitarbeiter. Der bietet Hilfe an und informiert Behörden. Das berichtet die Tageszeitung Die Welt. Dem Artikel zufolge verfügt Facebook bereits seit 2017 über entsprechende technische Möglichkeiten. Nach Einschätzung der Zeitung ist das Suizidschutzprogramm „nach der Datenschutzgrundverordnung hierzulande rechtlich nicht statthaft".

Nutzer werden Gegenstand wissenschaftlicher Untersuchungen

Der Welt-Artikel wirft die Frage auf, ob das Frühwarnsystem gegen Selbstötungsabsichten ethisch vertretbar ist, weil es „intime“ Details der Facebook-Nutzer auswertet. Verschiedene Experten sehen das kritisch. Wissenschaftler erkennen in der Entwicklung solcher Algorithmen und Verfahren eine Art medizinischer Forschung und fordern, dass diese „ethische Standards", „Transparenz des Prozesses" und „die in der Forschung üblichen Regeln" einhält. Die Forscher ziehen auch mögliche soziale Folgen in Betracht, etwa wenn Nutzer „fälschlicherweise in den Verdacht geraten, Selbsttötungsgedanken in sich zu tragen". Die Wissenschaftler bemängeln auch, dass die Nutzer ohne Zustimmung in wissenschaftliche Untersuchungen verwickelt werden. Dies verstoße gegen „ethische Standards und Übereinkommen der wissenschaftlichen Forschung".

Dem Bericht zufolge fordert die Medizinethikerin Christiane Woopen vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (Ceres), dass unabhängige Wissenschaftler den Nachweis über den positiven Nutzen des Verfahrens belegen müssten. Die dazu erforderlichen Daten will Facebook jedoch nicht offenlegen. Das Unternehmen führt an, „dass es kontraproduktiv sein könnte, wenn Facebook zu viele Details über seinen Suizidalgorithmus verrate“.

Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Uni Paderborn fordert eine „Regelung, die die Sammlung und den Umgang mit solchen Daten allgemeinverbindlich und im Sinne des Gemeinwohls festschreibt“.

Von: Norbert Schäfer

Sie können sich über Disqus, facebook, Twitter oder Google+ anmelden um zu kommentieren. Bitte geben Sie einen Namen, unter dem Ihr Kommentar veröffentlicht wird, und eine E-Mail-Adresse ein. Die E-Mail-Adresse wird nicht veröffentlicht. Um Missbrauch zu vermeiden, werden wir Ihren Kommentar erst nach Prüfung auf unserer Seite freischalten. Wir behalten uns vor, nur sachliche und argumentativ wertvolle Kommentare online zu stellen. Bitte achten Sie auch darauf, dass wir Beiträge mit mehr als 1600 Zeichen nicht veröffentlichen. Mit Abgabe des Kommentars erkennen Sie die Nutzungsbedingungen an.

Datenschutz
Die Technik der Kommentarfunktion "DISQUS" wird von einem externen Unternehmen, der Big Head Labs, Inc., San Francisco/USA., zur Verfügung gestellt. Weitere Informationen, insbesondere darüber, ob und wie personenbezogene Daten erhoben und verarbeitet werden, finden Sie in unserer Datenschutzerklärung.

Moderation
Die Moderation der Kommentare liegt allein beim Christlichen Medienverbund KEP e.V. Allgemein gilt: Kritische Kommentare und Diskussionen sind willkommen, Beschimpfungen / Beleidigungen hingegen werden entfernt. Wie wir moderieren, erklären wir in den Nutzungsbedingungen.

comments powered by Disqus

Anzeige

Anzeige