Der Präsident des Software-Giganten Microsoft Brad Smith hat vor der Software der eigenen Firma gewarnt: Konkret geht es ihm um Technologien zur digitalen Gesichtserkennung. Die müsse stärker reguliert werden – auch wenn Microsoft sie selbst herstellt.
Gesichtserkennungssoftware wird bereits weitreichend eingesetzt, unter anderem vom sozialen Netzwerk Facebook, das erkennt, welche Nutzer auf einem Foto abgebildet sind und diese verlinkt. Aber auch Überwachungskameras an öffentlichen Orten können mit der Software etwa gezielt Personen aus der Menge filtern. Diese Technik steckt allerdings noch in den Kinderschuhen. So endete etwa am Berliner Bahnhof Südkreuz vor Kurzem eine einjährige Probezeit, in der eine entsprechende Technik getestet wurde.
Auf dem firmeneigenen Blog hat Smith nun einen Eintrag veröffentlicht mit dem Titel „Facial Recognition Technology: The need for public regulation and corporate responsibility“, zu deutsch etwa: „Gesichtserkennungssoftware: Die Notwendigkeit von öffentlicher Regulierung und Unternehmensverantwortung“. Ein Softwarehersteller ruft hier also die Regierungen auf, seine eigenen Produkte zu kontrollieren – und sich selbst, verantwortungsvoll mit ihnen umzugehen.
Chancen und Gefahren der Identifikations-Software
Dass das ungewöhnlich ist, schreibt Smith selbst. Doch die Situation erfordere es. Die Software zur Gesichtserkennung habe sich in den letzten zehn Jahren rapide entwickelt – und werfe Fragen auf, die „bis ans Herz des Schutzes grundlegender Menschenrechte wie Privatsphäre und Redefreiheit gehen“.
„Alle Werkzeuge können zum Guten oder zum Schlechten eingesetzt werden“, meint Smith. So wie man einen Besen zum Kehren verwenden oder jemandem damit eins überziehen könne, so sei auch Gesichtserkennungssoftware zu beidem zu gebrauchen – etwa um Terroranschläge zu verhindern oder verlorengegangene Kinder zu finden, aber auch, um einen Menschen pausenlos zu überwachen oder einer Regierung zu erlauben, Buch darüber zu führen, wer bei den Kundgebungen ihres politischen Gegners war. So sei ein Szenario wie in „1984“ schnell im Bereich des Denkbaren.
Deshalb, meint Smith, brauche es vor allem zwei Dinge: Gesetzliche Regelungen für den Einsatz der Software und verantwortungsvoll handelnde Firmen.
Die Politik muss regulieren
Jede Gesellschaft müsse sich demnach fragen, welche Rolle die Software in ihr spielen solle – und entsprechende politische Regelungen umsetzen. Speziell den US-amerikanischen Kongress ruft Smith daher auf, eine parteiübergreifende Expertenkommission zu gründen, die über entsprechende Schritte beraten soll. Die Regelungen zur Gesichtserkennungssoftware könne den Regierungen niemand abnehmen – auch die Firmen selbst nicht.
So begrüße Microsoft es zwar, wenn man Firmen zu verantwortlichem Handeln aufrufe – doch das könne eine demokratische Entscheidung der Öffentlichkeit nicht ersetzen. Es sei sinnvoller, eine gewählte Regierung eine nicht gewählte Firma regulieren zu lassen als umgekehrt.
Für die Firmen selbst seien gesetzliche Vorgaben nicht unbedingt ein Nachteil. Smiths Beispiel ist die Autoindustrie. Auch die habe von vorgeschriebenen Sicherheitsgurten und Airbags profitiert.
Firmen sollen auf Menschenrechte achten
Doch auch die Firmen stünden in der Bringschuld, meint Smith. „Die Notwendigkeit staatlicher Leitung entbindet uns Tech-Konzerne nicht von unserer eigenen ethischen Verantwortung.“ Man müsse sicherstellen, dass die Technologie auf den Menschen ausgerichtet und mit gesellschaftlichen Werten vereinbar sei.
Das bedeute unter anderem, die Öffentlichkeit über den Stand der Software zu informieren und deren Entwicklung zu entschleunigen. „‚Move fast and break things‘ („Beweg’ dich schnell und mach’ Dinge kaputt“) ist in den letzten zehn Jahren eine Art Mantra im Silicon Valley geworden. Doch wenn wir uns zu schnell bewegen, könnten wir merken, dass grundlegende Menschenrechte kaputt gehen“, warnt Smith.
Um das zu verhindern, müssten den Programmen vor allem Vorurteile ausgetrieben werden, so Smith. Auch das sei die Verantwortung der Hersteller. So habe es die Software nach wie vor schwerer, einen Menschen zu erkennen, je dunkler dessen Hautfarbe ist. Auch werden Frauen schlechter erkannt als Männer. Solche Macken könnten schlimmstenfalls sogar dazu führen, dass beispielsweise die falsche Person verhaftet werde, warnt Smith.