Sind Gesichtserkennungssysteme genau? Hängt von Ihrer Rasse ab.

Alles, was wir über die Gesichtserkennungssysteme wissen, die das FBI und die Polizei verwenden, deutet darauf hin, dass die Software eine eingebaute rassistische Voreingenommenheit hat. Das ist keine Absicht – es ist ein Artefakt davon, wie die Systeme entworfen sind und mit welchen Daten sie trainiert werden. Aber es ist problematisch. Strafverfolgungsbehörden verlassen sich immer mehr auf solche Tools, um strafrechtliche Ermittlungen zu unterstützen, was das Risiko erhöht, dass etwas schief gehen könnte.





Strafverfolgungsbehörden haben nicht viele Details darüber bereitgestellt, wie sie Gesichtserkennungssysteme verwenden, aber im Juni veröffentlichte das Government Accountability Office einen Bericht, in dem es heißt, dass das FBI weder die Genauigkeit seines Gesichtserkennungssystems noch die des riesigen Netzwerks von Gesichtserkennungsdatenbanken auf Bundesstaatsebene, auf die es zugreifen kann.

Und während hochmoderne Gesichtserkennungssysteme in Fahndungsfotodatenbanken zu fast 95 Prozent genau sein können, werden diese Fotos unter kontrollierten Bedingungen mit im Allgemeinen kooperativen Personen aufgenommen. Bilder, die unter nicht idealen Umständen aufgenommen wurden, wie z. B. schlechte Beleuchtung, oder die ungewöhnliche Posen und Gesichtsausdrücke einfangen, können zu Fehlern führen.

Illustration von Sophia Foster-Dimino



Die Algorithmen können auch aufgrund der Art und Weise, wie sie trainiert werden, voreingenommen sein, sagt Anil Jain , Leiter der Biometrie-Forschungsgruppe an der Michigan State University. Um zu funktionieren, muss die Gesichtserkennungssoftware zunächst lernen, Gesichter anhand von Trainingsdaten zu erkennen, einer Reihe von Bildern, die der Software Informationen darüber geben, wie sich Gesichter unterscheiden. Wenn ein Geschlecht, eine Altersgruppe oder eine Rasse in den Trainingsdaten unterrepräsentiert ist, spiegelt sich das in der Leistung des Algorithmus wider, sagt Jain.

Im Jahr 2012 verwendeten Jain und mehrere Kollegen eine Reihe von Fahndungsfotos aus dem Büro des Sheriffs von Pinellas County in Florida, um die Leistung mehrerer im Handel erhältlicher Gesichtserkennungssysteme zu untersuchen, einschließlich solcher von Anbietern, die Strafverfolgungsbehörden beliefern. Die Algorithmen waren immer weniger genau auf Frauen, Afroamerikaner und jüngere Menschen. Offenbar wurden sie mit Daten trainiert, die für diese Gruppen nicht repräsentativ genug waren, sagt Jain.

Wenn Ihr Trainingssatz stark auf ein bestimmtes Rennen ausgerichtet ist, erkennt Ihr Algorithmus dieses Rennen besser, sagt er Alice O’Toole , Leiter des Forschungslabors für Gesichtswahrnehmung an der University of Texas in Dallas. O’Toole und mehrere Kollegen 2011 gefunden dass ein in westlichen Ländern entwickelter Algorithmus kaukasische Gesichter besser erkannte als ostasiatische Gesichter. Ebenso schnitten ostasiatische Algorithmen bei ostasiatischen Gesichtern besser ab als bei kaukasischen.

In den mehreren Jahren seit diesen Studien hat sich die Genauigkeit kommerzieller Algorithmen in vielen Bereichen erheblich verbessert, und Jain sagt, dass sich die Leistungsunterschiede zwischen verschiedenen Geschlechtern und Rassen verringert haben könnten. Es sind jedoch so wenige Testinformationen verfügbar, dass es schwer ist, dies zu wissen. Neuere Ansätze zur Gesichtserkennung, wie die Deep-Learning-Systeme, die Google und Facebook entwickelt haben, können die gleichen Fehler machen, wenn die Trainingsdaten unausgewogen sind, sagt er.

Jonathon Phillips, Elektroingenieur am National Institute of Standards and Technology, führt Leistungstests kommerzieller Algorithmen durch. Er sagt, dass es möglich ist, einen Test zu entwickeln, um rassistische Vorurteile in Face-Matching-Systemen zu messen. In der Tat haben Datenschutzexperten gefordert solche Tests zur Pflicht machen.

Das FBI und MorphoTrust, der Anbieter, der die Gesichtserkennungssoftware des Büros liefert, beantworteten keine E-Mail-Fragen von MIT Technology Review ob sie die Leistung ihrer Algorithmen nach Rasse, Geschlecht oder Alter testen.

Auch die Vereinbarungen zwischen Anbietern und den vielen staatlichen Strafverfolgungsbehörden, die Gesichtserkennung verwenden, sind nicht klar. Aber Pete Langenfeld, Manager für digitale Analyse und Identifizierung bei der Michigan State Police, sagt, seine Organisation teste nicht auf gruppenspezifische Genauigkeit. Er sagte, er wisse auch nicht, ob der Anbieter, der die Technologie geliefert habe, solche Tests durchführe, fügte jedoch hinzu, dass es sich um proprietäre Informationen handele und das Unternehmen diese Informationen nicht veröffentlichen müsse.

verbergen