KI schickt Menschen ins Gefängnis – und macht dabei einen Fehler

Ian Waldie/Getty Images





KI scheint keine große persönliche Wirkung zu haben, wenn Sie am häufigsten mit maschinellen Lernalgorithmen über den Newsfeed von Facebook oder die Suchrankings von Google in Berührung kommen. Aber bei der Daten für Schwarze Leben Konferenz am vergangenen Wochenende haben Technologen, Rechtsexperten und Community-Aktivisten die Dinge mit einer Diskussion über das amerikanische Strafjustizsystem ins rechte Licht gerückt. Dort kann ein Algorithmus den Verlauf Ihres Lebens bestimmen.

Die USA inhaftieren mehr Menschen als jedes andere Land der Welt. Ende 2016 fast 2,2 Millionen Erwachsene wurden in Gefängnissen oder Gefängnissen festgehalten, und weitere 4,5 Millionen befanden sich in anderen Justizvollzugsanstalten. Anders ausgedrückt, 1 von 38 erwachsenen Amerikanern stand unter irgendeiner Form von Justizvollzugsaufsicht. Die Albtraumhaftigkeit dieser Situation ist eines der wenigen Themen, die Politiker auf beiden Seiten des Ganges eint.

Unter dem enormen Druck, die Zahl der Gefängnisinsassen zu reduzieren, ohne einen Anstieg der Kriminalität zu riskieren, haben sich Gerichtssäle in den USA automatisierten Tools zugewandt, um Angeklagte so effizient und sicher wie möglich durch das Rechtssystem zu schleusen. Hier beginnt der KI-Teil unserer Geschichte.



Polizeidienststellen verwenden prädiktive Algorithmen, um strategisch zu planen, wohin sie ihre Reihen schicken sollen. Strafverfolgungsbehörden verwenden Gesichtserkennungssysteme, um Verdächtige zu identifizieren. Diese Praktiken haben eine wohlverdiente Prüfung erfahren, ob sie tatsächlich die Sicherheit verbessern oder einfach bestehende Ungerechtigkeiten aufrechterhalten. Forscher und Bürgerrechtler , zum Beispiel, haben wiederholt gezeigt, dass Gesichtserkennungssysteme spektakulär versagen können, insbesondere bei dunkelhäutigen Personen – und sogar Mitglieder des Kongresses mit verurteilten Kriminellen verwechseln.

Aber das bei weitem umstrittenste Instrument kommt, nachdem die Polizei eine Festnahme vorgenommen hat. Begrüßen Sie die Algorithmen zur Bewertung des kriminellen Risikos.

Tools zur Risikobewertung wurden entwickelt, um eines zu tun: Sie erfassen die Details des Profils eines Angeklagten und geben einen Rückfallwert aus – eine einzelne Zahl, die die Wahrscheinlichkeit abschätzt, dass er oder sie erneut straffällig wird. Ein Richter berücksichtigt dann diese Punktzahl in einer Vielzahl von Entscheidungen, die bestimmen können, welche Art von Rehabilitationsleistungen bestimmte Angeklagte erhalten sollten, ob sie vor dem Prozess im Gefängnis festgehalten werden sollten und wie streng ihre Strafen sein sollten. Eine niedrige Punktzahl ebnet den Weg für ein freundlicheres Schicksal. Eine hohe Punktzahl bewirkt genau das Gegenteil.



Die Logik für die Verwendung solcher algorithmischer Werkzeuge ist, dass Sie, wenn Sie kriminelles Verhalten genau vorhersagen können, Ressourcen entsprechend zuweisen können, sei es für die Rehabilitation oder für Gefängnisstrafen. Theoretisch reduziert es auch jegliche Voreingenommenheit, die den Prozess beeinflusst, da Richter Entscheidungen auf der Grundlage von datengetriebenen Empfehlungen treffen und nicht auf der Grundlage ihres Bauchgefühls.

Möglicherweise haben Sie das Problem bereits erkannt. Moderne Tools zur Risikobewertung werden oft von Algorithmen gesteuert, die anhand historischer Kriminaldaten trainiert wurden.

Wie wir bereits erwähnt haben, verwenden maschinelle Lernalgorithmen Statistiken, um Muster in Daten zu finden. Wenn Sie es also mit historischen Kriminalitätsdaten füttern, wird es die mit Kriminalität verbundenen Muster heraussuchen. Aber diese Muster sind statistisch Korrelationen – bei weitem nicht dasselbe wie Ursachen . Wenn ein Algorithmus zum Beispiel herausfindet, dass ein niedriges Einkommen mit einer hohen Rückfallquote korreliert, würde er Sie nicht darüber im Klaren sein, ob ein niedriges Einkommen tatsächlich eine Kriminalität verursacht hat. Aber genau das tun Tools zur Risikobewertung: Sie verwandeln korrelative Erkenntnisse in kausale Bewertungsmechanismen.



Jetzt laufen Bevölkerungsgruppen, die in der Vergangenheit überproportional von Strafverfolgungsbehörden ins Visier genommen wurden – insbesondere einkommensschwache und Minderheitengemeinschaften – Gefahr, mit hohen Rückfallquoten geschlagen zu werden. Infolgedessen könnte der Algorithmus eingebettete Vorurteile verstärken und aufrechterhalten und noch mehr voreingenommene Daten generieren, um einen Teufelskreis zu nähren. Da die meisten Risikobewertungsalgorithmen proprietär sind, ist es auch unmöglich, ihre Entscheidungen zu hinterfragen oder sie zur Rechenschaft zu ziehen.

Die Debatte über diese Tools tobt immer noch. Im vergangenen Juli haben mehr als 100 Bürgerrechts- und gemeinschaftsbasierte Organisationen, darunter die ACLU und die NAACP, unterzeichnet eine Erklärung, die gegen die Verwendung der Risikobewertung drängt. Gleichzeitig haben sich immer mehr Gerichtsbarkeiten und Staaten, einschließlich Kalifornien, an sie gewandt, um ihre überlasteten Gefängnisse und Gefängnisse zu reparieren.

Datengesteuerte Risikobewertung ist ein Weg, um Unterdrückungssysteme zu desinfizieren und zu legitimieren, sagte Marbre Stahly-Butts, Geschäftsführerin von Law for Black Lives auf der Bühne der Konferenz , die im MIT Media Lab gehostet wurde. Es ist eine Möglichkeit, die Aufmerksamkeit von den tatsächlichen Problemen abzulenken, die einkommensschwache und Minderheitengemeinschaften betreffen, wie z. B. entfinanzierte Schulen und unzureichender Zugang zur Gesundheitsversorgung.



Wir gehen keine Risiken ein, sagte sie. Wir sind Bedürfnisse.

Diese Geschichte erschien ursprünglich in unserem KI-Newsletter The Algorithm. Um es direkt in Ihren Posteingang geliefert zu bekommen, abonnieren Sie es hier kostenlos.

verbergen