San Francisco-Staatsanwälte wiederum auf AI zu reduzieren racial bias

In einem ersten-of-its Art experiment, San Francisco Staatsanwälte drehen, um künstliche Intelligenz zu reduzieren rassistische Voreingenommenheit der Gerichte,

San Francisco-Staatsanwälte wiederum auf AI zu reduzieren racial bias

In einem ersten-of-its Art experiment, San Francisco Staatsanwälte drehen, um künstliche Intelligenz zu reduzieren rassistische Voreingenommenheit der Gerichte, die die Annahme eines Systems, Streifen bestimmte identifizierende details, von der Polizei zu berichten und lässt nur die wichtigsten Fakten zu regieren aufladen Entscheidungen.

District Attorney George Gascon, kündigte am Mittwoch, dass sein Büro wird die Arbeit mit der Technik im Juli "nehmen Rennen aus der Formel" bei der Entscheidung, ob beschuldigen, verdächtigen in einem Verbrechen.

Criminal-Justiz-Experten sagen, Sie haben nie gehört, jedes Projekt, wie es, und Sie lobte die Idee als eine kreative, mutige Anstrengungen, um das laden Praktiken mehr farbenblind.

Gascon Büro arbeiteten mit Daten, die Wissenschaftler und Ingenieure an der Stanford Computational Policy Lab, ein system zu entwickeln, dass dauert elektronischen Polizei-Berichte und entfernt automatisch einen verdächtigen, der Rasse und dem Haar und Auge Farben. Die Namen der Zeugen und Polizisten werden auch entfernt werden, zusammen mit bestimmten Stadtteilen oder Bezirken, die sich auf die Rasse der beteiligten.

"Die Verbrecher-Justiz-system hat eine schreckliche Auswirkungen auf die Menschen der Farbe in diesem Land, vor allem Afro-Amerikaner, für die Generationen," Gascon sagte in einem interview vor der Ankündigung. "Wenn alle Staatsanwälte nahm, Rennen aus dem Bild, wenn die Ladestation Entscheidungen zu treffen, würden wir wahrscheinlich in einer viel besseren Ort, als nation, als wir es heute sind."

Gascon sagte, sein Ziel war es, ein Modell zu entwickeln, dass könnte an anderer Stelle genutzt werden, und die Technik wird kostenlos angeboten, um andere Staatsanwälte im ganzen Land.

"ich empfehle Ihnen, es ist eine mutige bewegen", sagte Lucy Lang, ein ehemaliger New-York-City-Staatsanwalt und Geschäftsführer des Instituts für Innovation in der Verfolgung an der John Jay College of Criminal Justice. "Jede Anstrengung, um zu versuchen, zu minimieren unterschiedlichen Ergebnisse sind lobenswert."

Die Technologie stützt sich auf den Menschen zu sammeln, die ersten Fakten, die können noch beeinflusst werden durch racial bias. Staatsanwälte machen einen ersten lade-Entscheidung auf der Grundlage der geschwärzten Polizei melden. Dann werden Sie den Blick auf den gesamten Bericht, mit details restauriert, um zu sehen, ob es irgendwelche mildernden Gründe für eine überprüfung der ersten Entscheidung, Gascon sagte.

Lang-und andere Experten sagten, Sie freuen uns auf die Ergebnisse und dass Sie erwarten, dass das system ein work in progress.

"Hut ab für den Versuch neue Sachen," sagte Phillip Atiba Goff, Präsident des Center for Policing Eigenkapital. "Es gibt so viele kontextuelle Faktoren, die zeigen könnten, Rasse und ethnischer Herkunft, ist es schwer vorstellbar, wie selbst ein Mensch könnte die nehmen das alle hin."

Studien haben lange gezeigt, dass die Neigung vorhanden ist Bundesweit auf allen Ebenen der kriminellen Justiz, Polizei macht Festnahmen und Staatsanwaltschaft entscheiden, ob Anklage verdächtigen vor Gericht Verurteilung.

2017 Eine Studie im Auftrag des San Francisco district attorney gefunden "beträchtliche rassische und ethnische Unterschiede in der Strafjustiz Ergebnisse." Afro-Amerikaner vertreten nur 6% der county-Bevölkerung, sondern entfielen 41% der Verhaftungen zwischen 2008 und 2014.

Die Studie fand "wenig Hinweise auf offenkundige Voreingenommenheit gegen irgendeine Rasse oder ethnischen Gruppe", darunter Staatsanwälte, die Verfahren, die Straftaten. Aber Gascon sagte, er wollte einen Weg finden, zu helfen, beseitigen eine implizite Vorurteile, die ausgelöst werden könnte durch einen verdächtigen, der Rasse, der ethnischen klingende Namen oder ein Verbrechen-geritten Nachbarschaft, wo Sie verhaftet wurden.

Nach beginnt es, das Programm wird wöchentlich überprüft, sagte Maria Mckee, der DA-Direktor für Analyse und Forschung.

Der Schritt kommt nach San Francisco im letzten Monat wurde der erste US-Stadt zu verbieten, die Nutzung der Gesichtserkennung von der Polizei und anderen städtischen Behörden. Die Entscheidung spiegelt eine wachsende Gegenbewegung gegen KI-Technologie, wie Städte versuchen zu regulieren überwachung durch die kommunalen Behörden.

Updated Date: 13 Juni 2019 01:06

Yorum yapabilmek için üye girişi yapmanız gerekmektedir.

Üye değilseniz hemen üye olun veya giriş yapın.

RELATED NEWS