Könnte ein Algorithmus helfen zu verhindern, dass Morde?

Algorithmen werden zunehmend genutzt, um alltägliche Entscheidungen über unser Leben. Könnten Sie helfen der Polizei die Kriminalität reduziert, fragt David Edm

Könnte ein Algorithmus helfen zu verhindern, dass Morde?

Algorithmen werden zunehmend genutzt, um alltägliche Entscheidungen über unser Leben. Könnten Sie helfen der Polizei die Kriminalität reduziert, fragt David Edmonds.

Im Juli 2013 ein 44-jähriger Mann, Bijan Ebrahimi, wurde geschlagen und getreten, um den Tod in south Bristol. Sein Mörder, ein Nachbar, dann schüttete Benzin über seinen Körper und setzte es in Brand auf gras 100 Meter von seinem Haus. Die im Iran geborene Ebrahimi, die ankamen, in Großbritannien über ein Jahrzehnt zuvor als Flüchtling, wurde fälschlicherweise beschuldigt, von seinem killer, ein Pädophiler ist.

Auf 73 Gelegenheiten, über einen acht-Jahres-Zeitraum, Ebrahimi hatte der Polizei gemeldet, er habe die Opfer rassistisch motivierter Straftaten.

Seine Beschwerden unbeachtet ging und einen Bericht in seiner Ermordung zum Schluss, dass sowohl Bristol City Council und die Polizei war schuldig des institutionellen Rassismus.

Bild, Urheberrecht PA Bildunterschrift Bijan Ebrahimi

"Das war wirklich ein Wendepunkt von einem Daten-Perspektive", sagt Jonathan Dowey, wer leitet ein kleines team von Datenanalysten bei Avon und Somerset Police. Die Frage der Gewalt begann sich zu Fragen, sagt er, war: "Könnten wir schlauer werden mit unseren Daten?"

die Freiheit von Informationen, bummeln Sie durch die bürgerlichen Freiheiten Gruppe Liberty vor kurzem entdeckt, dass mindestens 14 Polizeikräfte im Vereinigten Königreich verwendet haben oder planen, zu verwenden, algorithmen - computer-mathematische Formeln - Bekämpfung von Kriminalität. Es scheint wahrscheinlich, dass in wenigen Jahren fast alle Polizeikräfte werden mit solchen Methoden.

Nach Ebrahimi ist Mord, Avon und Somerset Polizei begann zu Experimentieren mit der software, um zu sehen, ob es helfen könnte-Risiken identifizieren - Risiken von Straftätern, natürlich, aber auch die Risiken für potenzielle Opfer, wie Ebrahimi.

erfahren Sie mehr

Höre David Edmonds' Dokumentarfilm computer-profile schneiden Verbrechen? auf BBC Radio 4 Analysis um 20:30 am Montag 24 Juni

Oder spaeter auf iPlayer

Menschen sind anfällig für allerlei Neigungen. Und im Gegensatz zu Computern, Sie sind nicht gut im entdecken von mustern - ob, zum Beispiel, gibt es schon mehrere Anrufe von der gleichen Adresse. Bei Avon und Somerset im Nachhinein lief ein prädiktives Modell, um zu sehen, ob die Tragödie hätte abgewendet werden, Ebrahimi Adresse tauchte als einer der top-10-Erhöhung beunruhigt.

Verschiedene Polizeikräfte Erprobung verschiedener algorithmen. West Midlands verwendet die software, um Muster zu erkennen, die zwischen Kriminalität und die Zeit des Jahres, Tag der Woche und Zeit des Tages, dass Straftaten begangen werden. West Yorkshire arbeitet an einem system, um vorherzusagen, Bereiche mit hohem Risiko der Kriminalität.

Durham Polizei kooperiert mit der Universität Cambridge in einer initiative namens Hart - Schaden-Bewertung Risiko-Tool. Das Ziel ist der Entwurf eines Algorithmus, um vorherzusagen, ob eine person verhaftet für ein Verbrechen, ist wahrscheinlich wieder rückfällig, oder ob Sie die sichere Rückkehr in die Gemeinschaft. Der Algorithmus erlaubt die Polizei, um alternativen zu benutzen, um kostspielige und Häufig erfolglose Strafverfolgung.

Wie bei Avon und Somerset, die Sie jetzt mit algorithmen für alle möglichen Zwecke. Zum Beispiel, eine große Belastung für die Ressourcen der Polizei ist die Jagd nach Menschen, die verloren gehen - so wird die Kraft zu versuchen, vorherzusagen, wer könnte das tun, damit, dass vorbeugende Maßnahmen ergriffen werden können.

Eine Recht einfache Anwendung von algorithmen ist die Bewertung, wie viele Anrufe Sie bekommen von Mitgliedern der öffentlichkeit, die zu verschiedenen Zeiten des Tages. Finden ermöglicht hat, die Kraft zu verringern, den Anteil der Menschen, die auflegen, bevor der Anruf beantwortet wird von rund 20% bis auf 3% - eine beachtliche Leistung.

Bildrechte

Polizei wie Avon und Somerset empfangen Zehntausende von neuen bits von Daten jeden Tag. "Wir sind in einer Flut von Daten", sagt Jonathan Dowey. "Es ist nicht mehr möglich, um eine Armee von Menschen, die versuchen, um zu bestimmen, Risiko-und Schwachstellen auf Ihre eigenen."

Der öffentlichkeit weitgehend nicht bewusst, wie algorithmen, durchdringen jeden Aspekt der Strafrechtspflege - einschließlich, zum Beispiel, eine Rolle bei der Verurteilung und bei der Bestimmung, ob die Gefangenen bekommen Bewährung, aber die bürgerlichen Freiheiten Gruppen sind zunehmend alarmiert. Hannah Couchman der Freiheit besagt, dass "wenn es um die predictive-policing-tools, sagen wir, dass Ihre Verwendung muss aufhören".

Eine Sorge um menschliche Aufsicht. Avon und Somerset Police betonen, dass in der end-algorithmen sind nur eine beratende Funktion, und dass die Menschen immer die endgültige Entscheidung behalten.

dies ist die derzeitige Praxis, so scheint es durchaus möglich, dass die Polizei-Kräfte werden mehr daran gewöhnt, die Verwendung von algorithmen, Ihre Abhängigkeit, die auf Ihnen wachsen. Es ist keine exakte Analogie ist, aber Fahrer, die routinemäßig verwenden, satellite navigation-Systeme neigen dazu, am Ende glauben, dass die sat-nav weiß es am besten.

eine Weitere Ursache des Unbehagens über algorithmen sorgen für Transparenz. Algorithmen informieren lebenswichtigen Entscheidungen über das Leben der Menschen. Wenn aber der computer schlägt vor, dass jemand mit einem hohen Risiko von wiederholungstaten, Justiz sicherlich erfordert, dass der Prozess, mit dem diese Berechnung erreicht wird, werden nicht nur Menschen, sondern auch anfechtbar.

Eine noch thornier Problem Algorithmische bias. Die algorithmen basieren auf Daten der Vergangenheit - Daten, die gesammelt wurden, möglicherweise voreingenommenen Menschen. Als Ergebnis, die Angst, Sie könnte tatsächlich kommen zu verschanzen bias.

Es gibt viele Möglichkeiten, in denen dies auftreten könnte. Nehmen wir zum Beispiel, dass einer der Risiko-Faktoren abgewogen in einem Algorithmus ist "gang-Mitgliedschaft". Es ist möglich, dass die Polizei möglicherweise interpretieren Sie das Verhalten von weißen und schwarzen Jugendlichen anders - und damit eher identifizieren junge schwarze Männer als Mitglieder von Banden. Diese diskriminierende Praxis könnte dann eingebettet werden in die software.

Bildrechte

Die Variablen sollten in einem Algorithmus ist äußerst umstrittenes Gebiet. Die meisten Experten auf die Polizei profiling ausschließen wollen Rennen. Aber was ist mit sex, oder Alter? Was macht eine variable, die von Natur aus mehr Vorurteile als andere? Was ist PLZ? Durham enthalten zunächst Ihre Postleitzahl in das Hart-tool ist, aber dann entfernt es nach der opposition. Warum sollten die Menschen bewertet werden, basierend auf, wo Sie lebten, so der Einwand ran - wäre das nicht diskriminierend gegenüber Menschen in weniger wünschenswert Nachbarschaften?

der gebürtige US-Amerikaner Lawrence Sherman, ein Kriminologie-professor an der Universität Cambridge, wurde besessen von der Polizeiarbeit, seit er beobachtete, wie der brutale Polizei-Attacken auf Bürgerrechtler in den USA in den 1960er Jahren. Jetzt eine führende Figur in der push für die empirisch basierte Polizeiarbeit, er räumt ein, dass durch den Ausschluss von bestimmten Faktoren wie Rasse oder der Postleitzahl, die die Genauigkeit des Algorithmus kompromittiert werden könnte.

Aber das, sagt er, ist weniger wichtig als die Information der öffentlichkeit an Bord: "Sie machen [der Algorithmus] weniger genau zu einem geringen Grad, und mehr legitim, zu einem viel größeren Ausmaß."

Was bemerkenswert ist, ist, dass es keine Rechtsvorschriften, die sich speziell für den Einsatz von Polizei-algorithmen.

Ein Beratungs-tool namens Algo-Pflege, wurde von verschiedenen Wissenschaftlern und unterstützt durch die National Police Chief ' s Council. Sie legt die verschiedenen Freiwilligen Grundsätze, z.B. Transparenz, Verzerrung und menschlicher Aufsicht und empfiehlt jedem Algorithmus erneut getestet werden, im Laufe der Zeit die Genauigkeit zu gewährleisten. Sechs Polizei-Kräfte nutzen ihn bereits. Aber einer der Autoren der Algo-Pflege, Jamie Grace, sagt, dass es nur dienen als eine vorläufige Lösung: "Was wir brauchen, ist die Regierung, die Führung zu übernehmen", sagt er.

Wenn wir die Polizei algorithmen falsch ist, gibt es Potenzial für Skandal und Ungerechtigkeit. Wenn wir es richtig machen, es ist das Versprechen der großen pay-offs. Dr. Peter Neyroud, ein ehemaliger Chief Constable nun seinen Sitz in Cambridge, Institute of Criminology, sagt der Instituts-Analyse "deutet darauf hin, dass nur 2,2% der Täter kann erwartet werden, gehen über zu Begehen, einen hohen Schaden straftat in der Zukunft". Falls wir könnte genau dieser kleine Prozentsatz, könnten wir drastisch reduziert die Bevölkerung Gefängnis.

Die Ursachen von Kriminalität sind Komplex, aber da Avon und Somerset Polizei begonnen haben, zu verwenden algorithmen, gab es ein 11% fallen in die Berichte von vermissten Personen und ein 10% Rückgang der Einbruch.

Als für das problem der algorithmischen bias, es ist eine eher optimistische Szenario. In Theorie - und hoffentlich auch in der Praxis - wir reduzieren könnten, die Auswirkungen der menschlichen Vorurteile. Nehmen wir den Fall von Bijan Ebrahimi. Die Polizei konnte nicht erkennen die Gefahr, einen Algorithmus hätte hervorgehoben. Algorithmen, in anderen Worten, könnte Leben retten.

Sie könnten auch interessiert sein an... Bild copyright

Verbrecher in den USA gegeben werden kann, computer-generiert "Risiko-scores", die möglicherweise Auswirkungen auf Ihre Sätze. Aber sind das Geheimnis der algorithmen, die hinter Ihnen wirklich die Gerechtigkeit gerechter?

Wie Mathe können, erhalten Sie eingesperrt

Updated Date: 24 Juni 2019 00:47

Yorum yapabilmek için üye girişi yapmanız gerekmektedir.

Üye değilseniz hemen üye olun veya giriş yapın.

RELATED NEWS