Wir sind die Republik. Ein digitales Magazin für Politik, Gesellschaft, Wirtschaft, Kultur, das im Januar 2018 gestartet ist. Es ist ein Projekt gegen die Wahrscheinlichkeit: Wir wollen im winzigen Schweizer Markt ausschliesslich von unseren Leserinnen finanziert sein. Wollen Sie Teil dieses Abenteuers sein?

Debatte

Algorithmen in der Strafjustiz – Segen oder Albtraum?

Software soll potenzielle Täter erkennen und so Straftaten verhindern. Davor warnte eine Professorin in der Republik. Nun widersprechen ihr zwei Praktiker. Welche Argumente überzeugen Sie? Debattieren Sie mit.

10.10.2018

Machen Computer psychologische Gutachten in der Strafjustiz bald über­flüssig? Sie kommen immer häufiger zum Einsatz, ihr Stellen­wert nimmt stetig zu. Das Rückfall­risiko, die Wahr­scheinlich­keit eines Gewalt­delikts, die Radikalisierungs­gefahr junger Extremisten: All das lässt sich theoretisch errechnen.

Strafrechtsprofessorin Nadja Capus warnte in der Republik vor zwei Wochen vor Technikfetisch. Die Gesellschaft zahle einen hohen Preis, wenn sie die Verantwortung an eine Maschine delegiere, die Folge sei eine menschlich entleerte, telematische Strafjustiz.

  1. Bei den Anwendern führe das zu einem Tunnel­blick. Wertungen, Erfahrung, Kontext: All das könne ein Algorithmus nicht ersetzen. Das Resultat: Man halte sich sklavisch an die Zahlen.

  2. Je mehr man sich auf die Maschine verlasse, desto weniger gedankliche Anstrengung sei nötig. Künftigen Generationen von Justiz­angestellten würde so Urteils­fähigkeit und kritisches Denken systematisch abtrainiert.

  3. Ohne Not würden Willensfreiheit und Menschenrechte untergraben.

Thomas Noll und Jérôme Endrass widersprechen heute in der Republik vehement. Nicht der Algorithmus, sondern die Glorifizierung menschlicher Erfahrung schade der Strafjustiz, den Opfern und den Tätern. Sich ausschliesslich auf Prognosen von Psychiatern abzustützen, sei eine Rückkehr in die forensische Steinzeit.

  1. Grade beim Errechnen der Rückfall­gefahr seien Algorithmen der menschlichen Intuition deutlich überlegen. Selbst erfahrene forensische Psychiater erzielten in Studien schlechtere Ergebnisse als Anfänger, die sich auf einfache Algorithmen stützten.

  2. Natürlich seien Algorithmen nicht überall geeignet. Wer aber bei weit verbreiteten Phänomenen wie häuslicher Gewalt Algorithmen dogmatisch ablehne, lasse unnötig viel Leid geschehen.

  3. Schliesslich seien Risiko­prognosen an vielen Stellen im Strafprozess gesetzlich vorgeschrieben. Die Frage sei nicht ob, sondern wie diese am besten erstellt würden.

Dies sind, stark verkürzt, die Argumente der beiden Seiten. Das Thema ist brisant und wir laden Sie ein, sich an der Debatte zu beteiligen.

Ihre Meinung ist gefragt: Sind Algorithmen objektiver und vorurteilsfreier als Menschen? Oder braucht es in jedem Fall die individuelle Beurteilung durch eine Expertin? Welche Argumente überzeugen Sie, wo sehen Sie Probleme?

Wenn Sie schon hier sind …

… treffen Sie eine Entscheidung: Wollen Sie, dass die noch junge Republik weiterhin unabhängigen Journalismus betreiben kann? Wir sind niemandem verpflichtet ausser unseren Leserinnen, unserem Gewissen und dem Kampf gegen die Langeweile. Weder Oligarchen noch Werbetreibende haben einen Einfluss auf unsere Berichterstattung. Doch das funktioniert nur, wenn viele uns dabei unterstützen. 17’926 tun dies bereits.


Noch nicht überzeugt? Jetzt probelesen
neu laden

Ich bring's mal auf den Punkt: Richterinnen und Richter tragen die volle Verantwortung, wenn sie (in Zukunft wohl selbstlernende) Algorithmen anwenden: das ist die Folge des Prinzips der freien Beweiswürdigung . . . vielleicht müssten sie in Zukunft auch persönlich haftbar für ihre Entscheide gemacht werden, persönlich für Schäden aufkommen, die durch ihre Entscheide verursacht werden. Die gleiche These vertrete ich für die Produkt der Techkonzerne und der Finanzwirtschaft, bei der die selbstlernenden Algorithmen (heute wohl am weitesten fortentwickelt) schon heute riesige persönliche Schäden verursachen, etwa indem unser Pensionskassengeld systematisch verschwindet oder die zwangsweise angelegten Aktien plötzlich keinen Wert mehr haben. Ich sehe bei der heute total überbordenden Begeisterung für VR keine andere Lösung, die Diskussionen wieder in vernünftige Bahnen zu lenken, als über klare Haftungsregelungen für deren Anwendende.

2
/
0

Die Frage, die sich mir stellt, ist, ob Algorithmen systematisch strenger urteilen als Experten. Dies machen N. und Endgrass nicht deutlich. Das Beispiel des Mordes am Zollikerberg lassen eine strengere Beurteilung des Algorithmus vermuten, weil angedeutet wird, dass Algorithmen diesen Mord hätten verhindern können. Wenn Algorithmen strenger urteilen als Experten und damit in der Tendenz recht haben, relativiert dies deren prognostische Potenz. Denn der Grund, dass Experten den Delinquenten häufig eine Chance auf Rehabilitation gewähren, hat wohl mehr mit dem Prinzip Hoffnung (und wohl auch mit den Kosten des Strafvollzuges und der Anzahl freier Gefängniszellen) zu tun, als damit, dass Experten einen Rückfall kategorisch ausschliessen. Die Rechtsprechung, die neben der Bestrafung langfristig auch immer eine gesellschaftliche Reintegration anstrebt, braucht den Glauben an das Gute im Menschen und appelliert an seine Fähigkeit sich zu ändern. Wenn der Algorithmus generell strenger beurteilt als die Experten, liegt er wahrscheinlich häufiger richtig. Denn Delinquenz ist in vielen Fällen eine Folge von sozialisierten und habitualisierten Persönlichkeitseigenschaften, die sich nur schwierig ändern lassen. Die Chance auf Veränderung wird also eingeschränkt durch tiefliegende Persönlichkeitsmerkmale. Wenn man nun aber zum Schluss kommt, dass wer einmal delinquent war, dies immer sein wird, ist man zu vergleichen mit dem unerbittlichen Javert in Victor Hugos Les Misérables. Ich kann mir gut vorstellen, dass der Algorithmus in etwa so – hoffnungslos – Urteile fällt. Und dann stellt sich die Frage, ob ein solcher Ratgeber einer rechtsstaatlichen Urteilsfällung würdig ist.
Es könnte aber auch sein, dass sich die Sache ganz anders verhält. Es könnte sein, dass der Algorithmus systematisch richtiger beurteilt als die Experten. Das heisst, dass der Algorithmus in einem Fall strenger und im nächsten weniger streng beurteilt, damit das später eintreffende Deliquenzverhalten aber systematisch besser voraussagt. Wenn dem so wäre, würde ich für den vermehrten Einsatz des Algorithmus plädieren.
Weiss jemand, wie sich der Algorithmus bezüglich Urteilsstrenge verhält?

4
/
0

Computer und Maschinen machen den Menschen nicht überflüssig. Sie erleichtern und verbessern aber die Arbeit. Auch hier schreiben wir keine Briefe mehr an den Redaktor - sondern senden ein Posting an diese Pin-Wand.
Es ist wissenschaftlich nachweislich so, dass der Mensch Fehler macht. Dazu gibt es seit den Anfängen der Psychologie Belege. Das ist auch der Grund, warum Doppelblind-Studien in der Forschung eingesetzt werden - eben weil Menschen auch unwillentlich Fehler machen. Warum sollte es also hier im Strafrecht anders sein?
Der Migrant, der in schlechtem Deutsch erklärt, dass er so etwas Böses nie wieder machen wird hat wahrscheinlich von Haus aus die schlechteren Karten, als ein charmanter blauäugiger End-Dreißiger mit Züricher Wurzeln. Die junge Dame mit großen Augen eine bessere Prognose, als der Bauarbeiter mit fettigen Haaren.
Und das sind nur die auffälligsten Punkte.
Die Daten hinter den Algorithmen beruhen auf Untersuchungen von Rückfällen von Straftätern. Es gibt statistisch Häufungen bei Zusammenkommen verschiedener Ausgangsmerkmale. Männer, die einem Kind im Park auflauern und es missbrauchen, werden häufiger rückfällig, als Täter innerhalb der Familie. Männer, die bereits vor dem 16. Lebensjahr straffällig wurden eher, also solche, die erst mit 25 ein Erstdelikt begangen haben usw. Kommen mehrere Risikofaktoren zusammen, ergibt das eine Zugehörigkeit zu einer Gruppe mit höherem Rückfallrisiko.
Am Ende ist die Zuordnung eines einzelnen Täters zu einer Risikopopulation möglich - aufgrund valider Forschung und harter Fakten. Man kann sagen, dass Häftling X zu einer Gruppe von Tätern gehört, die mit 50% Risiko rückfällig werden. Das heißt nicht, dass dieser Täter mit 50% rückfällig wird - aber es heißt, dass bei diesem Täter das Risiko höher ist, als bei einem, der in einer Gruppe mit 10% Risiko ist.
Es ist dann die Sache des Gerichts, zu entscheiden, ob dieses Risiko für eine Entlassung zu hoch erscheint - oder nicht. Am Ende sind es also immer noch Menschen, die abwägen. Aber davor ist das risk-assessment ein besseres Kriterium, als der "klinische Eindruck" oder die "klinische Erfahrung".
Durch neuere Forschungsansätze spielen außerdem auch die weitere Haftzeit, Therapie, die Tat an sich, die individuelle Tatgeschichte usw. eine Rolle und führen zu einem individuell auf die Person abgestuften Gutachten, aus dem sich herauslesen lässt, unter welchen Bedingungen dieser bestimmte Täter mit hoher oder niedriger Wahrscheinlichkeit rückfällig würde ("Individualprognose"). Die Forschung in diesem Bereich schläft nicht - sie ist gerade erst erwacht. Und sie dient dem Schutz der Bevölkerung.

2
/
2
B. G.
· editiert

Mal wieder einer dieser ‚entweder-oder‘ Texte. Recht haben wie so oft beide Seiten. Ein bisschen. Wenn wie in den USA die Wahrscheinlichkeit für einen Rückfall auch aus sozialen Faktoren (Wohngegend, familiäres Umfeld oder Kontakte mit der Polizei) errechnet wird, wird jemand aus der Luzerner Baselstrasse immer schlechter eingeschätzt als eine entsprechende Person, die in Meggen wohnt. Algorithmen können sehr wohl diskriminierender sein als das Bauchgefühl eines Menschen. Es handelt sich um schlichte Maschinen, abhängig von den Daten und den Entscheidungen seines Entwicklers beim programmieren der einzelnen Schritte.

3
/
1

Die Algorithmen basieren ausnahmslos auf Stochastik (Wahrscheinlichkeitsberechnung). Ein Grundsatz der Stochastik besagt, dass die errechneten Wahrscheinlichkeiten nicht auf einen Einzelfall angewendet werden können. Die Zahlen besagen ausschliesslich, dass z.B. von 100 Tätern unter den erfassten Bedingungen um die 15 rückfällig werden. Im Fall der Risikobeurteilung sagt das genau gar nichts über den einzelnen zu beurteilenden Fall aus. Ist es einer der 15 problematischen, oder einer der 85 unproblematischen? Der Entscheid ist zufällig, erst die Menge der Entscheide ist berechenbar.
Krasse Fehlentscheide aufgrund statistischer Interpolationen sind in Wirtschaft und Politik nichts aussergewöhnliches, sie resultieren aus der Nulltoleranz, bezüglich Fehlern, welche von Vorgesetzten (Aktionäre, Management, Stimmbürger, etc.) gefordert werden. Diese Erwartung, dass Fehler nicht passieren dürfen, fördert verantwortungsloses Verhalten, indem die Entscheidung einer Maschine oder einem externen Berater überantwortet wird. Auf einmal passieren Fehler für die Niemand verantwortlich ist. Die Folgen werden untergeordneten Leuten aufgezwungen, auf der Ebene der Entscheidungsträger bleibt nur der hohe Lohn, der eigentlich die Verantwortung abgelten soll, welche die Person tragen sollte.
Dasselbe geschieht in den Gerichten. Nicht der Algorithmus oder der Experte fällt den Entscheid, sondern der Richter. Das Eine wie der Andere sind lediglich Hilfsmittel um dem Entscheidungsträger zu helfen, eine möglichst vernünftige Entscheidung zu treffen. Wollen wir wirklich eine Nullrisiko-Gesellschaft, dann bleibt wohl nichts anderes übrig als alle Kinder abzutreiben. Schliesslich wird kein Algorithmus oder Experte zu 100% ausschliessen können, dass das Kind nie ein Verbrechen begeht (oder nicht behindert ist, etc.)

3
/
2

Das Bundesgericht hat in seiner Rechtsprechung festgehalten, dass die Entscheidung über die bedingte Entlassung im Rahmen einer Individualprognose und Gesamtwürdigung des Falles erfolgen muss. Kurz: Die "Checkliste" allein gilt nicht. Zum Glück, denn bei schweren Gewalt- und Sexualstraftätern handelt es sich um seltene Fälle, bei denen Algorithmen naturgemäss überfordert sind. Überhaupt: Wie der Rechtsanwender eine solche in Zahlen gefasste Wahrscheinlichkeit in eine JA/NEIN-Entscheidung überführen soll, können auch die besten Verfahren nicht beantworten. Hier gibt es keine einzig richtige Lösung, es handelt sich vielmehr um eine normative Entscheidung, welche der Mensch bzw. die Gesellschaft aushandeln muss. Ungeachtet dessen: Wenn man der Öffentlichkeit Sicherheit mit Strafrecht verspricht, kann die Justiz nur verlieren - ein "Fehlentscheid" bei hundert Richtigen reicht, damit die Kritik am Vollzugssystem auflodert. Hier sind die Medien gefragt, von ihrer Berichterstattung hängt es mit ab, wie die Bevölkerung über den Strafvollzug und die Straftäter urteilt.

2
/
1

Von der nassforschen Sprache, in der die "überwiegende Mehrheit eindeutig" ...."Eindrücke zementiert", abgesehen, geht der Artikel am wichtigsten Punkt vorbei:

Jede Prognose wird irgendwann in einem Einzelfall falsch sein; mit weitreichenden Folgen für den/die Betroffenen. Irrt ein Mensch, kann man ihn überzeugen oder überzeugt werden oder verstehen. Irrt ein Algorithmus, ist man verloren.

3
/
0

Wer hat recht? Nadja Capus oder die Autoren Endrass und N.?
Beide haben recht. Anstatt sich von nicht polemischer, durchaus intelligenter Kritik persönlich angegriffen fühlen und sich in eine ideologische Position zurückzuziehen, um von dort aus die kritische Position zu verunglimpflichen, sollten Endrass und N. sich die Mühe machen, die zur Vorsicht mahnende Position von Capus GEMEINSAM mit ihr GRÜNDLICH nachzuvollziehen und die Situation VOLLUMFÄNGLICH zu verstehen. Dann kann etwas Sinnvolles entstehen und auch sinnvoll bleiben. Darauf sollte die Energie verwendet werden.

14
/
3

Zuerst einmal: Sehr viele diskutieren hier über automatisierte Urteile. Das ist Quatsch, Prognosesysteme werden nur bei Menschen eingesetzt, die bereits gewalttätig wurden.Man kann davon ausgehen, dass in einem grossen Teil der Gesellschaft der Wunsch besteht, rückfällige Gewalttäter aus dem Verkehr zu ziehen Null Risiko). Andererseits widerspricht es unserem auf Reintegration ausgerichteten Strafvollzug, einfach alle schweren Gewalttäter für immer wegzusperren.Die Rückfallprognose dient dem Ausgleich diese beiden konfligierenen Ziele. Damit wird bewusst in Kauf genommen, dass einige für immer einsitzen, die nie mehr gewalttätig geworden wären. Die Alternative, wäre entweder alle wieder rauszulassen, was nach den ersten Rückfällen zu Riesenprotesten führen würde oder alle drinnen zu behalten, was unmenschlich wäre.Die Risikoprognose ist also im Interesse des Täters. Eine falsche Prognose (wie will man diese feststellen?) ist im Übrigen nicht mit einem Fehlurteil zu vergleichen. Der mit einer falschen Prognose Verwahrte sitzt nicht, weil er ein Opfer der Justiz ist, sondern primär, weil er schwer gewalttätig war. Bei der heutigen gesellschaftlichen Lage misst sich die Effizienz eines Prognosesystems auch nicht in erster Linie daran, ob die, die drin bleiben müssen, nicht mehr gewalttätig wären, sondern ob die, die entlassen werden, nicht rückfällig werden. Es muss nur sichergestellt werden, dass das System eine gewisse Rationalität hat. Ich nehme an, dass solchen automatisierten Prognoseprogrammen Studien über die Rückfallgefahr voausgegangen sind. Dabei nehme ich, dass Rückfallhäufigkeit und -schwere als abhängige Variabeln gesetzt wurden. Mich würde interessieren, wie die unabhängigen Variabeln definiert wurden und wie die Daten erhoben wurden, weiter wie im Einzelfall die Parameter erhoben werden. Die Idee, ein Programm könne automatiscch unabhängige Variabeln definieren, die Daten erheben und diese multikorrelieren, ist aj wohl etwas naiv, ebenso, wie ein Scanner könne die Strafakte durchlesen und das Prognoseproramm automatisch parametrisieren. Aber wie gesagt, eine minimale Rationalität des Verfahrens genügt, alles andere ist Augenwischerei, und die Alternative wäre heute, einfach alle rückfälligen schweren Gewalttäter (müsste man definieren) lebenslänglich einzubuchten und alle 5 Jahre festzustellen, dass sie immer noch böse sind, damit wäre die EMRK perfekt eingehalten

1
/
0
D. C.
· editiert

Ein Problem beim Einsatz von Algorithmen ist, was ich mal den Zahlen-Bias nenne. Überall, wo der Mensch unmögliche Prognosen über die Zukunft machen muss, ist die grosse Verlockung, sich auf Zahlenmaterial und leicht quantifizierbare Faktoren zu stützen und sich hinter ihnen zu verstecken.

Damit will ich nicht sagen, dass man statistische Daten (und darauf beruhende Algorithmen) bei Entscheidungsprozessen ignorieren soll, nur wird deren Aussagekraft, wenn es um hochkomplexe Fragen geht (z.B. wie wird Mensch x sich in Zukunft verhalten?) gerne überschätzt, gerade bei Entscheidungen von grosser Tragweite. Das Motto "lieber schlechte Zahlen als gar keine Zahlen" führt dazu, dass man sich als Entscheidungsträger weniger exponiert (ob das jetzt irgendwo im Management ist oder eben als Richter, wo man ohnehin unter politischem Dauerbeschuss der SVP und einer Öffentlichkeit, die unter einer verzerrten Wahrnehmung leidet, weil sie den spektakulären Einzellfall nicht von der statistischen Realität unterscheiden kann und die Medien nunmal nicht über die riesige Anzahl Straftäter berichtet, die NICHT rückfällig wird, schon gar nicht so emotional wie im umgekehrten Fall). Weniger exponierte Entscheidungsträger ist aber nicht zu verwechseln mit besseren Entscheidungen.

Was dem Artikel gar nicht hilft, ist, wie dann plötzlich ein spektakulärer negativer Einzellfall ausgepackt wird, ausgerechnet um statistische Methoden zu propagieren.

Beim Einsatz von Algorithmen und anderer Regeln darf einfach nicht ausgeblendet werden, was der Algorithmus mit dem Anwender macht. Diese Frage ist von ebenso grosser Bedeutung wie jene nach den Bias, die in den Algorithmus selbst fliessen können und zu selbsterfüllenden Prophezeiungen führen.

Welcher Richter traut sich noch, in einem gravierenden Fall zugunsten des Angeklagten von der Empfehlung einer scheinbar objektiven Maschine abzuweichen, wenn andere nicht leicht quantifizierbaren Faktoren für ihn in eine andere Richtung deuten? Die Abwägung wird dann: "welchen Shitstorm löst das aus, wenn ich trotz Algorithmus zu seinen Gunsten entschieden habe und doch etwas schief läuft vs. keiner wird je mitkriegen, wenn der Bestrafte übermässig hart bestraft wird".

Rein aus erkenntnistheoretischen Gründen scheint mir zudem: Rückfälle werden zu knapp 100% erfasst, das lässt sich ja leicht messen. Überharte Strafen (bis zur Bestrafung Unschuldiger), hingegen, sind viel schwieriger bis unmöglich zu erfassen, darum hat man da kaum Daten dazu (bis auf ein paar Fehlurteile, die zufällig ans Licht kommen). Bin ja gespannt, wie man sowas in einem Algorithmus verarbeitet.

4
/
0
C. U.
· editiert

Das Bundesgericht hat in seiner Rechtsprechung festgehalten, dass die Entscheidung über die bedingte Entlassung im Rahmen einer Individualprognose und Gesamtwürdigung des Falles erfolgen muss. Der Rechtsanwender darf sich dabei auf algorithmischen Verfahren alleine also nicht verlassen, sondern sie nur als Hilfsmittel verwenden. Gerade bei den schweren Gewalt- und Sexualstraftätern handelt es sich um seltene Fälle, bei denen Algorithmen naturgemäss an ihre Grenzen kommen. Und wie genau der Rechtsanwender eine in Zahlen ausgedrückte Wahrscheinlichkeit in eine JA/NEIN-Entscheidung überführen soll, können auch die besten mechanischen Verfahren nicht beantworten. Hier gibt es keine einzig richtige Lösung, es handelt sich vielmehr um eine normative Entscheidung, welche nur der Mensch bzw. die Gesellschaft treffen kann. Statt Mensch und Computer gegeneinander auszuspielen, wie es die Autoren offenbar versuchen, scheint es besser ein "vernünftiges Mittelmass" zu finden, also weder den Menschen noch die Technik zu verteufeln. Ungeachtet dessen: Wenn man der Öffentlichkeit Sicherheit mit Strafrecht verspricht, kann die Justiz letztlich nur verlieren - ein "Fehlentscheid" bei hundert richtigen Entscheiden genügt, dass die Kritik am Vollzugssystem neu auflodert. Hier sind auch die Medien gefragt, denn von ihrer Berichterstattung hängt es mit ab, wie die Bevölkerung über den Strafvollzug und die Straftäter urteilt.

6
/
1

Das Bundesgericht und die Literatur verlangen, dass eine auf Algorithmen basierte Risikokalkulation nur im Rahmen einer Individualprognose und Gesamtwürdigung des Falles verwendet werden. Der Rechtsanwender darf sich auf mechanische Verfahren alleine also nicht verlassen. Gerade schwere Straftaten sind keine Massenphänomene, sondern selten. Dort ist also die Gefahr von Fehleinschätzungen durch algorithmische Verfahren (Falsch-Positive) doch erheblich. Diese können und dürfen nicht mehr als Hilfsmittel sein bei der Prognosestellung. Im übrigen ist die Überführung von in Zahlen ausgedrückten Wahrscheinlichkeiten in eine Ja/Nein-Entscheidung, das zentrale Problem des Rechtsanwenders, letztlich eine normative Emtscheidung, die kein Computer für ihn lösen kann. Ob also jemand mit einer 30% Rückfallwahrscheinlichkeit bedingt entlassen werden soll, kann nur der Mensch bzw. die Gesellschaft wissen. Das menschliche Erfahrungswissen und die Kraft der Algorithmen sollte nicht gegeneinander ausgespielt werden, es scheint zielführender, hier ein “vernünftiges Mittelmass” zu halten.

2
/
0

Die Diskussion würde verbessert, würde von statistischen Methoden gesprochen, statt von Algorithmen.

Die in der Replik besprochene Checkliste ist für jederman einfach nachvollziehbar. Damit entspricht sie nicht der Bedeutung des Wortes Algorithmus wie es heutzutage gebraucht wird.

2
/
1

Warum denn immer "entweder - oder"? Man sollte sich die Vorteile von beiden Methoden zunutze machen.

2
/
0

In der Debatte um die Verwendung von Algorithmen im Strafprozess angewendet dürfen folgende Punkte nicht vergessen gehen: Erstens verlangt das Gesetz in bestimmten Fällen eine Rückfallprognose (z.B. sowohl bei der bedingten Entlassung wie auch der Verwahrung wird u. a. auf die Rückfallwahrscheinlichkeit abgestellt). Die Rückfallprognose eines Psychiaters oder eines Algorithmus kann diese Wahrscheinlichkeit bestenfalls beziffern. Aber wie hoch muss die Wahrscheinlichkeit eines Rückfalls sein, damit anzunehmen ist, der Verurteilte werde weitere Verbrechen oder Vergehen begehen? 20%, 51%, 80%, 99.9%? Diese Frage lässt das Gesetz offen.
Zweitens muss man sich immer im Klaren sein: Prognosen operieren mit Wahrscheinlichkeiten! Wird einer Person eine Rückfallwahrscheinlichkeit von 80% bescheinigt, geht damit eine Wahrscheinlichkeit von 20% einher, dass diese Person keine neue Straftat begeht! Wir WISSEN also überhaupt nicht, ob eine Person rückfällig wird oder nicht. Wir können es nur vermuten. Und die einzige Überprüfungsmöglichkeit, die wir haben ist: die Person freizulassen. Verwahren wir sie, können wir unsere Prognose weder bestätigen noch widerlegen. Die Person kann in der Verwahrung gar nicht rückfällig werden. Ob die Rückfallprognosen von lebenslang Verwahrten angemessen war, kann niemand beweisen!
Aber gerade weil die Frage, eine Person bedingt zu entlassen oder zu verwahren, unglaublich folgenreich und schwierig ist, ist die Versuchung G., diese Entscheidung an die Maschine «zu delegieren». Wird eine Person aufgrund einer algorithmisch berechneten Rückfallprognose bedingt entlassen und wird sie entgegen der Prognose straffällig oder bleibt eine Person im Gegenteil ihr Leben lang verwahrt, so ist es einfach zu sagen «sorry, das ist halt die Wahrscheinlichkeit, die die Maschine ausgespuckt hat». Das ist eine einfache Art, die Verantwortung für Entscheidungen loszuwerden, die man fast nicht tragen kann, weil sie zu G. ist. Greift man aber so massiv in die Rechte anderer Menschen ein, muss man dazu auch stehen. Man kann diese Verantwortung nicht einfach abwälzen. Es gibt im Leben nichts gratis, auch nicht die Sicherheit vor Straftaten!

Die analogen Überlegungen zählen übrigens auch, wenn Algorithmen verwendet werden sollen, um Straftaten (auch von Ersttätern) präventiv zu verhindern. Kann man Menschen einsperren für eine Tat, die sie mit grosser Wahrscheinlichkeit begangen hätten, wenn man sie nicht vorzeitig eingesperrt hätte? WISSEN kann man schliesslich nie, dass sie es wirklich getan hätten.

Mein Beitrag soll die fatalen Folgen einer Falschbeurteilung durch einen Psychiater und schliesslich den Richter nicht verharmlosen! Der Beitrag soll auch nicht jegliche Verwendung von Algorithmen im Strafverfahren voreilig ausschliessen. Er soll aber aufzeigen, dass im Umgang mit Algorithmen Vorsicht geboten ist!

22
/
0

Grrr : Eine generelle Diskussion über den Einsatz von Algorithmen in der Justiz vornehmlich anhand von ,Legalprognose für Rückfälligkeit‘ zu führen finde ich dreist: Rückfällig wird man erst beim zweiten Mal! Die Grundmenge ‚Straftäter‘ empfinde ich intuitiv unzulässig als Basis für eine allgemeine Diskussion. (Dem Einsatz von Algorithmen im Kontext ‚Verwahrung von potentiellen Massemördern‘ kann ich allenfalls zustimmen, auch wenn ich allermeisten anderen Kontexten dagegen bin.)

(Rest gelöscht - verbalen Zweihänder versorgt - und es gibt ja noch die Beiträge von Verena Goanna *in :)) Rohten)

3
/
1

Roh-ten, auch ne Variante ;) in Englisch ists dann Rotten :) Aber ich sehe: offenbar haben wir ungefähr zeitgleich geschrieben. - Was mich etwas erschreckt: Ihr Beitrag scheint, so sagts der Algorithmus, zwei Stunden schon zurückzuliegen - also hänge ich schon wieder seit mindestrns zwei (wohl eher drei oder sogar vier) Stunden hier fest. Shame on me! So viel Lebenszeit schon wieder verbraten. (Aber Ihre spassige Antwort hier macht das auch schon fast wieder wett :)
PS mit Ihrem Grrr dafür erst noch voll einverstanden! Fare well!

0
/
0

Sehr interessant finde ich vor allem, dass die beiden Herren mit ihrer Argumentation wild in der Gegend rumhüpfen, von einem angeschnittenen, aber nur in Behauptungen „belegten“ Thema zum nächsten - und, wie inzwischen so üblich, nach einigen Frontalangriffen auf irgendwelche „Gruppen“, die aber bei Herrn N. und Herrn Endras offensichtlich eine einzige Person umfassen bzw mit den zusammengeschnittenen Zitaten klar auf diese eine Person abzielen, nämlich die Strafrechtsprofessorin - die im Übrigen eine sehr schlüssige Argumentation vorgelegt hat, ohne gleichzeitig andere diffuse „Gruppen“ zu diffamieren.
Es wird eine einzige Gewaltttat zitiert (von vor 25 Jahren), wie damals dürfte der Weckeffekt sicher sein - nur: ohne jegliche Aussage zum Thema.
Es ist ein Schocker ohne Einfluss auf die hier vorliegende Frage der Algorithmen.
Ausserdem: Alorithmen so harmlos „Checklisten“ zu nennen, ist zwar clever, tönt so völlig übergehbar unauffällig, ist aber natürlich eine in keiner Weise zu haltende Analogie. Algorithmen sind eben grad keine Checklisten (wie all die angesprochenen menschlichen Beurteilungspersonen sie durchaus verwenden dürften), sondern weit mehr.
Dass Algorithmen nicht neutral sind, haben andere Versuche, die nach paar Wochen schon abgebrochen werden mussten, gezeigt: Ein Social Media Algorithmus lief innert kürzester Zeit dermassen „aus dem Ruder“, dass er auf den Social Media (2018 oder ein zwei Jahre vorher, ich weiss es nicht mehr) faschistische, hochrassistische Tiraden zu produzieren begann.
Interessieren würde mich auch: Wie genau lief dieser erwähnte Versuch, wo unbedarfte „Studentinnen“ unter Anwendung von Algorithmen (welchen? und wie genau?, über welchen Zeitraum? - so lange sind Studentinnen ja gar nicht Studentinnen -, in welchem Setting?) allen hocherfahrenen Fachmenschen überlegen gewesen sein sollen?
Wurden sie an Fälle gesetzt, die bereits in der Vergangenheit lagen, während die Expertinnen und Experten in der Unsicherheit effektiver versuchter Prognosen zukünftiger, also effektiv profilaktischer Aussagen (und unter einem sehr realen Erfolgsdruck, der ihren ganzen Werdegang beeinflussen musste) gearbeitet hatten?
Keine der Behauptungen der beiden Herren aus der Praxis ist konkret belegt; die Aussagen trotzdem sehr definitiv, als wären sie effektiv „kristallklar“.
Häusliche Gewalt wird als Beispiel herangezogen (mit dem Leseeffekt: häufig!, schrecklich! und dem Effekt, hier vor allem Frauen wohl besänftigend anzusprechen und dem Anschein, diese schützen zu wollen) - nur: konkreten Bezug zu Algorithmen oder Nichtalgorithmen, also menschlichen Expertisen, folgen dann keine. Aussagekraft bezüglich der Argumentation gleich null.

7
/
5

Im Sport akzeptieren wir in der Zwischenzeit, dass das Bauchgefühl der Trainer und Sportchefs keine gute Grundlage ist, eine erfolgreiche Mannschaft zu führen oder aufzubauen. Das Verwenden von Statistiken bzw. Algorithmen in der Spielerauswahl hat sich als weit effizienter erwiesen. Spätestens seit der Nobelpreis an Daniel Kahneman für seine Prospect Theory vergeben wurde, ist klar, dass das Bauchgefühl bei Risiko-Entscheidungen nicht zu den besten Entscheidungen führt. Nicht zuletzt wurden Kahnemans Forschungen angetrieben, geeignete Männer für eine Offizierskarriere zu rekrutieren. Das sogenannte Bauchgefühl funktionierte mehr schlecht als recht er lieferte mit den Grundlagen zur Verhaltensökonomie beträchtlich bessere Resultate.
Die Verlierer sind Spezialisten wie zum Beispiel Talentsucher und Psychologen, die mit ihrem grossen Erfahrungsschatz ihre Fähigkeiten überschätzen. Das heisst nicht, dass Erfahrung nichts zählen, aber dann nur als eine weitere Meinung.
Algorithmen können nicht alles richtig voraussagen, müssen sie auch nicht. Aber sie müssen besser sein, als das Bauchgefühl der Experten. Und da habe ich keine Zweifel.

6
/
2

Nur: Wie bitte schön sollen Algorithmen die Trainerinnen in punkto Anfeuern, Motivieren, Intensität denn ersetzen?!?!
„Verlierer“ in Ihrer Stellungnahme sind übrigens auch die Frauen: sie kommen nicht vor. Was die Sicherheit aber natürlich massiv erhöht - oder etwa nicht?
Vielleicht sind Algorithmen ja nur deshalb besser beim Aussuchen, bei der Wahl der Spieler und wenn schon wohl auch Spielerinnen, weil die Trainer
innen dann entspannter mit ihnen arbeiten können - anstatt sich für eine Wahl ständig rechtfertigen zu müssen?!

2
/
0

Haha sie haben recht, ich sollte mein Schreiben gender-neutral gestalten. Ich muss mich da mal schlau machen. Und: Algorithmen erleichtern die Entscheidungen, mit anfeuern, bzw. motivieren hat das wenig zu tun. Vielen Dank für Ihre Antwort, das Thema ist extrem interessant.

0
/
0

Erprobte Algorithmen können wohl als Hilfe die Wahrscheinlich eines gerechten Urteils erhöhen. Letzten Endes gibt es immer ein Restrisiko aufgrund der Unmöglichkeit psychische Faktoren objektiv zu erfassen.

4
/
1

Selbstverständlich sind Algorithmen objektiver. Zumindest nach den Ihnen zugrundeliegenden Parametern.

Die Frage ist doch, wer kontrolliert die Parameter, die in der Berechnung zum Zuge kommen und wer bestimmt, welche Aktionen aufgrund der Ergebnisse einer solchen (Risiko)-Evaluation getroffen werden. Sollen diese demokratisch abgesegnet werden? Sollen Experten diese festlegen, Präsidenten oder Diktatoren? Das Risiko einer völlig neuen und unsäglich perfiden Form von institutionalisiertem Rassismus und der Unterdrückung politischer oppositioneller erscheint mir enorm, da hier nicht mehr eine persönliche Verantwortung ausgemacht werden kann.

Als Beispiel: Ein Richter in den USA, der einen schwarzen Mann wegen eines identischen Gewaltdelikts erheblich härter bestraft als eine weisse Frau ist für dieses Urteil verantwortlich. Er muss sich erklären.

Wenn nun aber ein Algorithmus schlicht die Daten auswertet, Geschlecht und Hautfarbe, und aufgrund dessen die Rückfallgefahr erheblich höher einstuft ist dies prinzipiell nicht falsch: Männer sind erheblich öfter gewalttätig als Frauen und Personen mit schwarzer Hautfarbe haben eine höhere Kriminalitätsrate als Weisse. Es ist keine Erklärung nötig, schliesslich ist das Urteil ja durch die unparteiische Maschine bestätigt worden (ähnlich dem Konzept organisierter Religion: Deus Vult)

Es kann nun getrost ignoriert werden, das Frauen Gewaltdelikte häufiger anzeigen, das schwarze Personen schlicht seit je her erheblich häufiger kontrolliert und, oh wunder, erheblich häufiger erwischt wurden, dass in beiden Fällen die Anzahl der Ereignisse, die Überhaupt vor Gericht kommen massiv voneinander abweichen sowie die einfache Regel, dass die gleiche Tat unabhängig von Herkunft und Geburt gleich bestraft werden sollte, zumindest im Prinzip...

Vorausgesetzt, alle mit dem Verfahren im obigen Beispiel betrauten Personen sind an gerechten Urteilen interessiert, ist das aber kein grosses Problem. Das System kann erweitert, Gewichtungen einzelner Faktoren angepasst werden. Aber wer glaubt den heute noch an wohlmeinende Politiker oder Behörden? Wie einfach es doch für einen Faschisten wie Trump wäre, eine kleine Stellschraube zu verdrehen "Demokrat=Gefährder" und schon würden erheblich mehr linke oppositionelle im Gefängnis landen als zuvor, was dann wiederum die Statistiken hochjagt und den "Gefährder"-Teil um so mehr bestätigt. Der feuchte Traum eines jeden autoritären Regimes, da diese ja immer auf der gezielten Ausgrenzung spezifischer Minderheiten beruhen.

10
/
1

Damit sind die Bedenken perfekt auf den Punkt gebracht.
Diktaturen bauen - ganz nüchtern gesehen - samt und sonders auf solchen Bausteinen auf, die Einzelfälle genannt werden und wurden, solange sie denn in den Anfängen stecken.
Das, was die Strafrechtsexpertin Nadja Campus - sofort angegriffen von den beiden Herren, die „nüchterne Betrachtung“ behaupten, aber nicht erfüllen - „ethische Katastrophe“ nennt.
Es reicht eine nicht allzu grosse Zahl solcher ethischer Katastrophen (vor allem, wenn die Anwendung dann so grundlegend wie in Algorithmen zementiert durchgedrückt wird, um eine Demokratie zum Kippen zu bringen und stattdessen faschistische Diktaturen zu etablieren.
Die Demokratien wurden mit x Sicherheitsventilen nach längen und durchwegs verheerend blutigen Kämpfen aufgebaut und installiert. Und genau diese Sicherheitsventile müssen wir nicht nur dringend wieder anwenden und stärken, sondern vor allem ins 21. Jahrhundert der Informationstechnologie, der Algorithmen tranformieren und hier neu mit einbauen.
Da hinken wir alle, die keine Diktatur wollen, noch gewaltig hinterher. Die Politik sowieso.
Denn der Technologie der unbeschränkten Kontrollen, welche die Welt des Programmierens nun mal darstellt, der abstrahierten Kontrollwelt des weit überwiegend männlich produzierten und damit auch männlich geprägten und „kontrollierten“ Programmierens jeglicher Software inkl. all der Algorithmen, erfährt bisher durch uns alle, jegliche Politik inklusive, allerhöchstens Ansätze einer Rückkoppelung der Kontrolle durch Politik und Gesellschaft.
Und das verheerendste daran ist die Tatsache, dass sie nicht wie ein einzelner Mensch oder auch jegliche sich zusammenfindenden, sich mit realem Aufwand verbunden konstituierenden Gruppe von Menschen (wie das Project R ja beispielsweise auch), erst einen Wirkungskreis aufbauen muss, der - über Jahre oder auch Jahrzehnte - durch die real damit verbundene Anstrengung begrenzt bleiben wird; sondern dass einmal eingesetzte Computer-Technolgie, Algorithen, Software, anschliessend innert kürzester Zeit potenziell auf Abermillionen Rechnern weltweit ihr Unwesen treiben wird.
Der Multiplikationseffekt ist exponentiell verschieden zu früheren Technologien.

0
/
0

Bitte verstehen Sie mich nicht falsch: Ich bin ein Fan der Digitalisierung. Die digitale Revolution, in der wir uns immer noch befinden, hat uns eine vernetzte Welt gebracht und uns als Spezies zusammengeführt, wie dies zuvor nie für möglich gehalten worden wäre. Was die industrielle Revolution für die materielle Existenz des Menschen war, ist die digitale für die intellektuelle und soziale. Natürlich wird nicht alles "gut", selbstverständlich gibt und wird es weiterhin neue und vielfältige Probleme geben, aber die Vorteile werden diese doch bei weitem überwiegen. Gerade Projekte wie eben die "Republik" wären ohne die Sogwirkung sozialer Medien kaum möglich gewesen.

Ich richte mich sehr spezifisch gegen eine automatisierte Strafverfolgung, solange die Regeln dieser Automatisierung von einer kleinen Gruppe mächtiger Personen gesteuert werden. Wenn dies nicht der Fall wäre, wenn wir eine Möglichkeit hätten, den Missbrauch dieses Instruments effektiv zu verhindern, wäre ich ein absoluter Fan: Zahlen sind objektiver und weniger voreingenommen als Menschen. Ich sehe lediglich keine Möglichkeit, wie dies mit dem gegenwärtigen politischen und wirtschaftlichen System, mit dieser Ära der institutionalisierten Korruption in der wir leben möglich sein soll.

Die Digitalisierung ist nicht das Problem, sie ist die Lösung und eine virtuelle Demokratie permanenter Vernetzung, Transparenz und Partizipation stellt meine Vorstellung einer Utopie dar. Aber es darf nicht zugelassen werden, dass die Instrumente mit denen diese Utopie gebaut werden kann durch die "alten Eliten" für sich in Beschlag genommen werden. Wir leben in einer Informationsgesellschaft, somit müssen wir auch Grundrechte an dieser Informationen erkämpfen. Ein Recht auf Informationen sozusagen, keine geheimen Bundesratssitzungen, keine geheimen TTIP Verhandlungen im politischen Bereich, ein liberales Urheberrecht um den kulturellen Monopolismus zu verhindern und schliesslich ein Recht auf die eigene Identität und das alleinige Nutzungsrecht an dieser Identität inklusive der damit verknüpften und verlinkten Informationen, die ultimativ Teil dieser Identität sind (in meinen Augen der wichtigste Punkt). Wenn diese Voraussetzungen Geschaffen sind, dann ist eine automatisierung des Strafwesens angebracht: Es würde nicht mehr als Instrument der Oppression durch die Staatsgewalt funktionieren sondern wäre wohl eher etwas wie der sauber formulierte kollektive Konsens.

1
/
0

Ein hoch interessanter Artikel.
Die Wissenschaft hat in den letzten 100 Jahren eindeutig - mit unseren fünf Sinnen und glasklarer Mathematik - festgestellt,  dass der innere Motor in unserem Universum der Zufall ist. Unbequehm aber Tatsache. 100 000 Jahre regierten den Homo sapiens Bauchgefühle, Mythen, Laplace'sche Deterministik und Religion. Es war eine Flucht vor der Erkenntnis unserer Vergänglichkeit. Es ist Zeit, dass wir uns der Tatsache stellen, dass wir Schöpfung und damit auch Opfer des reinen Zufalls sind. Wir sollten uns von dem oben aufgezählten Ballast befreien.
In diesem Sinne werde ich in Zukunft auch bei diesen unbequehmen Algorithmen über mein Verhalten und dem meiner lieben Mitmenschen versuchen, mein Bauchgefühl zu kontrollieren  und 1 + 1 = 2 als richtig akzeptieren.

2
/
1

Nur ist ja hier nirgends von 1 + 1 die Rede. Sondern von Algorithmen, die Menschen potentiell auf immer wegsperren und so ungerechtfertigt das auch sein mag, den eventuellen „Mord“ an einem Leben einfach ins gesellschaftlich nicht mehr sichtbare wegdrängen.
Nur noch Ersttäter•innen, keine Rückfälke mehr. Trefferquote im Vergleich zu menschlicher Abwägung unschlagbar. Nämlich 100 diktaturverdächtige Prozent.
Wieviele Ersttäter*innen solche potentiell komplett ungerechten Menschenschicksale gleichzeitig triggern würden: komplett unwichtig. Denn da bleiben sämtliche anderen Hände ja in Unschuld gewaschen rein.
Ein zu Unrecht weggesperrtes Leben ist ebenso empörend und müsste ebenso viel Entsetzen auslösen wie ein durch eine Gewalttat ausgelöschtes.
Wie lange es wohl noch dauern wird, bis wir in weit überwiegender Mehrheit kapieren, dass wir hundert oder auch ein paar tausend Mal eher Gefahr laufen, zu Unrecht weggesperrt (und also auf Lebenszeit potentiell gequält zu werden), als wir Gefahr laufen, einem Gewaltverbrechen zum Opfer zu fallen!?!
... Und meine Lösung war noch nie die von Nick Cave, die mich jedes einzelne Mal in Wallung bringt, wenn ich das entsprechende Lied wieder höre (und es ist in meiner sehr übersehbaren Endlosschlaufe für reizüberflutete Zugfahrten drauf): meine Lösung war also noch nie die von Cave/Minogue propagierte, die da lautet: „So mothers keep your girls at home“ - sondern ganz klar: So mothers and fathers teach your female just the same as your male offspring to take a very good look at this world before you travel into it. But do travel as wide and as far as you wish!! Only just take up a self-defence course before you do so. Just like all the brothers in this world do, and the fathers before them did.
Aber wenn wir alle uns nichts mehr trauen dürfen, weil entweder Nick Cave im Verbund mit Kylie Minogue - oder noch übler, irgend ein Algorithmus (also im Klartext ein paar anonyme, zu ungefähr 99% männliche Programmierer) in irgend einem Überwachungssystem sogenannt „beweisen“, genauer: behaupten, wie gefährlich das ist, dann erscheint der Tod ja effektiv fast wieder attraktiv. Wenigstens nicht lebenslängliche Qual. Sondern unbekannte neue Gefilde; neue Chancen; vielleicht sogar tatsächlich neue Freiheit!
Wir sollten uns mal wieder mit dem Tod statt immer noch gestörteteren „Sicherheitsdispositiven“ und Algorithem beschäftigen lernen. Bin mir sicher, wir lebten massiv glücklicher, freier und auch „gesünder“. Es lebe die Unsicherheit des Lebens, des Werdens und Vergehens. Why on Earth not.

0
/
0

Je kleiner die Wahrscheinlichkeit des in Frage kommenden Ereignisses ist, umso grösser muss der Lernkorpus für ein AI-System sein. Das haben wir bei unserer Arbeit mit NLP genau so erkennen können: Häufige Ereignisse (Funde) können mit einem kleinen Lernkorpus recht zuverlässig erkannt werden, seltene auch mit einem grossen Korpus nur unsicher. In solchen Fällen braucht es andere Methoden, bis hin zur verpönten „eminenzbasierten“ Entscheidung.

Die betrachtete Situation bezüglich Ereignishäufigkeit und Korpusgrösse (und Qualität) zu untersuchen, finde ich wichtig, bevor wir uns grundsätzlich streiten – nicht nur hier, sondern in allen Fällen, bei denen man AI einsetzen möchte.

N. und Endrass weisen ebenfalls auf diesen Unterschied zwischen den beiden AI-Situationen hin, in ihrem Vergleich zwischen islamistisch motivierter Gewalt (Ereignis selten, Lernkorpus klein -> Prognose unsicher) und wiederholter häuslicher Gewalt (Ereignis häufiger, Lernkorpus grösser).

2
/
0

Aber genau zur häuslichen Gewalt machen sie dann rein gar keine Aussagen zu Algorithmen. Im Übrigen ein Bereich, der bis vor sehr Kurzem von rein gar niemandem effektiv ernst genommen wurde. Hätte es bislang dazu schon Algorithmen gegeben: wären diese wirklich besser programmiert gewesen als die häusliche Gewalt gesamtgesellschaftlich wahrgenommen wurde? Und sind sie es heute? Jegliche Aussage dazu fehlt im vorliegenden Artikel ja schlicht.

0
/
0
B. D.
· editiert

Eine sehr interessante Diskussion, vieles wurde schon gesagt.

Was mir auffällt ist, dass wir an den Algorithmus andere Masstäbe anlegen als an die Juristen. Wir fragen einen angehenden Juristen nicht: 'Können wir mal in Ihren Kopf reinschauen, wir wollen gerne Transparenz!' Wir erwarten nur, dass sie oder er die Examen besteht.

Das fehlt in der praktischen Diskussion zu den Algorithmen: wie werden sie gemessen und zertifiziert, wer entscheidet darüber?

Wenn diese Fragen überzeugend (und transparent) geklärt sind bin ich ganz auf der Seite der Algorithmen.

8
/
1

Der Jurist kann sich durchaus in den Kopf sehen lassen. Wir können ihn nämlich fragen: Weshalb treffen Sie dieses Urteil? Und der Jurist sollte auf diese Frage antworten können, sonst wäre er ein schlechter Jurist. Genau darauf hat er sich ja vorbereitet, im Jus-Studium und im Studium des konkreten Falles. Ganz anders der AI-Algorithmus. Der kann das nämlich nicht. Es ist gerade eine der Schwächen der AI-Algorithmen, dass sie intransparent sind. Das liegt nicht an böser Absicht, sondern ist eine essentielle Eigenschaft der neuronalen Netze und ihrer Abkömmlinge, wie deep learning. Diese Systeme sind statistisch und korpusbasiert, d.h. sie brauchen einen Trainingsdatensatz. Hier fängt das Problem an. Ist der Datensatz, d.h. der Lernkorpus wirklich korrekt? Und ist er G. genug? Falls nicht, gilt Garbage-in / Garbage-out, d.h. aus schlechten Daten kann nichts Gutes kommen. Oft gibt es aber auch wichtige Faktoren, die aus Prinzip nicht im Datensatz auftauchen können, weil sie z.B. schlecht messbar sind. Doch auch wenn die einzelnen Dateneinträge sichtbar, korrekt und relevant sind, bleibt das System intransparent. Denn die Schlüsse im System, d. h. weshalb und wie aus den konkreten Datensätzen welche konkreten Schlussfolgerungen gezogen werden, bleiben bei dieser Art Algorithmen aus Prinzip nicht erkennbar. Das heisst nicht, dass sie inkorrekt sind, sie sind nur intransparent. Die Forderung nach Transparenz, z.B. vom Fraunhofer Institut (siehe Beitrag von Frau Fichter), bezieht sich nicht auf die Schlüsse, die bleiben intransparent, sondern auf den Datensatz. Und da ist die Forderung nach Transparenz m. E. absolut berechtigt.

8
/
0

Alles das stimmt. Leider wird auch ein deep learning Netz einem 'perfekten' Datensatz nicht unbedingt gerecht. Mir wäre es daher wesentlich lieber wenn der fertige Algorithmus einen transparenten, fairen, umfassenden Satz an Beispielfällen erfolgreich absolvieren muss (ähnlich einem Examen).

Ob ein Jurist (besser: ein Mensch) die Frage nach der eigenen Motivation wirklich beantworten kann steht auf einem ganz anderen Blatt. Ich denke den meisten ist der Einfluss des Abstands zur letzten Pause nicht immer bewusst (s. Beitrag von Herrn Studer).

1
/
0

Die Algorithmen-Ethik-Debatte steckt hierzulande in den Kinderschuhen. In Deutschland ist man schon ein wenig weiter, die Bertelsmann-Stiftung und das Fraunhofer IT Institut haben brauchbare Güterkriterien formuliert, wie ADMs (algorithmusbasierte Entscheidungssysteme, aus dem Englischen: decision-making systems) zur Anwendung kommen sollen.

Folgende Kriterien müssen definiert, und Fragen geklärt werden:

  1. Transparenz (wie Herr S. schon schrieb), Gewichtung, Variablen, Funktionweisen der ADMs sollen nachvollziehbar offengelegt werden. Oder zumindest für ExpertInnen-Audits offengelegt werden.

  2. Trainingsdatensatz offenlegen. Im Fall der Strafjustiz/Predictive Policing muss offengelegt werden, womit die einzelnen Systeme trainiert worden sind. Sind es mehrheitlich weisse/dunkelhäutige Straftäter, gibt es einen Bias? Siehe Google-Bilderkennungsalgorithmus, dem nur weisse Menschen vorlegegt worden sind und - als er dann marktreif war - Schwarze als "Gorillas" identifiziert hat.

  3. Haben die Betroffenen ein Widerspruchsrecht? Und können wählen zwischen einer ADM-Entscheidung oder einer menschlichen Beurteilung? (Kein Wunder werden ADMs in der Schweiz an Flüchtlingen und Sträflingen ausprobiert, weil hier das Widerspruchsrecht ohnehin nur eingeschränkt gegeben ist, verzeiht mir die kleine zynische Bemerkung)

  4. Gibt es einen "Beipackzettel" für Risiken und Nebenwirkungen jedes ADM-Systems? Das müsste gesetzlich unbedingt geregelt werden. Gab es eine "Verträglichkeitsprüfung" des ADMs auf etwaige soziale, geschlechtsspezifische und kulturelle Auswirkungen?

IN der Schweiz wird die Datenschutzgesetzrevision das Thema "Algorithmische Beurteilung" reglementieren (ab Ende 2019). Dabei wurden Teile übernommen von der europäischen DSGVO. Allerdings bezieht sich die DSG/DSGVO nur auf autonome Entscheidungssysteme die unmittelbare Konsequenzen haben auf Menschen (also bei einer Passkontrolle am Flughafen, wo ein Scanner dann entscheidet ob ich weiter komme oder nicht), NICHT auf entscheidungsunterstützende Systeme, bei der Algorithmen lediglich "Empfehlungen" abgeben, in letzter Instanz aber ein Mensch entscheidet. Und genau dies kritisiert Professorin Nadja Capus zu Recht. Warum noch eine intellektuelle Denkleistung machen? Die Software erledigt das ja effizienter? Kurz: werden wir einfach bei entscheidungsunterstützenden ADMs nur noch konform handeln/entscheiden und übernehmen, was uns der Algorithmus empfiehlt?

Hier müssen Medien, Wissenschaflterinnen und die Zivilgesellschaft eine wichtige Beobachtungsrolle einnehmen in den letzten Jahren.

Wer sich für weiterführende Literatur interessiert, darf sich gerne bei mir melden.

14
/
1

Danke für den (wie immer) klaren Faktencheck, Adrienne.
Für mich der relevanteste Diskussionsbeitrag so far (von denen, die ich bisher gelesen habe).
Ein Punkt scheint mir zusätzlich wichtig: In der von dir erwähnten Einschränkung der DSGVO, die sich nur auf autonome algorithmische Entscheidungssysteme beziehe, sehe ich noch einen weiteren Unterschied zur hier diskutierten „algorithmischen Entscheidungshilfe“:
Dort ist der Einfluss nicht nur klar, sondern auch unmittelbar - läuft also in körperlicher Anwesenheit der vom Algorithmus beurteilten Personen (und eben nicht wie im hier diskutierten Justiz-Algorithmus irgendwo im Hintergrund) ab.

  1. können beurteilte Personen so wenigstens direkt und in Echtzeit auf allfällige Fehlbeurteilungen durch die Algorithmen selber reagieren, so wie auch die zuständigen anwesenden menschlichen Kontrollkräfte.

  2. umgekehrt ebenso: Fehler werden auch für die zuständigen menschlichen Instanzen direkt sichtbar - anstatt langfristig diffus nur die Vorstellungen der Fachkräfte (wie im hier diskutierten Justiz-Algorithmus) über lange Zeitabschnitte zu beeinflussen - ohne jegliche realen Rückchecks durch konkret existierende Gegenüber, die dabei immer auch anwesend wären (bzw eigentlich sein müssten).
    Dein 2.-letzter Abschnitt: Hier müssen Medien, Fachkräfte, Zivilgesellschaft eine wichtige Beobachtungsrolle einnehmen - in den nächsten (nicht letzten, nehme ich mal an, Schreibfehler wohl) Jahren: dringendst und notwendigstens; eindeutig.
    Checks and Balances der Jetzt-Zeit eben. Und zwar solche, die noch möglich sind, und die wir alle noch wahrnehmen können.
    Und ja, weiterführende Informationen würden mich sehr interessieren!
    Danke!

0
/
0

Solange der Algorithmus nur der Entscheidunterstützung dient und die Versachlichung der Abwägungen unterstützt, ist meines Erachtens nichts dagegen einzuwenden. Die Erfahrung der RichterIn bzw. der StaatsanwältIn ist schliesslich auch eine Art "menschlicher Algorithmus", der durch den maschinellen überprüft werden kann.

4
/
1

Transparents und Differenzierung bleiben ganz offensichtlich bereits jetzt schon zu oft auf der Strecke - Überlastung? Desinteresse? Bedeutungslosigkeit - Einzelfälle? Akkumulation? Konvenienz? Ist die Feststellung 'es menschelet überall' weniger deprimierend als 'die Sch...algorithmen? Wie sachlich, seriös und konkret will wer was dezidieren, wenn Betroffene zu Opfer bzw. zu Sieger werden?
Ein betroffener Verlierer fragt sich das - der Gewinner sind mehr und ohne Zweifel...

4
/
1

Ich finde diese Diskussion sehr wichtig. Die Debatte würde sich aber meiner Meinung nach nicht im 'Ob', sondern im 'Wie' stellen. Wer programmiert mit welchen Daten was, und wann wird es angewendet. Es wird möglicherweise nicht mehr allzu lange dauern, bis sich Algorithmen selber neutraler/objektiver programmieren als wir sie. Da entsteht eine völlig neue Version der Huhn-und-Ei-Frage. (Gibt es Urheber, wenn sich etwas selbständig Fortpflanzen kann?)
Um das Handwerk von Richterinnen nicht zu verlieren, und somit den Teil von unserem Talent und Wissen, welches Algorithmen (noch) nicht anwenden können zu erhalten, und ein 'menschliches' Justizsysthem zu bewahren, würde vielleicht die Frage nach der Rolle von Richterinnen neu gestellt. Ich denke es ist essentiell, uns selber nicht zu Handlangern von Algorithmen machen zu lassen. Da ist Beziehugsarbeit angesagt.

10
/
0

Ein Algorithmus an sich ist bloß eine Abfolge von Handlungen um ein bestimmtes Ergebnis zu erzielen. Beispiele sind üblicherweise ein Kochrezept oder ein Strickmuster welche entsprechend ein Menü oder eine Socke als Resultat ergeben. Auch unsere Gene sind ein abgespeicherter Algorithmus welcher einen (selbständig) denkenden Menschen als Resultat erzeugt.
Von solch komplexen Algorithmen sind wir technisch noch sehr, sehr weit entfernt. Die Optimierung der Gensequenzen dauerte viele Millionen von Jahre, wobei unzählige zufällige Mutationen von der Evolution auf Überlebensfähigkeit getestet und wieder verworfen wurden.
Um diese Perfektion zu erreichen fehlt uns die Hardware (Computer sind um ein vielfaches simpler als das Gehirn) und die Zeit.
Die Zukunft vorauszuberechnen ist nur bei einigermassen überschaubaren physikalischen Vorgängen möglich. Etwas derart komplexes wie die Interaktionen von Individuen einer Gesellschaft ist wegen der Unzahl von Variablen, sowie der Ungenauigkeit der Messwerte unmöglich zu berechnen. Dafür hat sich in der Evolution die Intuition oder der Instinkt ausgebildet. Beide liefern sehr schnelle, aber auch sehr ungenaue Ergebnisse.
Die Algorithmen um welche es hier geht liefern als Resultat eine Wahrscheinlichkeitszahl, und dies vor allem auf der Basis von früher erhobenen Erfahrungswerten. Diese Datenbasis ist wohl der entscheidende Faktor und dieser kann nun sehr wohl missbräuchlich manipuliert werden.
Bereits die Tatsache, dass dunkelhäutige Menschen öfter kontrolliert werden, führt ja zu der irrigen Annahme, das Dunkelhäutige häufiger Delikte begehen als Weisse. Ein konkretes Beispiel wie manipulierte Daten den Algorithmus im menschlichen Gehirn zu Fehlentscheidungen bringt.

4
/
0

Schön gesagt! :)
In einem Punkt allerdings möchte ich gern einen Einwand anbringen:
Algorithmen klnnen sich niemals selber programmieren, das ist etwas zwischen Lüge und Vertuschung realer Gegebenheiten, sooft es momentan auch in Diskussionen aufgeführt wird.
Jeder „selber lernende“ Algorithmus weist eine (menschliche, Programmierer-abhängige und -gewählte) Grundprogrammierung auf. Diese entscheidet über den weiteren „Lern“Verlauf. Welche Infos der Algorithmus wo wie (aus)sucht, um sich „selbständig“ weiterzuentwickeln. Bisherige Experimente haben unglaublich einseitige Grundprogrammierungen nach kürzester Zeit schon erkennen lassen.
Algorithmen-Programmierung müsste also von absolut gemischtgeschlechtlichen sowie alle Ethnien und Länder dieser Welt umfassenden Gruppen in konstanter konkreter Zusammenarbeit und vorangehender Diskussion programmiert werden, um auch nur den Hauch einer Chance auf sowas wie „Selbständigkeit“ zu haben und nicht krass aus dem Ruder zu laufen im späteren „Lern“-Verlauf.
In solchen Momenten verstehe ich auch immer wieder, weshalb einige (wie viele auch immer) Menschen eine dermassen umfassende Ehrfurcht (oder wie immer wir das nennen möchten) vor „der Schöpfung“, dem gewachsenen - real existierenden, teilweise auch sichtbaren, Universum haben.
Während mir ob all der Hardware-Software-Algorithmen-Steuer-Kontroll-Programmierwahn-Welt immer und immer wieder die Sage des „versunkenen“, verschwundenen, „Atlanta“ in den Sinn kommt. - Was wäre, wenn „wir“, unsere komplett übertechnisierte „Welt“, Erde zumindest, Atlanta wäre-n?
Und dessen Untergang nicht die Sage über eine Vergangenheit wäre; sondern über unsere eigene (möglicherweise nicht allzu ferne Zukunft?
Wer kennt die Sage von Atlanta überhaupt noch? Es ist eine der Geschichten, die mein ganzes Werden geprägt hat. Immer irgendwo gegenwärtig in meinem Innern, meinem Gedächtnis. Nicht aber, wer sie mir wann und weshalb erzählt haben mag. Nur, dass ich sie von ganz klein auf schon gekannt haben muss. Sie war eine der unverrückbaren Menschheitsgeschichten. Atlanta.

0
/
0
F. R.
· editiert

Besten Dank für die interessante Gegenüberstellung dieser zwei Perspektiven. Aus meiner Sicht geht es hier allerdings nicht um ein entweder oder, sondern darum, gegenüber überhöhten Erwartungen an diese Algorithmen vorsichtig zu sein. Obwohl diese Hilfsmittel gewiss einen grossen Fortschritt bei der Deliktsprävention gebracht haben, ist die relevante Frage aus meiner Sicht folgende: Wie hoch müssen der errechnete Wert und wie schwer die drohenden Delikte sein, um einen möglicherweise langjährigen (präventiven) Freiheitsentzug rechtfertigen zu können? Welche Fehlerquote (Stichwort: “False Positives”) ist man bereit in Kauf zu nehmen, um die Sicherheit der Gesellschaft zu erhöhen? Zu dieser Frage würde mich die Antwort der Herren N. und Endrass interessieren.

3
/
2

Ein gewisses Unbehagen gegenüber Software, die Entscheidungen vorbereitet oder abnimmt, scheint zumindest nicht falsch. Die Frage ist immer, welche Daten zugrundeliegen und wie diese gewertet werden. In den USA wurde eine Software, die Richterinnen Strafmasse vorschlägt, als rassistisch entlarvt. Dies, weil schwarze Verurteilte in der Regel härter bestraft werden als weisse. Die Software hat dies unkritisch übernommen und aufgrund der Daten härtere Strafen vorgeschlagen. Selbst, als die Ethnie als Kriterium wegfiel, blieb die Software rassistisch, weil etwa bei Bewohnern von eher schwarzen Vierteln härtere Strafen vorgeschlagen wurden. Gibt einige schöne Stücke dazu, etwa hier:
https://www.nytimes.com/2017/10/26/…-bias.html

28
/
2

Irgendwo habe ich vor kurzem eine gute Analogie zur Digitalisierung gehört: ein moderner Schreiner heute ist eigentlich ein Programmierer. Er berechnet, wie die Möbelteile am besten zugeschnitten werden sollen und programmiert danach die Maschine. Begrenzen wir aber die Schreinerlehre auf diese mathematischen Dinge, dann lernen die jungen Leute nie, "was Holz eigentlich ist".

Die Algorithmen sind solche Maschinen. Ihre Anwendung bringt Effizienz, Unbeeinflusbarkeit undNeutralität. Aber es ist von staatstragender Wichtigkeit, dass die Anwender*innen einmal gelernt haben, wie diese funktionieren und warum. Denn nur so können sie das Werkzeug nutzen und werden nicht vom Werkzeug genutzt. Die alte Frage, ob der Mensch den Weizen domestiziert hat oder ob nicht eher wir der Pflanze zu einer weltweiten Verbreitung verholfen haben?

Das Ziel muss schliesslich sein, dass wir Menschen überprüfen können, ob diese maschinelle Objektivität nicht ein unfaire ist, um bei Bedarf korrigierend einzugreifen. Die Algorithmen sollten nämlich möglichst unter Anleitung des Menschen weiterentwickelt werden.

11
/
1

"... zumal der Stein des Anstosses nüchtern betrachtet nicht besonders brisant ist." - Und deshalb wird in den beiden öffnenden Absätzen, die in diese Abwiegelung münden, gleich der Zweihänder geschwungen? Danach noch salopp und kontextfrei der Mord in Zollikerberg eingestreut, ansonsten - wie bereits bemängelt - mit zynischem Unterton nicht sehr elegant an den Knackpunkten vorbeimanövriert.

Man könnte fast meinen, die Autoren möchten Frau Capus eigentlich beipflichten - zumal zwischen den Zeilen. Ihrem deklarierten Anliegen (das vielleicht diskutierenswert wäre, beweisen Sie es doch mit einem nüchtern-sachlichen neuen Anlauf, in dem sie auch auf die Messwerte und deren Zustandekommen, auf die Schnitt zwischen Mensch unf Algorithmus, die praktische Umsetzung eingehen) tut der Artikel in meinen Augen jedenfalls gar keinen Gefallen.

4
/
2

Mich würde interessieren, was sie als die Knackpunkte sehen.

2
/
0

Knackpunkte: zum Beispiel, dass die Autoren selber das Gegenteil ihres deklarierten Lobs der „nüchternen Betrachtung“ beispielsweise tun?
Und dass kein einziges Beispiel schlüssig auf die Debatte rückbeziehbar wird.
Sie behaupten das nur.
Vorgeben, deklarieren, ist aber nicht gleich Tun. Naja, meine Sicht.

0
/
0

Siehe Klammer im zweiten Absatz.

Zudem: der Effekt des "Verlernens", den Capus erwähnt - darauf zielt aber auch meine Frage nach der Interaktion von Mensch und Algorithmus ab.

Der wirklich zentrale Punkt aber wird von N./Endrass ebenfalls kurz angesprochen, ohne dass darauf weiter eingegangen wird: "das Risiko der sogenannt Falsch-Positiven" - die Formulierung klingt ja schon freundlich, ist ja schliesslich positiv, nicht? Da wären ein paar weiter Sätze - gerade um Zweifler wie mich mit weiteren Grundlagen zur Meinungsbildung auszustatten - schon angebracht gewesen. .

1
/
1

Der Artikel beginnt überzeugend, mit einer gut belegten Herleitung der Titelbehauptung und nachvollziehbarer Kritik an blosser Intuition von Experten als Alternative zu Statistik.

Auch die Grenzen von Statistik - sie braucht eine hohe Fallzahl um überhaupt Aussagen machen zu können wird noch erwähnt.

Dann aber schwenkt der Text zu "Octagon", einer Methode, die nicht näher erklärt wird, aber offenbar den Beschränkungen klassischer Statistik nicht unterworfen ist - sie ist nicht starr und nicht abstrakt (was auch immer das heisst) und kann wundersamerweise plötzlich doch "bei seltenen Phänomenen" Anwendung finden, was ein paar Zeilen weiter oben noch als Grenzen anderer Algorithmen genannt wurde.

Genau hier zeigt sich die Problematik: "Algorithmus" heisst nichts anderes als "Berechnungsvorschrift". Zählen von Äpfeln und Birnen ist genauso ein Algorithmus wie Deep Learning. Nur: die Komplexität ist sehr unterschiedlich, und damit variiert die Nachvollziehbarkeit drastisch. Und auch der Anteil am Resultat, der nicht mehr transparent verständlich ist, sondern sich aus den komplexen Details im Inneren des Algorithmus ergeben. Diese Details sind durchaus nicht wertfrei, sondern von den Vorurteilen und Fehleinschätzungen der Programmierer oder der Trainingsdaten beeinflusst.

Es kann also gar kein Ja oder Nein zum Trendbegriff "Algorithmus" in der Justiz geben, sondern nur die sorgfältige Abklärung und Transparentmachung jeder einzelnen Methode.

Was definitiv nicht passieren darf, ist, dass in der Justiz (und anderswo) Methoden bzw. Softwareprodukte zur Anwendung kommen, deren Entscheidungen nicht mehr verstanden, sondern nur noch hingenommen werden.

58
/
5

Ich hänge hier einfach mal ein bisschen Quellen zum Thema an.
https://arstechnica.com/tech-policy…objective/
Was natürlich die Experten nicht besser macht, die sind genau so biased.

1
/
0
A. N.
· editiert

Wenn es um Richter geht, wie sie heutzutage über Schuld und Unschuld entscheiden, würde ich den Herren Endrass und N. sofort zustimmen: Die Glorifizierung menschlicher Erfahrung schadet der Strafjustiz. Das Bauchgefühl ist kein Beweis. Der Grundsatz in dubio pro reo ist daher direkte Folge der Erkenntnis errare humanum est. Braucht ein Richter beim Entscheid über Schuld oder Unschuld sein Bauchgefühl, so kann der Entscheid nur auf Freispruch lauten, da Beweise kein Bauchgefühl brauchen. So schlecht wie viele Richter heutzutage zum Nachteil von Angeschuldigten entscheiden (in ihren Köpfen ist eine Verdachtslage schon ein Schuldspruch; Ausnahmen bestätigen die Regel) können Algorithmen gar nicht urteilen. Abgesehen davon, können sich Algorithmen - im Gegensatz zu vielen Richtern heutzutage - ihrer Arbeit weder überdrüssig sein, noch können sie es sich auf einem gut bezahlten Posten bequem machen.

3
/
3

Entscheidender Denkfehler hier: die Algorithmen ersetzen nicht die von Ihnen aufgeführten (möglicherweise befangenen) Richter•innen, sondern beschränken die Entscheidungsfreiheit der Expert•innen, die diese Richterinnen und Richter allenfalls noch in Schach halten könnten.

Kleiner Unterschid, grosse Folgen.

Langsam möchte ich, merke ich grad, ganz gern ganz konkret wissen, was genau diese ominösen Algorithmen eigentlich „bessser“ machen!

Sperren sie einfach mehr Vorverurteilte gleich definitiv weg?, so dass von allem Anfang an gar keine Wiederholungstaten mehr sich ereignen können?; machen die Welt also - scheibar! - noch extremistischer sicherer und sicherer und sicherer? (Bis gar kein Leben mehr da ist? Denn: Leben ist mit extremer Klarheit tödlich! Viel eindeutiger noch als rauchen.)

Und die Zahl derjenigen, die eine reale Gefahr laufen, weggesperrt zu werden - egal, ob irrtümlich oder nicht (und das könnte dann ganz gut irgendwann alle von uns treffen) - damit aber auch der eindeutigen Justizirrtümer bzw -vergehen an schuldlosem Leben, um einiges grösser?

Oder was genau machen sie? Was genau wird als dieser sogenannte grössere Erfolg der Algorithmen umschrieben?

Kleiner wird die Zahl der Weggesperrten ja nüchtern besehen jedenfalls wohl relativ sicher nicht sein. Oder irre ich mich?

Also: Wie sieht denn das Ganze ganz konkret eigentlich aus?

3
/
0

Können Algorithmen selbstgefällig oder gar selbstgerecht sein? Ich rede nicht von Algorithmen der forensischen Psychiatrie, sondern von den noch nicht existierenden Algorithmen der Strafjustiz. In Anbetracht der aktuell massiven Fehlleistungen der Strafgerichte (ich würde von einem Dirttel bis zu 50% Fehlurteilen sprechen) würde ich Algorithmen jedenfalls nicht a priori ablehnen.

1
/
1

Spontan neige ich dazu, Frau Capus zuzustimmen. Aber eigentlich vor allem, weil ihre Nüchternheit mich mehr überzeugt, als die Polemik der Algorithmus-Befürworter. Was ein wenig seltsam ist, wenn man genauer darüber nachdenkt.
Schlussendlich neige ich aber doch zur Ansicht, dass eine Mischung aus Beidem wohl am vernünftigsten ist. Immer im Bewusstsein, dass menschliches Verhalten zuverlässig vorherzusagen ohnehin eine Illusion ist.

5
/
2

Es gibt keine “vorurteilsfreie mathematische Algorithmus.” Die Vorurteile von die Programmierer/in wurde zur die Algorithmen übernommen.

11
/
6
1
/
0

Ein israelisches Forschungsteam führte eine interessante Studie durch: Um versteckte Einflussgrößen bei Justizentscheidungen zu entdecken, untersuchten die Wirtschaftspsychologen 1112 Urteile, die acht verschiedene Richter zweier israelischer Gerichtshöfe in 50 Verhandlungstagen fällten. Immer ging es um die Frage, ob Häftlinge auf Bewährung freigelassen oder Auflagen erlassen werden.

Das Ergebnis ist ernüchternd: Je früher im Sitzungstag die Richter ihr Urteil fällten, desto positiver der Bescheid hinsichtlich der Anträge: 65%. Im Verlauf des Tages sinkt die Zustimmung, um schliesslich zu Tagesende praktisch jeder Antrag abgelehnt wird. Einzig die Frühstückspause und das Mittagessen vermochten die Quote kurzzeitig anzuheben, um dann erneut abzusinken.

Unsere Wahl: Eine Blutzucker-gesteuerte Justiz. Oder eine Algorithmen-gesteuerte. Ich plädiere zugunsten des Algo und bitte darum, die Verhandlung nach dem Mittagessen zu führen.

Der Link zur Studie: http://www.pnas.org/content/108/17/6889

31
/
5
M. F.
· editiert

Sehr wahrscheinlich sind die Schlussfolgerungen dieser sehr häufig zitierten Studie nicht richtig! Die Reihenfolge der verhandelten Falle ist nämlich in aller Regel nicht zufällig.

Quelle: http://www.pnas.org/content/108/42/E833.full

1
/
0

Ich kenne die Studie zwar nicht, aber ich halte das für eine ziemlich schräge Schlussfolgerung: Aus der Korrelation mit dem Abstand zur Pause kann doch nicht zwingend auf einen Kausalzusammenhang geschlossen werden. Es ist ja populär, die Justiz auf diese Weise zu verunglimpfen, aber ein gutes Argument für deren Ersatz durch Algorithmen ist das nicht.

2
/
1

Entscheidend beim Einsatz von Algorithmen ist die Transparenz.
Entscheidungskriterien und Gewichtungen müssen jederzeit offen einsehbar sein.
Nur so kann sichergestellt werden, dass unbewusst oder gewollt Vorurteile der Entwickler mit einfliessen.

34
/
6

Was mir auffällt, ist, dass Frau Capus theoretisch argumentiert und wenig Erfahrung mit Straftätern haben dürfte. Das haben ihr die beiden Herren N. und Endrass sicherlich voraus. Den zynischen Unterton ihrer Aussagen hätten sie sich dennoch sparen können. Dieser weckt wiederum mein Vertrauen in die Algorithmen: Maschinen können (noch) nicht zynisch sein. Ich gebe deshalb Frau Capus Recht, wenn sie sagt, wir wären in vielen Fällen besser beraten, wenn gewisse Strafverfahren automatisch ablaufen könnten. Sie denkt dabei an Bussen für fehlbare Autofahrer, aber es gibt bestimmt auch andere Fälle, wo Computer objektiver und speditiver arbeiten als Menschen. Ich denke an Delikte, bei denen ein Mensch der Gemeinschaft schadet, ohne dass dabei andere Mensch involviert sind, etwa Diebstahl, Vermögensdelikte oder Sachbeschädigung.
Die Argumente der Herren N. und Endrass überzeugen ebenfalls, gerade was häusliche Gewalt angeht. Dennoch muss, wo es sich um zwischenmenschliche Belange handelt, der Mensch das letzte Wort haben und nicht der Algorithmus. Dieser erinnert mich an die berühmten Sketches der englischen Comedy-Serie "Little Britain", wo es zum Schluss immer heisst: The computer says no!
Als beratendes Instrument scheinen mir Algorithmen mit ihren nüchternen Einschätzungen aber sehr nützlich zu sein.

10
/
4

seit 2018