Sie glauben, dass Meinungsvielfalt darin besteht, dass es linke und rechte Medien gibt? Die dann im Schützengraben aufeinander schiessen? Wir glauben das nicht. Die Aufgabe des Journalismus ist, eine gemeinsame Grundlage zu schaffen, auf der man um seine Interessen kämpft. Dafür arbeitet die Republik.

Debatte

Algorithmen in der Strafjustiz – Segen oder Albtraum?

Software soll potenzielle Täter erkennen und so Straftaten verhindern. Davor warnte eine Professorin in der Republik. Nun widersprechen ihr zwei Praktiker. Welche Argumente überzeugen Sie? Debattieren Sie mit.

10.10.2018

Machen Computer psychologische Gutachten in der Strafjustiz bald über­flüssig? Sie kommen immer häufiger zum Einsatz, ihr Stellen­wert nimmt stetig zu. Das Rückfall­risiko, die Wahr­scheinlich­keit eines Gewalt­delikts, die Radikalisierungs­gefahr junger Extremisten: All das lässt sich theoretisch errechnen.

Strafrechtsprofessorin Nadja Capus warnte in der Republik vor zwei Wochen vor Technikfetisch. Die Gesellschaft zahle einen hohen Preis, wenn sie die Verantwortung an eine Maschine delegiere, die Folge sei eine menschlich entleerte, telematische Strafjustiz.

  1. Bei den Anwendern führe das zu einem Tunnel­blick. Wertungen, Erfahrung, Kontext: All das könne ein Algorithmus nicht ersetzen. Das Resultat: Man halte sich sklavisch an die Zahlen.

  2. Je mehr man sich auf die Maschine verlasse, desto weniger gedankliche Anstrengung sei nötig. Künftigen Generationen von Justiz­angestellten würde so Urteils­fähigkeit und kritisches Denken systematisch abtrainiert.

  3. Ohne Not würden Willensfreiheit und Menschenrechte untergraben.

Thomas Noll und Jérôme Endrass widersprechen heute in der Republik vehement. Nicht der Algorithmus, sondern die Glorifizierung menschlicher Erfahrung schade der Strafjustiz, den Opfern und den Tätern. Sich ausschliesslich auf Prognosen von Psychiatern abzustützen, sei eine Rückkehr in die forensische Steinzeit.

  1. Grade beim Errechnen der Rückfall­gefahr seien Algorithmen der menschlichen Intuition deutlich überlegen. Selbst erfahrene forensische Psychiater erzielten in Studien schlechtere Ergebnisse als Anfänger, die sich auf einfache Algorithmen stützten.

  2. Natürlich seien Algorithmen nicht überall geeignet. Wer aber bei weit verbreiteten Phänomenen wie häuslicher Gewalt Algorithmen dogmatisch ablehne, lasse unnötig viel Leid geschehen.

  3. Schliesslich seien Risiko­prognosen an vielen Stellen im Strafprozess gesetzlich vorgeschrieben. Die Frage sei nicht ob, sondern wie diese am besten erstellt würden.

Dies sind, stark verkürzt, die Argumente der beiden Seiten. Das Thema ist brisant und wir laden Sie ein, sich an der Debatte zu beteiligen.

Ihre Meinung ist gefragt: Sind Algorithmen objektiver und vorurteilsfreier als Menschen? Oder braucht es in jedem Fall die individuelle Beurteilung durch eine Expertin? Welche Argumente überzeugen Sie, wo sehen Sie Probleme?

War dieser Artikel genug Mainstream?

Sie glauben, dass Meinungsvielfalt darin besteht, dass es linke und rechte Medien gibt? Die dann im Schützengraben aufeinander schiessen? Wir glauben das nicht. Denn in einem gespaltenen Mediensystem debattieren die Leute nicht über zwei Blickwinkel auf die Wirklichkeit. Sondern sie debattieren in zwei Wirklichkeiten. Die Aufgabe des Journalismus ist, eine gemeinsame Grundlage zu schaffen, auf der man dann um seine Interessen kämpft. Eine Gesellschaft ist nur so gut wie ihre Debatten. Dafür arbeiten wir in der Republik.


Noch nicht überzeugt? Jetzt probelesen
neu laden

Ich bring's mal auf den Punkt: Richterinnen und Richter tragen die volle Verantwortung, wenn sie (in Zukunft wohl selbstlernende) Algorithmen anwenden: das ist die Folge des Prinzips der freien Beweiswürdigung . . . vielleicht müssten sie in Zukunft auch persönlich haftbar für ihre Entscheide gemacht werden, persönlich für Schäden aufkommen, die durch ihre Entscheide verursacht werden. Die gleiche These vertrete ich für die Produkt der Techkonzerne und der Finanzwirtschaft, bei der die selbstlernenden Algorithmen (heute wohl am weitesten fortentwickelt) schon heute riesige persönliche Schäden verursachen, etwa indem unser Pensionskassengeld systematisch verschwindet oder die zwangsweise angelegten Aktien plötzlich keinen Wert mehr haben. Ich sehe bei der heute total überbordenden Begeisterung für VR keine andere Lösung, die Diskussionen wieder in vernünftige Bahnen zu lenken, als über klare Haftungsregelungen für deren Anwendende.

0

Die Frage, die sich mir stellt, ist, ob Algorithmen systematisch strenger urteilen als Experten. Dies machen Noll und Endgrass nicht deutlich. Das Beispiel des Mordes am Zollikerberg lassen eine strengere Beurteilung des Algorithmus vermuten, weil angedeutet wird, dass Algorithmen diesen Mord hätten verhindern können. Wenn Algorithmen strenger urteilen als Experten und damit in der Tendenz recht haben, relativiert dies deren prognostische Potenz. Denn der Grund, dass Experten den Delinquenten häufig eine Chance auf Rehabilitation gewähren, hat wohl mehr mit dem Prinzip Hoffnung (und wohl auch mit den Kosten des Strafvollzuges und der Anzahl freier Gefängniszellen) zu tun, als damit, dass Experten einen Rückfall kategorisch ausschliessen. Die Rechtsprechung, die neben der Bestrafung langfristig auch immer eine gesellschaftliche Reintegration anstrebt, braucht den Glauben an das Gute im Menschen und appelliert an seine Fähigkeit sich zu ändern. Wenn der Algorithmus generell strenger beurteilt als die Experten, liegt er wahrscheinlich häufiger richtig. Denn Delinquenz ist in vielen Fällen eine Folge von sozialisierten und habitualisierten Persönlichkeitseigenschaften, die sich nur schwierig ändern lassen. Die Chance auf Veränderung wird also eingeschränkt durch tiefliegende Persönlichkeitsmerkmale. Wenn man nun aber zum Schluss kommt, dass wer einmal delinquent war, dies immer sein wird, ist man zu vergleichen mit dem unerbittlichen Javert in Victor Hugos Les Misérables. Ich kann mir gut vorstellen, dass der Algorithmus in etwa so – hoffnungslos – Urteile fällt. Und dann stellt sich die Frage, ob ein solcher Ratgeber einer rechtsstaatlichen Urteilsfällung würdig ist.
Es könnte aber auch sein, dass sich die Sache ganz anders verhält. Es könnte sein, dass der Algorithmus systematisch richtiger beurteilt als die Experten. Das heisst, dass der Algorithmus in einem Fall strenger und im nächsten weniger streng beurteilt, damit das später eintreffende Deliquenzverhalten aber systematisch besser voraussagt. Wenn dem so wäre, würde ich für den vermehrten Einsatz des Algorithmus plädieren.
Weiss jemand, wie sich der Algorithmus bezüglich Urteilsstrenge verhält?

1

Im Sport akzeptieren wir in der Zwischenzeit, dass das Bauchgefühl der Trainer und Sportchefs keine gute Grundlage ist, eine erfolgreiche Mannschaft zu führen oder aufzubauen. Das Verwenden von Statistiken bzw. Algorithmen in der Spielerauswahl hat sich als weit effizienter erwiesen. Spätestens seit der Nobelpreis an Daniel Kahneman für seine Prospect Theory vergeben wurde, ist klar, dass das Bauchgefühl bei Risiko-Entscheidungen nicht zu den besten Entscheidungen führt. Nicht zuletzt wurden Kahnemans Forschungen angetrieben, geeignete Männer für eine Offizierskarriere zu rekrutieren. Das sogenannte Bauchgefühl funktionierte mehr schlecht als recht er lieferte mit den Grundlagen zur Verhaltensökonomie beträchtlich bessere Resultate.
Die Verlierer sind Spezialisten wie zum Beispiel Talentsucher und Psychologen, die mit ihrem grossen Erfahrungsschatz ihre Fähigkeiten überschätzen. Das heisst nicht, dass Erfahrung nichts zählen, aber dann nur als eine weitere Meinung.
Algorithmen können nicht alles richtig voraussagen, müssen sie auch nicht. Aber sie müssen besser sein, als das Bauchgefühl der Experten. Und da habe ich keine Zweifel.

2

Computer und Maschinen machen den Menschen nicht überflüssig. Sie erleichtern und verbessern aber die Arbeit. Auch hier schreiben wir keine Briefe mehr an den Redaktor - sondern senden ein Posting an diese Pin-Wand.
Es ist wissenschaftlich nachweislich so, dass der Mensch Fehler macht. Dazu gibt es seit den Anfängen der Psychologie Belege. Das ist auch der Grund, warum Doppelblind-Studien in der Forschung eingesetzt werden - eben weil Menschen auch unwillentlich Fehler machen. Warum sollte es also hier im Strafrecht anders sein?
Der Migrant, der in schlechtem Deutsch erklärt, dass er so etwas Böses nie wieder machen wird hat wahrscheinlich von Haus aus die schlechteren Karten, als ein charmanter blauäugiger End-Dreißiger mit Züricher Wurzeln. Die junge Dame mit großen Augen eine bessere Prognose, als der Bauarbeiter mit fettigen Haaren.
Und das sind nur die auffälligsten Punkte.
Die Daten hinter den Algorithmen beruhen auf Untersuchungen von Rückfällen von Straftätern. Es gibt statistisch Häufungen bei Zusammenkommen verschiedener Ausgangsmerkmale. Männer, die einem Kind im Park auflauern und es missbrauchen, werden häufiger rückfällig, als Täter innerhalb der Familie. Männer, die bereits vor dem 16. Lebensjahr straffällig wurden eher, also solche, die erst mit 25 ein Erstdelikt begangen haben usw. Kommen mehrere Risikofaktoren zusammen, ergibt das eine Zugehörigkeit zu einer Gruppe mit höherem Rückfallrisiko.
Am Ende ist die Zuordnung eines einzelnen Täters zu einer Risikopopulation möglich - aufgrund valider Forschung und harter Fakten. Man kann sagen, dass Häftling X zu einer Gruppe von Tätern gehört, die mit 50% Risiko rückfällig werden. Das heißt nicht, dass dieser Täter mit 50% rückfällig wird - aber es heißt, dass bei diesem Täter das Risiko höher ist, als bei einem, der in einer Gruppe mit 10% Risiko ist.
Es ist dann die Sache des Gerichts, zu entscheiden, ob dieses Risiko für eine Entlassung zu hoch erscheint - oder nicht. Am Ende sind es also immer noch Menschen, die abwägen. Aber davor ist das risk-assessment ein besseres Kriterium, als der "klinische Eindruck" oder die "klinische Erfahrung".
Durch neuere Forschungsansätze spielen außerdem auch die weitere Haftzeit, Therapie, die Tat an sich, die individuelle Tatgeschichte usw. eine Rolle und führen zu einem individuell auf die Person abgestuften Gutachten, aus dem sich herauslesen lässt, unter welchen Bedingungen dieser bestimmte Täter mit hoher oder niedriger Wahrscheinlichkeit rückfällig würde ("Individualprognose"). Die Forschung in diesem Bereich schläft nicht - sie ist gerade erst erwacht. Und sie dient dem Schutz der Bevölkerung.

-1

Mal wieder einer dieser ‚entweder-oder‘ Texte. Recht haben wie so oft beide Seiten. Ein bisschen. Wenn wie in den USA die Wahrscheinlichkeit für einen Rückfall auch aus sozialen Faktoren (Wohngegend, familiäres Umfeld oder Kontakte mit der Polizei) errechnet wird, wird jemand aus der Luzerner Baselstrasse immer schlechter eingeschätzt als eine entsprechende Person, die in Meggen wohnt. Algorithmen können sehr wohl diskriminierender sein als das Bauchgefühl eines Menschen. Es handelt sich um schlichte Maschinen, abhängig von den Daten und den Entscheidungen seines Entwicklers beim programmieren der einzelnen Schritte.

1

Ich finde diese Diskussion sehr wichtig. Die Debatte würde sich aber meiner Meinung nach nicht im 'Ob', sondern im 'Wie' stellen. Wer programmiert mit welchen Daten was, und wann wird es angewendet. Es wird möglicherweise nicht mehr allzu lange dauern, bis sich Algorithmen selber neutraler/objektiver programmieren als wir sie. Da entsteht eine völlig neue Version der Huhn-und-Ei-Frage. (Gibt es Urheber, wenn sich etwas selbständig Fortpflanzen kann?)
Um das Handwerk von Richterinnen nicht zu verlieren, und somit den Teil von unserem Talent und Wissen, welches Algorithmen (noch) nicht anwenden können zu erhalten, und ein 'menschliches' Justizsysthem zu bewahren, würde vielleicht die Frage nach der Rolle von Richterinnen neu gestellt. Ich denke es ist essentiell, uns selber nicht zu Handlangern von Algorithmen machen zu lassen. Da ist Beziehugsarbeit angesagt.

10

Die Algorithmen basieren ausnahmslos auf Stochastik (Wahrscheinlichkeitsberechnung). Ein Grundsatz der Stochastik besagt, dass die errechneten Wahrscheinlichkeiten nicht auf einen Einzelfall angewendet werden können. Die Zahlen besagen ausschliesslich, dass z.B. von 100 Tätern unter den erfassten Bedingungen um die 15 rückfällig werden. Im Fall der Risikobeurteilung sagt das genau gar nichts über den einzelnen zu beurteilenden Fall aus. Ist es einer der 15 problematischen, oder einer der 85 unproblematischen? Der Entscheid ist zufällig, erst die Menge der Entscheide ist berechenbar.
Krasse Fehlentscheide aufgrund statistischer Interpolationen sind in Wirtschaft und Politik nichts aussergewöhnliches, sie resultieren aus der Nulltoleranz, bezüglich Fehlern, welche von Vorgesetzten (Aktionäre, Management, Stimmbürger, etc.) gefordert werden. Diese Erwartung, dass Fehler nicht passieren dürfen, fördert verantwortungsloses Verhalten, indem die Entscheidung einer Maschine oder einem externen Berater überantwortet wird. Auf einmal passieren Fehler für die Niemand verantwortlich ist. Die Folgen werden untergeordneten Leuten aufgezwungen, auf der Ebene der Entscheidungsträger bleibt nur der hohe Lohn, der eigentlich die Verantwortung abgelten soll, welche die Person tragen sollte.
Dasselbe geschieht in den Gerichten. Nicht der Algorithmus oder der Experte fällt den Entscheid, sondern der Richter. Das Eine wie der Andere sind lediglich Hilfsmittel um dem Entscheidungsträger zu helfen, eine möglichst vernünftige Entscheidung zu treffen. Wollen wir wirklich eine Nullrisiko-Gesellschaft, dann bleibt wohl nichts anderes übrig als alle Kinder abzutreiben. Schliesslich wird kein Algorithmus oder Experte zu 100% ausschliessen können, dass das Kind nie ein Verbrechen begeht (oder nicht behindert ist, etc.)

1

Wer hat recht? Nadja Capus oder die Autoren Endrass und Noll?
Beide haben recht. Anstatt sich von nicht polemischer, durchaus intelligenter Kritik persönlich angegriffen fühlen und sich in eine ideologische Position zurückzuziehen, um von dort aus die kritische Position zu verunglimpflichen, sollten Endrass und Noll sich die Mühe machen, die zur Vorsicht mahnende Position von Capus GEMEINSAM mit ihr GRÜNDLICH nachzuvollziehen und die Situation VOLLUMFÄNGLICH zu verstehen. Dann kann etwas Sinnvolles entstehen und auch sinnvoll bleiben. Darauf sollte die Energie verwendet werden.

10

Das Bundesgericht hat in seiner Rechtsprechung festgehalten, dass die Entscheidung über die bedingte Entlassung im Rahmen einer Individualprognose und Gesamtwürdigung des Falles erfolgen muss. Kurz: Die "Checkliste" allein gilt nicht. Zum Glück, denn bei schweren Gewalt- und Sexualstraftätern handelt es sich um seltene Fälle, bei denen Algorithmen naturgemäss überfordert sind. Überhaupt: Wie der Rechtsanwender eine solche in Zahlen gefasste Wahrscheinlichkeit in eine JA/NEIN-Entscheidung überführen soll, können auch die besten Verfahren nicht beantworten. Hier gibt es keine einzig richtige Lösung, es handelt sich vielmehr um eine normative Entscheidung, welche der Mensch bzw. die Gesellschaft aushandeln muss. Ungeachtet dessen: Wenn man der Öffentlichkeit Sicherheit mit Strafrecht verspricht, kann die Justiz nur verlieren - ein "Fehlentscheid" bei hundert Richtigen reicht, damit die Kritik am Vollzugssystem auflodert. Hier sind die Medien gefragt, von ihrer Berichterstattung hängt es mit ab, wie die Bevölkerung über den Strafvollzug und die Straftäter urteilt.

1

Der Artikel beginnt überzeugend, mit einer gut belegten Herleitung der Titelbehauptung und nachvollziehbarer Kritik an blosser Intuition von Experten als Alternative zu Statistik.

Auch die Grenzen von Statistik - sie braucht eine hohe Fallzahl um überhaupt Aussagen machen zu können wird noch erwähnt.

Dann aber schwenkt der Text zu "Octagon", einer Methode, die nicht näher erklärt wird, aber offenbar den Beschränkungen klassischer Statistik nicht unterworfen ist - sie ist nicht starr und nicht abstrakt (was auch immer das heisst) und kann wundersamerweise plötzlich doch "bei seltenen Phänomenen" Anwendung finden, was ein paar Zeilen weiter oben noch als Grenzen anderer Algorithmen genannt wurde.

Genau hier zeigt sich die Problematik: "Algorithmus" heisst nichts anderes als "Berechnungsvorschrift". Zählen von Äpfeln und Birnen ist genauso ein Algorithmus wie Deep Learning. Nur: die Komplexität ist sehr unterschiedlich, und damit variiert die Nachvollziehbarkeit drastisch. Und auch der Anteil am Resultat, der nicht mehr transparent verständlich ist, sondern sich aus den komplexen Details im Inneren des Algorithmus ergeben. Diese Details sind durchaus nicht wertfrei, sondern von den Vorurteilen und Fehleinschätzungen der Programmierer oder der Trainingsdaten beeinflusst.

Es kann also gar kein Ja oder Nein zum Trendbegriff "Algorithmus" in der Justiz geben, sondern nur die sorgfältige Abklärung und Transparentmachung jeder einzelnen Methode.

Was definitiv nicht passieren darf, ist, dass in der Justiz (und anderswo) Methoden bzw. Softwareprodukte zur Anwendung kommen, deren Entscheidungen nicht mehr verstanden, sondern nur noch hingenommen werden.

51

In der Debatte um die Verwendung von Algorithmen im Strafprozess angewendet dürfen folgende Punkte nicht vergessen gehen: Erstens verlangt das Gesetz in bestimmten Fällen eine Rückfallprognose (z.B. sowohl bei der bedingten Entlassung wie auch der Verwahrung wird u. a. auf die Rückfallwahrscheinlichkeit abgestellt). Die Rückfallprognose eines Psychiaters oder eines Algorithmus kann diese Wahrscheinlichkeit bestenfalls beziffern. Aber wie hoch muss die Wahrscheinlichkeit eines Rückfalls sein, damit anzunehmen ist, der Verurteilte werde weitere Verbrechen oder Vergehen begehen? 20%, 51%, 80%, 99.9%? Diese Frage lässt das Gesetz offen.
Zweitens muss man sich immer im Klaren sein: Prognosen operieren mit Wahrscheinlichkeiten! Wird einer Person eine Rückfallwahrscheinlichkeit von 80% bescheinigt, geht damit eine Wahrscheinlichkeit von 20% einher, dass diese Person keine neue Straftat begeht! Wir WISSEN also überhaupt nicht, ob eine Person rückfällig wird oder nicht. Wir können es nur vermuten. Und die einzige Überprüfungsmöglichkeit, die wir haben ist: die Person freizulassen. Verwahren wir sie, können wir unsere Prognose weder bestätigen noch widerlegen. Die Person kann in der Verwahrung gar nicht rückfällig werden. Ob die Rückfallprognosen von lebenslang Verwahrten angemessen war, kann niemand beweisen!
Aber gerade weil die Frage, eine Person bedingt zu entlassen oder zu verwahren, unglaublich folgenreich und schwierig ist, ist die Versuchung gross, diese Entscheidung an die Maschine «zu delegieren». Wird eine Person aufgrund einer algorithmisch berechneten Rückfallprognose bedingt entlassen und wird sie entgegen der Prognose straffällig oder bleibt eine Person im Gegenteil ihr Leben lang verwahrt, so ist es einfach zu sagen «sorry, das ist halt die Wahrscheinlichkeit, die die Maschine ausgespuckt hat». Das ist eine einfache Art, die Verantwortung für Entscheidungen loszuwerden, die man fast nicht tragen kann, weil sie zu gross ist. Greift man aber so massiv in die Rechte anderer Menschen ein, muss man dazu auch stehen. Man kann diese Verantwortung nicht einfach abwälzen. Es gibt im Leben nichts gratis, auch nicht die Sicherheit vor Straftaten!

Die analogen Überlegungen zählen übrigens auch, wenn Algorithmen verwendet werden sollen, um Straftaten (auch von Ersttätern) präventiv zu verhindern. Kann man Menschen einsperren für eine Tat, die sie mit grosser Wahrscheinlichkeit begangen hätten, wenn man sie nicht vorzeitig eingesperrt hätte? WISSEN kann man schliesslich nie, dass sie es wirklich getan hätten.

Mein Beitrag soll die fatalen Folgen einer Falschbeurteilung durch einen Psychiater und schliesslich den Richter nicht verharmlosen! Der Beitrag soll auch nicht jegliche Verwendung von Algorithmen im Strafverfahren voreilig ausschliessen. Er soll aber aufzeigen, dass im Umgang mit Algorithmen Vorsicht geboten ist!

22

Von der nassforschen Sprache, in der die "überwiegende Mehrheit eindeutig" ...."Eindrücke zementiert", abgesehen, geht der Artikel am wichtigsten Punkt vorbei:

Jede Prognose wird irgendwann in einem Einzelfall falsch sein; mit weitreichenden Folgen für den/die Betroffenen. Irrt ein Mensch, kann man ihn überzeugen oder überzeugt werden oder verstehen. Irrt ein Algorithmus, ist man verloren.

3

Ein gewisses Unbehagen gegenüber Software, die Entscheidungen vorbereitet oder abnimmt, scheint zumindest nicht falsch. Die Frage ist immer, welche Daten zugrundeliegen und wie diese gewertet werden. In den USA wurde eine Software, die Richterinnen Strafmasse vorschlägt, als rassistisch entlarvt. Dies, weil schwarze Verurteilte in der Regel härter bestraft werden als weisse. Die Software hat dies unkritisch übernommen und aufgrund der Daten härtere Strafen vorgeschlagen. Selbst, als die Ethnie als Kriterium wegfiel, blieb die Software rassistisch, weil etwa bei Bewohnern von eher schwarzen Vierteln härtere Strafen vorgeschlagen wurden. Gibt einige schöne Stücke dazu, etwa hier:
https://www.nytimes.com/2017/10/26/…-bias.html

26

Das Bundesgericht hat in seiner Rechtsprechung festgehalten, dass die Entscheidung über die bedingte Entlassung im Rahmen einer Individualprognose und Gesamtwürdigung des Falles erfolgen muss. Der Rechtsanwender darf sich dabei auf algorithmischen Verfahren alleine also nicht verlassen, sondern sie nur als Hilfsmittel verwenden. Gerade bei den schweren Gewalt- und Sexualstraftätern handelt es sich um seltene Fälle, bei denen Algorithmen naturgemäss an ihre Grenzen kommen. Und wie genau der Rechtsanwender eine in Zahlen ausgedrückte Wahrscheinlichkeit in eine JA/NEIN-Entscheidung überführen soll, können auch die besten mechanischen Verfahren nicht beantworten. Hier gibt es keine einzig richtige Lösung, es handelt sich vielmehr um eine normative Entscheidung, welche nur der Mensch bzw. die Gesellschaft treffen kann. Statt Mensch und Computer gegeneinander auszuspielen, wie es die Autoren offenbar versuchen, scheint es besser ein "vernünftiges Mittelmass" zu finden, also weder den Menschen noch die Technik zu verteufeln. Ungeachtet dessen: Wenn man der Öffentlichkeit Sicherheit mit Strafrecht verspricht, kann die Justiz letztlich nur verlieren - ein "Fehlentscheid" bei hundert richtigen Entscheiden genügt, dass die Kritik am Vollzugssystem neu auflodert. Hier sind auch die Medien gefragt, denn von ihrer Berichterstattung hängt es mit ab, wie die Bevölkerung über den Strafvollzug und die Straftäter urteilt.

5

Entscheidend beim Einsatz von Algorithmen ist die Transparenz.
Entscheidungskriterien und Gewichtungen müssen jederzeit offen einsehbar sein.
Nur so kann sichergestellt werden, dass unbewusst oder gewollt Vorurteile der Entwickler mit einfliessen.

28

Ein israelisches Forschungsteam führte eine interessante Studie durch: Um versteckte Einflussgrößen bei Justizentscheidungen zu entdecken, untersuchten die Wirtschaftspsychologen 1112 Urteile, die acht verschiedene Richter zweier israelischer Gerichtshöfe in 50 Verhandlungstagen fällten. Immer ging es um die Frage, ob Häftlinge auf Bewährung freigelassen oder Auflagen erlassen werden.

Das Ergebnis ist ernüchternd: Je früher im Sitzungstag die Richter ihr Urteil fällten, desto positiver der Bescheid hinsichtlich der Anträge: 65%. Im Verlauf des Tages sinkt die Zustimmung, um schliesslich zu Tagesende praktisch jeder Antrag abgelehnt wird. Einzig die Frühstückspause und das Mittagessen vermochten die Quote kurzzeitig anzuheben, um dann erneut abzusinken.

Unsere Wahl: Eine Blutzucker-gesteuerte Justiz. Oder eine Algorithmen-gesteuerte. Ich plädiere zugunsten des Algo und bitte darum, die Verhandlung nach dem Mittagessen zu führen.

Der Link zur Studie: http://www.pnas.org/content/108/17/6889

26

Ein Problem beim Einsatz von Algorithmen ist, was ich mal den Zahlen-Bias nenne. Überall, wo der Mensch unmögliche Prognosen über die Zukunft machen muss, ist die grosse Verlockung, sich auf Zahlenmaterial und leicht quantifizierbare Faktoren zu stützen und sich hinter ihnen zu verstecken.

Damit will ich nicht sagen, dass man statistische Daten (und darauf beruhende Algorithmen) bei Entscheidungsprozessen ignorieren soll, nur wird deren Aussagekraft, wenn es um hochkomplexe Fragen geht (z.B. wie wird Mensch x sich in Zukunft verhalten?) gerne überschätzt, gerade bei Entscheidungen von grosser Tragweite. Das Motto "lieber schlechte Zahlen als gar keine Zahlen" führt dazu, dass man sich als Entscheidungsträger weniger exponiert (ob das jetzt irgendwo im Management ist oder eben als Richter, wo man ohnehin unter politischem Dauerbeschuss der SVP und einer Öffentlichkeit, die unter einer verzerrten Wahrnehmung leidet, weil sie den spektakulären Einzellfall nicht von der statistischen Realität unterscheiden kann und die Medien nunmal nicht über die riesige Anzahl Straftäter berichtet, die NICHT rückfällig wird, schon gar nicht so emotional wie im umgekehrten Fall). Weniger exponierte Entscheidungsträger ist aber nicht zu verwechseln mit besseren Entscheidungen.

Was dem Artikel gar nicht hilft, ist, wie dann plötzlich ein spektakulärer negativer Einzellfall ausgepackt wird, ausgerechnet um statistische Methoden zu propagieren.

Beim Einsatz von Algorithmen und anderer Regeln darf einfach nicht ausgeblendet werden, was der Algorithmus mit dem Anwender macht. Diese Frage ist von ebenso grosser Bedeutung wie jene nach den Bias, die in den Algorithmus selbst fliessen können und zu selbsterfüllenden Prophezeiungen führen.

Welcher Richter traut sich noch, in einem gravierenden Fall zugunsten des Angeklagten von der Empfehlung einer scheinbar objektiven Maschine abzuweichen, wenn andere nicht leicht quantifizierbaren Faktoren für ihn in eine andere Richtung deuten? Die Abwägung wird dann: "welchen Shitstorm löst das aus, wenn ich trotz Algorithmus zu seinen Gunsten entschieden habe und doch etwas schief läuft vs. keiner wird je mitkriegen, wenn der Bestrafte übermässig hart bestraft wird".

Rein aus erkenntnistheoretischen Gründen scheint mir zudem: Rückfälle werden zu knapp 100% erfasst, das lässt sich ja leicht messen. Überharte Strafen (bis zur Bestrafung Unschuldiger), hingegen, sind viel schwieriger bis unmöglich zu erfassen, darum hat man da kaum Daten dazu (bis auf ein paar Fehlurteile, die zufällig ans Licht kommen). Bin ja gespannt, wie man sowas in einem Algorithmus verarbeitet.

4

Das Bundesgericht und die Literatur verlangen, dass eine auf Algorithmen basierte Risikokalkulation nur im Rahmen einer Individualprognose und Gesamtwürdigung des Falles verwendet werden. Der Rechtsanwender darf sich auf mechanische Verfahren alleine also nicht verlassen. Gerade schwere Straftaten sind keine Massenphänomene, sondern selten. Dort ist also die Gefahr von Fehleinschätzungen durch algorithmische Verfahren (Falsch-Positive) doch erheblich. Diese können und dürfen nicht mehr als Hilfsmittel sein bei der Prognosestellung. Im übrigen ist die Überführung von in Zahlen ausgedrückten Wahrscheinlichkeiten in eine Ja/Nein-Entscheidung, das zentrale Problem des Rechtsanwenders, letztlich eine normative Emtscheidung, die kein Computer für ihn lösen kann. Ob also jemand mit einer 30% Rückfallwahrscheinlichkeit bedingt entlassen werden soll, kann nur der Mensch bzw. die Gesellschaft wissen. Das menschliche Erfahrungswissen und die Kraft der Algorithmen sollte nicht gegeneinander ausgespielt werden, es scheint zielführender, hier ein “vernünftiges Mittelmass” zu halten.

2

Wenn es um Richter geht, wie sie heutzutage über Schuld und Unschuld entscheiden, würde ich den Herren Endrass und Noll sofort zustimmen: Die Glorifizierung menschlicher Erfahrung schadet der Strafjustiz. Das Bauchgefühl ist kein Beweis. Der Grundsatz in dubio pro reo ist daher direkte Folge der Erkenntnis errare humanum est. Braucht ein Richter beim Entscheid über Schuld oder Unschuld sein Bauchgefühl, so kann der Entscheid nur auf Freispruch lauten, da Beweise kein Bauchgefühl brauchen. So schlecht wie viele Richter heutzutage zum Nachteil von Angeschuldigten entscheiden (in ihren Köpfen ist eine Verdachtslage schon ein Schuldspruch; Ausnahmen bestätigen die Regel) können Algorithmen gar nicht urteilen. Abgesehen davon, können sich Algorithmen - im Gegensatz zu vielen Richtern heutzutage - ihrer Arbeit weder überdrüssig sein, noch können sie es sich auf einem gut bezahlten Posten bequem machen.

0

Die Algorithmen-Ethik-Debatte steckt hierzulande in den Kinderschuhen. In Deutschland ist man schon ein wenig weiter, die Bertelsmann-Stiftung und das Fraunhofer IT Institut haben brauchbare Güterkriterien formuliert, wie ADMs (algorithmusbasierte Entscheidungssysteme, aus dem Englischen: decision-making systems) zur Anwendung kommen sollen.

Folgende Kriterien müssen definiert, und Fragen geklärt werden:

  1. Transparenz (wie Herr Schraner schon schrieb), Gewichtung, Variablen, Funktionweisen der ADMs sollen nachvollziehbar offengelegt werden. Oder zumindest für ExpertInnen-Audits offengelegt werden.

  2. Trainingsdatensatz offenlegen. Im Fall der Strafjustiz/Predictive Policing muss offengelegt werden, womit die einzelnen Systeme trainiert worden sind. Sind es mehrheitlich weisse/dunkelhäutige Straftäter, gibt es einen Bias? Siehe Google-Bilderkennungsalgorithmus, dem nur weisse Menschen vorlegegt worden sind und - als er dann marktreif war - Schwarze als "Gorillas" identifiziert hat.

  3. Haben die Betroffenen ein Widerspruchsrecht? Und können wählen zwischen einer ADM-Entscheidung oder einer menschlichen Beurteilung? (Kein Wunder werden ADMs in der Schweiz an Flüchtlingen und Sträflingen ausprobiert, weil hier das Widerspruchsrecht ohnehin nur eingeschränkt gegeben ist, verzeiht mir die kleine zynische Bemerkung)

  4. Gibt es einen "Beipackzettel" für Risiken und Nebenwirkungen jedes ADM-Systems? Das müsste gesetzlich unbedingt geregelt werden. Gab es eine "Verträglichkeitsprüfung" des ADMs auf etwaige soziale, geschlechtsspezifische und kulturelle Auswirkungen?

IN der Schweiz wird die Datenschutzgesetzrevision das Thema "Algorithmische Beurteilung" reglementieren (ab Ende 2019). Dabei wurden Teile übernommen von der europäischen DSGVO. Allerdings bezieht sich die DSG/DSGVO nur auf autonome Entscheidungssysteme die unmittelbare Konsequenzen haben auf Menschen (also bei einer Passkontrolle am Flughafen, wo ein Scanner dann entscheidet ob ich weiter komme oder nicht), NICHT auf entscheidungsunterstützende Systeme, bei der Algorithmen lediglich "Empfehlungen" abgeben, in letzter Instanz aber ein Mensch entscheidet. Und genau dies kritisiert Professorin Nadja Capus zu Recht. Warum noch eine intellektuelle Denkleistung machen? Die Software erledigt das ja effizienter? Kurz: werden wir einfach bei entscheidungsunterstützenden ADMs nur noch konform handeln/entscheiden und übernehmen, was uns der Algorithmus empfiehlt?

Hier müssen Medien, Wissenschaflterinnen und die Zivilgesellschaft eine wichtige Beobachtungsrolle einnehmen in den letzten Jahren.

Wer sich für weiterführende Literatur interessiert, darf sich gerne bei mir melden.

13

Zuerst einmal: Sehr viele diskutieren hier über automatisierte Urteile. Das ist Quatsch, Prognosesysteme werden nur bei Menschen eingesetzt, die bereits gewalttätig wurden.Man kann davon ausgehen, dass in einem grossen Teil der Gesellschaft der Wunsch besteht, rückfällige Gewalttäter aus dem Verkehr zu ziehen Null Risiko). Andererseits widerspricht es unserem auf Reintegration ausgerichteten Strafvollzug, einfach alle schweren Gewalttäter für immer wegzusperren.Die Rückfallprognose dient dem Ausgleich diese beiden konfligierenen Ziele. Damit wird bewusst in Kauf genommen, dass einige für immer einsitzen, die nie mehr gewalttätig geworden wären. Die Alternative, wäre entweder alle wieder rauszulassen, was nach den ersten Rückfällen zu Riesenprotesten führen würde oder alle drinnen zu behalten, was unmenschlich wäre.Die Risikoprognose ist also im Interesse des Täters. Eine falsche Prognose (wie will man diese feststellen?) ist im Übrigen nicht mit einem Fehlurteil zu vergleichen. Der mit einer falschen Prognose Verwahrte sitzt nicht, weil er ein Opfer der Justiz ist, sondern primär, weil er schwer gewalttätig war. Bei der heutigen gesellschaftlichen Lage misst sich die Effizienz eines Prognosesystems auch nicht in erster Linie daran, ob die, die drin bleiben müssen, nicht mehr gewalttätig wären, sondern ob die, die entlassen werden, nicht rückfällig werden. Es muss nur sichergestellt werden, dass das System eine gewisse Rationalität hat. Ich nehme an, dass solchen automatisierten Prognoseprogrammen Studien über die Rückfallgefahr voausgegangen sind. Dabei nehme ich, dass Rückfallhäufigkeit und -schwere als abhängige Variabeln gesetzt wurden. Mich würde interessieren, wie die unabhängigen Variabeln definiert wurden und wie die Daten erhoben wurden, weiter wie im Einzelfall die Parameter erhoben werden. Die Idee, ein Programm könne automatiscch unabhängige Variabeln definieren, die Daten erheben und diese multikorrelieren, ist aj wohl etwas naiv, ebenso, wie ein Scanner könne die Strafakte durchlesen und das Prognoseproramm automatisch parametrisieren. Aber wie gesagt, eine minimale Rationalität des Verfahrens genügt, alles andere ist Augenwischerei, und die Alternative wäre heute, einfach alle rückfälligen schweren Gewalttäter (müsste man definieren) lebenslänglich einzubuchten und alle 5 Jahre festzustellen, dass sie immer noch böse sind, damit wäre die EMRK perfekt eingehalten

1

Selbstverständlich sind Algorithmen objektiver. Zumindest nach den Ihnen zugrundeliegenden Parametern.

Die Frage ist doch, wer kontrolliert die Parameter, die in der Berechnung zum Zuge kommen und wer bestimmt, welche Aktionen aufgrund der Ergebnisse einer solchen (Risiko)-Evaluation getroffen werden. Sollen diese demokratisch abgesegnet werden? Sollen Experten diese festlegen, Präsidenten oder Diktatoren? Das Risiko einer völlig neuen und unsäglich perfiden Form von institutionalisiertem Rassismus und der Unterdrückung politischer oppositioneller erscheint mir enorm, da hier nicht mehr eine persönliche Verantwortung ausgemacht werden kann.

Als Beispiel: Ein Richter in den USA, der einen schwarzen Mann wegen eines identischen Gewaltdelikts erheblich härter bestraft als eine weisse Frau ist für dieses Urteil verantwortlich. Er muss sich erklären.

Wenn nun aber ein Algorithmus schlicht die Daten auswertet, Geschlecht und Hautfarbe, und aufgrund dessen die Rückfallgefahr erheblich höher einstuft ist dies prinzipiell nicht falsch: Männer sind erheblich öfter gewalttätig als Frauen und Personen mit schwarzer Hautfarbe haben eine höhere Kriminalitätsrate als Weisse. Es ist keine Erklärung nötig, schliesslich ist das Urteil ja durch die unparteiische Maschine bestätigt worden (ähnlich dem Konzept organisierter Religion: Deus Vult)

Es kann nun getrost ignoriert werden, das Frauen Gewaltdelikte häufiger anzeigen, das schwarze Personen schlicht seit je her erheblich häufiger kontrolliert und, oh wunder, erheblich häufiger erwischt wurden, dass in beiden Fällen die Anzahl der Ereignisse, die Überhaupt vor Gericht kommen massiv voneinander abweichen sowie die einfache Regel, dass die gleiche Tat unabhängig von Herkunft und Geburt gleich bestraft werden sollte, zumindest im Prinzip...

Vorausgesetzt, alle mit dem Verfahren im obigen Beispiel betrauten Personen sind an gerechten Urteilen interessiert, ist das aber kein grosses Problem. Das System kann erweitert, Gewichtungen einzelner Faktoren angepasst werden. Aber wer glaubt den heute noch an wohlmeinende Politiker oder Behörden? Wie einfach es doch für einen Faschisten wie Trump wäre, eine kleine Stellschraube zu verdrehen "Demokrat=Gefährder" und schon würden erheblich mehr linke oppositionelle im Gefängnis landen als zuvor, was dann wiederum die Statistiken hochjagt und den "Gefährder"-Teil um so mehr bestätigt. Der feuchte Traum eines jeden autoritären Regimes, da diese ja immer auf der gezielten Ausgrenzung spezifischer Minderheiten beruhen.

9

Eine sehr interessante Diskussion, vieles wurde schon gesagt.

Was mir auffällt ist, dass wir an den Algorithmus andere Masstäbe anlegen als an die Juristen. Wir fragen einen angehenden Juristen nicht: 'Können wir mal in Ihren Kopf reinschauen, wir wollen gerne Transparenz!' Wir erwarten nur, dass sie oder er die Examen besteht.

Das fehlt in der praktischen Diskussion zu den Algorithmen: wie werden sie gemessen und zertifiziert, wer entscheidet darüber?

Wenn diese Fragen überzeugend (und transparent) geklärt sind bin ich ganz auf der Seite der Algorithmen.

7

Irgendwo habe ich vor kurzem eine gute Analogie zur Digitalisierung gehört: ein moderner Schreiner heute ist eigentlich ein Programmierer. Er berechnet, wie die Möbelteile am besten zugeschnitten werden sollen und programmiert danach die Maschine. Begrenzen wir aber die Schreinerlehre auf diese mathematischen Dinge, dann lernen die jungen Leute nie, "was Holz eigentlich ist".

Die Algorithmen sind solche Maschinen. Ihre Anwendung bringt Effizienz, Unbeeinflusbarkeit undNeutralität. Aber es ist von staatstragender Wichtigkeit, dass die Anwender*innen einmal gelernt haben, wie diese funktionieren und warum. Denn nur so können sie das Werkzeug nutzen und werden nicht vom Werkzeug genutzt. Die alte Frage, ob der Mensch den Weizen domestiziert hat oder ob nicht eher wir der Pflanze zu einer weltweiten Verbreitung verholfen haben?

Das Ziel muss schliesslich sein, dass wir Menschen überprüfen können, ob diese maschinelle Objektivität nicht ein unfaire ist, um bei Bedarf korrigierend einzugreifen. Die Algorithmen sollten nämlich möglichst unter Anleitung des Menschen weiterentwickelt werden.

10

Sehr interessant finde ich vor allem, dass die beiden Herren mit ihrer Argumentation wild in der Gegend rumhüpfen, von einem angeschnittenen, aber nur in Behauptungen „belegten“ Thema zum nächsten - und, wie inzwischen so üblich, nach einigen Frontalangriffen auf irgendwelche „Gruppen“, die aber bei Herrn Noll und Herrn Endras offensichtlich eine einzige Person umfassen bzw mit den zusammengeschnittenen Zitaten klar auf diese eine Person abzielen, nämlich die Strafrechtsprofessorin - die im Übrigen eine sehr schlüssige Argumentation vorgelegt hat, ohne gleichzeitig andere diffuse „Gruppen“ zu diffamieren.
Es wird eine einzige Gewaltttat zitiert (von vor 25 Jahren), wie damals dürfte der Weckeffekt sicher sein - nur: ohne jegliche Aussage zum Thema.
Es ist ein Schocker ohne Einfluss auf die hier vorliegende Frage der Algorithmen.
Ausserdem: Alorithmen so harmlos „Checklisten“ zu nennen, ist zwar clever, tönt so völlig übergehbar unauffällig, ist aber natürlich eine in keiner Weise zu haltende Analogie. Algorithmen sind eben grad keine Checklisten (wie all die angesprochenen menschlichen Beurteilungspersonen sie durchaus verwenden dürften), sondern weit mehr.
Dass Algorithmen nicht neutral sind, haben andere Versuche, die nach paar Wochen schon abgebrochen werden mussten, gezeigt: Ein Social Media Algorithmus lief innert kürzester Zeit dermassen „aus dem Ruder“, dass er auf den Social Media (2018 oder ein zwei Jahre vorher, ich weiss es nicht mehr) faschistische, hochrassistische Tiraden zu produzieren begann.
Interessieren würde mich auch: Wie genau lief dieser erwähnte Versuch, wo unbedarfte „Studentinnen“ unter Anwendung von Algorithmen (welchen? und wie genau?, über welchen Zeitraum? - so lange sind Studentinnen ja gar nicht Studentinnen -, in welchem Setting?) allen hocherfahrenen Fachmenschen überlegen gewesen sein sollen?
Wurden sie an Fälle gesetzt, die bereits in der Vergangenheit lagen, während die Expertinnen und Experten in der Unsicherheit effektiver versuchter Prognosen zukünftiger, also effektiv profilaktischer Aussagen (und unter einem sehr realen Erfolgsdruck, der ihren ganzen Werdegang beeinflussen musste) gearbeitet hatten?
Keine der Behauptungen der beiden Herren aus der Praxis ist konkret belegt; die Aussagen trotzdem sehr definitiv, als wären sie effektiv „kristallklar“.
Häusliche Gewalt wird als Beispiel herangezogen (mit dem Leseeffekt: häufig!, schrecklich! und dem Effekt, hier vor allem Frauen wohl besänftigend anzusprechen und dem Anschein, diese schützen zu wollen) - nur: konkreten Bezug zu Algorithmen oder Nichtalgorithmen, also menschlichen Expertisen, folgen dann keine. Aussagekraft bezüglich der Argumentation gleich null.

2

Grrr : Eine generelle Diskussion über den Einsatz von Algorithmen in der Justiz vornehmlich anhand von ,Legalprognose für Rückfälligkeit‘ zu führen finde ich dreist: Rückfällig wird man erst beim zweiten Mal! Die Grundmenge ‚Straftäter‘ empfinde ich intuitiv unzulässig als Basis für eine allgemeine Diskussion. (Dem Einsatz von Algorithmen im Kontext ‚Verwahrung von potentiellen Massemördern‘ kann ich allenfalls zustimmen, auch wenn ich allermeisten anderen Kontexten dagegen bin.)

(Rest gelöscht - verbalen Zweihänder versorgt - und es gibt ja noch die Beiträge von Verena Goanna *in :)) Rohten)

2

Es gibt keine “vorurteilsfreie mathematische Algorithmus.” Die Vorurteile von die Programmierer/in wurde zur die Algorithmen übernommen.

5

Was mir auffällt, ist, dass Frau Capus theoretisch argumentiert und wenig Erfahrung mit Straftätern haben dürfte. Das haben ihr die beiden Herren Noll und Endrass sicherlich voraus. Den zynischen Unterton ihrer Aussagen hätten sie sich dennoch sparen können. Dieser weckt wiederum mein Vertrauen in die Algorithmen: Maschinen können (noch) nicht zynisch sein. Ich gebe deshalb Frau Capus Recht, wenn sie sagt, wir wären in vielen Fällen besser beraten, wenn gewisse Strafverfahren automatisch ablaufen könnten. Sie denkt dabei an Bussen für fehlbare Autofahrer, aber es gibt bestimmt auch andere Fälle, wo Computer objektiver und speditiver arbeiten als Menschen. Ich denke an Delikte, bei denen ein Mensch der Gemeinschaft schadet, ohne dass dabei andere Mensch involviert sind, etwa Diebstahl, Vermögensdelikte oder Sachbeschädigung.
Die Argumente der Herren Noll und Endrass überzeugen ebenfalls, gerade was häusliche Gewalt angeht. Dennoch muss, wo es sich um zwischenmenschliche Belange handelt, der Mensch das letzte Wort haben und nicht der Algorithmus. Dieser erinnert mich an die berühmten Sketches der englischen Comedy-Serie "Little Britain", wo es zum Schluss immer heisst: The computer says no!
Als beratendes Instrument scheinen mir Algorithmen mit ihren nüchternen Einschätzungen aber sehr nützlich zu sein.

6

Die Diskussion würde verbessert, würde von statistischen Methoden gesprochen, statt von Algorithmen.

Die in der Replik besprochene Checkliste ist für jederman einfach nachvollziehbar. Damit entspricht sie nicht der Bedeutung des Wortes Algorithmus wie es heutzutage gebraucht wird.

1

Erprobte Algorithmen können wohl als Hilfe die Wahrscheinlich eines gerechten Urteils erhöhen. Letzten Endes gibt es immer ein Restrisiko aufgrund der Unmöglichkeit psychische Faktoren objektiv zu erfassen.

3

Je kleiner die Wahrscheinlichkeit des in Frage kommenden Ereignisses ist, umso grösser muss der Lernkorpus für ein AI-System sein. Das haben wir bei unserer Arbeit mit NLP genau so erkennen können: Häufige Ereignisse (Funde) können mit einem kleinen Lernkorpus recht zuverlässig erkannt werden, seltene auch mit einem grossen Korpus nur unsicher. In solchen Fällen braucht es andere Methoden, bis hin zur verpönten „eminenzbasierten“ Entscheidung.

Die betrachtete Situation bezüglich Ereignishäufigkeit und Korpusgrösse (und Qualität) zu untersuchen, finde ich wichtig, bevor wir uns grundsätzlich streiten – nicht nur hier, sondern in allen Fällen, bei denen man AI einsetzen möchte.

Noll und Endrass weisen ebenfalls auf diesen Unterschied zwischen den beiden AI-Situationen hin, in ihrem Vergleich zwischen islamistisch motivierter Gewalt (Ereignis selten, Lernkorpus klein -> Prognose unsicher) und wiederholter häuslicher Gewalt (Ereignis häufiger, Lernkorpus grösser).

1

"... zumal der Stein des Anstosses nüchtern betrachtet nicht besonders brisant ist." - Und deshalb wird in den beiden öffnenden Absätzen, die in diese Abwiegelung münden, gleich der Zweihänder geschwungen? Danach noch salopp und kontextfrei der Mord in Zollikerberg eingestreut, ansonsten - wie bereits bemängelt - mit zynischem Unterton nicht sehr elegant an den Knackpunkten vorbeimanövriert.

Man könnte fast meinen, die Autoren möchten Frau Capus eigentlich beipflichten - zumal zwischen den Zeilen. Ihrem deklarierten Anliegen (das vielleicht diskutierenswert wäre, beweisen Sie es doch mit einem nüchtern-sachlichen neuen Anlauf, in dem sie auch auf die Messwerte und deren Zustandekommen, auf die Schnitt zwischen Mensch unf Algorithmus, die praktische Umsetzung eingehen) tut der Artikel in meinen Augen jedenfalls gar keinen Gefallen.

1

Warum denn immer "entweder - oder"? Man sollte sich die Vorteile von beiden Methoden zunutze machen.

1

Ein hoch interessanter Artikel.
Die Wissenschaft hat in den letzten 100 Jahren eindeutig - mit unseren fünf Sinnen und glasklarer Mathematik - festgestellt,  dass der innere Motor in unserem Universum der Zufall ist. Unbequehm aber Tatsache. 100 000 Jahre regierten den Homo sapiens Bauchgefühle, Mythen, Laplace'sche Deterministik und Religion. Es war eine Flucht vor der Erkenntnis unserer Vergänglichkeit. Es ist Zeit, dass wir uns der Tatsache stellen, dass wir Schöpfung und damit auch Opfer des reinen Zufalls sind. Wir sollten uns von dem oben aufgezählten Ballast befreien.
In diesem Sinne werde ich in Zukunft auch bei diesen unbequehmen Algorithmen über mein Verhalten und dem meiner lieben Mitmenschen versuchen, mein Bauchgefühl zu kontrollieren  und 1 + 1 = 2 als richtig akzeptieren.

1

Solange der Algorithmus nur der Entscheidunterstützung dient und die Versachlichung der Abwägungen unterstützt, ist meines Erachtens nichts dagegen einzuwenden. Die Erfahrung der RichterIn bzw. der StaatsanwältIn ist schliesslich auch eine Art "menschlicher Algorithmus", der durch den maschinellen überprüft werden kann.

3

Transparents und Differenzierung bleiben ganz offensichtlich bereits jetzt schon zu oft auf der Strecke - Überlastung? Desinteresse? Bedeutungslosigkeit - Einzelfälle? Akkumulation? Konvenienz? Ist die Feststellung 'es menschelet überall' weniger deprimierend als 'die Sch...algorithmen? Wie sachlich, seriös und konkret will wer was dezidieren, wenn Betroffene zu Opfer bzw. zu Sieger werden?
Ein betroffener Verlierer fragt sich das - der Gewinner sind mehr und ohne Zweifel...

3

Spontan neige ich dazu, Frau Capus zuzustimmen. Aber eigentlich vor allem, weil ihre Nüchternheit mich mehr überzeugt, als die Polemik der Algorithmus-Befürworter. Was ein wenig seltsam ist, wenn man genauer darüber nachdenkt.
Schlussendlich neige ich aber doch zur Ansicht, dass eine Mischung aus Beidem wohl am vernünftigsten ist. Immer im Bewusstsein, dass menschliches Verhalten zuverlässig vorherzusagen ohnehin eine Illusion ist.

3

Besten Dank für die interessante Gegenüberstellung dieser zwei Perspektiven. Aus meiner Sicht geht es hier allerdings nicht um ein entweder oder, sondern darum, gegenüber überhöhten Erwartungen an diese Algorithmen vorsichtig zu sein. Obwohl diese Hilfsmittel gewiss einen grossen Fortschritt bei der Deliktsprävention gebracht haben, ist die relevante Frage aus meiner Sicht folgende: Wie hoch müssen der errechnete Wert und wie schwer die drohenden Delikte sein, um einen möglicherweise langjährigen (präventiven) Freiheitsentzug rechtfertigen zu können? Welche Fehlerquote (Stichwort: “False Positives”) ist man bereit in Kauf zu nehmen, um die Sicherheit der Gesellschaft zu erhöhen? Zu dieser Frage würde mich die Antwort der Herren Noll und Endrass interessieren.

1


seit 2018