Wir sind die Republik – ein neues Modell im Schweizer Journalismus. Unser digitales Magazin ist unabhängig: keine Werbung, keine Klick-Wirtschaft, keine Kompromisse in der Qualität. Wollen Sie unabhängigen Journalismus unterstützen, freuen wir uns, Sie an Bord zu sehen.

Die Checkliste siegt

Ob ein Straftäter rückfällig wird, lässt sich mit Mathematik durchaus vorhersagen, sagen zwei Justizvollzugs-Experten. Hier ihre Replik zu Nadja Capus’ Artikel «Die Tyrannei des Wahrscheinlichen in der Justiz».

Ein Gastbeitrag von Thomas Noll und Jérôme Endrass, 10.10.2018

Der folgende Text ist eine Antwort auf den Gastbeitrag der Neuenburger Strafrechtsprofessorin Nadja Capus vom 19. September 2018.

Bei Juristen grassiert offensichtlich ein ausgeprägtes Misstrauen gegenüber Risk-Assessment-Instrumenten für Straftäter, die auf Algorithmen beruhen. Die Befürchtung, dass menschliches Verhalten durch Maschinen vorhergesagt werde, macht in intellektuellen Kreisen die Runde. Zu hören sind Plattitüden wie «Menschliches Verhalten lässt sich nicht vorhersagen» und «Menschen sind doch keine Maschinen». Der Begriff «Algorithmus» ist in diesen Gruppen zum Schimpfwort geworden, sobald es im Zusammen­hang mit Kriminalprävention erwähnt wird.

Aus der Position der moralischen Autorität werden dramatisch anmutende Neologismen wie «Algokratie» geprägt, die ein «Verstoss gegen die Menschenwürde» sei und sogar in einer «ethische Katastrophe» münde. Unter Letzterem würden dem kritischen Leser wohl eher Abgründe der Menschheitsgeschichte in den Sinn kommen wie genozidale Kriege, menschenverachtende Diktaturen oder andere Formen von Schwerstverbrechen. Dass eine einfache Rechenregel zur Geschäftspriorisierung ebenfalls in dieser Kategorie verortet wird, erstaunt den naiven Betrachter, zumal der Stein des Anstosses nüchtern betrachtet nicht besonders brisant ist. Worum geht es?

Intuition ein untaugliches Mittel?

Die überwiegende Mehrzahl wissenschaftlicher Publikationen hat eindeutig aufgezeigt, dass die Summe weniger handfester Kriterien wie zum Beispiel die Vorstrafe, das Alter oder bestimmte Tatmerkmale deutlich mit Rückfällen korrelieren. Dieses Ergebnis für sich genommen, ist wahrlich unspektakulär. Interessant wird es erst, wenn man diese Kriterien mit Prognosen von forensischen Psychiatern vergleicht. Was korreliert höher mit Rückfällen? Die klinische Prognose des Psychiaters oder die banale Checkliste? Das Ergebnis ist eindeutig: Die Checkliste siegt.

Kürzlich führten wir eine eigene Untersuchung zu dieser Fragestellung durch und verglichen dabei die Trefferquote von erfahrenen forensischen Psychiatern mit derjenigen von Psychologiestudentinnen, die einfache Algorithmen verwendeten. Auch hier schnitten die Psychologiestudentinnen deutlich besser ab als die arrivierten Experten, die sich primär auf ihr Erfahrungswissen abstützten. Eine Fülle von weiterführenden Studien hat diesen Effekt zementiert. Experten sind selbst dann nicht besser als das Ergebnis aus dem primitiven Instrument, wenn sie das Ergebnis des primitiven Instruments in ihre Beurteilung einfliessen lassen dürfen.

Anscheinend verschlechtert das Bauchgefühl des Experten die Performance von einfachsten Checklisten. Die viel gepriesene Intuition und die Erfahrung sind offenbar nicht hilfreich, wenn es um Risikokalkulation geht. Dass Profis viel von ihrer Intuition halten und die Relevanz der Intuition massiv überschätzen, ist nichts Neues und einer der häufigen Verzerrungseffekte bei Entscheidungsfindungen.

Dieser Befund passt vielen nicht und endet in einer Abwehrhaltung gegen die wissenschaftliche Erkenntnis, die schon bei Galileo Anwendung fand: Das, was nicht in mein Weltbild passt, ist moralisch schlecht. Während es bei Galileo noch das römisch-katholische Weltbild war, gegen das der florentinische Gelehrte vermeintlich aufbegehrte, sieht sich gemäss dem israelischen Historiker Yuval Harari aktuell das humanistische oder homozentrische Weltbild durch Algorithmen herausgefordert. Legt man jedoch die ideologischen Scheuklappen ab, sieht man, dass es mit der menschlichen Intuition in der Risiko­kalkulation nicht weit her ist.

Blenden wir knapp 25 Jahre zurück. Damals erschütterte ein brutaler Mord an einer jungen Frau bei Zollikerberg die Schweiz. In den frühen 90er-Jahren wurden entweder gar keine prognostischen Einschätzungen gemacht, oder sie stützten sich ausschliesslich auf ein diffuses Bauchgefühl der forensischen Fachperson. Die Folgen dieser Entscheide sind mittlerweile bekannt.

Gegen ideologische Aversionen

In prognosekritischen Texten wird oft das Beispiel der islamistischen Radikalisierung genannt und gefragt, ob sich bei diesen wenigen Fällen das Risiko der sogenannt Falsch-Positiven, also der aufgrund eines Algorithmus zu Unrecht Verdächtigten, aus ethischer Sicht überhaupt lohne. Da islamistischer Terrorismus in der Schweiz tatsächlich sehr selten ist, ist die Frage berechtigt: Für sehr seltene Phänomene sind Risikokalkulationsmethoden nicht geeignet. Wie alles haben auch Algorithmen ihre Grenzen. Dies ist aber nicht als ein Votum pro Intuition zu verstehen, da diese das Problem nur noch verschlimmern würde.

Ganz anders sieht es aber bei der häuslichen Gewalt aus. Das ist ein sehr häufiges Phänomen. Bei mehreren tausend Fällen pro Jahr allein im Kanton Zürich ist das individuelle und kumulierte Leid enorm, und Rückfälle sind an der Tagesordnung. Es erschliesst sich uns nicht, wie aufgrund ideologischer Aversion gegen Algorithmen eine Methode abgelehnt werden kann, die aus rein praktischer Sicht sehr viel Schmerz und Leid verhindern kann, gerade bei den schwächsten Mitgliedern unserer Gesellschaft. Bisweilen entsteht der Eindruck, dass in der strengen Dogmatik der Kritiker die Perspektive der Opfer verloren geht.

Viele Kritiker scheinen nicht zu wissen, dass es mittlerweile Alternativen zu den starren Algorithmen gibt, wobei gegenwärtig offen ist, ob sich diese Ansätze langfristig bewähren. So basiert der relativ neue Beurteilungsleitfaden «Octagon» auf sogenannten forensischen Heuristiken. Er fokussiert primär auf konkrete Handlungsschritte und lässt somit die abstrakte Risikokalkulation weg. «Octagon» wird von verschiedenen Polizeikorps benutzt, um insbesondere die Risiken häuslicher Gewalt besser zu erkennen, kann aber auch bei seltenen Phänomenen wie islamistisch motivierter Gewalt Anwendung finden.

Gesetz schreibt Risikoeinschätzungen vor

Bei der Diskussion um Prognosen wird oft ausgeblendet, dass Risikoeinschätzungen bei Straftätern gemacht werden müssen. Sie schützen nicht nur weniger gefährliche Delinquenten vor über­mässigen Eingriffen und den Staat vor unnötigen Ausgaben, sondern sind auch gesetzlich zwingend vorgeschrieben, etwa wenn es um die Anordnung einer stationären Massnahme oder Verwahrung oder die bedingte Entlassung eines Straf­täters aus dem Gefängnis geht.

Die Frage lautet also nicht, ob eine Legalprognose erstellt wird, sondern wie dies am besten zu geschehen hat. Dies­bezüglich wurden in den vergangenen 25 Jahren grosse Fortschritte gemacht. Dazu gehört auch die Entwicklung und Verwendung von Risk-Assessment-Instrumenten mitsamt deren Algorithmen.

Wir sind der festen Überzeugung, dass eine Rückkehr in die forensische Steinzeit, als sich Beurteilungen ausschliesslich auf die klinische Expertise der Fachperson abgestützt haben, weder den Opfern noch den Tätern nützt. Die Prognostizierung (!) dramatischer Szenarien einer bevorstehenden Überwachungs- und Disziplinargesellschaft, in welcher der Rechtsstaat durch Algorithmen ausser Kraft gesetzt werde, helfen niemandem – am allerwenigsten dem Täter selber.

Zu den Autoren

Jérôme Endrass ist Psychologe, nebenamtlicher Professor an der Universität Konstanz und Stabschef des Zürcher Amtes für Justizvollzug. Thomas Noll ist Psychiater und Psychotherapeut sowie promovierter Jurist. Er leitet die Fachstelle Forensik desselben Amtes.

Debatte: Algorithmen in der Strafjustiz – Segen oder Albtraum?

Sind Algorithmen objektiver und vorurteilsfreier als Menschen? Oder braucht es in jedem Fall die individuelle Beurteilung durch eine Expertin? Welche Argumente überzeugen Sie, wo sehen Sie Probleme? Diskutieren Sie mit!

Da Sie schon hier sind – eine Warnung!

Wir von der Republik wollen Sie als Abonnentin gewinnen. Deshalb sagen wir Ihnen nur ungern, dass Lesen nicht ohne Risiko ist. Schopenhauer warnte, dass gleichsam mit fremdem Kopf denkt, wer liest. Und dadurch allmählich die Fähigkeit verliert, selber zu denken. Sein Schluss: «Solches aber ist der Fall sehr vieler Gelehrter: Sie haben sich dumm gelesen.» Deshalb versprechen wir Ihnen, falls Sie uns abonnieren, Ihnen so wenig wie möglich zu liefern: nur das Wesentliche. Und nur im Notfall mehr als drei Texte pro Tag.


Noch nicht überzeugt? Jetzt probelesen

seit 2018