Algorithmen sollen aufgrund eingegebener Daten potenzielle Tatorte berechnen.

Die Polizei weiss, was Sie morgen vielleicht tun werden

Die Schweiz ist eine Pionierin im Einsatz von Software, die voraussagt, wer wann wo ein Verbrechen begehen könnte. Doch die Tools sind weder rechtlich noch demokratisch legitimiert.

Eine Recherche von Adrienne Fichter, Florian Wüstholz (Text) und 1Kilo (Animation), 11.12.2020

Unabhängiger Journalismus kostet. Die Republik ist werbefrei und wird finanziert von ihren Leserinnen. Trotzdem können Sie diesen Beitrag lesen.

Wenn Sie weiterhin unabhängigen Journalismus wie diesen lesen wollen, handeln Sie jetzt: Kommen Sie an Bord!

Mit virtuosen Hand­bewegungen streicht Tom Cruise über die virtuelle Wand. Er ordnet Hologramme, schiebt Fotos hin und her, visualisiert eine Szene, in der ein Mann mit einem Messer auf eine Person einsticht. Es ist ein Blick in die Zukunft, der sich dem von Cruise gespielten Polizisten offenbart – auf einen Mord, den er und seine Kollegen in letzter Minute verhindern werden.

Der berühmte Filmausschnitt ist untermalt mit Schuberts achter Symphonie, der «Unvollendeten». Er wird gerne zitiert, wenn Medien über das Thema «Predictive Policing» berichten, zu Deutsch: vorhersagende Polizei­arbeit. Technologien also, die es möglich machen sollen, Verbrechen vorauszusehen.

Wie viel von dem, was sich die Macher von «Minority Report» vor zwanzig Jahren ausgedacht haben, ist inzwischen Wirklichkeit? Arbeiten Schweizer Polizei­korps mit Predictive Policing? Und wenn ja: Ist das überhaupt legal? Ist es nützlich? Ist es gut dokumentiert?

Zum Schwerpunkt «Tech-Staat Schweiz»

In den USA werden Kinder via Software einer Schule zugeteilt, in China erhalten Bürger Minus­punkte bei regierungs­kritischen Äusserungen. Der Überwachungs­kapitalismus und die Techno-Diktatur sind auf dem Vormarsch.

Wie sieht die Situation in der Schweiz aus? Auch hier wird der Staat immer mehr digitalisiert. Dabei setzen öffentliche Institutionen auf Automatisierung und algorithmen­basierte Software. Mit welchen Folgen?

Die Republik klärt diese Fragen in mehreren Folgen. Die Themen reichen von Überwachungsprojekten über Predictive Policing, smarte Justiz und «intelligente» Flüchtlings­verteilung bis zum E-Patientendossier und zu Smart City.

Eine neue Studie der Universität St. Gallen und Republik-Recherchen zeigen:

  • Die Schweiz ist im deutsch­sprachigen Raum Pionierin für Predictive Policing. Immer mehr sogenannte «Gefährder» werden in Daten­banken erfasst, in der eigenen Wohnung aufgesucht und angesprochen, beobachtet, überwacht.

  • Die Programme überschätzen das Risiko von Gefährderinnen. In der Praxis führen sie bei Polizisten, die sie benutzen, zu einem Tunnelblick.

  • Es gibt keine öffentliche Debatte über Predictive-Policing-Programme und auch keine Regulierungen. Nur wenige wurden von unabhängiger Seite evaluiert. Für viele Polizei­beamtinnen ist nicht nachvollziehbar, wie die Programme funktionieren. Die Algorithmen sind Geschäfts­geheimnis der Anbieter, und die Daten liegen teilweise auf Servern im Ausland.

  • In einigen Kantonen wurden jahrelang digitale Prognostik­programme und Präventiv­massnahmen im rechts­freien Raum angewendet. Gefährder­datenbanken wurden ohne rechtliche Grundlage angelegt.

«Erfolg misst sich an dem, was morgen nicht passiert», sagt eine anonyme Polizei­beamtin, mit der wir für diese Recherche gesprochen haben. Aus den Kantonen heisst es, gewisse Einbruch­serien hätten sich durch den Einsatz von Prognose­programmen vermindert, gewisse Gefährder seien nicht mehr negativ aufgefallen. Die Nachfrage nach diesen Programmen ist gross.

Doch ebenso gross sind die Fragen, die damit verbunden sind. Sie gehen weit über die Technologie­dimension hinaus, betreffen fundamentale Aspekte des Rechts­staats: Wer entscheidet, ob jemand, der noch keine strafrechtlich relevante Tat begangen hat, präventiv überwacht wird?

1. Die Schweiz ist Pionierin

Volle Frauenhäuser, radikalisierte Einzel­täter, eine Zunahme von Cyber­attacken im Netz: Es sind Entwicklungen wie diese, die Polizei­korps unter Zugzwang bringen. Und die in den letzten Jahren ein neues Paradigma hervor­gebracht haben: die Täterin von morgen frühzeitig zu erkennen.

Damit erhält Software in der Polizei­arbeit ein grösseres Gewicht. Dies hat eine Forscher­gruppe der Universität St. Gallen in einer aufwendigen Studie mit dem Titel «Smart Criminal Justice» herausgefunden. Die zwei Straf­rechts­expertinnen Monika Simmler und Simone Brunner und der Betriebs­wirtschafts­professor Kuno Schedler führten dafür ausführliche Interviews mit Anwendern von Predictive-Policing-Programmen. Der Republik haben sie vor der Publikation der Studie bereits einen Einblick gewährt.

Den Forscherinnen zufolge gibt es einen Schlüssel­moment für Predictive Policing: den 15. August 2011. An jenem Montag vor neun Jahren erschoss ein 58-jähriger Familien­vater im zürcherischen Pfäffikon zuerst seine Frau und anschliessend die Leiterin des Sozialamts. Ein brutaler Doppel­mord, der nicht nur das beschauliche Dorf im Zürcher Oberland erschütterte.

Schnell wurden damals mediale Vorwürfe laut: Die Tat hätte verhindert werden können, der Mann sei der Polizei bereits als gewalt­tätig bekannt gewesen – sie hätte bloss rechtzeitig intervenieren müssen. Ähnliche Vorwürfe tauchten zuletzt auch nach einer Messer­attacke auf zwei Frauen im Tessin auf, bei der die Täterin dem Bundesamt für Polizei bekannt war.

Der Mordfall von Pfäffikon bewog zahlreiche Kantone dazu, ein sogenanntes «kantonales Bedrohungs­management» zu lancieren. Der Kanton Solothurn war dabei ein Vorreiter. Er liess sich 2013 vom privaten deutschen Institut für Psychologie und Bedrohungs­management beraten und führte als erster Kanton ein solches Regime ein, wie die Presse­stelle nicht ohne Stolz schreibt.

Die «instrumenten­gläubigen» Polizei­stellen, wie es ein Mitarbeiter einer Präventions­abteilung in einem Kanton ausdrückt, suchten in der Folge fieberhaft nach Software. Diese sollte Beamten die Arbeit abnehmen und Resultate ausspucken. So brach in der Schweiz die Ära der algorithmen­basierten Prognose­programme an.

Was diese genau machen, umschreibt die Forscher­gruppe so: «Algorithmen­gestützte Tools versprechen, die Wahrscheinlichkeit von Delikten zum Zeit­punkt X am Ort Y berechnen zu können oder vorherzusagen, mit welcher Wahrscheinlichkeit Person Z delinquieren wird.»

Predictive Policing lässt sich demnach in zwei Formen unterteilen:

  • Bei der raumzeit­bezogenen Variante geht es um die Identifikation möglicher Tatorte und Tatzeiten, um Patrouillen und Interventionen im Voraus zu planen.

  • Bei der personen­bezogenen Variante sollen vermeintlich gefährliche Personen identifiziert und anschliessend einem sogenannten Bedrohungs­management unterzogen werden.

Die Einsatzfelder von Predictive Policing in den Kantonen sind: häusliche Gewalt, Drohungen gegen Schulen, Hooliganismus, gewalt­tätiger Extremismus. Mit den Vorhersage­programmen sollen Einbruch­serien gestoppt und potenzielle Straf­täterinnen frühzeitig identifiziert werden.

Wie Recherchen der Republik und die HSG-Studie zeigen, sind in den Kantonen primär fünf Programme im Einsatz: Precobs, Ra-Prof, Dyrias, Odara und Octagon. Sie unterscheiden sich je nach Funktionalität und Anwendungsgebiet.

Dyrias zum Beispiel steht für «Dynamische Risiko-Analyse-Systeme». Anhand eines Fragen­katalogs, der auf unterschiedliche Bereiche ausgelegt ist – Arbeits­platz, Schule, Partner –, kalkuliert das Programm eine Zahl zwischen 1 und 5. Diese soll das Gefahren­potenzial und den Handlungs­bedarf anzeigen.

Ich will es genauer wissen: Welche Programme werden eingesetzt?

Precobs ist das einzige raumzeit­bezogene Programm, das in der Schweiz zum Einsatz kommt. Mehrere Kantone verwenden zur Risiko­analyse zudem eines oder mehrere personen­bezogenen Tools: Dyrias, Ra-Prof oder Octagon.

  • Precobs soll Gebiete identifizieren, in denen aufgrund der Vergangenheit davon ausgegangen werden könne, dass in Zukunft erneute Einbrüche wahrscheinlich seien. Die Theorie dahinter nennt sich «Near Repeat» und geht davon aus, dass Einbruchs­serien eine gewisse Logik zugrunde liegt. Precobs ist das einzige Programm, das einen komplexen – und intransparenten – Algorithmus als Grundlage hat: eine avancierte Muster­erkennungs­software, die entsprechende Voraussagen liefern soll. Precobs wird vom privaten deutschen Institut für muster­basierte Prognose­technik entwickelt und kommt in der Schweiz nur im Aargau, in Basel-Landschaft und in der Stadt Zürich zum Einsatz.

  • Ra-Prof («Radicalisation Profiling») funktioniert ähnlich. Das Programm soll anhand von 40 Fragen Radikalisierungs­tendenzen feststellen. In einem Online­fragebogen werden die Antworten anonym eingegeben. Anschliessend errechnet ein simpler Algorithmus anhand der Anzahl positiver Antworten, ob die Polizei dringend handeln muss, ob weitere Abklärungen nötig sind oder ob kein dringender Handlungs­bedarf besteht. Ra-Prof wurde vom Schweizer Zentrum für Gewalt­fragen entwickelt und bisher nicht validiert.

  • Dyrias (Dynamische Risiko-Analyse-Systeme) berechnet mit einem Fragen­katalog, der unterschiedliche Bereiche wie Arbeits­platz, Schule, Partner umfasst, eine Zahl zwischen 1 und 5. Diese soll das Gefahren­potenzial und den Handlungs­bedarf anzeigen.

  • Octagon, ein ausführlicher Frage­bogen, ist in der Schweiz am weitesten verbreitet. Mindestens 14 Kantone verwenden ihn, sowohl in Papier­form als auch digital. Dabei handelt es sich nicht um eine komplexe Technologie, sondern eher eine Form des angeleiteten Prognostik­ansatzes. Octagon wurde vom Psychiatrisch-Psychologischen Dienst des Kantons Zürich in Zusammen­arbeit mit der Kantons­polizei entwickelt. Dabei soll die Gewalt­bereitschaft einer Person anhand von acht Dimensionen bestimmt werden. Jede davon wird mit einem Fragen­katalog beurteilt. «Octagon gilt aktuell als praxis­nahes Instrument für das Bedrohungs­management», sagt Thomas Kummer von der Kantons­polizei Solothurn, wo Octagon seit 2017 zum Einsatz kommt. «Es bildet die Handlungs­notwendigkeit sowie die Interventions­dringlichkeit sehr gut ab und unterstützt den Anwender effizient in seiner Arbeit.» Im Gegensatz dazu benötige zum Beispiel Dyrias weitaus mehr Daten für eine nützliche Einschätzung. Daten, die meist gar nicht vorhanden seien.

  • Odara, das «Ontario Domestic Assault Risk Assessment», ist ein in Kanada entwickeltes Risk-Assessment-Instrument. Odara ist relativ leicht zu handhaben, was eine einfache Einschätzung zur Rückfall­gefahr bei häuslicher Gewalt ermöglichen soll. Es ist wie Dyrias ein Analyse­werkzeug zur Abschätzung des Risikos einer potenziellen Straftat.

Abgesehen von Precobs verwenden alle Prognose­tools regel­basierte «Wenn-dann-Algorithmen», manche sind auch nur digitalisierte Check­listen oder Frage­bögen. Die meisten Tools sind nicht im eigentlichen Sinn «smart».

Doch nicht nur Polizei­stellen, sondern auch Sozial­ämter oder Kinder- und Elternschutz­behörden greifen auf solche Software zurück. Die Schweiz gehöre zur Avantgarde, bestätigt Simon Egbert, Forscher an der Technischen Universität Berlin. Bereits 2013 habe die Stadt­polizei Zürich mit Precobs experimentiert.

Interessant ist, dass die meisten kantonalen Behörden negieren, Predictive Policing zu betreiben. Sie haben dazu teilweise eigentümliche Erklärungen:

  • So schreibt die Kantons­polizei Bern auf Anfrage der Republik, dass sie aktuell «mit keinem entsprechenden digitalen Tool im Bereich Predictive Policing und Bedrohungs­management» arbeite. Gleichzeitig besitzt sie jedoch Lizenzen für Dyrias und Octagon.

  • Auch der Kanton Basel-Stadt bestreitet, dass der Einsatz von Dyrias und Ra-Prof etwas mit Predictive Policing zu tun habe, «weil diese Instrumente keine Aussagen zur generellen Kriminalitäts­entwicklung machen».

Das sieht zumindest die deutsche Bertelsmann-Stiftung anders. Sobald Polizei­behörden Software einsetzen, um Prognosen hinsichtlich «zukünftiger Verbrechens­areale oder zukünftiger Straftäter» zu erstellen, befinde man sich im Bereich des Predictive Policing. Denn am Ende spucken sie eine Prognose aus, die für die Polizistinnen relevant ist.

2. Das Risiko von Gefährdern wird überschätzt

Da die Prognose­programme entweder Produkte von kommerziellen Firmen sind oder deren Funktions­weise als Geschäfts­geheimnis gilt, ist vielen Polizei­beamten nicht klar, was im Hinter­grund genau berechnet wird.

Punktuell Klarheit geschaffen haben bisher nur Medien­recherchen. SRF zeigte beispiels­weise vor zwei Jahren, dass zwei von drei Personen mit Dyrias falsch eingeschätzt wurden. Ein Faktor, der regelmässig zu Ausreissern führt, ist die Variable Waffen­besitz, wie die Recherchen der Republik zeigen. Ein Mitarbeiter einer kantonalen Fach­gruppe Gewalt­schutz sagt: «Wer im Besitz von Waffen ist, der schlägt bei Dyrias hoch aus.»

Der Grund dafür ist einfach: Das Tool wurde in Deutschland entwickelt, der Schweizer Kontext mit den Armee­waffen führt zu einer permanenten «Red Flag». Den Schweizer Kantons­polizistinnen ist diese Verzerrung bekannt, sie habe durchaus zu Diskussionen geführt. Der Medien­sprecher der Kantons­polizei Luzern, Christian Bertschi, sagt dazu: «Der Umstand, dass ein Waffen­besitz allenfalls eine höhere Gefährdungs­stufe bedeuten kann, ist uns bewusst und wird bei der Gesamt­beurteilung entsprechend berücksichtigt.»

Ausreisser gibt es auch bei Odara. Das Programm wird etwa zur Prävention von häuslicher Gewalt angewendet. Es hat den Hang, stark zu «überzeichnen», wie eine Mitarbeiterin eines forensisch-psychologischen Diensts der Republik sagt: «Sechs von zehn Personen wurden als sehr gefährlich eingestuft, wobei aber nach unserer Meinung wirklich nur einer gefährlich war.»

Trotz dieser Risiko­überschätzung sind viele Polizisten von der Effektivität der Werkzeuge überzeugt. Einige verweisen dabei auf einen Vorfall bei der Kesb. Ein Gefährder, der durch Dyrias als hoch­gefährlich eingestuft worden sei, was Stufe 5 entspricht, wurde gerade noch rechtzeitig «abgefangen», bevor er eine Kesb-Mitarbeiterin bedrohen wollte. Er hatte eine Waffe dabei.

Bisher kamen Prognose­programme nur «unterstützend» zum Einsatz. Am Ende entscheide immer noch der Mensch über den Einsatz und das Vorgehen, fassen die Forscherinnen der Universität St. Gallen die Gespräche in ihrer Studie zusammen.

Christian Bertschi von der Luzerner Polizei erklärt den Stellen­wert der Programme so: «Die Tools sind ein elektronisches Instrument, welches uns eine gewisse Sicherheit gibt, eine Art ‹Fieber messen›, und allenfalls Unter­stützung in gewissen Entscheidungen geben kann.» Ein Polizei­beamter, der anonym bleiben will, bestätigt diese Aussage: «Man nimmt nie einfach so das Resultat hin, das wird ständig hinterfragt.» Auch Ausreisser wie bei Odara oder Dyrias würden dabei niemals überbewertet.

Forscherin Monika Simmler spricht dennoch von einer «Pseudo­legitimation». Denn die Resultate sollen das Bauch­gefühl der Polizistinnen absichern und als Argument genutzt werden, um etwa Massnahmen anzuordnen. «Der Algorithmus bestimmt mit, wer ein Gefährder ist und wer nicht», sagt Simmler. Gerade bei polizeilichen Eingriffen wie dem Entzug von Waffen dienen die Programme zur Absicherung.

Aus den Gesprächen mit involvierten Beteiligten, die die Republik führte, entsteht der Eindruck, dass wegen des öffentlichen Drucks immer mehr Entscheidungen durchaus «algorithmen­konform» getroffen werden:

  • Ein Beteiligter erzählt, wie man in Erklärungs­not komme, wenn man die Programme ignoriere: «Wenn man ein System hat und das etwas ausspuckt und man nicht reagiert und etwas passiert, dann kommt die Frage, warum wir nicht reagiert haben.»

  • Ein anderer sagt: «Wenn jemand eine 5 hat, kommt es bald zur Gewalttat, und man muss Massnahmen einleiten. Bei 3 muss man nicht gleich intervenieren.»

Die technologie­basierten Empfehlungen beeinflussen also tatsächlich die Entscheidungs­findung, ob interveniert wird. Die Grenzen, was dabei eigene Fach­expertise ist und was technologische Intelligenz, werden fliessender. «Es schärft die Sinne und zeigt, worauf man achten muss», sagt eine Polizistin.

Nadja Capus, Strafrechts­professorin an der Universität Neuenburg, warnt seit Jahren vor diesem «Tunnel­blick», bei dem man die Logik der Risiko­werkzeuge übernehme. Sie schrieb vor zwei Jahren in der Republik: «Wenn Polizisten, Strafvollzugs­beamtinnen, Bewährungs­helfer und Psychiaterinnen sich an diese eingeengte Wahrnehmung gewöhnen, werden wichtige Informationen vernachlässigt oder gehen verloren.» Anders als geschulte Polizisten können Prognose­tools Kontext nicht mit einbeziehen.

Ähnlich sieht dies auch die Geschäfts­führerin der Organisation Algorithm Watch Schweiz, Anna Mätzener: «Bei Befragungen in Deutschland haben neun von zehn Polizisten geantwortet, dass sie versuchen, sich möglichst genau an die vom Predictive-Policing-System empfohlenen Massnahmen zu halten.»

Doch der Empfehlungs­charakter führt dazu, dass der Einsatz von Precobs, Dyrias und Co. unreguliert bleibt. Sowohl die europäische Datenschutz-Grund­verordnung als auch das revidierte Schweizer Datenschutz­gesetz greifen nur, wenn eine Software nicht nur Empfehlungen abgibt, sondern direkt entscheidet – zum Beispiel über eine Kreditvergabe.

3. Die Programme wurden kaum evaluiert

Die fehlende Regulierung ist ein Problem. Erst jetzt beginnen die Kantone, unabhängige Untersuchungen der Programme durchzuführen. So wird Odara vom Kriminologischen Institut der Universität Zürich im Auftrag des Kantons Zürich vertieft evaluiert. Vorher gab es dafür offenbar kaum Bedarf – obwohl die Systeme bereits jahre­lang im Einsatz waren. Ein Grund für die fehlende Aufsicht ist: Die Software­beschaffungen sind Sache der Polizei­korps. Da es sich um Hilfs­instrumente handelt, wurden sie auch nie politisch hinterfragt.

«Politischen Widerstand gab es nie», erzählt uns eine Polizistin. «Wir nehmen den Politikern auch viel Arbeit ab.»

Dabei würden auch Fachkräfte aus Frauen­häusern, die vom Einsatz von Prognose­tools profitieren, eine externe Evaluation begrüssen: «Eine Über­prüfung der Tools bzw. die Handhabung mit allen verschiedenen Fachleuten und Stellen gemeinsam wäre wünschens­wert, damit auch wirklich allen verschiedenen Aspekten des Bedrohungs­managements mit den unter­schiedlichen Täter-‹Typen› Rechnung getragen wird», sagt etwa Susan Peter, Vorstands­mitglied der Dach­organisation Frauen­häuser Schweiz und Geschäfts­leiterin der Stiftung Frauenhaus Zürich.

Auch Anna Mätzener von Algorithm Watch Schweiz fordert, «dass sich die Polizei für Begleit­forschung öffnen und nicht alles hinter verschlossen Türen machen soll». Die Polizei selbst würde davon am stärksten profitieren.

Demokratiepolitisch heikel ist, dass die Prognose­systeme eine technologische Blackbox sind. Weder die Hersteller von Precobs noch jene von Dyrias wollen den Quellcode oder die Bewertungs­parameter ihrer Algorithmen offen­legen. Brisanter­weise erhalten sie dafür vollstes Verständnis der Polizei: «Selbst­verständlich gibt keine Software­firma den Algorithmus ihrer Analyse­software preis», sagt ein Fach­verantwortlicher eines kantonalen Bedrohungs­managements. Sie müsse damit ja Geld verdienen. Es sei auch nicht wichtig, diese Merkmale zu kennen.

Hinzu kommt, dass im Fall von Dyrias die Daten auf Servern der Firma in Frankfurt liegen. Diese seien jedoch verschlüsselt, und niemand ausser der Kundschaft habe Zugriff darauf, sagt Monika Hoffmann, Geschäfts­führerin des Instituts Psychologie und Bedrohungs­management, die das Prognose­programm entwickelt hat.

Die Kantonspolizei­korps sind vom präventiven Nutzen des Predictive Policing überzeugt. «Gemäss Statistik ist die Anwendung von Precobs positiv, denn die Einbruchs­zahlen sind zurück­gegangen», sagt ein stellvertretender Vertreter der Sicherheits­abteilung eines Kantons.

Gleichzeitig gestehen sie jedoch ein, dass sich keine Aussagen über den Erfolgs­anteil der Systeme machen lassen. So schreibt die Kantons­polizei Glarus, bei der sowohl Dyrias als auch Octagon im Einsatz sind: «Es wird nie möglich sein, eine Aussage dazu zu machen, ob und wie viele Straftaten verhindert wurden, da man ja nicht weiss, ob es tatsächlich zu einer Straftat gekommen wäre.»

ETH-Forscher und Precobs-Experte Matthias Leese bestätigt diesen Befund: «Es gibt durchaus einen Rückgang bei den Einbruchs­zahlen. Ob das der Software zuzuschreiben ist, ist schwer zu sagen.»

Ob die Instrumente wirklich nützen, wurde bisher kaum von unabhängiger Seite untersucht. Und wenn, dann stellten ihnen Studien kein gutes Zeugnis aus. So untersuchte Algorithm Watch den Einfluss von Precobs auf die Anzahl Einbrüche in der Stadt Zürich und den Kantonen Aargau und Basel-Landschaft. Das Ergebnis war ernüchternd: Die Einbruchs­raten gingen nicht stärker zurück als in den Regionen, die keine Vorhersage­software verwenden.

Ein möglicher Grund dafür ist, dass algorithmen­basierte Programme viele Daten brauchen. Das Vorhersage­modell von Precobs nützt nur etwas in dichten Siedlungs­gebieten, in denen es auch viele Einbrüche gibt. Fehlen diese Daten, so kann der Algorithmus keine verlässlichen Aussagen treffen. Der Kantönli­geist macht der Polizei hier einen Strich durch die Rechnung. Denn Kantone dürfen aufgrund des Daten­schutzes keine Daten austauschen.

Und trotzdem halten alle in der Studie befragten Institutionen das kantonale Bedrohungs­management für ein Erfolgs­modell. Man habe schon «viel Druck» rausholen können, Gespräche mit potenziellen Gefährdern hätten immer eine deeskalierende Wirkung gehabt, heisst es.

Ein weiterer Vorteil: Mit den Prognose­instrumenten vereinheitlichen sich die Prozesse – alle Beteiligten sprechen vom selben. Ein Beteiligter erinnert an den Fall Kneubühl, bei dem ein Rentner 2010 in Biel einen Polizisten schwer verletzte. Dieser war einigen Behörden als Querulant bekannt, doch es gab damals keinen internen Informations­fluss. «Die linke Hand wusste nicht, was die rechte tat.» So etwas würde dank eines interdisziplinären Netzwerks mit Expertinnen aus Psychologie, Kriminalistik, Forensik und Statistik, das mit dem Bedrohungs­management geschaffen wurde, nicht mehr passieren.

4. Die rechtlichen Grundlagen fehlten

Die von den Prognose­instrumenten ausgespuckten Resultate – also die Risiko­bewertung eines potenziellen Gewalt­täters – werden kantonal in elektronischen Daten­banken gespeichert, sogenannten «Gefährderlisten».

Für die Speicherung als Gefährderin ist weder die tatsächliche Begehung einer Straftat noch ein konkreter Tatverdacht nötig. Es reicht eine ausgesprochene Drohung. 132 Personen waren Ende 2019 im Kanton Solothurn gespeichert. In Luzern waren es diesen Sommer 458, wie die Recherchen der Republik zeigen.

Auch der «Risiko­verlauf» wird gespeichert – also wenn jemand umklassifiziert wird, zum Beispiel von A nach C. Ausserdem werden darin weitere schützens­werte Personen­daten festgehalten, wie etwa die psychologische Stabilität. Gemäss den Forscherinnen der Universität St. Gallen sind die Hürden für eine Löschung in den Gefährder­datenbanken zu hoch. Für sie ist klar: Ein solches System braucht eine explizite rechtliche Grundlage. Alleine schon die Kategorisierung einer Person in amtlichen Akten stelle einen Eingriff in die Grund­rechte dar und tangiere den Schutz­bereich nach Artikel 13.1 Absatz 2 der Bundesverfassung.

Doch nicht alle Kantone haben diesbezüglich ihre Haus­aufgaben gemacht:

  • In Basel-Stadt werden die Bestimmungen im Grossen Rat erst jetzt verabschiedet. Dies, obwohl man bereits seit 2016 mit dem Programm Ra-Prof arbeitet, das bereits 52 Mal angewendet worden sei.

  • In Schaffhausen, St. Gallen oder im Aargau werden Polizei­gesetze erst jetzt revidiert. Auch in diesen drei Kantonen werden die Predictive-Policing-Systeme seit mehreren Jahren angewendet.

  • Der Kanton St. Gallen verwendet Dyrias seit 2014 für die Prävention von Gewalt­verbrechen. Doch das rechtliche Instrumentarium für dessen Einsatz im Bereich häusliche Gewalt und Stalking wurde erst 2019 in einem Nachtrag zum Polizei­gesetz verabschiedet.

Darauf angesprochen, antwortet der General­sekretär des Sicherheits- und Justiz­departments in St. Gallen, Hans-Rudolf Arta, ausweichend. Die «Gefährder­massnahmen» würden zum allgemeinen polizeilichen Präventions­auftrag gehören, sagt er: «Sie sollen dazu beitragen, mögliche Gewalt­delikte zu verhindern, bevor es zu spät ist.»

Die fehlende demokratische Legitimation und der rechtliche Grau­bereich bei Gefährder­datenbanken empfanden die wenigsten Personen als störend, die die St. Galler Wissenschaftler in ihrer Studie befragten. Oft werde auf die polizeiliche General­klausel in Polizei­gesetzen verwiesen. Diese Klausel legitimiert Interventionen der Polizei in «Fällen ernster, unmittelbarer und nicht anders abwendbarer Gefahr».

Doch diese Klausel ist nicht einmal ansatzweise rechtlich haltbar für ein systematisch angewendetes Predictive Policing, halten die Studien­autorinnen fest. Auch die Basler Staats­rechts­professorin Nadja Braun Binder ist der Ansicht, dass die General­klausel nur in Ausnahme­fällen angerufen werden kann. Sie verweist auf ein Bundes­gerichts­urteil, das besagt, dass die Klausel auf «echte und unvorhersehbare sowie gravierende Notfälle» ausgerichtet ist.

Die Autorinnen kritisieren ausserdem in ihrer Studie, dass die Gefährder kaum Möglichkeiten haben, von ihrem Status überhaupt jemals zu erfahren.

«Dass Algorithmen Bürger zu Gefährdern machen, ist bedenklich», sagt Monika Simmler. «Dass dies ohne adäquaten rechtlichen Rahmen geschieht, ist noch bedenklicher.» Sie kritisiert dabei, dass weder die Recht­mässigkeit eines Eintrags überprüft noch dieser zu einem späteren Zeit­punkt gegen­über dem Gefährder transparent gemacht werde. Denn wer nichts von seinem Status weiss, kann sich auch nicht gerichtlich dagegen wehren oder eine Löschung erzwingen, falls keine Gefahr besteht.

Diese Intransparenz bestätigt auch ein Insider gegenüber der Republik. Die Polizei lasse nur gewisse Gefährder spüren, dass sie beobachtet würden: «Eine A-Person spürt unsere Aufmerksamkeit, einen C-Fall hingegen lassen wir an der langen Leine, machen ein Monitoring, und wenn das Verhalten Besorgnis erregt, wird zu B oder A hochgestuft.» Manche Personen, die noch nie straf­fällig wurden, würden also nie von ihrem Polizei­eintrag erfahren.

Weil es sich bei Odara und Co. nur um Hilfs­werkzeuge für Polizistinnen handelt, müssen potenzielle Täter auch nicht über ihre algorithmen­basierte Risiko­einschätzung informiert werden. Sie erfahren also nicht, dass eine Maschine sie zum Hochrisiko­täter eingestuft hat.

Viele Opfer­anlauf­stellen begrüssen grund­sätzlich die enge Zusammen­arbeit mit der Polizei und das Regime des Bedrohungs­managements. Doch auch sie pochen darauf, dass dabei die rechts­staatlichen Mass­stäbe beachtet werden. So sagt Corina Elmer von der Frauen­beratung sexuelle Gewalt gegenüber der Republik: «Gleichzeitig gilt es, den Daten­schutz, die Rechte aller involvierten Personen und die Verhältnis­mässigkeit der Mass­nahmen zu beachten. Das ist eine Grat­wanderung, der wir in der Praxis immer wieder begegnen und die in jedem Einzel­fall sorgfältig abzuwägen ist.»

Der Ruf nach dem präventiven Staat wird lauter

Manche sagen, die Programme, die in der Schweiz eingesetzt werden, seien weniger nützlich als ursprünglich angenommen. «Das Tool macht nichts, was Analystinnen nicht ohnehin täglich machen», sagt ein Beteiligter. «Es beschleunigt den Prozess einfach.» Doch Predictive Policing wurde nicht etwa entzaubert, weil die Polizei sich der Probleme bewusst geworden wäre. Sondern, weil nicht genügend Daten zur Verfügung stehen.

Das könnte sich bald ändern. Die Kantone beginnen nun, Informationen regional auszutauschen. So hat das Polizeikonkordat Nordwest­schweiz beschlossen, eine Vereinbarung für den Datenaustausch aufzubauen. Dies, weil man an die kantonalen Grenzen gekommen sei mit Systemen wie Precobs. Wo diese Grenzen aufgehoben werden, wird es bald mehr Daten­futter geben.

Das fehlende demokratische und rechts­staatliche Problem­bewusstsein zeigt sich auch in den Ergebnissen der Forscher­gruppe der Universität St. Gallen. Eine schweiz­weite Debatte in den Polizei­korps bleibt bisher aus. Zwar hat der Bundesrat am 25. November Leitlinien für den Einsatz von künstlicher Intelligenz verabschiedet. Doch diese gelten nur für die Bundesverwaltung.

Hologramme, Visualisierungen künftiger Mord­fälle und Spezial­einheiten, die kurz vor der Tatzeit eine Verbrecherin dingfest machen, bleiben zwar noch Science-Fiction. Doch der Einsatz algorithmen­basierter Polizei­programme wird zunehmen, davon gehen auch die Studien­autorinnen aus. Dies nicht zuletzt, weil der gesellschaftliche Ruf nach dem präventiven Staat zunimmt:

Mit dem neuen Anti­terror­gesetz wird es beispiels­weise möglich, Menschen unter Hausarrest zu stellen, ohne dass sie eine Straftat begangen haben – nur, weil sie als potenzielle Gefährder eingestuft werden. Dies sind neue Möglichkeiten der präventiven Mass­nahmen, die zur Entwicklung des Schweizer Polizei­wesens in den letzten Jahren passen.

2929

Wenn Sie weiterhin unabhängigen Journalismus wie diesen lesen wollen, handeln Sie jetzt: Kommen Sie an Bord!

seit 2018

Republik AG
Sihlhallenstrasse 1
8004 Zürich
Schweiz

kontakt@republik.ch
Medieninformationen

Der Republik Code ist Open Source