Digitalisierte und datenbasierte Polizeiarbeit – was ist Predictive Policing?

von Simon Egbert // Seit die bayrische Landespolizei im Herbst 2014 begonnen hat, mit der Prognosesoftware PRECOBS zu arbeiten, ist die vorhersagegestützte Polizeiarbeit, das sogenannte Predictive Policing, zu einem medialen wie sicherheitspolitischen Thema geworden.

Die Hoffnungen der Polizei und der Innenministerien liegen vor allem darin, mit Hilfe innovativer Technologien die polizeiliche Arbeit effektiver zu gestalten, die steigenden Zahlen beispielsweise bei Einbrüchen zu reduzieren und einem gesteigerten Sicherheitsbedürfnis in der Bevölkerung zu entsprechen. Im Film Minority Report entwarf Steven Spielberg 2002 das dystopische Szenario einer Zukunft, in der die Strafverfolgungsbehörden in der Lage sind, Bürger und Bürgerinnen bereits im Vorfeld der eigentlichen Tat zu verhaften. Eine solche Zukunft steht uns zwar nicht bevor, dennoch lohnt es sich, einen Blick auf die Probleme zu werfen, die bereits mit der heutigen prognosebasierten Polizeiarbeit einhergehen. Besonders, da die Einhaltung von Grundrechten auf dem Spiel steht.

Digitalisierte Polizeiarbeit im 21. Jahrhundert

In Deutschland geht es beim Predictive Policing darum, mit Hilfe verschiedener Datenquellen – vor allem polizeilicher Kriminalitätsdaten – und auf Basis verschiedener Kriminalitätstheorien, Wohnungseinbrüche raumzeitlich vorherzusagen. Derzeit werden entsprechende Verfahren in Bayern, Niedersachsen, Baden-Württemberg, Hessen, Berlin und Nordrhein-Westfalen angewendet. Dabei kommt in Bayern und Baden-Württemberg das kommerzielle Produkt PRECOBS zum Einsatz, während in den anderen Bundesländern selbstständig entwickelte Software genutzt wird – die allerdings meisten sehr ähnlich funktionieren.

Ein Grund für die Verwendung eigener Programme ist neben größtmöglicher Autonomie vor allem der Wunsch nach maximaler Transparenz. Denn bei einer eigenhändig programmierten Prognosesoftware müssen erstens keine Daten an externe Dritte herausgegeben werden und zweitens besitzt man einen unverstellten Blick auf die genutzten Algorithmen, die von kommerziellen Anbietern in aller Regel nicht freigegeben werden. Letzteres führt dazu, dass die Prognoseerstellung nicht hundertprozentig nachvollzogen werden kann.

In der digitalisierten Polizeiarbeit wird vor allem die sogenannte „near repeat“-Hypothese angewendet, die besagt, dass professionelle Serientäter/-innen dazu neigen, nach einem erfolgreichen Einbruch in unmittelbarer zeitlicher und räumlicher Nähe erneut zuzuschlagen. Sie kennen das Gebiet und die dortigen Risiken und können den potenziellen Gewinn (Beute) besser abschätzen.

Das System PRECOBS arbeitet (derzeit) allein mit diesem Ansatz und versucht Einbruchsdelikte von professionellen Täter/-innen herauszufiltern und mögliche Delikte vorherzusagen. Dass sich dabei auf den Wohnungseinbruchdiebstahl konzentriert wird, ist kein Zufall. Zum einen ist die „near repeat“-Hypothese bereits umfassend empirisch erforscht; zudem ist es vergleichsweise einfach, den Algorithmus zu programmieren, da er nur wenige Datenpunkte benötigt wie Tatort, Tatzeit, Vorgehensweise oder Stehlgut.

Ob Predictive Policing aber tatsächlich funktioniert, ist fraglich. Weder ist eindeutig geklärt, ob die prognostizierten Verbrechen auftreten, noch, ob durch die Anwendung Fallzahlen gesenkt werden konnten. Dies liegt vor allem an fehlenden Langzeitstudien.

Von raumbezogenen Daten zu personenbezogenen Daten

In Deutschland sind die oben genannten raumbezogene Verfahren des Predictive Policing mit Abstand die dominanteste Anwendungsform prognoseorientierter, digitalisierter Polizeiarbeit. Aber auch personenbezogene Verfahren (predictive profiling) sind bereits bekannt. Ein viel zitiertes Beispiel aus den USA ist die „Strategic Subject List“ der Chicagoer Polizei, in deren Rahmen eine Liste mit denjenigen Personen angefertigt wurde, die ein erhöhtes Risiko aufweisen sollen, Opfer oder Täter bzw. Täterin einer Gewalttat zu werden. Aber auch hierzulande gibt es inzwischen Verfahren des personenbezogenen Predictive Policing zu beobachten.

So hat das Bundeskriminalamt (BKA) im Frühjahr 2017 das Risikobewertungsinstrument „RADAR-iTE“ vorgestellt. Das Verfahren richtet sich auf die Risikobeurteilung von Gefährdern und relevanten Personen aus dem militant-salafistischen Spektrum. Seit Sommer 2017 wird es in allen Landeskriminalämtern eingesetzt. Zwar weist das BKA den Begriff Predictive Policing für RADAR-iTE zurück, trotzdem werden mit den Risikobewertungen spezifisch zukunftsbezogene Aussagen getroffen, aus denen polizeiliche Maßnahmen abgeleitet werden (zum Beispiel die verstärkte Überwachung einer „Hoch-Risiko-Person“).

Wohnungseinbrüche sind nur der Anfang

Bei raumbezogenen Prognoseverfahren arbeiten Entwickler derzeit an Erweiterungen. Außer Wohnungseinbrüchen sollen in Zukunft auch Prognosen zu Trickdiebstählen, Raub, Autoeinbrüchen und -diebstahl erstellt werden können. Zudem soll ein zunehmend heterogenes Datenset für die Prognosearbeit genutzt werden: Neben polizeilichen Daten wird dabei auf infrastrukturelle und sozio-ökonomische Informationen zurückgegriffen. Dies wird die Grenze, wo raumbezogene Daten erhoben werden und personenbezogenen Daten beginnen, weiter verschwimmen lassen.

Datenschutzbehörden finden Predictive Policing unproblematisch

Da die bisherigen raumbezogenen Prognosen keine personenbezogenen Daten nutzen, werden sie von Datenschutzbehörden als unproblematisch eingestuft, da die Persönlichkeitsrechte, insbesondere das Grundrecht auf informationelle Selbstbestimmung, nicht berührt werden. Sie betonen dabei jedoch stets, dass die räumlichen Vorhersagen nicht allzu präzise sein dürfen, da sie sonst Rückschlüsse auf Personen zulassen könnten.

Daneben entstehen durch häufige Prognosen in bestimmten Räumen Nachteile für die Bewohner, so zum Beispiel durch sinkende Immobilienpreise, da die Gegend als krimineller Brennpunkt stigmatisiert wird.

Nicht zuletzt wirft die zunehmende Digitalisierung der Polizeiarbeit grundsätzliche Fragen der Datensicherheit auf. Denn je mehr Daten gesammelt und verarbeitet werden, desto größer ist die Gefahr, dass diese Daten – sei es durch Hacking oder Leaking – in die falschen Hände geraten. Das gilt umso mehr, wenn auch personenbezogene Daten – wie bei RADAR-iTE – verarbeitet werden.

Die Frage ist dabei auch, wie einfach es für Personen ist, die zwar vom Algorithmus eines Systems wie PRECOBS verdächtigt werden, aber keine Tat begehen, aus den Datenbanken der Polizei gelöscht zu werden. Deshalb muss die (In-)Transparenz solcher Algorithmen verstärkt diskutiert werden. Denn in einem derart sensiblen Bereich wie der Kriminalitätsbekämpfung muss es in der Tat für alle Betroffenen – auch für die (möglichen) Straftäter/-innen – möglich sein, die Prognose einer Software nachvollziehen und in Frage stellen zu können.


Simon Egbert ist wissenschaftlicher Mitarbeiter am Institut für Kriminologische Sozialforschung der Universität Hamburg. Seit Anfang 2017 untersucht er in einem Forschungsprojekt die Implementierung von polizeilicher Prognosesoftware im deutschsprachigen Raum. Dafür spricht er mit zahlreichen polizeilichen Expertinnen und Experten und analysiert Prognoseverfahren vor Ort.