Zum Inhalt wechseln

DEUTSCHE POLIZEI September 2019

Big Data

Von Julia Fricke

Foto: monsitj/stock.adobe.com
Foto: monsitj/stock.adobe.com

Man stelle sich einen riesigen Haufen Einsen und Nullen vor, aus dem man irgendwie schlau werden soll. Dürfen wir uns so ähnlich „Big Data“ vorstellen? DP-Autorin Julia Fricke erklärt in ihrem Artikel, das Phänomen stehe für die Extraktion von Wissen aus Daten. Der Begriff beschreibe die Verarbeitung großer heterogener Datenmengen in hoher Geschwindigkeit. Solche Daten fallen Fricke zufolge zunehmend auch im Polizeialltag an. Und weiter: Big-Data-Analysen haben laut der Expertin ein hohes Wertschöpfungspotenzial – eben auch für die Polizeiarbeit. Dennoch finden sie dort bisher kaum Anwendung. Im Rahmen ihrer Bachelorarbeit ging die nordrhein-westfälische Polizeibeamtin der Frage nach, welchen Wert Big-Data-Analysen für die deutsche Polizei haben könnten. Sie identifizierte (potenzielle) Einsatzgebiete und ließ dabei insbesondere die Risiken für die Privatsphäre und den Konflikt mit datenschutzrechtlichen Grundsätzen nicht unbeachtet. Das hat sie offenbar so überzeugend gemacht, dass ihr beim diesjährigen Europäischen Polizeikongress Ende Februar in Berlin der sogenannte Zukunftspreis Polizeiarbeit verliehen wurde.

3-V-Big-Data

Foto: DP-Autorin Julia Fricke. Foto: BehördenSpiegel/Dombrowsky
Foto: DP-Autorin Julia Fricke. Foto: BehördenSpiegel/Dombrowsky
Big Data und Künstliche Intelligenz (KI) sind Technologien, die bereits in unterschiedlichen Bereichen unseres Lebens eingesetzt werden. Insbesondere aus den Sprach-, Text- und Bilderkennungsfähigkeiten von künstlich-intelligenten Maschinen ergeben sich bemerkenswerte Anwendungen. Digitale Assistenten wie Siri (Apple) oder Alexa (Amazon) können mit rasanter Geschwindigkeit lernen, Fragen von Menschen verstehen und beantworten sowie Aufgaben selbstständig erledigen.

Während Big Data in der Gesellschaft häufig bloß mit einer großen Datenmenge gleichgesetzt wird, werden der Technologie in der fachwissenschaftlichen Literatur mindestens die drei Charakteristika „Volume“ (Datenmenge, Umfang), „Variety“ (Heterogenität der Daten, unstrukturierte Daten) und „Velocity“ (hohe Geschwindigkeit der Datengenerierung sowie -verarbeitung) zugeschrieben, die „3 V“. Im Kern zeichnet sich Big Data duch die schnelle Analyse und Verarbeitung von Datenmassen aus unterschiedlichen Quellen, zum Beispiel Text-, Bild-, Video- und Audiodateien, aus. Das geschieht in enorm hoher Geschwindigkeit – teils sogar in Echtzeit. Eine Aufgabe, bei der herkömmliche Methoden und standardisierte Ins- trumente der Datenverarbeitung an ihre Grenzen stoßen. Um die Daten dennoch analysieren und Erkenntnisse aus ihnen gewinnen zu können, ist KI von entscheidender Bedeutung.

Intelligenzen
Auch abseits der gängigen Science-Fiction-Genres wird die KI oft mit Robotern und Maschinen assoziiert. Deren Prozessoren und Arbeitsspeicher könnten manch intellektuelle Aufgabe effizienter als Menschen erledigen („starke KI“). Jedoch haben aktuelle Technologien weniger das Ziel, den Menschen zu imitieren, sondern ihn vielmehr bei einer Vielfalt von Aufgaben zu unterstützen („schwache KI“). Solche Anwendungen sind in der Lage, Texte, Sprache und Bilder – im Sinne von Erkenntnis – zu „verstehen“. Ebenso können sie zum Beispiel Informationen interpretieren oder Hypothesen erstellen sowie diese bewerten. Sie lernen durch das Verhalten des Nutzers und führen mit ihm einen Dialog in natürlicher Sprache. KI-Systeme, die Schlussfolgerungen, Entscheidungen und Handlungen ableiten sowie diese mit ihrer Umgebung im Dialog kommunizieren können, werden daher als kognitive Systeme bezeichnet.

Das wohl bekannteste dürfte „Watson“ sein, das vom innovativen Technikgiganten IBM entwickelt wurde. Watson ist in der Lage, Informationen in natürlicher Sprache zu verarbeiten und zugleich zu beantworten. Im Jahr 2011 gelang es Watson, gegen zwei menschliche Champions in der Quizshow „Jeopardy“ zu gewinnen. In der Sendung, so berichteten damals Nachrichtenagenturen, waren Antworten vorgegeben worden, zu denen die passende Frage gesucht wurde. Allerdings sei dazu oft das erforderlich, was Menschen „um die Ecke denken“ nennen – das Verbinden. Watson konnte offenbar überzeugen. Grundlage dafür sind algorithmische Verfahren wie das Data-Mining (Daten-Bergbau) und das Machine-Learning (Maschinelles Lernen; ML). Muster und Zusammenhänge in großen Datenmengen sollen zunächst erkannt werden. Anschließend können Sachlagen beschrieben, Aussagen über Gemeinsamkeiten, Anomalien und Ursache-Wirkung-Beziehungen getroffen, Prognosen erstellt und Optimierungspotenziale und -strategien identifiziert werden.

Und die Polizeiarbeit?
Die große Menge zur Verfügung stehender polizeilicher Daten aus Vorgangsbearbeitungs-, Fahndungs- und Auskunftssystemen sowie Lagebildern oder der Polizeilichen Kriminalstatistik können als Beispiel einer Datenmenge, welche zur Erkenntnisgewinnung analysiert werden soll, betrachtet werden. Mit dem sogenannten Predictive Policing gewinnen bereits einige Polizeien hierzulande aus polizeilichen Daten Erkenntnisse. Streng genommen handelt es sich dabei jedoch eher um „Small Data“. Ziel dieser „vorausschauenden Polizeiarbeit“ ist es, Wahrscheinlichkeiten für das Auftreten zukünftiger Straftaten möglichst exakt raum-zeitlich zu berechnen – derzeit hauptsächlich zur Vorhersage von Wohnungseinbruchdiebstählen. Jedoch sind die bei diesem Vorgehen verwerteten Datensätze begrenzt auf Daten der Vergangenheit, zum Beispiel: Tatzeiten, Tatorte, Beute und Modi Operandi. Und die zugrundeliegenden Algorithmen basieren auf bereits bekannten (Kriminalitäts-)Theorien. Abgesehen von der Schnelligkeit der Datenanalyse können die Systeme im Ergebnis damit nicht unbedingt mehr als das, was auch Menschen mit gutem kriminalistischen Sachverstand zu leisten imstande sind.

Big Data zur polizeilichen Gefahrenabwehr

Foto: kubais/stock.adobe.com
Foto: kubais/stock.adobe.com
Vor diesem Hintergrund ist die methodisch-technische Weiterentwicklung des Predictive Policing durch die Implementierung von KI-Komponenten besonders interessant. Die Rede ist von einer „intelligenten“ polizeilichen Datenanalyse zu präventiven Zwecken. Solche Anwendungen würden es ermöglichen, eine weitaus größere Datenmenge aus unterschiedlichen Quellen – personenbezogene Daten eingeschlossen – zeitnah zu analysieren. Nicht zuletzt aus datenschutzrechtlichen Gründen gibt es bisher jedoch kaum recherchier- und belastbare Studien oder Informationen zu möglichen Anwendungen in der Polizeiarbeit. Die Potenziale präventiver, intelligenter polizeilicher Datenanalysen lassen sich aber am Beispiel des US-amerikanischen Durham Police Departments im Staat North Carolina verdeutlichen.


Die Polizei setzte hier intelligente IBM-Analysesysteme ein, um aus polizeiliche Daten, Notrufen, Informationen zu Bandenmitgliedern und ihren Verbündeten sowie Strafakten zu Gewaltverbrechen bisher verborgene Zusammenhänge zwischen Straftaten aufzudecken und tiefere Einblicke in kriminelle Netzwerke zu gewinnen. So fanden die amerikanischen Kolleginnen und Kollegen aus den Südstaaten heraus, dass etwa 20 Prozent aller Notrufe, die aufgrund von Schusswaffengebrauch getätigt wurden, aus einem Gebiet stammten, das gerade einmal zwei Prozent der Gesamtfläche der Stadt ausmachte.

In diesem Gebiet zeigte sich zudem eine ebenso unverhältnismäßig hohe Anzahl an Gewaltverbrechen, Prostitution und Drogenkriminalität. Letztlich wurden dort gezielt Kräfte in diesem Gebiet zur Senkung der Kriminalitätsraten eingesetzt. Wäre es nicht denkbar, neben den schon bislang verwendeten (polizeilichen) Daten, weitere wie Wetterbedingungen, Feier- und Ferientagen, Veranstaltungen und Großereignisse sowie Fakten zur Verkehrslage einzubeziehen? Auch könnten die Systeme durch die Nutzung sogenannter Open-Source-Intelligence (OSINT), also Informationen aus sozialen Medien wie Facebook, Twitter und Instagram, effizienter werden. Personenbezogene Daten wie Lichtbilder, Kontakte, Aufenthaltsorte, Urlaubsreisen sowie (politische) Einstellungen und Meinungen zu bestimmten Themen sind dort – abhängig von den allgemeinen Geschäftsbedingungen der Dienste – meist offen zugänglich.

Was dein Tweet über dich sagt
Derartige Hinweise lassen sich durch die bereits aus kommunikationswissenschaftlichen Forschungen bekannten Methoden (Social Media Analytics) automatisiert analysieren. Hier geht es um die Tonalität und Sinnstruktur von Texten, die Struktur sozialer Netzwerke sowie die Entwicklung von Themen und Trends. In einer in England durchgeführten Studie zur Hasskriminalität wurden mittels Algorithmen zehntausende Twitter-Meldungen (Tweets) hinsichtlich ausländer- und fremdenfeindlicher Inhalte beziehungsweise solcher sogenannter Hashtags analysiert, um zeitliche wie räumliche Muster aufzudecken. Durch die Kombination von OSINT und polizeilichen Daten in Big-Data-Analysen ließen sich Verhaltensmuster erkennen und Hypothesen über künftige Straftaten ableiten. Auf diesen Erkenntnissen könnten dann gezielte Präventionsmaßnahmen fußen. Auch wäre die Polizei hinsichtlich neuer Gefahrenlagen sehr nah an aktuellen gesellschaftlichen Entwicklungen.

Big-Data-Analysen zur polizeilichen Strafverfolgung
Big Data spielt auch im Rahmen kriminalpolizeilicher Ermittlungsarbeit eine nicht zu unterschätzende Rolle. Fakt ist: Der Umfang zu analysierender und als Beweismittel zu sichernder Daten wird stetig zunehmen. Und: Heute muss häufig eine unüberschaubare Menge unstrukturierter Daten ausgewertet werden. So sehen sich die Ermittlerinnen und Ermittler nicht selten mit dem Problem konfrontiert, unzählige Fotos, Videos, Telefongespräche, Textinhalte aus WhatsApp-, Facebook- und Twitter-Nachrichten oder E-Mails zeitnah auswerten zu müssen. Big-Data-Analysen versprechen die entscheidende Unterstützung. Warum? Drei Funktionalitäten sind relevant: das schnelle Filtern großer Datenmengen (automatisierte Reduktion der Datenmengen auf ermittlungsrelevante Inhalte), das Text- und Sprachverständnis (zum Beispiel bei der Telekommunikationsüberwachung) sowie die Bildverarbeitung (Gesichtserkennung, gezielte Bildersuche nach zum Beispiel kinderpornographischem Material). Kognitive Systeme wie Watson könnten also auf Textpassagen, Gesprächsinhalte, Bilder oder Videosequenzen hinweisen, in denen sich relevante Inhalte finden lassen. Zudem wäre es dem Anwender bei erkanntem Bedarf möglich, im Dialog mit Watson, gezielt „nachzufragen“, um – optimalerweise – eine detaillierte oder weiterführende Antwort auf Fragen zu erhalten.

Unstrukturiert …

Der Einsatz intelligenter Systeme wäre dort besonders zielführend, wo sich enorme Datenmassen der individuellen Betrachtung durch die Polizei entziehen oder unstrukturierte Daten immense Herausforderungen darstellen. Insbesondere bei Ermittlungen im Bereich der Cyber- und organisierten Kriminalität (OK) sind jedoch personal- und zeitintensive Recherchearbeiten prinzipiell das zentrale Problem. Die automatisierte Reduktion auszuwertender Massendaten auf ermittlungsrelevante Informationen im Rahmen einer „Big-Data-Voranalyse“ könnte dem effektiv entgegenwirken. So könnten kognitive Systeme beispielsweise Ermittlungen im OK-Bereich unterstützen, indem sie Datensätze durchsuchen, Inhalte verknüpfen, Netzwerkstrukturen abbilden sowie Beziehungen und Funktionen einzelner Akteure aufzeigen.

Das ist durchaus vergleichbar mit der seit Langem in der Ermittlungsarbeit etablierten Analyse von Verhaltensmustern und Interaktionen von Personen in sozialen Netzwerken, den bereits genannten Social Media Analytics. Das Erweitern dieser herkömmlichen Methoden der sozialen Netzwerkanalyse durch KI ergäbe eine wirksame Herangehensweise, um die verzwickten Strukturen krimineller Organisationen sowie deren Netz-Interaktionen zu enthüllen. Hinzu kommt, dass sich durch den technologischen Fortschritt künftig für Straftäter neue Angriffsflächen eröffnen, darunter hochwertige Tatmittel wie KI-Methoden. Die Gefahr des kriminellen Missbrauchs steigt mit der zunehmenden Digitalisierung von Daten. Die Polizei muss derartige Modi Operandi zum einen erstmals erkennen und zum anderen die digitalen Spuren sichern und auswerten können.

Strategische Ausrichtung der Polizei unterstützen
Auch könnte sich eine „intelligente“ polizeiliche Datenanalyse im Kontext von Big Data vorteilhaft auf die strategische Ausrichtung der Polizei auswirken. Unter dem Strich stünde sicherlich ein geringerer Personalaufwand für die sogenannte Lageanalyse. Zudem könnten durch das Erkennen inhaltlicher Zusammenhänge in Datenmassen umfassendere Lagebilder für die Gefahrenabwehr beziehungsweise valide Kriminalitätslagebilder erstellt werden. Ebenso wäre es möglich, durch das Identifizieren gesellschaftlicher Trends, die Entwicklung von (neuen) Kriminalitätsphänomenen frühzeitig zu erkennen. Und das hat natürlich einen positiven Einfluss auf die Personal- und Einsatzmittelplanung.
Risiken

Trotz der aus meiner Sicht unbestreitbaren Möglichkeiten dieser Technologie ist digitale Blauäugigkeit natürlich nicht angebracht. Nicht verschwiegen werden darf dabei die sogenannte algorithmische Voreingenommenheit, die insbesondere bei der Verarbeitung personenbezogener Daten zur Diskriminierung bestimmter Personengruppen führen könnte. Denkbare Kritikpunkte sind zudem die mangelnde Transparenz der Systeme und die nur schwierige Nachvollziehbarkeit der von ihnen getroffenen Entscheidungen und Bewertungen, Stichwort: „Black Box“.

Eine weitere Hürde ist die zentrale Verwaltung von Daten. Grundsätzlich gilt, dass diese Technologien ihr Potenzial nur entfalten können, wenn die zu analysierende Datenmenge einen entsprechenden Umfang hat. Damit ist unter Praxisgesichtspunkten eine zentrale Datenverwaltung – mindestens auf bundesweiter Ebene – essentiell. Dieser Anforderung wird das bisherige polizeiliche Informationsmanagement jedoch nicht gerecht, denn oft sind vorhandene Datenbanken nicht über Ländergrenzen hinweg verfügbar. Eine einheitliche vom Bundeskriminalamt zentral verwaltete Informationsarchitektur soll mit dem Programm „Polizei 2020“ geschaffen werden. Damit wird auch der Weg zur erfolgreichen Durchführung von Big-Data-Analysen in der Polizeiarbeit geebnet. Einer der wesentlichsten Kritikpunkte ergibt sich aber hinsichtlich der datenschutzrechtlichen Zulässigkeit. (Dazu mehr im DP-Interview mit der Autorin ab Seite 16, Hinweis. d. Red.) Die Polizei sollte sich intensiv mit neuen (Ermittlungs-)Methoden und Werkzeugen im Kontext von Big Data befassen. Mit Blick auf die stetig wachsende Menge von anfallenden Daten müssen die sich aus der Big-Data-Analyse ergebenden Chancen ernsthaft geprüft werden. Traditionelle und bewährte Polizeiarbeit soll dabei nicht ersetzt, sondern vielmehr kreativ und effektiv ergänzt werden.
This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen. This link is for the Robots and should not be seen.