Wie KI-Tools die Verbrechensbekämpfung verändern und Bedenken hinsichtlich der Bürgerrechte.
In den USA braut sich ein Skandal zusammen, bei dem es um den Einsatz der KI-Software (maschinelles Lernen) Cybercheck der kanadischen Firma Global Intelligence durch Strafverfolgungsbehörden geht.
Cybercheck wurde bereits fast 8.000 Mal von Hunderten Polizeidienststellen und Staatsanwaltschaften in 40 Ländern eingesetzt, um schwere Verbrechen wie Mord und Menschenhandel aufzuklären.
Doch während die Polizei die Software “umarmt” und die Hersteller sie verteidigen, erheben Strafverteidiger auf der anderen Seite des Prozesses schwere Vorwürfe.
Stellen Sie sich ein Szenario vor, in dem Ihr gesamtes digitales Leben für einen Algorithmus sichtbar ist, der ständig bewertet, ob Sie ein Krimineller sein könnten. Cybercheck kann problemlos riesige Mengen von Internetdaten auswerten und ohne Durchsuchungsbefehl oder geflüsterte Zustimmung in Ihre Privatsphäre eindringen. Das Missbrauchspotenzial ist keine paranoide Phantasie, sondern ein drängendes Problem.
Die Zuverlässigkeit der Software, die Transparenz und die Vertrauenswürdigkeit des Cybercheck-Gründers Adam Mosher werden infrage gestellt.
Cybercheck soll helfen, Beweise zu sammeln, indem es Daten aus öffentlich zugänglichen Quellen zur Verfügung stellt – was das Unternehmen “Open Source Intelligence” nennt.
Dabei handelt es sich um E-Mail-Adressen, Social-Media-Accounts und andere Bestandteile der Spur persönlicher Informationen, die Menschen im Internet hinterlassen. Ziel ist es, Verdächtige ausfindig zu machen und den Strafverfolgungsbehörden andere Daten zur Verfügung zu stellen.
Das Problem ist jedoch, so Kritiker, dass Cybercheck trotz seiner weiten Verbreitung und seiner Folgen – nämlich Menschen für schwere Straftaten ins Gefängnis zu bringen – weitgehend unter dem Radar fliegt.
Das ist nicht verwunderlich, wenn man bedenkt, dass die “Open Source Intelligence”-Erfassungssoftware selbst Closed Source und proprietär ist. Das bedeutet, dass niemand außer den Hintermännern genau weiß, mit welchen Methoden sie arbeitet und wie genau sie ist.
Ferner wird Mosher selbst beschuldigt, unter Eid gelogen zu haben, was sein eigenes Fachwissen und die Art und Weise, wie das Tool verwendet wurde, betrifft.
Dieser Punkt wurde von den Anwälten der Verteidigung in einem in Ohio eingereichten Antrag formell vorgebracht, in dem die Offenlegung der Algorithmen und des Codes von Cybercheck zur Einsichtnahme gefordert wird.
Natürlich argumentierte Mosher, dass dies nicht möglich sei, da diese Technologie urheberrechtlich geschützt sei. Der Antrag ist Teil eines Mordfalls, der vom Akron Police Department bearbeitet wird.
Im Akron-Fall wurden zwei Männer angeklagt, die bestreiten, die Tat begangen zu haben, und zwar aufgrund von Beweisen, die Mosher als “reine Indizien” bezeichnet (Patronenhülsen am Tatort, die aus einer Waffe stammten, die sich in der Wohnung eines der Verdächtigen befand, und ein Auto, das auf den Namen des anderen Verdächtigen zugelassen war und auf den Aufnahmen einer Überwachungskamera in der Nähe des Tatorts zu sehen war).
Aber es gab auch Beweise von Cybercheck, die den physischen Aufenthaltsort der Verdächtigen mit dem Ort des Raubüberfalls und der Schießerei in Verbindung brachten, indem Algorithmen ihre sozialen Profile durchsuchten und nach weiteren Informationen im Internet suchten.
Schließlich wurde die Netzwerkadresse eines mit dem Internet verbundenen Geräts, die über das Wi-Fi einer Überwachungskamera ermittelt wurde, als ausreichender Beweis für eine Anklage verwendet.
Und obwohl eine Kamera im Spiel war, gibt es kein Filmmaterial von dem tödlichen Vorfall. Es gibt auch keine Informationen darüber, wie genau Cybercheck, um einen NBC-Bericht zu zitieren, “die Netzwerkadresse der Kamera fand oder wie es verifizierte, dass das Gerät am Tatort war”.
Andere Details, die von der Verteidigung beauftragte forensische Experten nicht herausfinden konnten, sind, wie Cybercheck eine E-Mail-Adresse verifizierte, die angeblich von beiden Verdächtigen benutzt wurde, und diese Experten konnten auch ein soziales Konto nicht “lokalisieren”, das in einem von Cybercheck erstellten Bericht erwähnt wurde.
Es scheint, dass Polizei und Staatsanwaltschaft nicht nur diese Beweise – oder “Beweise” – für bare Münze nehmen, sondern auch Mosher beim Wort nehmen, wenn er sagt, dass die Genauigkeit von Cybercheck “98,2%” beträgt.
Allerdings gibt es keine Informationen darüber, wie er zu dieser Zahl gekommen ist. Der Gründer von Cybercheck hat jedoch – in diesem und in einem früheren Antrag vom Sommer 2023 – angegeben, dass die Software zu keinem Zeitpunkt einem Peer-Review unterzogen worden sei.
In einem dritten Fall, ebenfalls in Akron, behauptete Mosher im vergangenen Herbst jedoch, dass die Universität von Saskatchewan das Dokument tatsächlich einem Peer-Review unterzogen habe. Aber das Dokument von 2019 “scheint ein Anweisungsdokument für die Software zu sein und sagt nichts darüber aus, wer die Überprüfung durchgeführt hat oder was das Ergebnis war”, berichtete NBC.
Ein Sprecher der Universität bestritt, dass das Dokument jemals einem Peer-Review unterzogen worden sei.
Der Richter muss nun entscheiden, ob er Mosher dazu zwingt, den Code des umstrittenen Programms offen zu legen.
Die bürgerlichen Freiheiten sind nicht nur bedroht, sie stehen auf dem Spiel. Die Fähigkeit von Cybercheck, Daten auszuwerten, könnte als Waffe eingesetzt werden, um die freie Meinungsäußerung zu unterdrücken und politisch Andersdenkende zu überwachen. Von der Nutzung der Technologie zur Verfolgung von Kriminellen ist es nicht weit zur Überwachung von Menschen, die sich nicht an die Regeln halten. In der digitalen Echokammer könnte dieses Instrument unter dem Deckmantel der öffentlichen Sicherheit abweichende Stimmen zum Schweigen bringen.
Die Funktionsweise von Cybercheck bleibt ein Geheimnis. Wie werden die Ziele des Algorithmus festgelegt? Wer stellt sicher, dass er nicht über das Ziel hinausschießt? Diese Intransparenz schürt die berechtigte Angst vor einem digitalen Panoptikum, in dem Algorithmen das letzte Wort über die Geschichte der eigenen Daten haben. Dieser Schatten, der über der Art und Weise liegt, wie Entscheidungen getroffen und Daten interpretiert werden, zeigt, dass ein dringender Bedarf an offener Regulierung und öffentlicher Kontrolle besteht.
Gegenwärtig ist der Markt für Massenüberwachung, wie sie von den US-Strafverfolgungsbehörden eingesetzt wird, in Aufruhr. Die Aufregung ist eigentlich nur die Konsolidierung eines lukrativen Marktes.
Und diese Konsolidierung scheint so stattzufinden, wie es in einer boomenden Branche oft der Fall ist: durch Fusionen und Übernahmen mit dem Ziel, die (wirtschaftliche) Macht in möglichst wenigen Händen zu bündeln.
Diesmal ist es SoundThinking, das einige Bereiche von Geolitica erwirbt, die PredPol (so hieß das Unternehmen früher), eine Technologie für vorausschauende Polizeiarbeit, entwickelt hat.
Es sieht aus wie eine klassische Übernahme in der Technologiebranche – ein erfolgreiches Unternehmen wird zerschlagen, um die wertvollsten Teile zu kaufen: Ingenieure und Patente.
“Wir befinden uns in einer Konsolidierungsphase, in der die großen Polizei-Tech-Unternehmen immer größer werden, und dieser Schritt ist Teil dieses Prozesses”, wird der Rechtsprofessor Andrew Ferguson von der American University in einem Interview mit Wired zitiert.
Nichts gegen Fergusons Referenzen – er hat ein Buch mit dem Titel “The Rise of Big Data Policing” geschrieben – aber seine Schlussfolgerung über diese jüngste Übernahme ist kaum eine Analyse auf dem Niveau der Raketenwissenschaft. Mit anderen Worten, es ist ziemlich offensichtlich, was hier vor sich geht.
Doch ohne auf das Offensichtliche einzugehen – die Bedeutung für die Privatsphäre der Menschen und damit letztlich, wenn auch etwas ironisch, für die Sicherheit – möchten wir zunächst die Akteure kennenlernen.
Auch wenn diese Unternehmen, oft bewusst, weitgehend im Verborgenen arbeiten, scheint der Hauptakteur, SoundThinking, keiner großen Vorstellung zu bedürfen. Nicht, wenn es in Berichten bereits als “das Google der Verbrechensbekämpfung” bezeichnet wird (“Verbrechensbekämpfung” ist eine großzügige Formulierung).
Nein, die Vermutung ist, dass das Unternehmen in seiner Branche Produkte und Dienstleistungen anhäuft, wie es Google in seiner Branche getan hat. Und das ist einfach nicht gut.
Nicht umsonst hat es hier viel “Rebranding” gegeben, denn diese Art von Unternehmen, auch wenn sie in den Mainstream-Medien nur am Rande vorkommen, haben es geschafft, sich einen schlechten Ruf aufzubauen.
Und so heißt das, was SoundThinking einmal ganz offen “Predictive Policing” nannte – und das Hauptprodukt, das sie verkaufen, um Strafverfolgungsbehörden dabei zu helfen, dieses Ziel zu “erreichen” – jetzt “Ressourcenmanagement für Polizeidienststellen”.
Dieser Player – nicht zuletzt mit seinem fröhlichen, positiven, heilsamen Namen “SoundThinking” – scheint ein gerissener Kunde zu sein. Und Käufer.
Diesmal heißt das Übernahmeobjekt Geolitica. Auf der Website des Unternehmens erfährt man nichts – offenbar handelt es sich um einen Anbieter von “Trusted Services for Secure Communities für sicherere Gemeinschaften”.
Doch wenn man sich ein wenig in den Jargon der Firma vertieft, erfährt man über Umwege, worum es geht: Analyse von täglichen Patrouillenmustern, Management von Patrouilleneinsätzen in Echtzeit, Erstellung von Heatmaps für Patrouillen, Identifizierung von Hotspots für Ressourcen.
Hier gibt es zwei oder vielleicht drei Schlüsselfragen: Funktioniert es? Warum muss es ausgelagert werden? Und wie kommt das “Google der polizeilichen Massenüberwachung” zu dem Schluss, dass es sich lohnt, es (teilweise) zu übernehmen?
Ralph Clark, CEO von SoundThinking, erklärte im August, dass die Kunden von Geolitica im Bereich Patrouillenmanagement nun Kunden von SoundThinking würden.
“Wir haben ihr Ingenieursteam bereits eingestellt (…) es würde unsere Anwendung von KI und maschinellem Lernen für die öffentliche Sicherheit erleichtern”, sagte Clark damals in einer Telefonkonferenz mit den Investoren des Unternehmens.
Und doch geht es hier um mehr als nur um die “Obduktion” eines Unternehmens. Einige Beobachter sind überzeugt, dass das, was hier geschieht, nur ein Beispiel, sozusagen ein Stein in der Mauer, für einen tiefgreifenden und umfassenden – um nicht zu sagen kontroversen – Wandel in der Art und Weise ist, wie die US-Regierung die Polizeiarbeit in ihren Gemeinden durchzuführen gedenkt.
Doch trotz aller optimistischen Äußerungen über den Wert eines Unternehmens wie Geolitica (das früher PredPol hieß – und man muss kein Orwell-Fan sein, um die Wortschöpfung, den Zweck und das Geschäft des Unternehmens zu verstehen) gibt es auch Bedenken.
Und die reichen bis ins Jahr 2011 zurück, als PredPol zum ersten Mal auf der Bildfläche erschien und historische Kriminalitätsdaten für aktuelle Vorhersagen nutzte.
“Seit Jahren argumentieren Kritiker und Wissenschaftler, dass der PredPol-Algorithmus, der auf historischen und unzuverlässigen Kriminalitätsdaten basiert, voreingenommene Polizeimuster reproduziert und verstärkt”, heißt es in einem Bericht von Wired.
Und doch scheint es, dass in den kommenden Jahren vielleicht nicht genau die gleiche Technologie, aber zweifellos – denn warum auch nicht, sie wird im Wesentlichen für das “Scheitern von oben” belohnt – diese Art von Instrumenten und Diensten die Wellen der Polizeiarbeit in den USA “beherrschen” wird, wo die derzeitige Regierung verdächtig (kein Wortspiel) dazu neigt, sie an private Einrichtungen auszulagern.
Wenn alles gesagt, getan, durchgespielt und untersucht ist, wird es höchstwahrscheinlich eine endlose Kontroverse geben.
Tools wie Geolitica, die an verschiedene Technologien erinnern, sind darauf ausgelegt, große Mengen an Geodaten zu sammeln, zu analysieren und zu kartieren, um detaillierte Profile zu erstellen, die von Marketingagenturen bis zu Regierungsbehörden genutzt werden können. Solche Werkzeuge versprechen bessere Analysen, Sicherheit und zielgerichtete Dienstleistungen, stellen aber auch eine große Herausforderung für die Privatsphäre und die Freiheitsrechte des Einzelnen dar.
Um die Kontroverse zu verstehen, muss man zunächst verstehen, wie Geolitica funktioniert. Stellen Sie sich ein Tool vor, das in der Lage ist, Bewegungen zu verfolgen, Muster zu analysieren und den zukünftigen Aufenthaltsort von Personen auf der Grundlage einer Vielzahl von Datenpunkten vorherzusagen, die von Smartphones, IoT-Geräten, öffentlichen Kameras und vielem mehr gesammelt werden. Durch die Verschmelzung von künstlicher Intelligenz, Big Data und georäumlicher Technologie erstellt Geolitica ein digitales Abbild des Lebens einer Person mit alarmierender Genauigkeit.
Ein weiteres umstrittenes Thema ist die Kommerzialisierung persönlicher Daten, bekannt als Überwachungskapitalismus. Unternehmen nutzen Tools wie Geolitica zur unerbittlichen digitalen Überwachung, um Verhaltensdaten zu sammeln – oft ohne ausdrückliche Zustimmung. Diese Daten werden für zielgerichtete Werbung, zur Beeinflussung des Kaufverhaltens und sogar zur Meinungsmanipulation verwendet, wobei die Privatsphäre des Einzelnen für kommerzielle Zwecke ausgehöhlt wird. Solche Praktiken fördern nicht nur ein Machtgefälle zwischen Unternehmen und Verbrauchern, sondern schaffen auch Datenmonopole, die den Wettbewerb auf dem Markt gefährden.
Der Einsatz von Geolokalisierungsinstrumenten durch Regierungen lässt das Schreckgespenst einer “Big Brother”-Überwachung aufkommen. Die Möglichkeit, den Aufenthaltsort der Bürger unter dem Deckmantel der nationalen Sicherheit oder der öffentlichen Gesundheit in Echtzeit zu verfolgen, birgt die Gefahr eines autoritären Verhaltens. Die Geschichte ist voll von Beispielen, in denen Instrumente, die dem Schutz dienen sollten, zur Unterdrückung der Bürger eingesetzt wurden. Unkontrolliert könnten diese Technologien dazu verwendet werden, abweichende Meinungen zu unterdrücken, gefährdete Bevölkerungsgruppen ins Visier zu nehmen und bestimmte politische Ziele auf unfaire Weise zu fördern, wodurch demokratische Grundsätze und bürgerliche Freiheiten grundlegend untergraben würden.
Die Strafverfolgungsbehörden verlassen sich zunehmend auf technologische Fortschritte, um Verbrechen zu verhindern und die öffentliche Sicherheit zu gewährleisten. Ein solcher Fortschritt ist die vorausschauende Polizeiarbeit, bei der Algorithmen und Datenanalysen mit Hilfe von Instrumenten wie PredPol, über das wir bereits berichtet haben, genutzt werden, um vorherzusagen, wo Straftaten zu erwarten sind.
Prädiktive Polizeiarbeit findet nicht im luftleeren Raum statt. Sie ist oft Teil eines größeren Überwachungsnetzwerks, das Videoüberwachung, Nummernschild-Lesegeräte und Gesichtserkennungstechnologien umfasst. Während PredPol in erster Linie Muster in historischen Kriminalitätsdaten analysiert, kann die Integration weiterer personenbezogener Datenquellen zu erheblichen Eingriffen in die Privatsphäre führen.
Ein Beispiel: In Chicago sorgte die Verwendung eines Prognosesystems namens “Heat List” oder “Strategic Subject List” durch die Polizei zur Identifizierung von Personen, die wahrscheinlich in zukünftige Verbrechen verwickelt sind, für Aufregung, da nicht klar war, wie die Personen auf die Liste kamen. Die Personen auf der Liste wurden nicht benachrichtigt, sondern zusätzlich überwacht, was als direkte Verletzung ihrer Datenschutzrechte angesehen wurde.
Indem die Aufmerksamkeit der Strafverfolgungsbehörden auf bestimmte Brennpunkte gelenkt wird, schränkt die präventive Polizeiarbeit ungewollt die Bewegungsfreiheit der Bürger ein. Bewohner von Gebieten, die häufig als Brennpunkte identifiziert werden, können wiederholten Interaktionen mit der Polizei und ungerechtfertigten Kontrollen ausgesetzt sein, wodurch ein virtueller Zaun entsteht, der die Bewegungsfreiheit einschränkt und zur Entfremdung von der Gemeinschaft beiträgt.
Ein Beispiel: In New York City hat ein Bericht gezeigt, dass Menschen, die in Gegenden leben, in denen häufig vorausschauende Polizeikontrollen durchgeführt werden, sich ständig überwacht fühlen und aus Angst vor ungerechtfertigter polizeilicher Aufmerksamkeit weniger häufig alltäglichen Aktivitäten nachgehen, wie z. B. Freunde besuchen oder an Gemeindetreffen teilnehmen.
In dem Bewusstsein, dass bestimmte Verhaltensweisen oder Bewegungen die Aufmerksamkeit der Strafverfolgungsbehörden auf sich ziehen könnten, verzichten Einzelpersonen möglicherweise auf die Ausübung ihrer Versammlungs-, Rede- und Vereinigungsfreiheit. Diese Selbstzensur, die auch als Abschreckungseffekt bezeichnet wird, kann den Zusammenhalt der Gemeinschaft und das bürgerschaftliche Engagement beeinträchtigen.