Die Frage, ob künstliche Intelligenz (KI) Morde verhindern kann, bewegt die öffentliche Debatte seit Jahren. Nun rückt ein britisches System, das schwere Gewalttaten vorhersagen soll, in den Fokus – und bringt Zweifel an der Zuverlässigkeit solcher Technologien mit sich. In einem Zeitalter, in dem Populisten wie die AfD versuchen, mit vereinfachenden Narrativen Unsicherheit zu schüren, zeigt diese Entwicklung einmal mehr, wie wichtig eine sachliche, juristisch fundierte und faktenbasierte Analyse ist.
Das Vorhaben: Von „Homicide Prediction“ zu „Risk Assessment“
Die britische Regierung arbeitet an einem Projekt, das ursprünglich als Homicide Prediction Project bekannt war und nun unter dem weniger alarmierenden Namen „Sharing Data to Improve Risk Assessment“ firmiert. Kern des Systems ist die Auswertung von Daten, die das Justizministerium und die Polizei in Greater Manchester liefern – darunter Informationen über psychische Krankheiten, Süchte, Suizide, häusliche Gewalt und weitere Indikatoren für potenziell gewalttätiges Verhalten.
Dabei soll das System:
- Risikopersonen identifizieren: Wer mit hoher Wahrscheinlichkeit schwere Gewalttaten begehen könnte.
- Vorausschauende Polizeiarbeit ermöglichen: Statt erst nach der Tat zu ermitteln, sollen Verbrechen verhindert werden.
- Daten aus verschiedenen Quellen integrieren: Neben Kriminalitätsstatistiken fließen auch Daten zu familiären und psychischen Krisen mit ein.
Doch so verlockend die Idee klingt, erscheinen erste Erfahrungen aus anderen Ländern – etwa Spanien – als mahnendes Beispiel: Unzureichend kalibrierte Algorithmen können nicht nur zu Fehlprognosen führen, sondern auch vor allem unschuldige Menschen stigmatisieren.
Kritische Aspekte und juristische Fallstricke
Vorhersage statt Prävention – ein zweischneidiges Schwert
Ein zentraler Kritikpunkt ist, dass KI-Systeme, die Gewalttaten vorhersagen sollen, oft auf verzerrten Datensätzen basieren. Statistische Vorurteile, wie sie etwa durch Polizeistatistiken entstehen, können in diesen Algorithmen fortbestehen. Wird beispielsweise in den Daten vermehrt gegen Menschen mit Migrationshintergrund ermittelt, belegt die KI fälschlicherweise ein erhöhtes Risikoprofil – ein klassischer Fall von Bias, der leicht antisemitische oder rassistische Stereotypen reproduzieren kann.
Fehlende Transparenz und algorithmische Intransparenz
Die undurchsichtige Funktionsweise der Algorithmen birgt die Gefahr, dass Entscheidungen getroffen werden, ohne dass die Betroffenen wirksam dagegen vorgehen können. Staatliche Maßnahmen, die auf solchen Systemen fußen, könnten das Grundrecht auf informationelle Selbstbestimmung massiv einschränken – ein Aspekt, der bereits in zahlreichen europäischen Gerichtsverfahren als problematisch bewertet wurde.
Beispiel aus Spanien: KI-Systeme und Femizide
Ein erschreckendes Beispiel liefert die Anwendung vergleichbarer Systeme in Spanien, wo KI-basierte Vorhersagen im Bereich der Femizide – Morde an Frauen durch Ex-Partner – für Fehlklassifizierungen und stigmatisierende Vorverurteilungen sorgten. Eine solche Entwicklung darf nicht nur als technisches Versagen gewertet werden, sondern muss als Warnsignal für den Einsatz von Algorithmen in sensiblen gesellschaftlichen Bereichen verstanden werden.
Die Rolle der digitalen Überwachung in der modernen Strafverfolgung
Staatliche Ermittler argumentieren, dass eine präzisere Vorhersage von Straftaten die Aufklärung und Prävention schwerer Delikte erleichtern könne. Holger Münch, Chef des Bundeskriminalamts, betonte, dass der Mangel an archivierten IP-Daten im Jahr 2022 die Verfolgung von sexualisierter Gewalt erschwert habe. Doch die Wahrheit ist komplex:
- Vorhersagende Polizeiarbeit (Predictive Policing) bietet Chancen, ist aber zugleich mit erheblichen Risiken behaftet.
- Grundrechte müssen gewahrt bleiben: Eine anlasslose und flächendeckende Datenspeicherung – selbst für „nur“ drei Monate – setzt die Privatsphäre nahezu aller Bürger aufs Spiel.
Es stellt sich die Frage, ob es vernünftig ist, unschuldige Menschen aufgrund algorithmisch generierter Risikoprofile zu stigmatisieren. Die Lösung liegt in einer feinsäuberlichen Balance zwischen Sicherheitsinteressen und Datenschutz – und hier darf man sich nicht von populistischen Simplifizierungen, wie sie auch von rechten Kräften propagiert werden, blenden lassen.
Fazit: Zwischen Zukunftsvision und Rechtsstaatlichkeit
Die Entwicklung von KI-basierten Präventionssystemen durch die britische Regierung mag auf den ersten Blick als Fortschritt erscheinen – als cleveres Instrument zur Verbrechensverhütung. Doch bei genauerer Betrachtung offenbaren sich eklatante Schwächen: Bias in den Daten, Intransparenz der Algorithmen und ein erhebliches Risiko der Verletzung grundlegender Bürgerrechte.
Die Debatte um die Zukunft künstlicher Intelligenz in der Strafverfolgung ist ein Paradebeispiel dafür, dass technologische Innovationen stets kritisch hinterfragt werden müssen – insbesondere in einem demokratischen Rechtsstaat, der keine Kompromisse eingehen darf, wenn es um den Schutz der informationellen Selbstbestimmung geht. Nur durch eine faktenbasierte, juristisch fundierte und antifaschistisch orientierte Diskussion kann sichergestellt werden, dass solche Technologien nicht zum Instrument der Unterdrückung werden.
Die wahre Zukunft digitaler Sicherheit liegt in der konsequenten Wahrung von Rechtsstaatlichkeit und Bürgerrechten – und das ist eine Botschaft, gegen die rechte Populisten, insbesondere die AfD, nichts entgegensetzen können.
Veröffentlicht auf WasserPuncher.blog
Antifaschistisch. Sachlich. Faktenbasiert. Rechtsstaatlich und zukunftsorientiert.
