Predictive Policing: Die KI-Verordnung und ihre gefährliche Lücke

Das EU-Parlament hat den AI Act verabschiedet – ein Meilenstein in der Regulierung künstlicher Intelligenz (KI). Doch während das Gesetz als Schutzschild gegen Risiken dienen soll, zeigt sich eine bedrohliche Lücke, besonders wenn es um Predictive Policing geht.

Das große Versprechen und die unsichtbare Gefahr

Predictive Policing, also die Vorhersage von Straftaten mithilfe von KI, klingt wie Science-Fiction. Doch die Realität ist komplizierter und potenziell gefährlicher. Die intransparenten Entscheidungsprozesse von KI-Systemen können zu Diskriminierung und Ungerechtigkeit führen, wie bereits beim COMPAS-System in den USA zu sehen war.

Der vermeintliche Schutzschild

Mit dem AI Act will die EU solchen Risiken vorbeugen. Doch obwohl das Gesetz Predictive Policing zu verbieten scheint, fehlt eine klare Regelung für ortsbezogenes Predictive Policing. Diese Form birgt ähnliche Diskriminierungsrisiken wie die personenbezogene Vorhersage und bleibt daher gefährlich.

Das Lüchow-Dannenberg-Syndrom

In Deutschland sind solche Systeme bereits im Einsatz oder in der Testphase. Doch auch hier besteht die Gefahr der Stigmatisierung von Gemeinden und Menschen durch verzerrte Daten und falsche Schlussfolgerungen.

Eine gefährliche Lücke

Die EU-Kommission betont den Schutz von Grundrechten und ethischen Grundsätzen bei KI. Doch die Ausklammerung des ortsbezogenen Predictive Policing ist eine gefährliche Lücke in der Verordnung.

Die Zukunft der KI-Regulierung in Europa bleibt ungewiss. Doch angesichts der potenziellen Risiken müssen diese Lücken dringend geschlossen werden, um ein verantwortungsvolles und gerechtes Einsatz von KI zu gewährleisten.

Hinterlasse einen Kommentar