Eine Demokratie beweist sich nicht darin, was sie technisch gerade noch kann, sondern darin, was sie rechtlich darf und politisch verantwortet. Das sogenannte Überwachungspaket aus dem Hause Dobrindt verfehlt diese Mindestanforderungen frontal. Es zielt auf biometrische Massenüberwachung, flankiert von automatisierten Datenanalysen für Bundesbehörden – und kollidiert dabei mit Europarecht, Grundrechten und schlichter technischer Realität.
Worum es geht
Das Paket setzt auf zwei Hebel:
- Biometrische Gesichtserkennung mit Abgleich gegen im Netz verfügbares Bildmaterial.
- Eine erheblich ausgeweitete, automatisierte Analyse staatlicher Datenbestände, für die öffentlich sogar der Zukauf externer Plattformen wie Palantir erwogen wird.
Beides mag nach digitaler Modernisierung klingen. Tatsächlich öffnet es die Tür zu anlassloser Massenüberwachung – und zwar nicht als Ausnahme, sondern als Standard.
Europarecht: rote Linie überschritten
Die EU-KI-Verordnung (AI Act) zieht eine klare Grenze: Das Erstellen oder Erweitern von Gesichtserkennungs-Datenbanken durch ungezieltes Auslesen von Bildern aus dem Internet oder aus Überwachungsaufnahmen ist verboten. Nationale Alleingänge, die diesen Mechanismus faktisch voraussetzen, sind daher europarechtswidrig. Daran führt kein politischer Wunsch vorbei – es ist die normative Kraft des Rechtsstaats.
Technik: ohne Datenbank geht es gar nicht
Die Befürworter versuchen, den Rechtskonflikt kleinzureden – als könne man Gesichter „live“ im Web finden, ohne eine Datenbank anzulegen. Das ist fachlich nicht haltbar. Eine neue technische Begutachtung zeigt: Es gibt keinen praktikablen Ansatz, Web-Bilder in einer Form durchsuchbar zu machen, die den geforderten biometrischen Abgleich ermöglicht, ohne zuvor entsprechende Datenbanken aufzubauen [1]. Auch Varianten wie Live-Suche, fokussiertes Crawling, API-Zugriffe oder das Scrapen von Bildersuchmaschinen beseitigen das Grundproblem nicht: Ohne vorgelagerte, strukturierte Speicherung und Indexierung der biometrischen Merkmale lässt sich der Abgleich in der geforderten Reichweite nicht durchführen [1]. Kurz: Wer die Funktion will, braucht die Datenbank – genau jene Datenbank, die der AI Act untersagt.
Grundrechte sind kein „Feature“, sondern Verfassung
Eine allgegenwärtige biometrische Identifizierbarkeit verändert die Öffentlichkeit selbst: Menschen verhalten sich anders, wenn sie davon ausgehen müssen, permanent erfasst, klassifiziert und rückwirkend analysiert zu werden. Das ist nicht „nur Technik“, sondern ein Eingriff in informationelle Selbstbestimmung, Versammlungsfreiheit und Gleichbehandlung. Dazu kommt das reale Diskriminierungsrisiko bei biometrischen Verfahren, das sich in der Praxis nicht wegdefinieren lässt. Ein freiheitlicher Rechtsstaat darf nicht die Regel mit der Ausnahme verwechseln: Anlässe begrenzen Befugnisse – nicht umgekehrt.
Palantir & Co.: kein Sündenbock, aber ein Symptom
Das Problem ist nicht ein einzelner Anbieter. Das Problem ist die Logik der Totalverknüpfung: Wenn Polizeidaten massenhaft zusammengeführt, gerastert und auf Verdacht automatisiert korreliert werden, entsteht unweigerlich ein System, das Fehler verstetigt und Grundrechtsschutz nur noch ex post kennt. Wer dafür externe Plattformen einkauft, importiert zugleich Governance-Risiken, Herstellerabhängigkeiten und Schatten-Entscheidungen, die demokratisch kaum kontrollierbar sind. Sicherheit gewinnt man so nicht – man verliert Verantwortlichkeit.
Scheinlösungen vermeiden, Integration stärken
Die öffentliche Sicherheit verbessert man nicht durch symbolpolitische Maximalinstrumente. Wer reflexhaft Massenüberwachung fordert oder auf Abschiebungen als Allzweckwaffe setzt, verkauft Effekthascherei als Strategie. Nachhaltige Sicherheit erwächst aus Prävention, rechtsstaatlich solider Polizeiarbeit, sozialer Teilhabe – sprich: Integration statt Ausgrenzung. Das gilt für alle Menschen in diesem Land, unabhängig von Herkunft oder Pass. Wer das Gegenteil behauptet, betreibt Stimmung, nicht Sicherheitspolitik.
Politische Hygiene: klare Leitplanken statt Bauchgefühl
- Keine biometrische Massenüberwachung im öffentlichen Raum.
- Kein Aufbau, keine Erweiterung von Gesichtsdatenbanken durch Web-Scraping – EU-rechtswidrig und technisch voraussetzungsreich [1].
- Strenge, richterlich kontrollierte Zweckbindung für Datenanalysen; keine anlasslose, massenhafte Rasterung.
- Transparente, auditierbare Systeme im öffentlichen Sektor; keine Blackbox-Software, die demokratische Kontrolle unterläuft.
- Effektive Aufsicht durch Datenschutzbehörden und Parlamente – mit echten Sanktionsmöglichkeiten.
Was jetzt zu tun ist
Das Überwachungspaket gehört gestoppt – nicht kosmetisch „nachgeschärft“, sondern zurück auf Null. Der Gesetzgeber hat die Pflicht, Europarecht einzuhalten und Grundrechte effektiv zu schützen. Wer es ernst meint mit moderner Sicherheitspolitik, investiert in Technik, die rechtskonform, treffsicher und überprüfbar ist – und eben nicht in flächendeckende Verdachtsproduktion.
Fazit
Ein Staat, der meint, für Sicherheit alle Bürgerinnen und Bürger erst einmal als potenzielle Treffer in einer Biomasse zu behandeln, hat die Reihenfolge verwechselt. Sicherheit braucht Freiheit, und Freiheit braucht Grenzen für den Staat. Das ist keine Lifestyle-Frage, sondern Verfassungsauftrag. Dobrindts Paket verfehlt beides: Es ist rechtlich unhaltbar und politisch unklug. Streichen wir es – ersatzlos.
