AfD-Wahlkampfvideo mit KI-Propaganda: Wie Rechtsextreme Desinformation nutzen

Die AfD Brandenburg setzt im Wahlkampf auf eine neue Dimension der Manipulation: Künstliche Intelligenz dient als Werkzeug für Angst und Hetze. Ein aktuelles Wahlkampfvideo der AfD zeigt KI-generierte Bilder, darunter ein verhafteter Karl Lauterbach (SPD) und ein angeblich gescheiterter Robert Habeck (Grüne) als Müllsammler.

Während grundlegende handwerkliche Fehler das Video schnell als KI-Produkt entlarven, bleibt die dahinterliegende Strategie brandgefährlich. Experten warnen vor den langfristigen Folgen solcher Fake-Videos, die gezielt Emotionen schüren und bestehende gesellschaftliche Spaltungen verstärken sollen. Doch darf das alles rechtlich so durchgehen?


KI-Manipulation als Werkzeug der Angstmache

Die AfD scheint aus ihrem alten Repertoire an Skandalisierungen und Lügenkampagnen das nächste Kapitel aufgeschlagen zu haben: Visuelle Manipulation durch KI-Technologie.

In dem Video malt die Partei ein dystopisches Bild:
🔴 Schwarze Männer als kriminelle Täter, angeblich für Drogenhandel und sexuelle Übergriffe verantwortlich.
🔴 Zerstörte Windräder als Symbol für das angebliche Versagen der grünen Politik.
🔴 Bundesminister in erniedrigenden Situationen – Lauterbach in Handschellen, Habeck als Müllsammler.

Der politische Subtext ist offensichtlich: Deutschland sei im Niedergang begriffen, die etablierten Parteien hätten das Land an den Rand des Zusammenbruchs geführt – und nur die AfD könne es retten.

Ein klassisches Beispiel für rechte Angst- und Wutpolitik, diesmal aber verstärkt durch KI-gestützte Bildmanipulation.


Deepfake oder nur plumpe Effekthascherei?

Technisch betrachtet ist das Video eine Peinlichkeit. KI-Experten wie Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) bestätigen:
✔ Unscharfe, verwaschene Bilder
✔ Unnatürlich ruckartige Bewegungen
✔ Typische KI-Weichzeichnung, die Charakterbilder verschwimmen lässt

Das Video erfüllt damit nicht die Kriterien eines echten Deepfakes, das darauf abzielt, eine realitätsgetreue, identitätsverändernde Simulation zu erschaffen.

Doch die technische Qualität ist gar nicht entscheidend, sagen Experten. Wichtiger ist die psychologische Wirkung.

Laut Sozialpsychologin Pia Lamberty (CeMAS) sind derartige Videos so konzipiert, dass sie nicht primär neue Wähler überzeugen, sondern eine vorhandene Anhängerschaft emotionalisieren und radikalisieren. Sie setzen darauf, dass Menschen solche Inhalte nicht hinterfragen, sondern ihre eigenen Vorurteile darin bestätigt sehen.


Angriff auf die Realität: Die Strategie dahinter

Die AfD setzt mit ihrem KI-Video auf zwei mächtige psychologische Hebel:

💥 1. Angstpropaganda:
Gezielte Darstellungen suggerieren einen bevorstehenden Zusammenbruch der Gesellschaft – hervorgerufen durch „die üblichen Verdächtigen“ (Migrant:innen, Regierungspolitiker:innen, Klimaschutzmaßnahmen).

🔥 2. Wut und Feindbildkonstruktion:
Indem Bundesminister visuell gedemütigt werden, verstärkt das Video Bereitschaft zur Feindseligkeit gegen demokratische Institutionen – ganz im Sinne rechtsextremer Narrative.

Diese Technik ist nicht neu. Wer an die Wahlkampfstrategien von Donald Trump oder Viktor Orbán denkt, erkennt Parallelen: Schockierende Bilder, Vereinfachung komplexer Probleme, Förderung von Verschwörungsdenken.


Gefährliche Folgen für die Demokratie

📢 „Immer wenn ein Lügennarrativ oft genug wiederholt wird, beginnen Menschen, es als Realität zu empfinden.“

Lamberty verweist darauf, dass der sogenannte „Confirmation Bias“ eine entscheidende Rolle spielt: Menschen suchen nach Informationen, die ihre bestehenden Überzeugungen verstärken, und ignorieren Widersprüche.

Genau dies nutzt die AfD für ihre kontinuierliche Desinformationsstrategie:
🔹 Wähler, die bereits skeptisch gegenüber der Regierung sind, nehmen diese Bilder als Beweis für ihre Ängste.
🔹 Die ohnehin vorhandene Spaltung der Gesellschaft wird tiefer, weil Fakten zunehmend ihre Bedeutung verlieren.
🔹 Demokratischer Diskurs wird durch paranoide Weltbilder ersetzt.

Kurz: Die AfD betreibt absichtliche Realitätssabotage.


Rechtliche Grauzone – sind solche Videos erlaubt?

Laut Rechtsexperten könnte das AfD-Wahlkampfvideo juristisch auf der sicheren Seite sein.

🟢 Kein direkter Wahrheitsbruch:
In Deutschland existiert derzeit keine klare gesetzliche Handhabe, um eindeutig fiktive KI-generierte Inhalte im Wahlkampf zu verbieten.

🟢 Politiker:innen müssen sich vieles gefallen lassen:
Gerichte haben mehrfach entschieden, dass öffentliche Personen – besonders in der Politik – mit schärferer Kritik rechnen müssen.

🟠 ABER: Die wachsende Gefahr von Deepfakes ist unreguliert.
🌍 Die EU-KI-Verordnung, die bis 2026 in Kraft tritt, fordert Kennzeichnungspflichten für Deepfakes, aber schränkt explizit den Einsatz in der politischen Kommunikation nicht direkt ein.

🔴 Das bedeutet: Die AfD kann ihre KI-Propaganda legal weiterführen, solange der Bezug zur Realität vage bleibt.

„Solange es als spekulative Zukunftsvision verkauft wird, fallen solche Videos nicht unter Verleumdung“, erklärt Rechtsanwalt Andreas Daum.

Doch wie lange wird diese Lücke bestehen bleiben? Brauchen wir strengere Gesetze zur Regulierung von KI-Desinformation?


Fazit: Künstliche Intelligenz als Waffe gegen die Demokratie

Das AfD-Brandenburg-Video ist mehr als nur eine plump inszenierte Effekthascherei. Es stellt einen strategischen Vorstoß in Richtung KI-gestützter Wahlkampf-Desinformation dar.

🔸 Es geht nicht um einzelne Wähler, sondern um langfristige Manipulation gesellschaftlicher Wahrnehmung.
🔸 Indem Fiktion als „denkbare Zukunft“ inszeniert wird, unterwandert die AfD das Vertrauen in demokratische Institutionen.
🔸 Technisch mag das Video schwach sein – aber psychologisch erfüllt es genau den gewünschten Zweck.

Deutschland betritt gefährliches Neuland: KI-Wahlkampfpropaganda ohne klare gesetzliche Begrenzung. Wenn die Politik nicht schnell handelt, könnte der nächste Bundestagswahlkampf bereits von digitalen Täuschungen überflutet sein.

👁 Die Frage ist nicht mehr, ob KI-Wahlkampfmanipulation kommt – sondern, wie weit wir sie noch zulassen wollen.

Hinterlasse einen Kommentar