Künstliche Intelligenz verändert den Alltag – und zunehmend auch die politische Informationslandschaft. Immer mehr Menschen nutzen KI-basierte Chatbots für Suchanfragen, Nachrichten und Interaktionen. Dabei bleibt vielen unklar, auf welche Quellen diese Modelle zurückgreifen. Eine aktuelle Untersuchung zeigt nun, dass Chatbots anfällig dafür sind, russische Propaganda zu verbreiten.
Falsche Informationen durch unsaubere Quellenauswahl
Mehrere Chatbots geben beispielsweise fälschlicherweise an, dass der ukrainische Präsident Wolodymyr Selenskyj die US-Social-Media-Plattform Truth Social verboten habe – eine Behauptung, die schon von der Faktencheckredaktion der AFP als falsch entlarvt wurde. Die Ursache liegt in der Auswahl der zugrunde liegenden Quellen: KI-Modelle nutzen Websites aus dem Internet, darunter auch weniger seriöse, die gezielt Desinformation verbreiten.
Eine Studie der Organisation NewsGuard hat ergeben, dass alle zehn führenden KI-Chatbots in rund 33 % ihrer Antworten falsche Behauptungen des kremlnahen Pravda-Netzwerks wiederholten. Allein im Jahr 2024 wurden etwa 3,6 Millionen Artikel dieses Netzwerks in westliche KI-Systeme integriert – ein alarmierendes Ergebnis, das zeigt, wie massiv russische Desinformation die digitalen Informationskanäle infiltriert.
Systematische Manipulation der Informationslandschaft
Das Pravda-Netzwerk verfolgt offenbar das Ziel, KI-Modelle systematisch zu beeinflussen. Mit rund 150 verschiedenen, oft als unabhängige lokale Nachrichtenquellen getarnten Webseiten setzt das Netzwerk Suchmaschinenoptimierung, Automatisierung und schiere Inhaltsflut ein, um seine Desinformation in die KI-Modelle einzuschleusen. Dadurch werden unzuverlässige Informationen unabsichtlich in den Antworten der Chatbots wiedergegeben und verstärkt – ein Effekt, der das Vertrauen in die digitale Informationsversorgung nachhaltig beschädigen kann.
Fehlende Unterscheidungsfähigkeit und die Rolle von Faktenchecks
Studien belegen zudem, dass KI-Chatbots Schwierigkeiten haben, zwischen verlässlichen und minderwertigen Informationsquellen zu unterscheiden. So zeigte eine Untersuchung des Tow Center for Digital Journalism, dass bei 60 % der Anfragen falsche Quellen genannt wurden. Zudem neigen Chatbots dazu, bei unklaren Fragen spekulative oder fehlerhafte Antworten zu liefern, anstatt diese abzuweisen. Diese Unfähigkeit, kritische Quellen zu identifizieren, macht die KI-Modelle zu einem leichten Ziel für ausländische Einflussnahme und Desinformationskampagnen.
Lösungsansätze und die Notwendigkeit menschlicher Kontrolle
Angesichts dieser alarmierenden Ergebnisse fordern Experten, darunter die Autorinnen der NewsGuard-Studie, eine kontinuierliche menschliche Überwachung der KI-Modelle sowie verstärkte Investitionen in vertrauenswürdige und verifizierte Datenquellen. Nur so lässt sich sicherstellen, dass KI-gestützte Systeme nicht zu Instrumenten werden, die Desinformation und Propaganda verbreiten, sondern als zuverlässige Informationsquellen dienen.
Fazit
Die Untersuchung zeigt eindeutig: KI-Chatbots sind, wenn sie auf unsaubere und manipulierte Quellen zurückgreifen, ein potentes Instrument zur Verbreitung russischer Propaganda. In einer demokratischen und rechtsstaatlichen Gesellschaft, die sich entschieden gegen AfD, Nazis, Faschisten und Rechtsextremisten sowie als klarer Gegner von Abschiebungen positioniert, muss der Schutz der Informationsintegrität höchste Priorität haben. Es bedarf konsequenter Maßnahmen, um die Transparenz und Verlässlichkeit digitaler Informationssysteme zu gewährleisten – und damit das Vertrauen der Bürgerinnen und Bürger in die Demokratie zu stärken.
