Wenn Künstliche Intelligenz das Ziel verfehlt: Wie Microsofts Copilot einen Journalisten zum Kinderschänder machte

In der schönen neuen Welt der Künstlichen Intelligenz (KI) geht manchmal ordentlich etwas schief. So auch im Fall von Martin Bernklau, einem deutschen Gerichtsreporter, der plötzlich zu einem mutmaßlichen Kinderschänder, Witwenbetrüger und Ausbrecher aus der Psychiatrie erklärt wurde. Was ist passiert? Microsofts Copilot hat in die Tasten gegriffen und dabei gründlich daneben gelangt.

Ein kleiner Fehler mit großen Konsequenzen

Martin Bernklau, ein Journalist aus dem Raum Tübingen/Kreis Calw, ist bekannt für seine Berichterstattung über Gerichtsverhandlungen. Doch der Copilot, eine KI-basierte Software von Microsoft, verstand offenbar nicht, dass Bernklau lediglich über die kriminellen Machenschaften anderer berichtete. Stattdessen vermischte die KI die Angeklagten aus den von ihm berichteten Fällen mit dem Reporter selbst und machte aus dem Berichterstatter den Straftäter. Die Folgen? Die KI verbreitete falsche Informationen, darunter absurde Behauptungen, Bernklau sei ein verurteilter Kinderschänder und habe sich vor Gericht schuldig und reumütig gezeigt. Als wäre das nicht schon genug, lieferte der Copilot auch noch Bernklaus Adresse und Telefonnummer, samt einer Routenplanung – für alle, die dem vermeintlichen Verbrecher persönlich einen Besuch abstatten wollten.

Strafanzeige gegen eine Maschine?

Natürlich wollte Martin Bernklau sich diesen Vorwürfen nicht einfach beugen. Er stellte Strafanzeige, doch er stieß auf ein kurioses Problem: Gegen wen klagt man, wenn der Urheber der Anschuldigungen eine KI ist? Es gibt schließlich keine menschliche Hand, die man zur Verantwortung ziehen könnte. Der zuständige Datenschutzbeauftragte vom Bayerischen Landesamt wandte sich an Microsoft, und tatsächlich verschwanden die falschen Informationen zunächst aus den Suchergebnissen. Doch nur wenige Tage später wiederholte der Copilot die gleichen Lügen – als hätte die KI nichts dazugelernt. Aktuell sind die falschen Behauptungen nicht mehr auffindbar, aber der Fall zeigt, dass wir uns auf die Zuverlässigkeit solcher Systeme keineswegs blind verlassen können.

DSGVO trifft auf Künstliche Intelligenz

Der Fall Bernklau ist kein Einzelfall. Max Schrems und sein Verein Noyb haben in einem ähnlichen Fall eine Beschwerde bei der österreichischen Datenschutzbehörde eingereicht. Laut der Datenschutz-Grundverordnung (DSGVO) hat jede Person das Recht, dass falsche Informationen über sie im Internet gelöscht werden. Doch die Anbieter von KI-Chatbots, wie Microsoft und OpenAI, tun sich schwer, dies umzusetzen. Sie können die Daten einer Person zwar filtern oder blockieren, aber das betrifft dann nicht nur die falschen Informationen, sondern sämtliche Daten zu dieser Person. Die Herausforderung bleibt also bestehen: Wie bringt man einer KI bei, zwischen richtig und falsch zu unterscheiden – und das verlässlich?

Fazit: Vorsicht bei der Nutzung von KI

Künstliche Intelligenz kann uns das Leben erleichtern, doch sie ist alles andere als unfehlbar. Der Fall von Martin Bernklau zeigt, dass selbst fortschrittliche Systeme wie Microsofts Copilot manchmal gravierende Fehler machen können. Diese können das Leben unschuldiger Menschen ruinieren und sie zu Unrecht an den Pranger stellen. Es bleibt also zu hoffen, dass Entwickler und Gesetzgeber gemeinsam Wege finden, solche Vorfälle in Zukunft zu verhindern. Bis dahin gilt: Immer vorsichtig sein, wenn man sich auf die „Weisheit“ der Maschinen verlässt.

Hinterlasse einen Kommentar