Studie der Universität Zürich beleuchtet Unterschiede in der Gehirnreaktion auf KI-Stimmen
Ob nun ein echter Mensch oder eine von Künstlicher Intelligenz (KI) generierte Stimme spricht, ist für Zuhörer immer schwieriger zu unterscheiden. Doch wie reagiert unser Gehirn auf diese digitalen Imitationen? Ein Forschungsteam der Universität Zürich hat herausgefunden, dass unser Gehirn sehr wohl den Unterschied merkt – auch wenn wir es nicht bewusst wahrnehmen.
Wenn der Kopf merkt, was das Ohr nicht hört
Laut einer Studie, die im Fachjournal Communications Biology veröffentlicht wurde, reagiert das menschliche Gehirn auf Deepfake-Stimmen anders als auf natürliche Stimmen. Eine gefälschte Stimme aktiviert das Belohnungssystem weniger stark, was dazu führt, dass das Hören weniger Vergnügen bereitet. Darüber hinaus signalisiert unser Gehirn, dass beim Hören von Deepfakes etwas nicht ganz stimmt, auch wenn wir dies nicht bewusst wahrnehmen.
Claudia Roswandowitz und ihr Team klonen Stimmen
Wissenschaftlerin Claudia Roswandowitz und ihr Team von der Universität Zürich haben untersucht, wie gut die menschliche Identität in Stimmklonen erhalten bleibt. Dazu nahmen sie 2020 die Stimmen von vier Männern auf und kreierten mithilfe von Computeralgorithmen Deepfake-Stimmen. In verschiedenen Tests sollten 25 Probanden zwischen den Original- und den gefälschten Stimmen unterscheiden. Bei fast 70 Prozent der Versuche lagen die Probanden richtig.
Roswandowitz betont, dass diese Ergebnisse zeigen, dass aktuelle Deepfake-Stimmen zwar noch nicht perfekt sind, aber durchaus das Potenzial haben, die menschliche Wahrnehmung zu täuschen.
Deepfake-Stimmen und das Belohnungssystem des Gehirns
Während der Tests untersuchten die Forschenden, wie verschiedene Gehirnareale auf die echten und gefälschten Stimmen reagieren. Es zeigte sich, dass das Belohnungssystem des Gehirns weniger stark aktiviert wird, wenn es eine Deepfake-Stimme hört. Zusätzlich signalisiert das Gehirn dem Bewusstsein, dass etwas anders und schwieriger ist, wenn man Deepfakes hört. Diese Unterschiede bleiben jedoch oft unter der Wahrnehmungsschwelle.
Rasante Entwicklung der KI-Technologien
Mit der schnellen Entwicklung von KI-Technologien hat auch die Erstellung und Verbreitung von Deepfakes massiv zugenommen. Roswandowitz hält es für möglich, dass heutige Deepfakes, im Vergleich zu denen aus dem Jahr 2020, andere Ergebnisse liefern könnten, da die Klangqualität neuerer KI-generierter Stimmen wahrscheinlich besser ist.
Deepfakes als Gefahr für Wahlmanipulationen
Ein Beispiel für den missbräuchlichen Einsatz von Audio-Deepfakes ereignete sich im Januar in den USA. Ein sogenannter Robocall, der eine Deepfake-Stimme von Präsident Joe Biden imitierte, forderte Wähler im Bundesstaat New Hampshire auf, sich bei den Vorwahlen zu enthalten. Dieses Ereignis verdeutlicht die potenziellen Gefahren, die von Deepfakes ausgehen können.
Tech-Konzerne im Kampf gegen Fakenews
Auf der Münchner Sicherheitskonferenz versprachen Tech-Konzerne und Social-Media-Plattformen wie Meta, X, TikTok, Microsoft, Google und Snap, die Gefahr durch Fakenews stärker zu bekämpfen. Experten befürchten jedoch, dass es nicht genügend Personal gibt, um KI-generierte Inhalte effektiv zu überprüfen.
Fazit: Der Unterschied liegt im Detail
Obwohl die aktuelle Technologie der Künstlichen Intelligenz beeindruckende Fortschritte macht, zeigt die Studie der Universität Zürich, dass unser Gehirn noch in der Lage ist, subtile Unterschiede zwischen echten und gefälschten Stimmen zu erkennen. Es bleibt abzuwarten, wie sich die Technologie weiterentwickelt und welche Maßnahmen ergriffen werden, um Missbrauch zu verhindern. Bis dahin können wir uns darauf verlassen, dass unser Gehirn mehr bemerkt, als uns bewusst ist – auch wenn wir es manchmal vielleicht gar nicht wissen wollen.
4o