Die Europäische Union hat das erste umfassende Gesetz für Künstliche Intelligenz (KI) verabschiedet. Ab August tritt der AI Act in Kraft, der weltweit als erstes seiner Art den Umgang mit KI reguliert. Ist das eine notwendige Maßnahme gegen die Macht der großen Tech-Konzerne oder ein weiteres Beispiel für Brüssels Regulierungswut?
Visionäre oder Größenwahnsinnige?
Die Tech-Giganten haben klare Vorstellungen von der Zukunft. Mark Zuckerberg von Meta sieht Menschen bald virtuell geklont. Google-Chef Sundar Pichai behauptet, KI werde mehr verändern als die Entdeckung von Feuer und Elektrizität, und Elon Musk erwartet, dass Maschinen den Menschen bis Ende 2025 übertreffen. Sam Altman, der Kopf hinter ChatGPT, spricht sogar von einem bedingungslosen Grundeinkommen, sobald Maschinen unsere Arbeit übernehmen. Klingt nach Größenwahn? Ja, ein bisschen.
Schutz der Bürger und Grundrechte
Der AI Act der EU erinnert daran, dass Unternehmen die Daten und Grundrechte ihrer Kunden schützen müssen, selbst wenn sie sich als Weltveränderer sehen. Das Gesetz zielt darauf ab, Bürger vor missbrauchsanfälliger KI zu schützen. Kritiker sehen darin eine Innovationsbremse, doch ein Blick auf die Details zeigt ein differenziertes Bild.
Vier Kategorien der Regulierung
- Verbotene Anwendungen: Dazu zählen soziale Kreditsysteme wie in China, wo Bürger durch den Staat benotet werden.
- Hochrisikoanwendungen: Diese entscheiden über wichtige Lebensbereiche wie Asylanträge oder Stellenbewerbungen und unterliegen strengen Kontrollen.
- Programme mit begrenztem Risiko: Dazu gehören Bots wie ChatGPT, deren Anbieter offenlegen müssen, mit welchen Daten ihre KI trainiert wurde.
- Unregulierte Dienste: Hierzu zählen Spamfilter für E-Mails.
Realistische Szenarien statt Science-Fiction
Die EU reguliert keine utopischen Szenarien, sondern konkrete Anwendungsfälle. Ein Beispiel ist die Emotionserkennung am Arbeitsplatz, die in Japan zur Bewertung der Kundenfreundlichkeit von Kassiererinnen genutzt wird. Bei Edeka wäre das nun verboten. Solche Maßnahmen schaffen Transparenz und Vertrauen in KI-Systeme.
Vertrauen ist das A und O
Das Vertrauen in KI schwindet, weil sie oft noch wie der unzuverlässige Praktikant wirkt, dem man die wichtigen Aufgaben nicht anvertraut. Dabei gibt es echte Erfolgsgeschichten: KI kann die Faltung von Proteinen vorhersagen und damit Alzheimerpatienten Hoffnung auf bessere Therapien geben. Eine KI von Google gewann sogar eine Silbermedaille bei der internationalen Mathematik-Olympiade.
Hemmt das Gesetz Innovation?
Die Frage, ob die EU mit ihrem Gesetz mehr Schaden anrichtet als verhindert, lässt sich klar beantworten: Nein. Begeisterung für Technologie und die Erkenntnis, dass zu viel Macht in den Händen weniger liegt, schließen sich nicht aus. Die eigentliche Arbeit beginnt jetzt erst.
Zwei Jahre Vorbereitungszeit
Unternehmen haben zwei Jahre Zeit, um sich auf das Gesetz vorzubereiten. Das könnte für kleinere, europäische Anbieter schwieriger sein als für globale Konzerne mit großen Rechtsabteilungen. Wichtig ist, klare Zuständigkeiten zu schaffen und bürokratisches Hin und Her zu vermeiden. In Deutschland muss noch eine Aufsichtsbehörde bestimmt werden – und es wäre hilfreich, wenn es nur eine ist und nicht gleich sechzehn.
Fazit
Der AI Act der EU ist kein Beispiel für Regulierungswut, sondern ein notwendiger Schritt, um die Macht der Tech-Giganten zu zügeln und den Schutz der Bürger zu gewährleisten. Dabei wird die Innovation nicht gebremst, sondern auf ein stabiles Fundament gestellt. Denn Vertrauen in Technologie ist der Schlüssel zu ihrem Erfolg.
