Der EU AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Es trat 2024 in Kraft und setzt klare Regeln für die Entwicklung, den Einsatz und die Nutzung von KI-Systemen in der Europäischen Union. Ziel ist es, Innovation zu fördern, gleichzeitig aber Risiken zu minimieren und Grundrechte zu schützen.
Was regelt der EU AI Act? Das Gesetz unterteilt KI-Systeme in vier Risikoklassen:
- Unannehmbares Risiko KI-Anwendungen, die als gefährlich oder manipulativ gelten, sind verboten. Dazu gehören:
- Systeme, die das Verhalten von Menschen unterbewusst beeinflussen (z. B. durch gezielte Desinformation).
- Soziales Scoring durch Behörden, das Bürger basierend auf ihrem Verhalten bewertet.
- Echtzeit-Gesichtserkennung in öffentlichen Räumen (mit wenigen Ausnahmen, z. B. bei schwerer Kriminalität).
- Hohes Risiko KI-Systeme in kritischen Bereichen wie Infrastruktur, Bildung, Personalwesen oder Strafverfolgung unterliegen strengen Auflagen:
- Transparenz: Nutzer müssen wissen, dass sie mit einer KI interagieren.
- Dokumentation: Entwickler müssen nachweisen, dass ihre Systeme sicher, diskriminierungsfrei und datenschutzkonform sind.
- Menschliche Aufsicht: Wichtige Entscheidungen dürfen nicht allein von KI getroffen werden. Beispiele: KI in Bewerbungsverfahren, Kreditvergabe oder medizinischer Diagnostik.
- Begrenztes Risiko KI mit geringeren Risiken, wie Chatbots oder Deepfake-Erkennungstools, müssen klar kennzeichnen, dass es sich um KI handelt. Nutzer sollen informiert entscheiden können.
- Minimales Risiko Die meisten KI-Anwendungen (z. B. Spamfilter oder Videospiel-KI) fallen in diese Kategorie. Hier gelten kaum Vorschriften, solange keine Grundrechte verletzt werden.
Warum ist der EU AI Act wichtig?
- Schutz der Bürger: Verhindert Missbrauch von KI, z. B. durch Diskriminierung oder Überwachung.
- Vertrauen schaffen: Klare Regeln machen KI-Systeme nachvollziehbarer und sicherer.
- Wettbewerbsvorteil für Europa: Unternehmen, die sich an die Regeln halten, können ihre Produkte als „vertrauenswürdig“ vermarkten.
- Innovation fördern: Durch klare Rahmenbedingungen wird Rechtssicherheit für Entwickler geschaffen.
Wer ist betroffen?
- Entwickler und Unternehmen: Müssen ihre KI-Systeme nach Risikoklasse einordnen und ggf. zertifizieren lassen.
- Nutzer: Profitieren von mehr Transparenz und Schutz vor schädlichen Anwendungen.
- Behörden: Überwachen die Einhaltung der Regeln und können bei Verstößen Bußgelder verhängen (bis zu 35 Millionen Euro oder 7 % des globalen Umsatzes).
Kritik und Herausforderungen
- Umsetzung: Besonders kleine Unternehmen und Startups fürchten hohe Kosten für Zertifizierungen.
- Technologische Neutralität: Das Gesetz soll flexibel genug sein, um mit der schnellen Entwicklung der KI Schritt zu halten.
- Globale Wirkung: Der EU AI Act könnte zum Standard werden, ähnlich wie die DSGVO beim Datenschutz. Unternehmen außerhalb der EU müssen sich anpassen, wenn sie auf dem europäischen Markt aktiv sein wollen.