Künstliche Intelligenz (KI) ist ein Treiber der digitalen Transformation – bringt aber auch Risiken mit sich. Die europäische KI-Verordnung (VO (EU) 2024/1689), kurz „AI Act“ verfolgt einen risikobasierten Ansatz, um ein ausgewogenes und verbindliches Regelwerk für KI-Systeme zu schaffen. In diesem Sinne definiert der AI Act vier Risikostufen, inakzeptables, hohes, begrenztes und minimales Risiko. Dabei bewertet der AI Act insbesondere mögliche Schäden an individuellen und öffentlichen Interessen – von Grundrechten über Sicherheit und Gesundheit bis hin zum Umweltschutz. Erfasst sind physische, psychische, gesellschaftliche und wirtschaftliche Schäden, unabhängig davon, ob sie materieller oder immaterieller Natur sind.
Am 2. Februar 2025 traten zentrale Bestimmungen des AI Acts in Kraft, nämlich verbindliche Verbote für bestimmte KI-Praktiken mit „inakzeptablem Risiko“. Diese Maßnahmen sollen sicherstellen, dass Künstliche Intelligenz nicht in einer Weise eingesetzt wird, die fundamentale Rechte, Sicherheit oder demokratische Werte gefährdet. Unternehmen und Organisationen, die KI-Technologien entwickeln oder nutzen, müssen sich daher frühzeitig mit den neuen Regelungen auseinandersetzen.
Begleitend dazu hat die EU-Kommission am 4. Februar 2025 detaillierte Leitlinien veröffentlicht, die die praktische Umsetzung und Durchsetzung der Verbote nach Artikel 5 des AI Acts erläutern.
Was ist verboten?
Der AI Act unterscheidet zwischen verschiedenen Risikostufen von KI-Systemen. Besonders im Fokus stehen verbotene KI-Praktiken im Sinne des Artikel 5, die ab sofort in der EU verboten sind. Dazu gehören:
- Manipulative und täuschende KI-Techniken: Systeme, die unterbewusste Beeinflussung oder gezielte psychologische Manipulation einsetzen.
- Ausnutzung von Schwächen: KI-Systeme dürfen keine Menschen aufgrund von Alter, Behinderung oder sozialem Status gezielt manipulieren.
- Social Scoring: Die Bewertung von Personen anhand ihres Verhaltens oder persönlicher Eigenschaften ist verboten, insbesondere wenn sie zu ungerechtfertigter Benachteiligung führt.
- Predictive Policing: KI darf nicht ausschließlich auf Basis von Profiling vorhersagen, ob jemand eine Straftat begehen wird.
- Ungezieltes Sammeln biometrischer Daten: Gesichtserkennung durch Massenscreening, beispielsweise durch das Sammeln von Bildern aus dem Internet oder Aufnahmen durch Überwachungskameras, ist untersagt.
- Emotionserkennung am Arbeitsplatz und in Schulen: Unternehmen und Bildungseinrichtungen dürfen KI nicht zur Analyse von Emotionen ihrer Mitarbeiter oder Schüler einsetzen – mit Ausnahme medizinischer oder sicherheitsrelevanter Zwecke.
- Biometrische Kategorisierung: Die Nutzung biometrischer Daten zur Ableitung sensibler Merkmale (z. B. politische Ansichten oder sexuelle Orientierung) ist untersagt.
- Echtzeit-Fernbiometrische Identifizierung in öffentlichen Räumen: Gesichtserkennung in Echtzeit durch Strafverfolgungsbehörden ist nur unter strengsten Bedingungen erlaubt (z. B. zur Terrorabwehr oder zur Suche nach vermissten Personen).
Durchsetzung und Sanktionen
Zwar gelten die Verbote bereits seit dem 2. Februar 2025, doch die eigentliche Marktüberwachung und Sanktionierung beginnt erst am 2. August 2025. Unternehmen und Behörden, die gegen die neuen Regelungen in Bezug auf verbotene KI Praktiken im Sinne des Artikel 5 verstoßen, drohen empfindliche Strafen:
- Geldbußen von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für Unternehmen (Artikel 99 Abs 3).
- Für EU-Behörden gelten reduzierte Bußgelder von bis zu 1,5 Millionen Euro (Artikel 100 Abs 2).
Betroffene Unternehmen sollten sich frühzeitig mit den neuen Vorgaben vertraut machen und sicherstellen, dass ihre KI-Systeme konform sind.
Fazit: Handlungsbedarf für Unternehmen
Die neuen Regelungen stellen einen Meilenstein in der Regulierung von Künstlicher Intelligenz dar. Unternehmen, die KI-Technologien entwickeln oder nutzen, sollten ihre Systeme dringend überprüfen, um rechtliche Risiken zu minimieren. Die jetzt veröffentlichten Leitlinien der EU-Kommission bieten dabei wertvolle Orientierungshilfen für eine rechtskonforme Anwendung von KI.
Unsere Kanzlei unterstützt Sie gerne bei der Compliance-Prüfung Ihrer KI-Systeme und der Anpassung an die neuen regulatorischen Anforderungen. Kontaktieren Sie uns für eine Beratung zu den Auswirkungen des AI Acts auf Ihr Unternehmen.
Blog