Mit Einführung der ersten Maßnahmen haben wir in Blickpunkt Digital 2/2025 hierüber berichtet. Der AI-Act schafft Regeln für den Einsatz von KI-Systemen, die den Verkauf und die Verwendung von KI-Systemen betreffen. Die Verordnung unterscheidet vier Risikoklassen:
| Risikoklasse | Beispiel |
| Unannehmbares Risiko (Einsatz verboten) | Social Scoring, biometrische Identifizierung, Emotionserkennung, täuschende und manipulative Systeme |
| Hohes Risiko (streng reguliert) | Bewerberauswahl, Personalmanagement, bildungsbezongene Verwendung, KI-Einsatz bei kritischer Infrastruktur |
| Begrenztes Risiko (minimal reguliert) | Chatbots, KI-generierte Inhalte oder Texte |
| Minimales Risiko (nicht reguliert) | KI-gestützte Spam-Filter, KI-gestützte Rechtschreibkorrektur und Schreibassisitenz |
Unternehmen, die KI-Systeme nur einsetzen (nicht selbst entwickeln), gelten als „Betreiber“ – können aber auch als „Anbieter“ eingestuft werden, wenn sie bestimmte Änderungen am System vornehmen. Für Chatbots oder KI-generierte Inhalte reicht es dagegen meist, die Nutzer transparent zu informieren sowie intern Schulungen vorzusehen – denn der AI-Act sieht eine Arbeitgeberpflicht zur KI-Kompetenzvermittlung vor.
Aufgrund der Inhalte des AI-Acts, sollten Unternehmen, welche KI einführen oder betreiben:
- Eingesetzte KI-Systeme dokumentieren und übersichtlich erfassen, die Rolle Ihres Unternehmens (Betreiber/Anwender) klären und die Risikobewertung laut AI-Act erfragen bzw. durchführen.
- Schulungen für Mitarbeitende hinsichtlich eingesetzter KI-Systeme durchführen sowie Transparenz gegenüber außenstehenden Personen sicherstellen.
- Auch Vorgaben hinsichtlich Datenschutz und Urheberrecht in Zusammenhang mit KI beachten
- Prozesse für das fortlaufende Monitoring implementieren.


