Mit der neuen KI-Verordnung (KI-VO) setzt die Europäische Union erstmals klare Regeln für die Entwicklung und den Einsatz von Künstlicher Intelligenz.
Eine der zentralen Anforderungen:
Unternehmen müssen ihre KI-Systeme frühzeitig anhand des geplanten Anwendungsfalls (Use-Case) klassifizieren. Das ist nicht nur rechtlich geboten – es schafft auch Planungssicherheit, Vertrauen und Transparenz.
Praxis-Tipp: Um Unternehmen genau dabei zu unterstützen, haben wir eine Checkliste zur Klassifikation von KI-Systemen nach der KI-Verordnung erstellt: |

Was beinhaltet die Klassifizierung
Neben der Bestimmung von Rollen und Verantwortlichkeiten entlang der Wertschöpfungskette (u.a. Anbieter, Betreiber oder Händler) ist es erforderlich KI-Systeme anhand des geplanten Use-Cases möglichst frühzeitig zu klassifizieren, um damit einhergehende rechtliche Anforderungen bestimmen zu können. Hierzu gehören insbesondere folgende Schritte.
1. Ist es überhaupt ein KI-System?
Nicht jede automatisierte Software fällt automatisch unter die KI-Verordnung. Ob ein System tatsächlich als „KI-System“ im Sinne der KI-VO gilt, ist entscheidend – denn davon hängt ab, ob die regulatorischen Anforderungen greifen.
Die Legaldefinition nach Art. 3 Nr. 1 KI-VO lautet: „KI‑System“ ist ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können. |
Hilfreich ist hier die offizielle EU-Leitlinie zur Bestimmung von KI-Systemen:
Definition von KI-Systemen im Sinne des AI Act
Wesentliche Inhalte der Leitlinie:
- Die Leitlinie erläutert, welche Systeme als KI gelten, darunter maschinelles Lernen, logikbasierte Systeme, wissensbasierte Systeme und statistische Methoden.
- Sie hilft bei der Abgrenzung zu klassischer Software – also etwa einfachen regelbasierten Programmen, die keine lernfähigen oder autonomen Elemente enthalten.
- Praxisbeispiele aus der Leitlinie: Chatbots, Bilderkennungssysteme, Empfehlungssysteme, Expertensysteme.
Nutzen für Unternehmen: Diese Orientierung erleichtert die frühzeitige Einordnung und stellt sicher, dass keine unnötigen regulatorischen Maßnahmen getroffen werden – oder umgekehrt, keine Pflichten übersehen werden.
2. Verbotene Praktiken erkennen
Die Verordnung untersagt bestimmte Anwendungen von KI-Systemen vollständig – unabhängig davon, wie gut oder innovativ sie technisch umgesetzt sind. Wer ein System plant, das potenziell in diesen Bereich fällt, sollte frühzeitig prüfen, ob es sich um eine verbotene Praxis handelt.
Die EU-Kommission hat hierzu eine eigene Leitlinie veröffentlicht:
Verbotene KI-Praktiken laut AI Act
Wesentliche Inhalte der Leitlinie:
- Die Leitlinie erläutert die zentralen verbotenen KI-Praktiken laut Artikel 5 KI-VO. Hierzu zählen u.a.
- Manipulative Techniken, die das Verhalten von Personen unterbewusst beeinflussen
- Ausnutzung von Schwächen, insbesondere bei Kindern, alten Menschen oder anderen besonders schutzbedürftigen Gruppen
- Social Scoring durch öffentliche Stellen, das zu ungerechtfertigter Benachteiligung führt
- Biometrische Echtzeitüberwachung im öffentlichen Raum ohne gesetzliche Grundlage
- Sie enthält klare Kriterien zur Abgrenzung: Wann ist eine Technik manipulativ? Wann liegt eine Ausnutzung vor?
- Außerdem: Hinweise auf zulässige Ausnahmen bei staatlich genutzten biometrischen Systemen (z. B. zur Strafverfolgung unter strengen Bedingungen).
Nutzen für Unternehmen: Diese Klarstellung verhindert Fehlentwicklungen und Investitionen in Technologien, die im europäischen Raum nicht zulässig sind – und hilft, Risiken von Anfang an zu vermeiden.
3. Hochrisiko-KI rechtzeitig erkennen
Fällt ein KI-System in eine der Hochrisiko-Kategorien (z. B. in den Bereichen Gesundheit, Bildung oder Strafverfolgung), greifen besonders strenge Anforderungen, wie beispielsweise:
- Umfassendes Risikomanagement
- Detaillierte Dokumentation und Nachweisführung
- Hohe technische Robustheit
- Menschliche Aufsicht und Kontrollmechanismen
All das muss rechtzeitig eingeplant werden, um regulatorisch konform zu bleiben.
Die Einordnung erfolgt anhand der Vorgaben aus Art. 6 KI-VO i.V.m. Anhang I bzw. Anhang III, welche jedoch regelmäßig erweitert werden können.
4.Transparenzpflichten erfüllen
KI-Systeme, die mit Menschen interagieren – etwa Chatbots, virtuelle Assistenten oder KI-generierte Bilder/Videos – müssen klar erkennbar machen, dass sie auf KI basieren. Ebenso gilt das für Systeme zur Emotionserkennung oder biometrischen Kategorisierung. Art. 50 KI-VO bestimmt hierfür die Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme.
Diese Transparenzpflicht soll Nutzer:innen vor Täuschung schützen und ihnen ermöglichen, bewusst zu entscheiden, wie sie mit der KI interagieren. Wer dies früh berücksichtigt, kann die Nutzerkommunikation und UI/UX entsprechend gestalten.
Fazit
Die Klassifikation eines KI-Systems anhand des geplanten Use-Cases ist kein formaler Akt, sondern eine zentrale Voraussetzung für die regelkonforme Umsetzung der KI-VO.
Mit Hilfe der offiziellen Leitlinien der EU-Kommission und praxisnahen Hilfsmitteln wie unserer Checkliste können Unternehmen heute schon fundierte Entscheidungen treffen – und so Rechtssicherheit, Effizienz und Vertrauen schaffen.
Auch interessant:
Profitieren Sie von unserer Muster-/ Checkliste Klassifizierung von KI-Systemen nach KI-Verordnung