Nicht jede KI-Anwendung innerhalb eines Hochrisikobereichs ist automatisch ein Hochrisiko-System. Die KI-Verordnung sieht unter bestimmten Umständen Ausnahmen vor, wenn das Risiko als gering eingestuft werden kann.
Nach Artikel 6 Absatz 3 KI-VO kann ein KI-System dann als nicht hochriskant eingestuft werden, wenn es kein signifikantes Risiko darstellt. Das ist insbesondere dann der Fall, wenn das System im Einzelfall keinen wesentlichen Einfluss auf das Ergebnis der Entscheidungsfindung hat.
Mindestens eines der folgenden Kriterien muss erfüllt sein:
- Die KI übernimmt eine eng gefasste Verfahrensaufgabe, ohne die Gesamtsystementscheidung zu beeinflussen.
- Die KI verbessert Ergebnisse von zuvor abgeschlossenen menschlichen Tätigkeiten, etwa durch Datenaggregation oder Fehlerprüfung.
- Die KI dient lediglich der Erkennung von Entscheidungen oder Ausreißern, ersetzt jedoch keine menschliche Beurteilung.
- Die KI wird für vorbereitende Aufgaben eingesetzt, beispielsweise zur Informationssortierung oder zur automatischen Klassifizierung ohne unmittelbare Entscheidungsauswirkung.
Diese klaren Kriterien sollen verhindern, dass Unternehmen unverhältnismäßig belastet werden, wenn ihre KI-Systeme nur unterstützende Funktionen erfüllen. Gleichzeitig verpflichtet die KI-VO dazu, diese Abgrenzung transparent und nachvollziehbar zu dokumentieren – insbesondere im Fall von Systemen, die potenziell mehrere Funktionen erfüllen oder in unterschiedlichen Bereichen eingesetzt werden.
Führt die Anwendung jedoch Profiling oder automatisierte Bewertungen durch, liegt in der Regel eine Rückausnahme vor, wodurch die Anwendung dann doch als Hochrisiko-KI gilt.
Diese Bewertung ist stark kontextabhängig. Unternehmen sollten sie sorgfältig dokumentieren und regelmäßig überprüfen, ob sich neue Anwendungsfälle oder Nutzungskontexte ergeben haben, die eine Neubewertung erfordern.