Künstliche Intelligenz entwickelt sich rasant – und mit ihr die Anforderungen an Sicherheit, Transparenz und Governance. Der Beitrag liefert einen kompakten Überblick über die gesetzlichen und normativen Grundlagen für die Zertifizierung von KI-Systemen.
EU AI Act: Fokus auf Hochrisiko-KI
Der EU AI Act definiert, wann KI-Systeme als Hochrisiko gelten – z. B. in Bereichen wie kritischer Infrastruktur, Bildung, Personalmanagement oder Strafverfolgung.
Für sieben von acht Hochrisiko-Bereichen genügt eine interne Kontrolle nach Anhang VI.
Nur im Bereich Biometrie kann zusätzlich eine externe Bewertung durch eine notifizierte Stelle erfolgen.
Kernanforderungen an Anbieter
- Risikomanagement über den gesamten Lebenszyklus (Art. 9)
- Datenqualität & Governance (Art. 10)
- Technische Dokumentation (Art. 11)
- Logging, Transparenz & menschliche Aufsicht (Art. 12–14)
- Robustheit & Cybersicherheit (Art. 15)
ISO/IEC 42001: Hilfreich – aber nicht ausreichend
Die neue internationale KI-Managementnorm bietet Orientierung, deckt aber nicht alle Pflichten der KI-Verordnung ab.
Wichtige Fristen
- 02/2025: erste KI-VO-Regelungen
- 08/2025: Notifizierte Stellen müssen bereitstehen
- 08/2026: umfassende Pflichten greifen
- 08/2027: weitere Anforderungen für Hochrisiko-KI
Fazit
Unternehmen sollten jetzt handeln: KI-Prozesse prüfen, Risiken analysieren, Qualitätsmanagement stärken – und frühzeitig auf kommende Zertifizierungsanforderungen reagieren.
Den vollständigen Beitrag, geschrieben von Dr. Sönke Maseberg, finden Sie in der Oktober-Ausgabe 2025 von DuD Datenschutz und Datensicherheit oder direkt hier als PDF Download.