KI-Zertifizierung nach EU AI Act & ISO/IEC 42001 – was Unternehmen jetzt wissen müssen

Künstliche Intelligenz entwickelt sich rasant – und mit ihr die Anforderungen an Sicherheit, Transparenz und Governance. Der Beitrag liefert einen kompakten Überblick über die gesetzlichen und normativen Grundlagen für die Zertifizierung von KI-Systemen.

EU AI Act: Fokus auf Hochrisiko-KI

Der EU AI Act definiert, wann KI-Systeme als Hochrisiko gelten – z. B. in Bereichen wie kritischer Infrastruktur, Bildung, Personalmanagement oder Strafverfolgung.

Für sieben von acht Hochrisiko-Bereichen genügt eine interne Kontrolle nach Anhang VI.

Nur im Bereich Biometrie kann zusätzlich eine externe Bewertung durch eine notifizierte Stelle erfolgen.

Kernanforderungen an Anbieter

  • Risikomanagement über den gesamten Lebenszyklus (Art. 9)
  • Datenqualität & Governance (Art. 10)
  • Technische Dokumentation (Art. 11)
  • Logging, Transparenz & menschliche Aufsicht (Art. 12–14)
  • Robustheit & Cybersicherheit (Art. 15)

ISO/IEC 42001: Hilfreich – aber nicht ausreichend

Die neue internationale KI-Managementnorm bietet Orientierung, deckt aber nicht alle Pflichten der KI-Verordnung ab.

Wichtige Fristen

  • 02/2025: erste KI-VO-Regelungen
  • 08/2025: Notifizierte Stellen müssen bereitstehen
  • 08/2026: umfassende Pflichten greifen
  • 08/2027: weitere Anforderungen für Hochrisiko-KI

Fazit

Unternehmen sollten jetzt handeln: KI-Prozesse prüfen, Risiken analysieren, Qualitätsmanagement stärken – und frühzeitig auf kommende Zertifizierungsanforderungen reagieren.

Den vollständigen Beitrag, geschrieben von Dr. Sönke Maseberg, finden Sie in der Oktober-Ausgabe 2025 von DuD Datenschutz und Datensicherheit oder direkt hier als PDF Download.

Haben Sie Fragen?

Dann kontaktieren Sie uns!