Das AI Impact Assessment (AIIA) oder KI-Folgenabschätzung ist eine systematische Bewertung der potenziellen Auswirkungen von KI-Systemen auf Einzelpersonen, Personengruppen und die Gesellschaft. Sie ist in Klausel 6.1.4 der ISO/IEC 42001:2023 verankert und stellt eine der umfangreichsten Anforderungen beim Aufbau eines KI-Managementsystems (AIMS) dar.
Das AIIA ist aus mehreren Gründen kritisch:
* Es ist zentral für die ethische KI-Governance und hilft, negative Konsequenzen präventiv zu identifizieren
* Es demonstriert Verantwortungsbewusstsein gegenüber Stakeholdern
* Es unterstützt die Einhaltung regulatorischer Anforderungen wie dem EU AI Act
* Es fördert Transparenz und Vertrauen bei allen Betroffenen
AI Risk Assessment (Klausel 6.1.2):
* Fokussiert auf organisationsinterne Risiken
* Bewertet technische und operative Risiken für das Unternehmen
* Analysiert Wahrscheinlichkeit und Auswirkungen auf Geschäftsziele
AI Impact Assessment (Klausel 6.1.4):
* Fokussiert auf externe Auswirkungen
* Bewertet Folgen für Personen, Gruppen und Gesellschaft
* Berücksichtigt ethische, soziale und Umweltfaktoren
Das AIIA muss folgende Aspekte bewerten:
* Ethische Auswirkungen (Fairness, Diskriminierung, Bias)
* Soziale Auswirkungen (gesellschaftliche Folgen, Gruppeneffekte)
* Grundrechte (Privatsphäre, Menschenwürde, Gleichbehandlung)
* Umweltauswirkungen (Nachhaltigkeit, Ressourcenverbrauch)
* Sicherheitsaspekte (physische und psychische Sicherheit)
Ein AIIA müssen durchführen:
* KI-Produzenten/Entwickler für die von ihnen entwickelten KI-Systeme
* KI-Anwender/Betreiber für die von ihnen eingesetzten KI-Systeme
* Organisationen können gleichzeitig beide Rollen innehaben
Die AIIA sollte mindestens folgende Elemente dokumentieren:
1. Beschreibung der KI-Systeme und ihrer Einsatzprozesse
2. Zeitraum und Häufigkeit der Nutzung
3. Kategorien betroffener Personen und Personengruppen
4. Identifizierte potenzielle Auswirkungen auf diese Gruppen
5. Bewertung des gesellschaftlichen Kontexts der KI-Anwendung
6. Maßnahmen zur Risikominderung und Auswirkungskontrolle
7. Überwachungs- und Kontrollmechanismen
Die relevanten Annex A Controls für das AIIA sind:
* A.5.2 bis A.5.5: Detaillierte Anforderungen zur Folgenabschätzung
* A.5: Gesamtrahmen für die Bewertung von KI-System-Auswirkungen
* A.8: Informationsbereitstellung für interessierte Parteien
Das AIIA der ISO 42001 unterstützt direkt die Anforderungen des EU AI Act:
* Artikel 27 AI Act fordert eine Grundrechte-Folgenabschätzung für Hochrisiko-KI
* Die ISO 42001 AIIA bietet einen strukturierten Rahmen für diese Pflicht
* Allerdings ist die ISO 42001 AIIA allgemeiner und nicht grundrechtsspezifisch
* Eine zusätzliche spezifische Grundrechteprüfung kann erforderlich sein
Das AIIA muss durchgeführt werden:
* Vor der Inbetriebnahme eines KI-Systems
* Bei wesentlichen Änderungen am System oder dessen Einsatzkontext
* Im Rahmen regelmäßiger Überprüfungen des AIMS
* Wenn sich relevante Elemente der ursprünglichen Bewertung ändern
Das AIIA-Dokumentation umfasst:
* Formale AIIA-Berichte mit allen bewerteten Dimensionen
* Methodenbeschreibungen der verwendeten Bewertungsverfahren
* Nachweise über Stakeholder-Konsultationen
* Maßnahmenpläne zur Adressierung identifizierter Auswirkungen
* Überwachungsprotokolle für kontinuierliche Bewertungen
Das AIIA kann und sollte mit anderen Assessments integriert werden:
* Datenschutz-Folgenabschätzung (DPIA) nach DSGVO
* Grundrechte-Folgenabschätzung (FRIA) nach AI Act
* Umweltverträglichkeitsprüfungen
* Ethik-Assessments
Empfohlene Vorgehensweisen:
* Frühzeitige Integration in den KI-Entwicklungsprozess
* Multidisziplinäre Teams einbeziehen (Technik, Ethik, Recht)
* Stakeholder-Beteiligung sicherstellen
* Iterative Durchführung während des KI-Lebenszyklus
* Transparente Kommunikation der Ergebnisse
* Kontinuierliche Aktualisierung bei Änderungen
Typische Herausforderungen umfassen:
* Komplexität der Auswirkungsbewertung bei neuartigen KI-Systemen
* Quantifizierung qualitativer sozialer Auswirkungen
* Langzeitfolgen sind schwer vorhersagbar
* Ressourcenaufwand für umfassende Assessments
* Fehlendes Expertenwissen in interdisziplinären Bereichen
Das AIIA ist essentiell für die Zertifizierung:
* Sie ist eine Pflichtanforderung der Norm
* Auditoren prüfen die Vollständigkeit und Angemessenheit der AIIA
* Die Qualität der AIIA beeinflusst das Zertifizierungsergebnis
* Sie demonstriert die Reife des KI-Managementsystems
Ja, insbesondere:
* ISO/IEC 42005 (in Entwicklung) – spezifischer Standard für AI Impact Assessments
* ISO/IEC 23894:2023 – Leitfaden zum KI-Risikomanagement
* ISO 31000 – allgemeine Risikomanagement-Prinzipien
Diese strukturierte Herangehensweise an das AIIA stellt sicher, dass Organisationen nicht nur die normativen Anforderungen erfüllen, sondern auch einen verantwortungsvollen und nachhaltigen Umgang mit KI-Technologien demonstrieren.