Was soll ein AI Incident (KI-Vorfall) sein: Die rasante Entwicklung und der zunehmende Einsatz Künstlicher Intelligenz (KI) weltweit haben nicht nur zahlreiche Vorteile, sondern auch erhebliche Risiken mit sich gebracht.
Diese Risiken, die sich bereits in Form von sogenannten „KI-Vorfällen“ manifestieren, erfordern eine genaue Beobachtung und präventive Maßnahmen. Das OECD-Papier „Stocktaking for the Development of an AI Incident Definition“, veröffentlicht im Oktober 2023, beschäftigt sich mit der Erarbeitung einer gemeinsamen Definition für KI-Vorfälle und bietet einen Überblick über bisherige Erkenntnisse und zukünftige Schritte.
AI Incident: Hintergrund und Zielsetzung
Mit der zunehmenden Nutzung von KI-Systemen steigt auch die Zahl der Vorfälle, bei denen diese Systeme Schäden an Personen, Eigentum oder der Umwelt verursachen. Ein gemeinsames Rahmenwerk für die Meldung von KI-Vorfällen soll dazu beitragen, solche Vorfälle besser zu dokumentieren, zu verstehen und letztlich zu verhindern. Das Ziel dieses Berichts ist es, eine Grundlage für eine einheitliche Terminologie und Definition von KI-Vorfällen zu schaffen, die international anerkannt wird und die Entwicklung eines globalen Überwachungssystems für KI-Vorfälle (AI Incident Monitor, AIM) unterstützt.
Wichtige Aspekte der Definition von KI-Vorfällen
- Schadensbegriffe: Der Begriff „Schaden“ ist zentral für die Definition von Vorfällen. Schäden können physisch, psychologisch, ökonomisch oder reputationsbezogen sein und unterschiedliche Schweregrade aufweisen. Eine klare Definition und Klassifizierung von Schäden ist entscheidend, um KI-Vorfälle präzise zu identifizieren und geeignete Maßnahmen zu ergreifen.
- Potenzielle vs. tatsächliche Schäden: Ein Vorfall kann sowohl potenzielle als auch tatsächliche Schäden umfassen. Potenzieller Schaden bezieht sich auf das Risiko oder die Wahrscheinlichkeit, dass ein Schaden eintritt, während tatsächlicher Schaden bereits eingetretene negative Auswirkungen beschreibt. Beide Dimensionen sind wichtig für die umfassende Bewertung und Berichterstattung von KI-Vorfällen.
- Dimensionen von Schäden: Die OECD identifiziert verschiedene Dimensionen, um Schäden zu klassifizieren, darunter Typ, Schweregrad, Umfang, geografische Reichweite, Tangibilität, Quantifizierbarkeit, Materialisierung, Reversibilität und Wiederholbarkeit. Diese Dimensionen helfen dabei, die verschiedenen Facetten von Schäden durch KI-Systeme zu erfassen und zu kategorisieren.
- Schweregrade von Vorfällen: Eine vorläufige Klassifizierung von Vorfällen reicht von geringfügigen Gefahren über Beinahe-Vorfälle bis hin zu ernsten Vorfällen. Diese Klassifizierung ermöglicht es, die Schwere eines Vorfalls zu bewerten und entsprechende Maßnahmen zur Verhinderung und Bewältigung zu entwickeln.
Entwicklung eines gemeinsamen Berichtsrahmens bei einem AI Incident
Ein einheitlicher Berichtsrahmen für KI-Vorfälle (AI Incident) sollte folgende Eigenschaften aufweisen:
- Klar und operativ: Klare Kriterien für die Klassifizierung von Vorfällen basierend auf deren Schweregrad und anderen Merkmalen.
- Handlungsorientiert und nützlich: Förderung des Austauschs bewährter Verfahren und der Ergreifung präventiver Maßnahmen.
- Modular und flexibel: Ermöglichung interoperabler Berichterstattung zwischen verschiedenen Rechtsordnungen und Interessengruppen.
- Abgestimmt auf andere Berichtsregime: Aufbauend auf bestehenden Regimen in verwandten Bereichen wie Produktsicherheit, Cybersicherheit und Luftfahrtunfällen.
- Zukunftsorientiert: Flexibilität zur Erfassung neuer Vorfallstypen, die mit sich schnell entwickelnden Technologien einhergehen.
AI Incident: Weiterentwicklung und Pilotierung
Die OECD plant, die gewonnenen Erkenntnisse weiter zu analysieren und zu nutzen, um eine endgültige Definition von KI-Vorfällen zu entwickeln. Ein wesentlicher nächster Schritt ist die Pilotierung und Bewertung der vorgeschlagenen Definition, um sicherzustellen, dass sie in der Praxis anwendbar ist. Dabei sollen reale KI-Vorfälle beobachtet und analysiert werden, um die Definition und den Berichtsrahmen weiter zu verfeinern.
AI Incident: Ausblick
Das OECD-Papier „Stocktaking for the Development of an AI Incident Definition“ bietet eine umfassende Grundlage für die Entwicklung einer einheitlichen Definition und eines Berichtsrahmens für KI-Vorfälle. Die Erarbeitung klarer Terminologien und Klassifikationen ist entscheidend, um die Risiken von KI-Systemen zu verstehen und zu mindern. Durch internationale Zusammenarbeit und die Nutzung eines globalen Überwachungssystems für KI-Vorfälle kann die OECD dazu beitragen, die Sicherheit und Vertrauenswürdigkeit von KI-Systemen weltweit zu gewährleisten.
- Zukunft der Robotik: Einfluss des Data Act auf Innovation und rechtliche Rahmenbedingungen - Oktober 4, 2024
- Allgemeine Überlegungen zu Robotern: Definitionen, Bewusstsein und Asimovs Gesetze - August 18, 2024
- Whitepaper des BSI zur Transparenz von KI-Systemen - August 16, 2024