Ae6dc019 Df2a 4676 8bd5 62d9e288db99

Erklärbarkeit von KI-Entscheidungen aus der Perspektive des europäischen Rechts

Künstliche Intelligenz (KI) revolutioniert viele Bereiche unseres Lebens, von der Medizin über das Finanzwesen bis hin zur Strafverfolgung. Mit dem zunehmenden Einsatz von KI-Systemen steigt jedoch auch die Notwendigkeit, deren Entscheidungen nachvollziehbar und erklärbar zu machen.

Der aktuelle Aufsatz „How should AI decisions be explained?“ untersucht die Beziehung zwischen dem Recht und der erklärbaren Künstlichen Intelligenz (eXplainable Artificial Intelligence, XAI) unter besonderer Berücksichtigung des europäischen Rechts. Die Autoren analysieren die gesetzlichen Anforderungen an die Erklärbarkeit von KI-Systemen und bieten Einblicke, wie diese Anforderungen in der Praxis umgesetzt werden können.

Überblick über XAI

Erklärbare Künstliche Intelligenz (XAI) befasst sich mit der Schaffung von Methoden, die es ermöglichen, die Entscheidungen von KI-Systemen verständlich zu machen. Dies ist besonders wichtig in sensiblen Bereichen, in denen Entscheidungen erhebliche Auswirkungen auf Menschen haben können. XAI-Methoden lassen sich in lokale und globale Erklärungen unterteilen. Lokale Erklärungen beziehen sich auf spezifische Entscheidungen, während globale Erklärungen die generelle Funktionsweise eines Modells aufzeigen.

Rechtliche Grundlagen und Anforderungen

Der Aufsatz beleuchtet verschiedene Bereiche des europäischen und deutschen Rechts, die Anforderungen an die Erklärbarkeit von KI-Systemen stellen:

  1. Gesellschaftsrecht und Treuepflichten: Führungskräfte in Unternehmen, die Entscheidungen auf Basis von KI-Algorithmen treffen, bleiben rechtlich verantwortlich für diese Entscheidungen. Eine plausible Überprüfung der KI-Ergebnisse ist notwendig, um rechtliche Ansprüche abzuwehren.
  2. Datenschutz-Grundverordnung (DSGVO): Artikel 15(1)(h) und Artikel 22(3) der DSGVO gewähren Betroffenen das Recht, über automatisierte Entscheidungen informiert zu werden und diese anzufechten. Dies impliziert ein Recht auf Erklärung der zugrundeliegenden Logik und Bedeutung der KI-Entscheidungen.
  3. Produktsicherheit und -haftung: Die Sicherheit von Produkten, die KI enthalten, muss gewährleistet sein. Entwickler und Hersteller von KI-Systemen sind verpflichtet, sicherzustellen, dass ihre Produkte keine Gefahren darstellen und den gesetzlichen Sicherheitsanforderungen entsprechen.

Anforderungen an XAI-Methoden

Um den rechtlichen Anforderungen gerecht zu werden, müssen XAI-Methoden bestimmte Eigenschaften aufweisen. Der Aufsatz identifiziert eine erweiterte Liste von XAI-Eigenschaften, die für unterschiedliche Rechtsbereiche relevant sind:

  • Korrektheit: Die Erklärungen müssen mit der Logik des zugrunde liegenden Modells übereinstimmen.
  • Vollständigkeit: Die Erklärungen sollten alle relevanten Faktoren und deren Interaktionen umfassen.
  • Konsistenz und Kontinuität: Identische Eingaben sollten identische Erklärungen liefern, und kleine Änderungen in den Eingaben sollten nur zu kleinen Änderungen in den Erklärungen führen.
  • Konfidenzschätzungen: Angaben über die Zuverlässigkeit der Modelle und ihrer Erklärungen sind notwendig.
  • Kontext: Erklärungen sollten an die Bedürfnisse und das Verständnis der jeweiligen Nutzer angepasst werden.

Empfehlungen und Schlussfolgerungen

Die Autoren betonen die Notwendigkeit einer klaren und präzisen Regulierung von KI-Systemen, um Innovationen nicht zu behindern, sondern zu fördern. Sie empfehlen eine enge Zusammenarbeit zwischen technischen und rechtlichen Experten, um ein gemeinsames Verständnis der Fähigkeiten und Grenzen von XAI zu entwickeln.

Für die Praxis bedeutet dies, dass Unternehmen und Entwickler von KI-Systemen darauf achten müssen, ihre Modelle und deren Entscheidungen transparent und nachvollziehbar zu gestalten. Dies erfordert nicht nur technische Lösungen, sondern auch rechtliche und organisatorische Maßnahmen, um den gesetzlichen Anforderungen gerecht zu werden und das Vertrauen der Nutzer zu gewinnen.

Der Aufsatz zeigt damit auf, dass die Integration von Erklärbarkeit in KI-Systeme nicht nur eine technische Herausforderung ist, sondern auch tiefgreifende rechtliche Implikationen hat. Die Schaffung von XAI-Methoden, die den gesetzlichen Anforderungen entsprechen, ist ein wichtiger Schritt, um die sichere und verantwortungsvolle Nutzung von KI in unserer Gesellschaft zu gewährleisten.

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)

Veröffentlicht von

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)

Ich beschäftige mich intensiv im technologischen Bereich mit Fragen der Softwareentwicklung, KI und Robotik - nicht nur als Jurist, sondern eben auch selbst als Entwickler. In diesem Blog teile ich Inhalte vor allem rund um Robotik bzw. Roboterrecht und ergänzend zum Thema KI. Von mir werden Unternehmen im gesamten IT-Recht beraten und vertreten.