0adf12bc A5de 4ab5 86e5 F713770f3c05

KI: Zuverlässigkeit ist als Begriff besser als Vertrauenswürdigkeit!

In der Studie „In AI We Trust: Ethics, Artificial Intelligence, and Reliability“ von Mark Ryan wird die wichtige Frage der Vertrauenswürdigkeit und Ethik in Bezug auf Künstliche Intelligenz (KI) untersucht.

Ryan hebt hervor, dass eines der Hauptprobleme bei der Bewertung von KI die Tendenz ist, ihr menschliche Eigenschaften zuzuschreiben. Dies wird besonders problematisch, wenn wir menschliche moralische Aktivitäten auf KI übertragen, wie beispielsweise die Idee, dass wir KI vertrauen sollten. Ryan argumentiert, dass KI nicht als vertrauenswürdig im Sinne der gängigen Definitionen von Vertrauen angesehen werden kann, da sie keine emotionalen Zustände besitzt und nicht für ihre Handlungen verantwortlich gemacht werden kann – Voraussetzungen für die affektiven und normativen Ansichten von Vertrauen.

KI und die Herausforderungen der Ethik

Die ethischen Herausforderungen, die KI mit sich bringt, sind vielschichtig. Zentral ist die Frage, ob und inwiefern KI vertrauenswürdig sein kann. Ryan argumentiert, dass, während KI alle Anforderungen des rationalen Vertrauenskonzepts erfüllt, dies eigentlich keine Form des Vertrauens, sondern eine Art der Abhängigkeit ist. Somit sollte selbst komplexe Maschinen wie KI nicht als vertrauenswürdig angesehen werden, da dies den Wert zwischenmenschlichen Vertrauens untergraben, KI vermenschlichen und die Verantwortung von den Entwicklern und Nutzern ablenken würde.

Vertrauenswürdigkeit vs. Zuverlässigkeit von KI

Ein Kernthema der Studie ist die Unterscheidung zwischen Vertrauenswürdigkeit und Zuverlässigkeit von KI. Vertrauenswürdigkeit impliziert eine emotionale oder normative Verpflichtung, die KI nicht erfüllen kann. Zuverlässigkeit hingegen bezieht sich auf die Fähigkeit der KI, bestimmte Aufgaben konsequent und sicher auszuführen. Ryan plädiert dafür, den Fokus weg von der „vertrauenswürdigen KI“ hin zur „zuverlässigen KI“ zu verlagern.

Es wird argumentiert, dass KI-Technologien nach den gängigsten Definitionen von Vertrauen nicht als vertrauenswürdig angesehen werden können. Dies liegt daran, dass KI weder emotionale Zustände besitzt noch für ihre Handlungen verantwortlich gemacht werden kann. Ryan stellt dabei klar, dass Vertrauen in der menschlichen Beziehung eine bedeutende Rolle spielt und dass das Anwenden dieses Konzepts auf KI problematisch ist.

Vertrauen und KI

In der Studie wird Vertrauen auf drei Hauptkonten betrachtet: rational, affektiv und normativ.

  1. Rationales Vertrauen: Dies bezieht sich auf die logische Abwägung von Vor- und Nachteilen bei der Entscheidung, ob man jemandem oder etwas vertrauen sollte. KI erfüllt zwar die Anforderungen des rationalen Vertrauens, da es lediglich um die Zuverlässigkeit geht, nicht aber um emotionale oder normative Aspekte.
  2. Affektives Vertrauen: Beim affektiven Vertrauen geht es um das Vertrauen in und den Glauben an den guten Willen des Anderen. KI fehlt es an dieser Fähigkeit, da sie keine emotionale Verbundenheit oder Motivation besitzt, auf die sich affektives Vertrauen stützen könnte.
  3. Normatives Vertrauen: Das normative Vertrauen impliziert, dass der Treuhänder für seine Handlungen verantwortlich ist, was bei KI nicht der Fall ist. KI kann keine moralische Verantwortung für ihre Aktionen übernehmen, was eine wesentliche Voraussetzung für normatives Vertrauen ist.

Besser keine Vertrauenswürdigkeit verlangen

Die Studie kommt zu dem Schluss, dass KI zwar zuverlässig in dem Sinne sein kann, dass sie konsistente und vorhersagbare Ergebnisse liefert, jedoch nicht vertrauenswürdig im zwischenmenschlichen Sinne.

Stattdessen sollte der Fokus auf der Zuverlässigkeit der KI liegen und nicht auf einem falsch platzierten Vertrauen, das die menschlichen Aspekte des Vertrauens untergräbt. Die Verantwortung sollte vielmehr bei den Entwicklern und Nutzern der KI liegen, anstatt der KI selbst menschliche Eigenschaften wie Vertrauenswürdigkeit zuzuschreiben.


Ethik, KI und menschliche Verantwortung

Ein weiterer wichtiger Punkt der Studie betrifft die Verantwortung im Umgang mit KI. Es wird betont, dass die Verantwortung für die Entwicklung, den Einsatz und die Nutzung von KI bei den Menschen liegt, die diese Technologien entwickeln und verwenden. Die Charakterisierung von KI als vertrauenswürdig könnte dazu führen, dass von dieser menschlichen Verantwortung abgelenkt wird.

Fazit

Insgesamt lehnt die Studie die Position ab, dass KI-Technologie als vertrauenswürdig angesehen werden sollte. Vielmehr sollte der Schwerpunkt auf der Sicherstellung liegen, dass Organisationen und Individuen, die KI entwickeln und nutzen, vertrauenswürdig sind. Dies impliziert, dass die Gesellschaft und die Wissenschaft eine größere Verantwortung für den ethischen Einsatz von KI übernehmen müssen.

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)

Veröffentlicht von

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)

Ich beschäftige mich intensiv im technologischen Bereich mit Fragen der Softwareentwicklung, KI und Robotik - nicht nur als Jurist, sondern eben auch selbst als Entwickler. In diesem Blog teile ich Inhalte vor allem rund um Robotik bzw. Roboterrecht und ergänzend zum Thema KI. Von mir werden Unternehmen im gesamten IT-Recht beraten und vertreten.