Derzeit bestehende gesetzliche Regelungen in der EU zu Robotern: Die rasante Entwicklung in der Robotik und Künstlichen Intelligenz (KI) hat nicht nur die Industrie revolutioniert, sondern stellt auch die Gesetzgebung in Europa vor neue Herausforderungen.
So hat die EU erkannt, dass umfassende und zukunftsfähige gesetzliche Regelungen notwendig sind, um die Sicherheit und Rechte der Bürger zu schützen und gleichzeitig Innovationen zu fördern. Dieser Blogbeitrag gibt einen umfassenden Überblick über die derzeit bestehenden gesetzlichen Regelungen in der EU, die sich direkt oder indirekt auf Roboter und KI auswirken.
Maschinenrichtlinie und die neue Maschinenverordnung
Ein zentraler Bestandteil der Regulierung von Robotern in der EU ist die Maschinenrichtlinie 2006/42/EG, die im Januar 2027 von der neuen Europäischen Maschinenverordnung (EU) 2023/1230 abgelöst wird. Diese Verordnung stellt sicher, dass Maschinen, einschließlich solcher mit integrierter KI, nur dann auf den Markt gebracht werden dürfen, wenn sie den grundlegenden Sicherheits- und Gesundheitsschutzanforderungen entsprechen.
Die neue Maschinenverordnung erweitert den Anwendungsbereich der bisherigen Richtlinie, indem sie nun auch digitale Komponenten wie Software, die Sicherheitsfunktionen übernimmt, als Teil von Sicherheitsbauteilen anerkennt. Besonders relevant für Roboter ist, dass die Verordnung spezifische Konformitätsbewertungsverfahren für Maschinen und Sicherheitsbauteile mit KI vorsieht, insbesondere wenn diese ein „selbstentwickelndes Verhalten“ zeigen. Dies bedeutet, dass solche Technologien als Hochrisikoprodukte eingestuft werden und somit strengen Prüfungen unterzogen werden müssen.
Produkthaftung und Künstliche Intelligenz
Neben der Maschinenverordnung ist die Produkthaftung in der EU ein wesentliches Regulierungsinstrument, das auf Roboter angewendet wird. Die EU-Kommission hat erkannt, dass traditionelle Haftungsregelungen möglicherweise nicht ausreichen, um die komplexen Risiken, die mit autonomen Systemen und KI einhergehen, vollständig abzudecken. Daher wird derzeit eine Anpassung der Produkthaftungsrichtlinie diskutiert, um sicherzustellen, dass Hersteller auch dann haftbar gemacht werden können, wenn ihre Produkte aufgrund von KI-Fehlfunktionen Schäden verursachen.
Ein besonderes Augenmerk liegt dabei auf der Schwierigkeit, die genaue Ursache eines Fehlers in einem hochkomplexen System festzustellen, was als „Black-Box-Problem“ bekannt ist. Die EU erwägt hier spezielle Beweislastumkehrmechanismen, um Geschädigten den Zugang zu Entschädigungen zu erleichtern.
Datenschutzrechtliche Rahmenbedingungen
Ein weiteres bedeutendes Regelwerk, das die Nutzung von Robotern und KI betrifft, ist die Datenschutz-Grundverordnung (DSGVO). Da viele moderne Roboter mit Sensoren und Kameras ausgestattet sind, die personenbezogene Daten erfassen können, unterliegen sie strengen Datenschutzanforderungen. Insbesondere müssen Betreiber von Robotern sicherstellen, dass die Datenverarbeitung rechtmäßig erfolgt und den Grundsätzen der Datensparsamkeit und Zweckbindung entspricht. Hier besteht eine Herausforderung darin, sicherzustellen, dass automatisierte Systeme die Rechte der Betroffenen, wie das Recht auf Auskunft oder Löschung, effektiv wahren können.
Arbeitsrechtliche Implikationen
Die Einführung von Robotern in der Arbeitswelt wirft zudem wichtige arbeitsrechtliche Fragen auf. Die EU hat erkannt, dass der Einsatz von Robotern, insbesondere in der Fertigung und Logistik, zu erheblichen Veränderungen im Arbeitsmarkt führen kann. Deshalb werden Regelungen zur Mitbestimmung und zur Sicherung von Arbeitsplätzen immer wichtiger. Insbesondere der Arbeitsschutz wird durch die Maschinenverordnung adressiert, die sicherstellen soll, dass Maschinen und Roboter so gestaltet sind, dass sie die Gesundheit der Beschäftigten nicht gefährden.
Darüber hinaus diskutiert die EU Möglichkeiten, neue Arbeitsformen, wie das Crowdworking oder den Einsatz von Exoskeletten, rechtlich besser abzusichern, um die Rechte der Arbeitnehmer auch in einer digitalisierten Arbeitswelt zu wahren.
Spezielle Regelungen für autonome Systeme und KI
Die EU hat erkannt, dass autonome Systeme und KI eigene regulatorische Herausforderungen darstellen. Der Vorschlag für eine Verordnung über Künstliche Intelligenz, der parallel zur neuen Maschinenverordnung entwickelt wurde, zielt darauf ab, eine einheitliche Regelung für den Einsatz von KI in der EU zu schaffen. Diese Verordnung sieht vor, KI-Systeme je nach ihrem Risiko in unterschiedliche Kategorien einzuteilen, wobei Hochrisiko-KI-Systeme besonders strengen Anforderungen unterliegen. Dazu gehören Anforderungen an Transparenz, Sicherheit, und den Schutz der Grundrechte.
Diese Regelungen sollen sicherstellen, dass KI-Systeme sicher und transparent eingesetzt werden und dass ihre Entscheidungen nachvollziehbar bleiben. Für den Einsatz von Robotern, die auf KI basieren, bedeutet dies, dass sie strenge Zertifizierungsprozesse durchlaufen müssen, bevor sie in sensiblen Bereichen wie Gesundheit, Verkehr oder Strafverfolgung eingesetzt werden dürfen.
Ausblick
Die derzeitigen gesetzlichen Regelungen in der EU bilden einen umfassenden Rahmen, um den sicheren Einsatz von Robotern und KI zu gewährleisten. Die Maschinenverordnung, die Produkthaftungsrichtlinie, die DSGVO und arbeitsrechtliche Bestimmungen sorgen dafür, dass die Risiken, die mit dem Einsatz dieser Technologien verbunden sind, minimiert werden.
Gleichzeitig fördern sie Innovationen, indem sie klare, aber flexible Regeln aufstellen, die sich an die rasanten technischen Entwicklungen anpassen können. Die zukünftigen Herausforderungen werden darin bestehen, diese Regelungen weiter zu präzisieren und gegebenenfalls neue, spezifische Regelungen zu entwickeln, um den fortschreitenden technologischen Entwicklungen gerecht zu werden.
- Zukunft der Robotik: Einfluss des Data Act auf Innovation und rechtliche Rahmenbedingungen - Oktober 4, 2024
- Allgemeine Überlegungen zu Robotern: Definitionen, Bewusstsein und Asimovs Gesetze - August 18, 2024
- Whitepaper des BSI zur Transparenz von KI-Systemen - August 16, 2024