Die Robotik wird sich im Jahr 2025 als eine der treibenden Kräfte unserer Gesellschaft etablieren: Intelligente Maschinen finden nicht nur in der Industrie, sondern zunehmend auch im Alltag ihren Platz. Mit dieser Entwicklung entstehen sowohl Chancen als auch tiefgreifende Herausforderungen, die den Arbeitsmarkt, die gesellschaftliche Struktur und das Rechtssystem betreffen. Ein aktueller Beitrag im Handelsblatt dient mir als Aufhänger für ein paar frische Zeilen zu einem unterschätzten Thema mit erheblicher rechtlicher und gesellschaftspolitischer Brisanz.
Ära der Roboter – Wandel, Herausforderungen und Rechtliche Perspektiven weiterlesenAutor: Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)
Autonome Polizeirobotik: Chinesischer Polizeiroboter RT-G als dystopischer Ausblick?
In China wurde ein neuer, kugelförmiger Polizeiroboter mit der Bezeichnung RT-G vorgestellt, der in verschiedenen urbanen und außerurbanen Szenarien operieren kann. Dieses autonome Gerät wiegt 125 kg, erreicht Geschwindigkeiten von bis zu 35 km/h und ist sowohl an Land als auch im Wasser einsatzfähig. Entwickelt von der chinesischen Firma Logon Technology, kombiniert der RT-G modernste Robotik mit Künstlicher Intelligenz (KI), was eine bisher unerreichte Funktionalität in der Polizeiarbeit ermöglicht. Man sieht es hier in einem Video.
Autonome Polizeirobotik: Chinesischer Polizeiroboter RT-G als dystopischer Ausblick? weiterlesenEntwicklung der Robotik weltweit
Die Robotik erobert die Welt, wie die international Federation of Robotics berichtet: Mit über 4,28 Millionen installierten Einheiten in Fabriken weltweit erreicht die Automatisierung neue Dimensionen. Besonders Europa und Asien sind zentrale Akteure in dieser Entwicklung. Während Asien, allen voran China und Japan, ihre Marktführerschaft weiter ausbauen, setzt Europa auf regulatorische Exzellenz und technologische Innovation. Was bedeutet das für Wirtschaft, Recht und Gesellschaft in diesen Regionen?
Entwicklung der Robotik weltweit weiterlesenZukunft der Robotik: Einfluss des Data Act auf Innovation und rechtliche Rahmenbedingungen
Die fortschreitende Digitalisierung und Automatisierung prägen die heutige Arbeitswelt in einem noch nie dagewesenen Tempo. Besonders im Bereich der Robotik bietet diese Entwicklung großes Potenzial, da Roboter immer intelligenter und autonomer agieren können. Doch mit der rasanten technologischen Entwicklung entstehen auch rechtliche Herausforderungen, insbesondere im Umgang mit den riesigen Mengen an Daten, die solche Systeme generieren und nutzen.
Der Data Act und der Daten-Governance-Rechtsakt (Data Governance Act, DGA) der Europäischen Union sind zentrale Regelwerke, die nicht nur für den Datenschutz, sondern auch für die Förderung von Innovationen in der Robotik entscheidend sind.
Zukunft der Robotik: Einfluss des Data Act auf Innovation und rechtliche Rahmenbedingungen weiterlesenAllgemeine Überlegungen zu Robotern: Definitionen, Bewusstsein und Asimovs Gesetze
Die Definition und Abgrenzung von Robotern, insbesondere im Kontext von autonomen und intelligenten Robotern, ist entscheidend für die rechtliche und ethische Einordnung dieser Technologien. Während ein traditioneller Roboter in der Regel als eine Maschine verstanden wird, die vorprogrammierte Aufgaben ausführt, zeichnen sich autonome und intelligente Roboter durch ihre Fähigkeit aus, Entscheidungen auf Basis von Umgebungsdaten und Lernprozessen zu treffen.
Allgemeine Überlegungen zu Robotern: Definitionen, Bewusstsein und Asimovs Gesetze weiterlesenWhitepaper des BSI zur Transparenz von KI-Systemen
Nun, da Künstliche Intelligenz (KI) zunehmend in verschiedenen Bereichen Einzug hält, ist die Transparenz dieser Systeme von zentraler Bedeutung – auch in juristischer Hinsicht mit Blick auf die EU-KI-Verordnung. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat ein umfassendes Whitepaper veröffentlicht, das die Wichtigkeit und die Anforderungen an die Transparenz von KI-Systemen beleuchtet. Ich gehe kurz auf die Kernaussagen dieses Whitepapers vor und erläutern, warum Transparenz für die Akzeptanz und das Vertrauen in KI-Systeme essenziell ist.
Whitepaper des BSI zur Transparenz von KI-Systemen weiterlesenVorsicht bei Studien zu großen Sprachmodellen (LLMs)
Eine frühere Studie mit dem Titel „Physics of Language Models: Part 2.1, Grade-School Math and the Hidden Reasoning Process“, stellte die Leistungsfähigkeit von Transformer-Modellen bei der Lösung elementarer mathematischer Textaufgaben in den Mittelpunkt. Diese Arbeit behauptet, tiefgreifende Einsichten in die Fähigkeiten von großen Sprachmodellen (LLMs) zu liefern.
Jedoch zeigt eine kritische Analyse von Ernest Davis von der New York University, dass diese Studie ein hervorragendes Beispiel dafür ist, wie vorsichtig man bei der Bewertung und Interpretation von Forschungsergebnissen im Bereich der LLMs sein muss.
Vorsicht bei Studien zu großen Sprachmodellen (LLMs) weiterlesenModel Autophagy Disorder: Generative Modelle in der Selbstzerstörung?
In der modernen Welt der Künstlichen Intelligenz (KI) haben generative Modelle eine Revolution ausgelöst. Diese Modelle erzeugen Bilder, Texte und andere Datentypen, die zunehmend von Unternehmen und in Konsumentendiensten eingesetzt werden. Doch was passiert, wenn diese Modelle beginnen, sich selbst zu konsumieren? Die kürzlich durchgeführte Studie, „Self-Consuming Generative Models Go MAD“, beleuchtet diese Frage und liefert besorgniserregende Einblicke.
Model Autophagy Disorder: Generative Modelle in der Selbstzerstörung? weiterlesenKI-Lösungen am Scheideweg
Zweifel an der Wirtschaftlichkeit von KI: In jüngster Zeit haben kritische Stimmen die Wirtschaftlichkeit der KI-Branche infrage gestellt.
Ein bemerkenswerter Beitrag hierzu kam vom Hedgefonds Elliott, der in einem Brief an seine Kunden den Hype um künstliche Intelligenz als „überbewertet“ bezeichnete. Elliott argumentiert, dass viele KI-Anwendungen unausgereift seien und möglicherweise nie kosteneffizient funktionieren würden. Dies habe auch Auswirkungen auf den Aktienkurs von Nvidia und anderen großen Tech-Unternehmen, die stark in KI investieren.
KI-Lösungen am Scheideweg weiterlesenAngriffsszenarien auf LLM durch Formulierung in Vergangenheitsform
In einer kürzlich durchgeführten Studie haben Forscher der EPFL (Eidgenössische Technische Hochschule Lausanne) eine interessante Schwachstelle in den aktuellen Ablehnungsmechanismen von großen Sprachmodellen (Large Language Models, LLMs) aufgedeckt.
Diese Schwachstelle ermöglicht es, die Sicherheitsvorkehrungen vieler LLMs zu umgehen, indem man gefährliche Anfragen einfach in die Vergangenheitsform umformuliert. Dieser Blog-Beitrag beleuchtet die Ergebnisse der Studie und deren Implikationen für die Zukunft der LLM-Sicherheit.
Angriffsszenarien auf LLM durch Formulierung in Vergangenheitsform weiterlesen