Autonome Polizeirobotik: Chinesischer Polizeiroboter RT-G als dystopischer Ausblick?

In China wurde ein neuer, kugelförmiger Polizeiroboter mit der Bezeichnung RT-G vorgestellt, der in verschiedenen urbanen und außerurbanen Szenarien operieren kann. Dieses autonome Gerät wiegt 125 kg, erreicht Geschwindigkeiten von bis zu 35 km/h und ist sowohl an Land als auch im Wasser einsatzfähig. Entwickelt von der chinesischen Firma Logon Technology, kombiniert der RT-G modernste Robotik mit Künstlicher Intelligenz (KI), was eine bisher unerreichte Funktionalität in der Polizeiarbeit ermöglicht. Man sieht es hier in einem Video.

Ausstattung und Fähigkeiten des RT-G

Der RT-G ist mit einer Vielzahl an Sensoren und Mechanismen ausgestattet, darunter:

  • KI-gestützte Gesichtserkennung: Die integrierte Software kann Verdächtige durch den Abgleich mit Polizeidatenbanken identifizieren.
  • Nicht-tödliche Waffen: Der Roboter verfügt über Netzwerfer, Tränengassprayer und Schallwaffen zur Kontrolle von Menschenmengen.
  • Geländefähigkeit: Dank seines robusten Designs kann der RT-G durch Wasser, Schlamm und unebenes Terrain navigieren.
  • Autonomes Verhalten: Mithilfe von KI ist der RT-G in der Lage, Bewegungsmuster und verdächtiges Verhalten zu erkennen und entsprechende Aktionen einzuleiten, wie das Rufen menschlicher Verstärkung oder die Aktivierung seiner eigenen Sicherheitsmechanismen.

Die runde Bauweise sorgt für Stabilität und macht den Roboter nahezu unzerstörbar. Selbst ein Aufprall von bis zu vier Tonnen soll ihm nichts anhaben können. Diese robuste Konstruktion wird von einem gyroskopischen Stabilisierungssystem unterstützt, das es dem Roboter erlaubt, flexibel zu manövrieren, ohne umzukippen.

Autonome Polizeirobotik: Chancen und Risiken

Die Einsatzmöglichkeiten des RT-G sind beeindruckend, doch werfen sie gleichzeitig tiefgreifende rechtliche und ethische Fragen auf. In Europa und insbesondere in Deutschland würden derartige Entwicklungen eine intensive juristische und gesellschaftliche Diskussion erfordern.

  1. Autonome Entscheidungen und die Grundrechte
    Der RT-G ist in der Lage, autonome Entscheidungen über Maßnahmen wie das Festsetzen oder Überwachen von Personen zu treffen. Hier stellt sich die Frage, ob solche Entscheidungen mit den Grundprinzipien von Demokratie und Rechtsstaatlichkeit vereinbar sind. Insbesondere die Möglichkeit, dass „Nicht-Menschen“ über bürgerliche Freiheiten entscheiden, birgt erhebliche Risiken für die Grundrechte.
  2. Transparenz und Verantwortlichkeit
    Welche Mechanismen stellen sicher, dass Entscheidungen des RT-G nachvollziehbar sind? Wer haftet im Falle von Fehlentscheidungen oder Missbrauch durch Manipulation der Software? Transparente Algorithmen und eine klare Aufsicht durch unabhängige Stellen sind essenziell.
  3. Eskalation durch autonome Technologie
    Der RT-G besitzt eine umfangreiche Ausstattung an nicht-tödlichen Waffen. Dies wirft die Frage auf, ob solche Technologien zu einer unnötigen Eskalation von Konflikten führen können. Ein autonomer Einsatz von Waffen durch Maschinen erinnert an dystopische Szenarien wie den Science-Fiction-Film „Robocop“ – mit dem Unterschied, dass wir heute weit über die damalige Filmfiktion hinausgegangen sind.

Der rechtliche Rahmen in der EU und Deutschland

Die EU verfolgt mit der KI-Verordnung (AI Act) bereits einen Ansatz zur Regulierung autonomer Systeme. Doch reicht das aus? Der Einsatz von autonomen Polizeirobotern würde zusätzliche Anforderungen stellen, etwa:

  • Eine klare Definition, welche Aufgaben durch Maschinen und welche zwingend durch Menschen auszuführen sind.
  • Strenge Kontrollen zur Überwachung und Begrenzung autonomer Eingriffe in Grundrechte.
  • Transparente Entscheidungsprozesse, die durch unabhängige Prüfstellen überwacht werden.

Die Beschreibung der von der chinesischen Polizei eingesetzten Roboter („RT-G“) zeigt eine Kombination von fortschrittlichen KI-Technologien, einschließlich autonomer Navigation, Gesichtserkennung, Verhaltensanalyse und nicht-letalen Waffen wie Netzwurfgeräten und Tränengaskanonen. Diese Systeme dürften durch den EU AI Act reguliert werden, insbesondere im Bereich „Hochrisiko-KI-Systeme“ für Strafverfolgung. Dazu eine kurze Betrachtung der Konformität mit dem AI Act:

  1. Anwendungsbereich des AI Acts:
    • Der AI Act gilt für KI-Systeme, die in der EU verwendet werden oder deren Output in der EU verarbeitet wird, unabhängig davon, ob sie außerhalb entwickelt wurden.
      • Systeme, die zur Strafverfolgung eingesetzt werden, fallen insbesondere unter die Regelungen zu „hochriskanten Anwendungen“.
  2. Hochrisiko-Kategorisierung:
    • KI-Systeme zur „biometrischen Identifizierung“ (z. B. Gesichtserkennung) oder zur Analyse von Verhaltensmustern in öffentlich zugänglichen Räumen sind explizit als Hochrisikoanwendungen definiert und unterliegen strengen Auflagen.
    • Der RT-G-Roboter mit seiner Gesichtserkennungs- und Bedrohungsanalyse-Software würde zweifellos unter diese Kategorie fallen.
  3. Verbotene Praktiken:
    • Der AI Act verbietet KI-Anwendungen, die Menschen unbewusst manipulieren oder soziale Kontrolle ausüben, etwa durch „Social Scoring“ oder unerlaubte biometrische Kategorisierung.
    • Sollten die RT-G-Systeme Merkmale aufweisen, die auf manipulative oder diskriminierende Weise Daten analysieren, könnten sie unter diese Verbote fallen.
  4. Transparenz- und Dokumentationspflichten:
    • Für Hochrisiko-Systeme gibt es umfangreiche Anforderungen an technische Dokumentation, Risikoanalysen und menschliche Aufsicht.
    • Entwickler und Betreiber des RT-G-Roboters müssten daher detaillierte Nachweise über die Sicherheit, Robustheit und Vertrauenswürdigkeit ihrer Systeme vorlegen.
  5. Grundrechte und Datenschutz:
    • Systeme zur biometrischen Identifizierung in Echtzeit dürfen nur unter strengsten Bedingungen und mit gerichtlicher Genehmigung eingesetzt werden, um Datenschutz- und Grundrechtsverletzungen zu vermeiden.
    • Der Einsatz der RT-G-Roboter könnte hier problematisch sein, insbesondere bei der Überwachung von Menschenmengen oder der Verfolgung Verdächtiger ohne richterliche Kontrolle.

Andererseits ist es gerade „nur“ ein Hochrisiko-System und eben nicht ein generell verbotenes Szenario: Ich hatte bei Art. 5 (1c) überlegt, ob es passt, wenn hier von „Einsatz von KI-Systemen zur Bewertung oder Klassifizierung natürlicher Personen oder Personengruppen über einen bestimmten Zeitraum hinweg auf der Grundlage ihres Sozialverhaltens“ gesprochen wird. Allerdings sind die ergänzenden Abwägungen und i/ii gerade nicht im Weg stehend bei vermutetend Straftaten.

Auch Art. 5 (1d) „zu diesem speziellen Zweck oder die Verwendung eines KI-Systems für Risikobewertungen natürlicher Personen, um das Risiko, dass eine natürliche Person eine Straftat begeht, zu bewerten“ passt nicht, da ein eventuelles Vorgehen eben nicht „auf der Grundlage der Erstellung eines Profils einer natürlichen Person oder der Bewertung ihrer Persönlichkeitsmerkmale und Eigenschaften“ beruht. Allerdings könnte man das anders sehen, wenn die durch den biometrischen Abgleich erkannten Vorstrafen zu einem schnelleren Eingreifen aufgrund einer berechneten höheren Wahrscheinlichkeit einer Straftat führen. Hier sieht man zugleich, dass Argumentationsmuster komplex werden.

Strafverteidiger Jensferner

Aus Sicht der freiheitlichen Grundordnungen in der EU wäre es klug, frühzeitig in Diskussionen dazu einzusteigen, was wir uns hier vorstellen können als Lösung und was nicht: Es ist absehbar, dass schon wegen der gesteigerten Einsatzsicherheit und personellen Entlastung aus dem Bereich der inneren Sicherheit schnell Rufe nach solchen „Lösungen“ kommen.


Fazit: Zukunft gestalten, nicht (ab)warten

Robotik kommt auf unsere Straßen, wenn auch (noch) nicht wie in „I Robot“: Die Entwicklungen rund um RT-G zeigen, dass die Zukunft der Polizeiarbeit zunehmend von Technologie beeinflusst wird. Es ist an der Zeit, proaktiv darüber nachzudenken, wie diese Technologien gestaltet und reguliert werden können, um Sicherheit und Grundrechte gleichermaßen zu gewährleisten. Dabei sollte immer gelten: Menschliche Verantwortung darf nicht durch Maschinen ersetzt werden – weder bei der Polizei noch bei der Justiz.

Ein Szenario wie das chinesische RT-G-System wäre in der EU nur unter erheblichen Einschränkungen und strengen Auflagen denkbar, aber wohl nicht zwingend verboten. Solche Systeme müssten nachweisen, dass sie den umfangreichen Anforderungen des AI Act insbesondere hinsichtlich Transparenz, Sicherheit und Grundrechtsschutz genügen. Einige der derzeit (vage) beschriebenen Funktionen, wie z.B. der mögliche Einsatz von Echtzeit-Gesichtserkennung oder Verhaltensanalyse ohne angemessene Überwachung, wären in der EU wahrscheinlich dennoch unzulässig.

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)
Letzte Artikel von Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht) (Alle anzeigen)

Veröffentlicht von

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)

Ich beschäftige mich intensiv im technologischen Bereich mit Fragen der Softwareentwicklung, KI und Robotik - nicht nur als Jurist, sondern eben auch selbst als Entwickler. In diesem Blog teile ich Inhalte vor allem rund um Robotik bzw. Roboterrecht und ergänzend zum Thema KI. Von mir werden Unternehmen im gesamten IT-Recht beraten und vertreten.