Vorsicht bei Studien zu großen Sprachmodellen (LLMs)

Eine frühere Studie mit dem Titel „Physics of Language Models: Part 2.1, Grade-School Math and the Hidden Reasoning Process“, stellte die Leistungsfähigkeit von Transformer-Modellen bei der Lösung elementarer mathematischer Textaufgaben in den Mittelpunkt. Diese Arbeit behauptet, tiefgreifende Einsichten in die Fähigkeiten von großen Sprachmodellen (LLMs) zu liefern.

Jedoch zeigt eine kritische Analyse von Ernest Davis von der New York University, dass diese Studie ein hervorragendes Beispiel dafür ist, wie vorsichtig man bei der Bewertung und Interpretation von Forschungsergebnissen im Bereich der LLMs sein muss.

Vorsicht bei Studien zu großen Sprachmodellen (LLMs) weiterlesen

Angriffsszenarien auf LLM durch Formulierung in Vergangenheitsform

In einer kürzlich durchgeführten Studie haben Forscher der EPFL (Eidgenössische Technische Hochschule Lausanne) eine interessante Schwachstelle in den aktuellen Ablehnungsmechanismen von großen Sprachmodellen (Large Language Models, LLMs) aufgedeckt.

Diese Schwachstelle ermöglicht es, die Sicherheitsvorkehrungen vieler LLMs zu umgehen, indem man gefährliche Anfragen einfach in die Vergangenheitsform umformuliert. Dieser Blog-Beitrag beleuchtet die Ergebnisse der Studie und deren Implikationen für die Zukunft der LLM-Sicherheit.

Angriffsszenarien auf LLM durch Formulierung in Vergangenheitsform weiterlesen

Generative KI – Risiken und Missbrauch

Generative, multimodale Künstliche Intelligenz (GenAI) hat das Potenzial, viele Branchen zu revolutionieren. Doch genauso groß wie die Möglichkeiten sind auch die Risiken, die durch den Missbrauch dieser Technologie entstehen. Eine kürzlich veröffentlichte Studie beleuchtet die verschiedenen Taktiken des Missbrauchs von GenAI und gibt wertvolle Einblicke und Empfehlungen. Hier sind die wichtigsten Erkenntnisse und Empfehlungen aus dieser Studie.

Generative KI – Risiken und Missbrauch weiterlesen

Regulierung von künstlicher Intelligenz durch den AI-Act (KI-Verordnung)

Die KI-Verordnung (der „AI Act“) reguliert Entwicklung, Vertrieb und Einsatz von KI. Nun bringen es EU-Regeln mit sich, äußerst umfangreich und komplex zu sein – zwar bieten sich hier viele Hilfen beim Verständnis des Textes, aber gerade Laien sind schnell überfordert, die wesentlichen ersten Infos systematisch zu erfassen.

Im Folgenden möchte ich eine kleine Hilfestellung geben, zum Orientieren für diejenigen, die sich mit der Entwicklung von KI beschäftigen.

Regulierung von künstlicher Intelligenz durch den AI-Act (KI-Verordnung) weiterlesen

LLM-Hacking: Ein Überblick über Angriffstechniken und -szenarien

Das sogenannte „LLM-Hacking“ bezieht sich auf Techniken und Strategien, um diese Modelle zu manipulieren oder ihre Funktionen auf unvorhergesehene Weise zu nutzen.

Große Sprachmodelle sind in gewisser Hinsicht besonders gefahrgeneigt, weil diese versuchen autonom zu agieren und dabei notwendigerweise auf Eingaben von Außen angewiesen sind: Mal durch die Aufgaben, die ihnen erteilt werden, mal durch Daten, mit denen sie gefüttert werden. Die zunehmende Verbreitung von LLM sollte dabei Anlass sein, sich mit grundsätzlichem Wissen zur Cybersicherheit bei LLM auseinanderzusetzen. Im Folgenden möchte ich darum als Einstieg verständlich darauf eingehen, was LLM-Hacking ist und typische Angriffsszenarien beschreiben.

LLM-Hacking: Ein Überblick über Angriffstechniken und -szenarien weiterlesen

Datenschutzrecht und Künstliche Intelligenz: Herausforderungen und Lösungsansätze

Die Integration von Künstlicher Intelligenz (KI) in zahlreiche Lebensbereiche bringt immense Vorteile mit sich, stellt aber auch erhebliche Herausforderungen im Bereich des Datenschutzrechts dar. Insbesondere die Datenschutz-Grundverordnung (DSGVO) spielt eine entscheidende Rolle bei der rechtlichen Regulierung von KI-Anwendungen.

Mein Beitrag versucht verständlich und nicht zu juristisch – übrigens im Rahmen unserer Reihe zu den rechtlichen Grundlagen bei Entwicklung und Einsatz von KI – die wesentlichen Anforderungen und praktischen Lösungen, um KI datenschutzkonform zu implementieren und zu betreiben.

Datenschutzrecht und Künstliche Intelligenz: Herausforderungen und Lösungsansätze weiterlesen

Studien zum Einsatz von LLM im juristischen Kontext

In den letzten Jahren haben Large Language Models (LLMs) erheblichen Einfluss auf viele Bereiche, einschließlich des Rechtswesens, genommen. Zwei kürzlich veröffentlichte Studien beleuchten die Verwendung von LLMs im juristischen Kontext, ihre Potenziale und die damit verbundenen Risiken.

Dieser Beitrag gibt einen Überblick über die Studien „Reliability of Leading AI Legal Research Tools“ und „Large Legal Fictions“, fasst die wesentlichen Erkenntnisse zusammen und diskutiert die Gefahren sowie Empfehlungen für den Einsatz von KI im juristischen Bereich.

Studien zum Einsatz von LLM im juristischen Kontext weiterlesen

Erkenntnisse über die menschliche Fähigkeit KI-generierte Medien zu identifizieren

KI-generierte Medien werden zu einer zunehmenden Herausforderung: Sie können in großem Maßstab automatisch erstellt werden, was zu einer Vielzahl von Fälschungen oder fehlerhaften Inhalten führt – zugleich aber können Sie das Erstellen von Inhalten drastisch unterstützen.

Trotz zahlreicher technischer Fortschritte bei der automatischen Erkennung solcher künstlichen Medien wurde die menschliche Wahrnehmung dieser Medien bisher nicht ausreichend untersucht. Dabei mehren sich (aus gutem Grund) inzwischen die Forschungspapiere zu der Frage, wie gut Menschen in der Lage sind, KI-generierte Inhalte zu erkennen.

Erkenntnisse über die menschliche Fähigkeit KI-generierte Medien zu identifizieren weiterlesen

Menschliche Verzerrungen in künstlichen Intelligenzen: Soziale Erwünschtheit in großen Sprachmodellen

Eine ganz neue Studie beleuchtet eine faszinierende Facette großer Sprachmodelle (LLMs): die Tendenz, sozial erwünschte Antworten zu generieren, wenn sie Persönlichkeitsumfragen ausgesetzt sind. Diese Erkenntnisse sind besonders relevant, da LLMs zunehmend dazu verwendet werden, menschliches Verhalten in simulierten Umgebungen nachzuahmen.

Menschliche Verzerrungen in künstlichen Intelligenzen: Soziale Erwünschtheit in großen Sprachmodellen weiterlesen

Risiken von PII-Leckagen beim Feintuning von GPT-3

Im Zuge der rasanten Entwicklung von Künstlicher Intelligenz (KI) und maschinellem Lernen stehen immer mehr leistungsstarke Modelle zur Verfügung, die auf spezifische Aufgaben zugeschnitten werden können. Ein prominentes Beispiel ist OpenAI’s GPT-3, ein generatives vortrainiertes Modell, das durch Feintuning an individuelle Anwendungsfälle angepasst werden kann.

Trotz der Vorteile dieser Anpassungen gibt es bedeutende Bedenken hinsichtlich der Sicherheit und des Datenschutzes, insbesondere im Hinblick auf das Risiko der Offenlegung personenbezogener Daten (PII). Eine aktuelle Forschungsarbeit untersucht diese Problematik eingehend.

Risiken von PII-Leckagen beim Feintuning von GPT-3 weiterlesen