Risiken von PII-Leckagen beim Feintuning von GPT-3

Im Zuge der rasanten Entwicklung von Künstlicher Intelligenz (KI) und maschinellem Lernen stehen immer mehr leistungsstarke Modelle zur Verfügung, die auf spezifische Aufgaben zugeschnitten werden können. Ein prominentes Beispiel ist OpenAI’s GPT-3, ein generatives vortrainiertes Modell, das durch Feintuning an individuelle Anwendungsfälle angepasst werden kann.

Trotz der Vorteile dieser Anpassungen gibt es bedeutende Bedenken hinsichtlich der Sicherheit und des Datenschutzes, insbesondere im Hinblick auf das Risiko der Offenlegung personenbezogener Daten (PII). Eine aktuelle Forschungsarbeit untersucht diese Problematik eingehend.

Risiken von PII-Leckagen beim Feintuning von GPT-3 weiterlesen

LLM und OSINT

In der Studie „Evaluation of LLM Chatbots for OSINT-based Cyber Threat Awareness“ von Samaneh Shafee, Alysson Bessani und Pedro M. Ferreira wird detailliert auf die Funktionen von Large Language Models (LLMs) eingegangen, die für Open Source Intelligence (OSINT) im Kontext der Cyberbedrohungserkennung verwendet werden.

Die Autoren untersuchen die Leistungsfähigkeit verschiedener Chatbot-Modelle, darunter ChatGPT, GPT4all, Dolly, Stanford Alpaca, Alpaca-LoRA, Falcon und Vicuna, in Bezug auf binäre Klassifikation und Named Entity Recognition (NER) Aufgaben, die unter Verwendung von OSINT durchgeführt werden.

LLM und OSINT weiterlesen

Künstliche Intelligenz in der Polizeiarbeit verlangt ein Umdenken

Der Einsatz künstlicher Intelligenz im Bereich der Arbeit von Ermittlern findet längst statt, mal unmittelbar als Modellprojekt, mal mittelbar, wenn Unternehmen von sich aus „intelligent“ nach Inhalten suchen. Die Frage ist, welche Auswirkungen dies auf den prozessualen Umgang haben soll, mit den Ergebnissen, die solche Techniken zutage fördern.

Künstliche Intelligenz in der Polizeiarbeit verlangt ein Umdenken weiterlesen