Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM)

Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.

Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesen

Einsatz von Generativer KI bei Penetrationstests

In dem Forschungsartikel „Generative AI for Pentesting: The Good, The Bad, The Ugly“ wird der Einsatz von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs) im Kontext von Penetrationstests untersucht. Die Studie bietet eine umfassende Analyse der Vorteile, Herausforderungen und Risiken, die mit dem Einsatz von GenAI in der Cybersecurity verbunden sind.

Einsatz von Generativer KI bei Penetrationstests weiterlesen

Beratungspflichten eines Verkäufers

Auch wenn man einfach nur Produkte verkauft, kann man von Beratungspflichten gegenüber dem Käufer betroffen sein. Speziell im Bereich des Verkaufs spezialisierter Maschinen kann diese Situation eintreten – und zu undankbaren Ergebnissen führen. Speziell wenn Verkäufer tätig sind, die Maschinen wie „sauer Bier“ anpreisen und am (erkennbaren) Bedarf des Käufers vorbei verkaufen.

Im Fokus stehen im Folgenden zwei ältere Gerichtsentscheidungen zu den Beratungspflichten eines Verkäufers: das Urteil des BGH vom 23.07.1997 (VIII ZR 238/96) und der Hinweisbeschluss des LG Dortmund vom 18.01.2018 (1 S 188/17).

Beratungspflichten eines Verkäufers weiterlesen

Neue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken

In einer Welt, in der Bitcoin und andere Kryptowährungen zunehmend von Cyberkriminellen für illegale Aktivitäten genutzt werden, ist es entscheidend, wirksame Methoden zur Aufdeckung und Analyse dieser kriminellen Finanznetzwerke zu entwickeln.

Eine spannende Analyse des IMDEA Software Institute, veröffentlicht im Oktober 2022, präsentiert eine innovative Methode namens „Back-and-Forth Exploration“ zur Nachverfolgung von Bitcoin-Transaktionen. Diese Technik ermöglicht es, finanzielle Beziehungen innerhalb von Cyberkriminalitätskampagnen und zu externen Diensten und anderen kriminellen Kampagnen aufzudecken

Neue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken weiterlesen

Robotersicherheit

Die Welt der Robotik entwickelt sich rasant weiter und mit ihr die Art und Weise, wie Roboter gebaut und eingesetzt werden. Moderne Roboter unterscheiden sich deutlich von ihren Vorgängern. Statt monolithischer Entitäten, die für spezifische Aufgaben konstruiert wurden, entstehen heute modularere, flexiblere Systeme.

Diese Entwicklung bringt neue Herausforderungen mit sich, insbesondere in Bezug auf die Cybersicherheit und die Wahrung der Integrität der Roboterkörper. Eine neue Studie von Alberto Giaretta und Amy Loutfi an der Örebro Universität in Schweden beleuchtet genau diese Themen und bietet einen umfassenden Einblick in die Zukunft der Robotersicherheit.

Robotersicherheit weiterlesen

Large Language Models (LLM)

Ein LLM, oder „Large Language Model“, ist ein fortschrittliches Computerprogramm, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren. LLMs kann man sich wie extrem erfahrene Bibliothekare vorstellen, die in einer riesigen Bibliothek mit einer Unmenge an Büchern und Texten arbeiten. Diese Bibliothekare haben so viele Texte gelesen, dass sie sehr gut darin geworden sind, Fragen zu beantworten, Texte zu schreiben und sogar Gespräche zu führen, die sich fast wie mit einem echten Menschen anfühlen.

Large Language Models (LLM) weiterlesen

LLM und OSINT

In der Studie „Evaluation of LLM Chatbots for OSINT-based Cyber Threat Awareness“ von Samaneh Shafee, Alysson Bessani und Pedro M. Ferreira wird detailliert auf die Funktionen von Large Language Models (LLMs) eingegangen, die für Open Source Intelligence (OSINT) im Kontext der Cyberbedrohungserkennung verwendet werden.

Die Autoren untersuchen die Leistungsfähigkeit verschiedener Chatbot-Modelle, darunter ChatGPT, GPT4all, Dolly, Stanford Alpaca, Alpaca-LoRA, Falcon und Vicuna, in Bezug auf binäre Klassifikation und Named Entity Recognition (NER) Aufgaben, die unter Verwendung von OSINT durchgeführt werden.

LLM und OSINT weiterlesen

Großmodelle Natürlicher Sprachen (LLMs) im Cybersicherheitskontext

In der Welt der Cybersicherheit, die sich ständig weiterentwickelt und mit neuen Herausforderungen konfrontiert sieht, stellt der Einsatz von Großmodellen natürlicher Sprachen (LLMs) eine innovative Entwicklung dar. Eine Studie von Gabriel de Jesus Coelho da Silva und Carlos Becker Westphall an der Universida de Federal de Santa Catarina untersucht, wie LLMs im Bereich der Cybersicherheit eingesetzt werden können, welche Methoden dabei angewendet werden und wo diese Modelle ihre Stärken und Grenzen haben.

Großmodelle Natürlicher Sprachen (LLMs) im Cybersicherheitskontext weiterlesen

Die Zukunft der Pflegerobotik: Intentionserkennung zur Vermeidung gefährlicher Situationen

In einer Zeit, in der die Pflege alter oder hilfsbedürftiger Menschen zunehmend durch technologische Lösungen unterstützt wird, rückt die Interaktion zwischen Mensch und Roboter immer stärker in den Fokus der Forschung.

Ein wichtiger Aspekt dabei ist die Fähigkeit von Pflegerobotern, menschliche Intentionen zu erkennen und gefährliche Situationen zu vermeiden. Eine Studie von Noe Zapata et al. untersucht, wie Roboter menschliche Absichten interpretieren und proaktiv handeln können, um potenzielle Gefahren abzuwenden.

Die Zukunft der Pflegerobotik: Intentionserkennung zur Vermeidung gefährlicher Situationen weiterlesen

Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung

Generative Künstliche Intelligenz (GenAI) hat das Potenzial, den Kampf gegen Korruption zu revolutionieren und die Integrität in der Regierung zu stärken. Der OECD-Bericht „Generative AI for Anti-Corruption and Integrity in Government“ beleuchtet die Chancen und Herausforderungen der Nutzung von GenAI und großen Sprachmodellen (LLMs) durch Regierungsakteure, die sich der Integrität und Korruptionsbekämpfung widmen. In diesem Beitrag werden die wichtigsten Erkenntnisse des Berichts vorgestellt.

Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung weiterlesen