Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen.
Haftung für Chatbot? weiterlesenKategorie: Künstliche Intelligenz
Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien
In der Forschungsarbeit „Assessing the risks and opportunities posed by AI-enhanced influence operations on social media“ von Rolf Fredheim und James Pamment wird ein tiefgreifendes Verständnis für die Risiken und Chancen von KI-gestützten Beeinflussungsoperationen in sozialen Medien dargelegt.
Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien weiterlesenEthik und KI
Im Folgenden möchte ich kurz das Kapitel „Approaches to Ethical AI“ aus dem Open-Access-Buch „Introduction to Digital Humanism“ von Erich Prem vorstellen. Das lesenswerte Kapitel bietet eine umfassende Analyse ethischer Fragestellungen in Bezug auf Künstliche Intelligenz (KI) und legt dar, wie diese Herausforderungen im Rahmen ethischer Rahmenwerke und Leitlinien angegangen werden.
Ethik und KI weiterlesenDer Missbrauch von Generativer KI und großen Sprachmodellen (LLM)
Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.
Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.
Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesenEinsatz von Generativer KI bei Penetrationstests
In dem Forschungsartikel „Generative AI for Pentesting: The Good, The Bad, The Ugly“ wird der Einsatz von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs) im Kontext von Penetrationstests untersucht. Die Studie bietet eine umfassende Analyse der Vorteile, Herausforderungen und Risiken, die mit dem Einsatz von GenAI in der Cybersecurity verbunden sind.
Einsatz von Generativer KI bei Penetrationstests weiterlesenNeue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken
In einer Welt, in der Bitcoin und andere Kryptowährungen zunehmend von Cyberkriminellen für illegale Aktivitäten genutzt werden, ist es entscheidend, wirksame Methoden zur Aufdeckung und Analyse dieser kriminellen Finanznetzwerke zu entwickeln.
Eine spannende Analyse des IMDEA Software Institute, veröffentlicht im Oktober 2022, präsentiert eine innovative Methode namens „Back-and-Forth Exploration“ zur Nachverfolgung von Bitcoin-Transaktionen. Diese Technik ermöglicht es, finanzielle Beziehungen innerhalb von Cyberkriminalitätskampagnen und zu externen Diensten und anderen kriminellen Kampagnen aufzudecken
Neue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken weiterlesenLarge Language Models (LLM)
Ein LLM, oder „Large Language Model“, ist ein fortschrittliches Computerprogramm, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren. LLMs kann man sich wie extrem erfahrene Bibliothekare vorstellen, die in einer riesigen Bibliothek mit einer Unmenge an Büchern und Texten arbeiten. Diese Bibliothekare haben so viele Texte gelesen, dass sie sehr gut darin geworden sind, Fragen zu beantworten, Texte zu schreiben und sogar Gespräche zu führen, die sich fast wie mit einem echten Menschen anfühlen.
Large Language Models (LLM) weiterlesenLLM und OSINT
In der Studie „Evaluation of LLM Chatbots for OSINT-based Cyber Threat Awareness“ von Samaneh Shafee, Alysson Bessani und Pedro M. Ferreira wird detailliert auf die Funktionen von Large Language Models (LLMs) eingegangen, die für Open Source Intelligence (OSINT) im Kontext der Cyberbedrohungserkennung verwendet werden.
Die Autoren untersuchen die Leistungsfähigkeit verschiedener Chatbot-Modelle, darunter ChatGPT, GPT4all, Dolly, Stanford Alpaca, Alpaca-LoRA, Falcon und Vicuna, in Bezug auf binäre Klassifikation und Named Entity Recognition (NER) Aufgaben, die unter Verwendung von OSINT durchgeführt werden.
LLM und OSINT weiterlesenGroßmodelle Natürlicher Sprachen (LLMs) im Cybersicherheitskontext
In der Welt der Cybersicherheit, die sich ständig weiterentwickelt und mit neuen Herausforderungen konfrontiert sieht, stellt der Einsatz von Großmodellen natürlicher Sprachen (LLMs) eine innovative Entwicklung dar. Eine Studie von Gabriel de Jesus Coelho da Silva und Carlos Becker Westphall an der Universida de Federal de Santa Catarina untersucht, wie LLMs im Bereich der Cybersicherheit eingesetzt werden können, welche Methoden dabei angewendet werden und wo diese Modelle ihre Stärken und Grenzen haben.
Großmodelle Natürlicher Sprachen (LLMs) im Cybersicherheitskontext weiterlesenGenerative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung
Generative Künstliche Intelligenz (GenAI) hat das Potenzial, den Kampf gegen Korruption zu revolutionieren und die Integrität in der Regierung zu stärken. Der OECD-Bericht „Generative AI for Anti-Corruption and Integrity in Government“ beleuchtet die Chancen und Herausforderungen der Nutzung von GenAI und großen Sprachmodellen (LLMs) durch Regierungsakteure, die sich der Integrität und Korruptionsbekämpfung widmen. In diesem Beitrag werden die wichtigsten Erkenntnisse des Berichts vorgestellt.
Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung weiterlesen