Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM)

Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.

Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesen

Cybercrime: Wie Unternehmen mit Ransomware erpresst werden

Die Polizei Aachen hat eine recht beachtliche Pressemitteilung zum Umgang mit Cybercrime für Unternehmen herausgegeben, die auch hier aufgenommen wird. Man kann nicht genug betonen, wie wichtig es ist, hier nicht zu blauäugig zu sein – Mitarbeiter sind ein erhebliches Einfallstor für Angreifer, etwa über Fake-Support-Anrufe und natürlich mit den modernen Bestell-Maschen.

Cybercrime: Wie Unternehmen mit Ransomware erpresst werden weiterlesen

Strafbarkeit von Botnetzwerk

Strafbarkeit von Botnetzwerk: In einem Beschluss hat sich der Bundesgerichtshof (1 StR 16/15) zur Frage der Strafbarkeit beim Betrieb eines Botnetzwerks geäußert. Die Entscheidung bietet zum einen nochmals vertieften Einblick in die Voraussetzungen des §202a StGB; zum anderen wird nochmals überdeutlich aufgezeigt, mit welchen Schwächen im Bereich des IT-Strafrechts selbst bei Landgerichten zu rechnen ist.

Strafbarkeit von Botnetzwerk weiterlesen