Schutz von KI

Kann künstliche Intelligenz als solche rechtlich geschützt werden? Die Frage ist keineswegs trivial – und von erheblicher wirtschaftlicher Bedeutung: Die rechtliche Problematik und Notwendigkeit des Schutzes von Datensätzen in diesem Zusammenhang liegt auf der Hand.

In einer digitalisierten Wirtschaft, in der Daten zunehmend als wertvolles Wirtschaftsgut betrachtet werden, ist der rechtliche Schutz z.B. von Datenbeständen, aber auch von Software, die mit diesen Daten arbeitet, von entscheidender Bedeutung. Nur so kann aus hiesiger Sicht die Frage der Schutzfähigkeit von KI durch eine getrennte Betrachtung von Datenbeständen und Software beantwortet werden.

Schutz von KI weiterlesen

Künstliche Intelligenz in der Cybersicherheit: Autonome Nutzung von One-Day-Vulnerabilities

Eine aktuelle Studie zum Thema künstliche Intelligenz und Cybersicherheit zeigt auf, dass große Sprachmodelle (LLMs), insbesondere GPT-4, in der Lage sind, sogenannte One-Day-Vulnerabilities autonom zu nutzen. Dies wirft wichtige Fragen über die Sicherheit und die ethischen Aspekte des Einsatzes dieser Technologien auf.

Künstliche Intelligenz in der Cybersicherheit: Autonome Nutzung von One-Day-Vulnerabilities weiterlesen

Rechtliche Besonderheiten bei Software as a Service (SaaS) Verträgen- speziell KIaaS

Im digitalen Zeitalter, in dem Cloud-Dienste zunehmend an Bedeutung gewinnen, stellt Software as a Service (SaaS) eine bedeutende Facette dar. Im Folgenden geht es um die rechtlichen Nuancen, die sowohl Anbieter als auch Nutzer von SaaS-Lösungen beachten sollten, speziell mit Blick auf „KI as a Service“ (KIaaS).

Rechtliche Besonderheiten bei Software as a Service (SaaS) Verträgen- speziell KIaaS weiterlesen

UniVaR – Ein neuer Ansatz zur Wertedarstellung in großen Sprachmodellen

In der dynamischen Welt der künstlichen Intelligenz haben große Sprachmodelle (LLMs) wie GPT-3 und BERT revolutionäre Fortschritte gemacht. Diese Modelle werden in verschiedenen Anwendungen eingesetzt, von Chatbots bis hin zu fortschrittlichen Analysetools.

Mit ihrer zunehmenden Verbreitung wächst jedoch auch die Notwendigkeit, sicherzustellen, dass diese Technologien mit menschlichen Werten und Präferenzen übereinstimmen. Ein neuer Ansatz, der in einer aktuellen Studie von Forschern der Hong Kong University of Science and Technology (HKUST) vorgestellt wurde, zielt darauf ab, dieses Problem zu adressieren.

UniVaR – Ein neuer Ansatz zur Wertedarstellung in großen Sprachmodellen weiterlesen

Die versteckten Kosten des Klimawandels: Eine ökonomische Verpflichtung

Der Klimawandel ist nicht nur eine der drängendsten Umwelt- und sozialen Herausforderungen unserer Zeit, sondern auch eine erhebliche wirtschaftliche Last, die auf globalen Prognosen der makroökonomischen Schäden basiert. Diese werden typischerweise durch die Auswirkungen von durchschnittlichen jährlichen und nationalen Temperaturen über lange Zeiträume hinweg bewertet.

Doch eine neuere Studie, durchgeführt von Maximilian Kotz, Anders Levermann und Leonie Wenz, geht noch einen Schritt weiter, indem sie sub-nationale Schäden durch Temperatur- und Niederschlagsänderungen einbezieht, was tägliche Variabilität und Extreme berücksichtigt. Ihre Ergebnisse zeigen, dass die Weltwirtschaft bereits einer Einkommensminderung von 19% innerhalb der nächsten 26 Jahre gegenübersteht, unabhängig von zukünftigen Emissionsentscheidungen. Die Analyse macht deutlich: Klimaschutz hat wichtige gesellschaftliche Implikationen – und damit auch juristische.

Die versteckten Kosten des Klimawandels: Eine ökonomische Verpflichtung weiterlesen

Kultur & Höflichkeit im Umgang mit maschinellen Sprachmodellen

In der Welt der Künstlichen Intelligenz und maschinellen Lernens spielen grosse Sprachmodelle eine zentrale Rolle, indem sie helfen, menschliche Sprache zu verstehen und darauf zu reagieren. Doch wie beeinflusst der Tonfall einer Anfrage – insbesondere deren Höflichkeitsgrad – die Leistung dieser Modelle? Eine aktuelle Studie der Waseda Universität und des RIKEN AIP hat sich dieser Frage angenommen und erstaunliche Ergebnisse in verschiedenen Sprachen erzielt.

Die Forschungsarbeit mit dem Titel „Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance“ untersucht, wie Höflichkeit in Befehlen die Leistung großer Sprachmodelle (LLMs) beeinflusst. Es wurde festgestellt, dass unhöfliche Prompts oft zu schlechterer Leistung führen, während übermäßig höfliche Sprache nicht unbedingt bessere Ergebnisse garantiert. Interessanterweise variiert das optimale Niveau der Höflichkeit je nach Sprache, was auf kulturelle Unterschiede in der Wahrnehmung und Erwartung von Höflichkeit hindeutet.

Kultur & Höflichkeit im Umgang mit maschinellen Sprachmodellen weiterlesen

Wissenskollaps durch KI?

Droht ein Wissenskollaps? In einer modernen, von DIgitalisierung durchdrungenden, Welt, in der künstliche Intelligenz (KI) immer mehr an Bedeutung gewinnt, stehen wir vor erheblichen Veränderungen in der Art & Weise, wie Wissen generiert, genutzt und verbreitet wird. Ich widme mich im Blog dieser Thematik hin und wieder, weil es sowohl gesellschaftliche Auswirkungen insgesamt hat, aber eben auch gravierende Bedeutung für „Wissens-Dienstleister“ wie Anwälte hat.

Eine kürzlich durchgeführte Studie von Andrew J. Peterson von der Universität Poitiers hebt nun besorgniserregende Aspekte im Zusammenhang mit der weitverbreiteten Nutzung von KI, insbesondere von großen Sprachmodellen (LLMs), hervor: Er sieht das erhebliche Risiko eines durch KI provozierten Wissenskollapses!

Wissenskollaps durch KI? weiterlesen

BSI zu Chancen und Risiken generativer KI

Im Folgenden soll eine aktuelle Publikation des Bundesamts für Sicherheit in der Informationstechnik (BSI) vorgestellt werden, die sich mit den Chancen und Risiken großer Sprachmodelle befasst. Diese KI-Modelle, bekannt als Large Language Models (LLMs), sind in der Lage, auf der Basis von trainierten Daten neue Texte, Bilder und andere Inhalte zu generieren. Ihre vielseitige Einsetzbarkeit bietet zahlreiche Möglichkeiten für Industrie und Behörden, birgt jedoch auch neue IT-Sicherheitsrisiken.

BSI zu Chancen und Risiken generativer KI weiterlesen

Sittenwidrige Investitionen in Kryptowährungen?

In einer beachtlichen Entscheidung vom 21. Dezember 2023, Aktenzeichen 24 U 95/23, hat das Oberlandesgericht Köln sich mit den juristischen Komplikationen rund um Investitionen in Kryptowährungen auseinandergesetzt. Der Fall betraf nicht nur die straf- und zivilrechtliche Beurteilung einer fehlerhaften Anlageberatung, sondern berührte auch tiefgreifende Fragen des Finanzmarktrechts.

Sittenwidrige Investitionen in Kryptowährungen? weiterlesen

Künstliche Intelligenz als großer Filter im Universum?

In unserer digitalisierten Welt, in der die Entwicklung künstlicher Intelligenz (KI) kaum mehr fassbar voranschreitet, wirft eine aktuelle Studie von Michael A. Garrett (EN), veröffentlicht in der Acta Astronautica, eine faszinierende Frage auf: Ist KI der „Große Filter“, der die Seltenheit von fortgeschrittenen technologischen Zivilisationen im Universum erklärt – und geht damit eine existenzielle Bedrohung einher.

Garrett beleuchtet die bemerkenswerte These, dass die schnelle Entwicklung hin zur Künstlichen Superintelligenz (ASI) zu einem „Großen Filter“ führen könnte. Dieser Filter entsteht, bevor Zivilisationen eine stabile, multiplanetare Existenz entwickeln können. Die Studie schlägt vor, dass die typische Lebensdauer einer technischen Zivilisation unter 200 Jahre liegt. Dieser Zeitrahmen erklärt die Nullergebnisse der jüngsten SETI-Umfragen und anderer Versuche, verschiedene Technosignaturen im elektromagnetischen Spektrum zu entdecken.

Künstliche Intelligenz als großer Filter im Universum? weiterlesen