Die versteckten Kosten des Klimawandels: Eine ökonomische Verpflichtung

Der Klimawandel ist nicht nur eine der drängendsten Umwelt- und sozialen Herausforderungen unserer Zeit, sondern auch eine erhebliche wirtschaftliche Last, die auf globalen Prognosen der makroökonomischen Schäden basiert. Diese werden typischerweise durch die Auswirkungen von durchschnittlichen jährlichen und nationalen Temperaturen über lange Zeiträume hinweg bewertet.

Doch eine neuere Studie, durchgeführt von Maximilian Kotz, Anders Levermann und Leonie Wenz, geht noch einen Schritt weiter, indem sie sub-nationale Schäden durch Temperatur- und Niederschlagsänderungen einbezieht, was tägliche Variabilität und Extreme berücksichtigt. Ihre Ergebnisse zeigen, dass die Weltwirtschaft bereits einer Einkommensminderung von 19% innerhalb der nächsten 26 Jahre gegenübersteht, unabhängig von zukünftigen Emissionsentscheidungen. Die Analyse macht deutlich: Klimaschutz hat wichtige gesellschaftliche Implikationen – und damit auch juristische.

Die versteckten Kosten des Klimawandels: Eine ökonomische Verpflichtung weiterlesen

Kultur & Höflichkeit im Umgang mit maschinellen Sprachmodellen

In der Welt der Künstlichen Intelligenz und maschinellen Lernens spielen grosse Sprachmodelle eine zentrale Rolle, indem sie helfen, menschliche Sprache zu verstehen und darauf zu reagieren. Doch wie beeinflusst der Tonfall einer Anfrage – insbesondere deren Höflichkeitsgrad – die Leistung dieser Modelle? Eine aktuelle Studie der Waseda Universität und des RIKEN AIP hat sich dieser Frage angenommen und erstaunliche Ergebnisse in verschiedenen Sprachen erzielt.

Die Forschungsarbeit mit dem Titel „Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance“ untersucht, wie Höflichkeit in Befehlen die Leistung großer Sprachmodelle (LLMs) beeinflusst. Es wurde festgestellt, dass unhöfliche Prompts oft zu schlechterer Leistung führen, während übermäßig höfliche Sprache nicht unbedingt bessere Ergebnisse garantiert. Interessanterweise variiert das optimale Niveau der Höflichkeit je nach Sprache, was auf kulturelle Unterschiede in der Wahrnehmung und Erwartung von Höflichkeit hindeutet.

Kultur & Höflichkeit im Umgang mit maschinellen Sprachmodellen weiterlesen

Wissenskollaps durch KI?

Droht ein Wissenskollaps? In einer modernen, von DIgitalisierung durchdrungenden, Welt, in der künstliche Intelligenz (KI) immer mehr an Bedeutung gewinnt, stehen wir vor erheblichen Veränderungen in der Art & Weise, wie Wissen generiert, genutzt und verbreitet wird. Ich widme mich im Blog dieser Thematik hin und wieder, weil es sowohl gesellschaftliche Auswirkungen insgesamt hat, aber eben auch gravierende Bedeutung für „Wissens-Dienstleister“ wie Anwälte hat.

Eine kürzlich durchgeführte Studie von Andrew J. Peterson von der Universität Poitiers hebt nun besorgniserregende Aspekte im Zusammenhang mit der weitverbreiteten Nutzung von KI, insbesondere von großen Sprachmodellen (LLMs), hervor: Er sieht das erhebliche Risiko eines durch KI provozierten Wissenskollapses!

Wissenskollaps durch KI? weiterlesen

BSI zu Chancen und Risiken generativer KI

Im Folgenden soll eine aktuelle Publikation des Bundesamts für Sicherheit in der Informationstechnik (BSI) vorgestellt werden, die sich mit den Chancen und Risiken großer Sprachmodelle befasst. Diese KI-Modelle, bekannt als Large Language Models (LLMs), sind in der Lage, auf der Basis von trainierten Daten neue Texte, Bilder und andere Inhalte zu generieren. Ihre vielseitige Einsetzbarkeit bietet zahlreiche Möglichkeiten für Industrie und Behörden, birgt jedoch auch neue IT-Sicherheitsrisiken.

BSI zu Chancen und Risiken generativer KI weiterlesen

Sittenwidrige Investitionen in Kryptowährungen?

In einer beachtlichen Entscheidung vom 21. Dezember 2023, Aktenzeichen 24 U 95/23, hat das Oberlandesgericht Köln sich mit den juristischen Komplikationen rund um Investitionen in Kryptowährungen auseinandergesetzt. Der Fall betraf nicht nur die straf- und zivilrechtliche Beurteilung einer fehlerhaften Anlageberatung, sondern berührte auch tiefgreifende Fragen des Finanzmarktrechts.

Sittenwidrige Investitionen in Kryptowährungen? weiterlesen

Künstliche Intelligenz als großer Filter im Universum?

In unserer digitalisierten Welt, in der die Entwicklung künstlicher Intelligenz (KI) kaum mehr fassbar voranschreitet, wirft eine aktuelle Studie von Michael A. Garrett (EN), veröffentlicht in der Acta Astronautica, eine faszinierende Frage auf: Ist KI der „Große Filter“, der die Seltenheit von fortgeschrittenen technologischen Zivilisationen im Universum erklärt – und geht damit eine existenzielle Bedrohung einher.

Garrett beleuchtet die bemerkenswerte These, dass die schnelle Entwicklung hin zur Künstlichen Superintelligenz (ASI) zu einem „Großen Filter“ führen könnte. Dieser Filter entsteht, bevor Zivilisationen eine stabile, multiplanetare Existenz entwickeln können. Die Studie schlägt vor, dass die typische Lebensdauer einer technischen Zivilisation unter 200 Jahre liegt. Dieser Zeitrahmen erklärt die Nullergebnisse der jüngsten SETI-Umfragen und anderer Versuche, verschiedene Technosignaturen im elektromagnetischen Spektrum zu entdecken.

Künstliche Intelligenz als großer Filter im Universum? weiterlesen

Asimov und die Wissensgesellschaft

Unsere Gesellschaft ändert sich in der Art, wie wir mit Wissen umgehen: Die Anfänge einer neuen Zeit zeigten sich mit Google und Wikipedia, die zu ersten Umbrüchen führten, wie etwa dem Aussterben gedruckter Lexika. Damals noch versuchte sich die alte Art zu denken auf ihre hergebrachte Art zu schützen: Man verbot Handys und später Smartphones im Prüfungsumfeld und schon war alles, wie man es kannte. Jedenfalls in Prüfungssituationen.

Irgendwann war zu bemerken, dass – zumindest subjektiv wahrgenommen – immer mehr Menschen immer weniger Präsenzwissen vorgehalten haben, sogar diskutiert haben, warum es gar nicht klug wäre, den Kopf mit Dingen zu belasten, die man ja jederzeit im Internet suchen kann. Doch die Entwicklung ging immer weiter, zielgerichtet zu dem, was wir heute generative KI nennen (und was sicherlich nur ein Pixel in einem Bild ist, das sich uns erst in einigen Jahren in seiner Dimension erschließen wird) – und die Frage ist, was dies mit unserer Gesellschaft macht. Eine gewisse kritische Haltung darf dabei gezeigt werden. Ein Kommentar mit Anregungen zur Reflexion, dazu gibt es auch ein LinkedIn-Posting von mir.

Asimov und die Wissensgesellschaft weiterlesen

Haftung für Chatbot?

Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen.

Haftung für Chatbot? weiterlesen

Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien

In der Forschungsarbeit „Assessing the risks and opportunities posed by AI-enhanced influence operations on social media“ von Rolf Fredheim und James Pamment wird ein tiefgreifendes Verständnis für die Risiken und Chancen von KI-gestützten Beeinflussungsoperationen in sozialen Medien dargelegt.

Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien weiterlesen

Ethik und KI

Im Folgenden möchte ich kurz das Kapitel „Approaches to Ethical AI“ aus dem Open-Access-Buch „Introduction to Digital Humanism“ von Erich Prem vorstellen. Das lesenswerte Kapitel bietet eine umfassende Analyse ethischer Fragestellungen in Bezug auf Künstliche Intelligenz (KI) und legt dar, wie diese Herausforderungen im Rahmen ethischer Rahmenwerke und Leitlinien angegangen werden.

Ethik und KI weiterlesen