Es lässt sich nicht ignorieren, dass wir in einer Welt leben, in der künstliche Intelligenz (KI) in immer krasserem Maße in unseren Alltag integriert wird – doch damit steigt auch das Potenzial für KI-basierte Täuschungen sowie damit verbundene Gefahren. Diese Täuschungen können von harmlosen Fehlinformationen bis hin zu gezielten Betrugsversuchen reichen. Eine aktuelle Studie beleuchtet dieses Thema ausführlich und bietet Einblicke in Beispiele, Risiken und mögliche Lösungen für das Problem der KI-Täuschung.
Herausforderungen durch KI-Täuschung weiterlesenSchlagwort: Zeuge
Entwicklung von Software mit KI
Der Einsatz künstlicher Intelligenz (KI) in der Softwareentwicklung bietet sowohl erhebliche Chancen als auch potenzielle Herausforderungen.
Eine qualitative Studie von Charles Collins und Kémaël Josua Kauppaymuthoo an der Lund University hat die Perspektiven von Softwareentwicklern zur Adoption von KI-Technologien in ihrem Arbeitsfeld untersucht. Diese Studie liefert wichtige Einblicke in die emotionalen und praktischen Auswirkungen, die KI auf die Softwareentwicklung hat.
Entwicklung von Software mit KI weiterlesenAuswirkungen von Künstlicher Intelligenz auf Produktivität, Verteilung und Wachstum
Künstliche Intelligenz (KI) hat das Potenzial, als neue allgemeine Basistechnologie die wirtschaftliche Produktivität erheblich zu beeinflussen und das gesellschaftliche Wohlbefinden zu steigern. Das OECD-Papier „The Impact of Artificial Intelligence on Productivity, Distribution and Growth“ untersucht diese Möglichkeiten und beleuchtet sowohl die Chancen als auch die Herausforderungen, die KI mit sich bringt.
Auswirkungen von Künstlicher Intelligenz auf Produktivität, Verteilung und Wachstum weiterlesenKI in der wissenschaftlichen Schreibarbeit – GPT-4 gleichauf mit menschlichen Forschern
Es lässt sich nicht wegreden, dass der einleitende Text vor wissenschaftlichen Arbeiten eine entscheidende Rolle spielt: Hier werden Rahmen, identifizieren Forschungslücken und Ziele der Studie definiert.
Die Studie „ChatGPT-4 and Human Researchers Are Equal in Writing Scientific Introduction Sections: A Blinded, Randomized, Non-inferiority Controlled Study“ liefert nun hierzu spannende und zum Denken anregende Erkenntnisse über die Fähigkeiten von KI-Systemen; speziell zu Texten des Generative Pre-trained Transformer 4 (GPT-4), im Vergleich zu menschlichen Forschern beim Verfassen dieser bedeutsamen Abschnitte in Forschungsarbeiten.
Diese Untersuchung bietet einen – durchaus überraschenden und aufschlussreichen – Einblick in die Möglichkeiten und Herausforderungen beim Einsatz von KI in der akademischen Schreibarbeit; sie unterstreicht dabei das Potenzial von KI, den Forschungsprozess grundlegend zu transformieren.
KI in der wissenschaftlichen Schreibarbeit – GPT-4 gleichauf mit menschlichen Forschern weiterlesenData Act
Data Act, ein kleiner Überblick: Die Europäische Kommission hat bereits 2022 Regeln für die Nutzung und den Zugang zu in der EU erzeugten Daten in allen Wirtschaftsbereichen vorgelegt. Der Datenrechtsakt („Data Act“) soll für Fairness im digitalen Umfeld sorgen, einen wettbewerbsfähigen Datenmarkt fördern, Möglichkeiten für datengestützte Innovationen eröffnen und den Zugang zu Daten für alle erleichtern. Inzwischen ist der Data Act dabei, Realität zu werden und gilt bald europaweit.
Der Data Act soll insbesondere zu neuen, innovativen Dienstleistungen und wettbewerbsfähigeren Preisen für Kundendienstleistungen und Reparaturen von vernetzten Gegenständen führen. Dieser letzte horizontale Baustein der Datenstrategie der Kommission wird eine Schlüsselrolle bei der digitalen Transformation im Einklang mit den digitalen Zielen für 2030 spielen.
Data Act weiterlesenStudie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien
In der Forschungsarbeit „Assessing the risks and opportunities posed by AI-enhanced influence operations on social media“ von Rolf Fredheim und James Pamment wird ein tiefgreifendes Verständnis für die Risiken und Chancen von KI-gestützten Beeinflussungsoperationen in sozialen Medien dargelegt.
Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien weiterlesenDer Missbrauch von Generativer KI und großen Sprachmodellen (LLM)
Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.
Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.
Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesenLarge Language Models (LLM)
Ein LLM, oder „Large Language Model“, ist ein fortschrittliches Computerprogramm, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren. LLMs kann man sich wie extrem erfahrene Bibliothekare vorstellen, die in einer riesigen Bibliothek mit einer Unmenge an Büchern und Texten arbeiten. Diese Bibliothekare haben so viele Texte gelesen, dass sie sehr gut darin geworden sind, Fragen zu beantworten, Texte zu schreiben und sogar Gespräche zu führen, die sich fast wie mit einem echten Menschen anfühlen.
Large Language Models (LLM) weiterlesenGenerative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung
Generative Künstliche Intelligenz (GenAI) hat das Potenzial, den Kampf gegen Korruption zu revolutionieren und die Integrität in der Regierung zu stärken. Der OECD-Bericht „Generative AI for Anti-Corruption and Integrity in Government“ beleuchtet die Chancen und Herausforderungen der Nutzung von GenAI und großen Sprachmodellen (LLMs) durch Regierungsakteure, die sich der Integrität und Korruptionsbekämpfung widmen. In diesem Beitrag werden die wichtigsten Erkenntnisse des Berichts vorgestellt.
Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung weiterlesenNeue Forschungserkenntnisse zur Autonomen Website-Hackfähigkeit von LLMs
Eine bahnbrechende Forschungsarbeit mit dem Titel „LLM Agents can Autonomously Hack Websites“ offenbart, wie fortgeschrittene große Sprachmodelle (LLMs), insbesondere GPT-4, autonom Websites hacken können. Dieses Potenzial wird durch die Fähigkeit der Modelle unterstrichen, ohne menschliches Feedback komplexe Aufgaben wie Blinddatenbankschema-Extraktion und SQL-Injections durchzuführen.
Neue Forschungserkenntnisse zur Autonomen Website-Hackfähigkeit von LLMs weiterlesen