Die rasante Entwicklung und Integration von Künstlicher Intelligenz (KI) in Unternehmen verändert nicht nur die Art und Weise, wie Arbeit verrichtet wird, sondern auch die Struktur des Arbeitsmarktes und die Nachfrage nach bestimmten Fähigkeiten. Das OECD-Dokument „Artificial intelligence and the changing demand for skills in the labour market“ beleuchtet detailliert, wie sich die Anforderungen an die Kompetenzen der Arbeitnehmer durch die Einführung von KI verändern und welche neuen Fähigkeiten zunehmend gefragt sind.
Künstliche Intelligenz und der Wandel der Kompetenzanforderungen im Arbeitsmarkt weiterlesenAutor: Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht & Strafrecht)
Künstliche Intelligenz und Lohnungleichheit
Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat tiefgreifende Auswirkungen auf die Arbeitsmärkte weltweit. Der OECD-Bericht „Artificial Intelligence and Wage Inequality“ untersucht die Beziehungen zwischen KI und Lohnungleichheit in 19 OECD-Ländern. Diese Studie bietet wertvolle Einblicke in die Auswirkungen von KI auf Löhne und Ungleichheit zwischen und innerhalb von Berufsgruppen und gibt Hinweise darauf, wie diese Entwicklungen zukünftig überwacht und gesteuert werden können.
Künstliche Intelligenz und Lohnungleichheit weiterlesenDie ökonomischen Auswirkungen der generativen KI
Generative Künstliche Intelligenz (KI) steht im Mittelpunkt einer hochinteressanten Studie, die von Andrew McAfee, einem Forscher am MIT Sloan School of Management, verfasst wurde. Die Studie, betitelt „Generally Faster: The Economic Impact of Generative AI“, untersucht, wie diese Technologie die ökonomischen Landschaften verändern könnte. Dieser Blogbeitrag fasst die wesentlichen Erkenntnisse der Studie zusammen und diskutiert ihre möglichen Implikationen.
Die ökonomischen Auswirkungen der generativen KI weiterlesenKI in der wissenschaftlichen Schreibarbeit – GPT-4 gleichauf mit menschlichen Forschern
Es lässt sich nicht wegreden, dass der einleitende Text vor wissenschaftlichen Arbeiten eine entscheidende Rolle spielt: Hier werden Rahmen, identifizieren Forschungslücken und Ziele der Studie definiert.
Die Studie „ChatGPT-4 and Human Researchers Are Equal in Writing Scientific Introduction Sections: A Blinded, Randomized, Non-inferiority Controlled Study“ liefert nun hierzu spannende und zum Denken anregende Erkenntnisse über die Fähigkeiten von KI-Systemen; speziell zu Texten des Generative Pre-trained Transformer 4 (GPT-4), im Vergleich zu menschlichen Forschern beim Verfassen dieser bedeutsamen Abschnitte in Forschungsarbeiten.
Diese Untersuchung bietet einen – durchaus überraschenden und aufschlussreichen – Einblick in die Möglichkeiten und Herausforderungen beim Einsatz von KI in der akademischen Schreibarbeit; sie unterstreicht dabei das Potenzial von KI, den Forschungsprozess grundlegend zu transformieren.
KI in der wissenschaftlichen Schreibarbeit – GPT-4 gleichauf mit menschlichen Forschern weiterlesenKI-Auditing: Auditing von KI – Rechtliche, ethische und technische Ansätze
KI-Auditing: Nun, da Künstliche Intelligenz (KI) immer häufiger in verschiedenen Bereichen und vor allem immer umfassender eingesetzt wird, steigen auch die Anforderungen an die Überwachung und Bewertung dieser Systeme.
Die Arbeit „Auditing of AI – Legal, Ethical and Technical Approaches“ bietet einen tiefgreifenden Einblick in die Notwendigkeit, Methoden und Herausforderungen beim Auditing von KI-Systemen.
KI-Auditing: Auditing von KI – Rechtliche, ethische und technische Ansätze weiterlesenSchutz von KI
Kann künstliche Intelligenz als solche rechtlich geschützt werden? Die Frage ist keineswegs trivial – und von erheblicher wirtschaftlicher Bedeutung: Die rechtliche Problematik und Notwendigkeit des Schutzes von Datensätzen in diesem Zusammenhang liegt auf der Hand.
In einer digitalisierten Wirtschaft, in der Daten zunehmend als wertvolles Wirtschaftsgut betrachtet werden, ist der rechtliche Schutz z.B. von Datenbeständen, aber auch von Software, die mit diesen Daten arbeitet, von entscheidender Bedeutung. Nur so kann aus hiesiger Sicht die Frage der Schutzfähigkeit von KI durch eine getrennte Betrachtung von Datenbeständen und Software beantwortet werden.
Schutz von KI weiterlesenKünstliche Intelligenz in der Cybersicherheit: Autonome Nutzung von One-Day-Vulnerabilities
Eine aktuelle Studie zum Thema künstliche Intelligenz und Cybersicherheit zeigt auf, dass große Sprachmodelle (LLMs), insbesondere GPT-4, in der Lage sind, sogenannte One-Day-Vulnerabilities autonom zu nutzen. Dies wirft wichtige Fragen über die Sicherheit und die ethischen Aspekte des Einsatzes dieser Technologien auf.
Künstliche Intelligenz in der Cybersicherheit: Autonome Nutzung von One-Day-Vulnerabilities weiterlesenData Act
Data Act, ein kleiner Überblick: Die Europäische Kommission hat bereits 2022 Regeln für die Nutzung und den Zugang zu in der EU erzeugten Daten in allen Wirtschaftsbereichen vorgelegt. Der Datenrechtsakt („Data Act“) soll für Fairness im digitalen Umfeld sorgen, einen wettbewerbsfähigen Datenmarkt fördern, Möglichkeiten für datengestützte Innovationen eröffnen und den Zugang zu Daten für alle erleichtern. Inzwischen ist der Data Act dabei, Realität zu werden und gilt bald europaweit.
Der Data Act soll insbesondere zu neuen, innovativen Dienstleistungen und wettbewerbsfähigeren Preisen für Kundendienstleistungen und Reparaturen von vernetzten Gegenständen führen. Dieser letzte horizontale Baustein der Datenstrategie der Kommission wird eine Schlüsselrolle bei der digitalen Transformation im Einklang mit den digitalen Zielen für 2030 spielen.
Data Act weiterlesenRechtliche Besonderheiten bei Software as a Service (SaaS) Verträgen- speziell KIaaS
Im digitalen Zeitalter, in dem Cloud-Dienste zunehmend an Bedeutung gewinnen, stellt Software as a Service (SaaS) eine bedeutende Facette dar. Im Folgenden geht es um die rechtlichen Nuancen, die sowohl Anbieter als auch Nutzer von SaaS-Lösungen beachten sollten, speziell mit Blick auf „KI as a Service“ (KIaaS).
Rechtliche Besonderheiten bei Software as a Service (SaaS) Verträgen- speziell KIaaS weiterlesenUniVaR – Ein neuer Ansatz zur Wertedarstellung in großen Sprachmodellen
In der dynamischen Welt der künstlichen Intelligenz haben große Sprachmodelle (LLMs) wie GPT-3 und BERT revolutionäre Fortschritte gemacht. Diese Modelle werden in verschiedenen Anwendungen eingesetzt, von Chatbots bis hin zu fortschrittlichen Analysetools.
Mit ihrer zunehmenden Verbreitung wächst jedoch auch die Notwendigkeit, sicherzustellen, dass diese Technologien mit menschlichen Werten und Präferenzen übereinstimmen. Ein neuer Ansatz, der in einer aktuellen Studie von Forschern der Hong Kong University of Science and Technology (HKUST) vorgestellt wurde, zielt darauf ab, dieses Problem zu adressieren.
UniVaR – Ein neuer Ansatz zur Wertedarstellung in großen Sprachmodellen weiterlesen