Unsere Gesellschaft ändert sich in der Art, wie wir mit Wissen umgehen: Die Anfänge einer neuen Zeit zeigten sich mit Google und Wikipedia, die zu ersten Umbrüchen führten, wie etwa dem Aussterben gedruckter Lexika. Damals noch versuchte sich die alte Art zu denken auf ihre hergebrachte Art zu schützen: Man verbot Handys und später Smartphones im Prüfungsumfeld und schon war alles, wie man es kannte. Jedenfalls in Prüfungssituationen.
Irgendwann war zu bemerken, dass – zumindest subjektiv wahrgenommen – immer mehr Menschen immer weniger Präsenzwissen vorgehalten haben, sogar diskutiert haben, warum es gar nicht klug wäre, den Kopf mit Dingen zu belasten, die man ja jederzeit im Internet suchen kann. Doch die Entwicklung ging immer weiter, zielgerichtet zu dem, was wir heute generative KI nennen (und was sicherlich nur ein Pixel in einem Bild ist, das sich uns erst in einigen Jahren in seiner Dimension erschließen wird) – und die Frage ist, was dies mit unserer Gesellschaft macht. Eine gewisse kritische Haltung darf dabei gezeigt werden. Ein Kommentar mit Anregungen zur Reflexion, dazu gibt es auch ein LinkedIn-Posting von mir.
Vom gewussten Wissen zum geglaubten Wissen
Unter Anwälten ist schon lange der Satz „Ich habe mich im Internet schlau gemacht“ (eine Formulierung, welche die Gen Z so wohl kaum nutzen würde) gefürchtet. Ich habe mir sagen lassen, dass dies unter Ärzten genauso gilt: Ein Graus sind die Menschen, die glauben, weil sie ein paar Zeilen auf Wikipedia gelesen haben, können sie gleich bei komplexen Themen mitreden. Geschweige denn, komplexe Sachverhalte fachlich, wie juristisch oder medizinisch, bewerten.
Wo früher das Fachwissen vorherrschte und wir noch vor einem guten Jahrzehnt erkannt haben, dass qualitative Steigerung allein in der Spezialisierung zu finden ist, scheint neuerdings wieder der Glaube an den Generalisten vorzuherrschen. Dabei hatten wir längst den Punkt erreicht, zu erkennen, dass es keine Universalgelehrten in einer modernen Wissensgesellschaft mehr geben kann (man mag den Humor verstehen oder auch nicht, wenn ich dazu auf Wikipedia verlinke).
Bitter-süße Vorzüge generativer KI
Generative KI ist toll, ich mag die bunten Bilder, die sie auf Basis von Sprache erstellen kann – und die sprachlichen Leistungen großer Sprachmodelle können sich schon jetzt sehen lassen: Strukturierungen von Inhalten, Aufbereitungen von Texten, Ideen für Content wenn man den Kopf leer hat – das sind Bereicherungen die sich sehen lassen können.
Doch zu wenige sind sich der Gefahren bewusst, die entstehen, wenn man große Sprachmodelle in ihrer derzeitigen Form stochastischer Papageien mit bewusster Intelligenz verwechselt: Sie sind Werkzeug und nicht Deus ex Machina. Und wie immer bei einem Werkzeug gehört der richtige Umgang dazu, bevor man mit einem Hammer versucht eine Schraube in eine Glasplatte zu schlagen. Genau das aber versuchen immer mehr Menschen.
Diese Verzweiflung eigener Überforderung mag auch der Grund gewesen sein, warum man versuchte, aus dem „Prompting“ eine eigene Wissenschaft zu machen, so zu tun, als würde das Beherrschen der Sprache in dem Sinne der Bedienung einer Software eine grundlegende Wissenschaft sein. Es war am Ende nur der Versuch, beim Schmücken mit fremden Federn diesem Vorgang den Anstrich eigener Fähigkeit zu geben – was auf intellektueller Ebene schon scheitern sollte, da ein einmal erzieltes Ergebnis gar nicht identisch reproduzierbar ist (wenn nicht feststehendes Wissen in einer simplifizierten Form abgerufen wird!).
Paradoxerweise ist eben dieser Effekt, dass kein identisches Ergebnis zu reproduzieren ist, der Grund, warum viele Anwender glauben, da steckt doch ein Geist in der Maschine. Dabei sollte gerade der Mensch, bedacht auf seine Einzigartigkeit (jedenfalls in Europa), doch von Natur aus in der Lage sein, Zufall und Individualität zu unterscheiden. Doch genau da liegt der Kern des Problems.
Wissensgesellschaft
Wie geht man mit Wissen in einer echten digitalen Zukunft um?
Es mag doch ein jeder lernen, was er mag; vielleicht ist dies die eine Erkenntnis, dass wir eine Zukunft der Freiheit ansteuern, in der das sinnlose Auswendiglernen partikularen Wissens endgültig überflüssig wird (wenn es das nicht längst ist). Doch die Lehre dürfte kaum sein, gar nichts zu lernen bzw. zu wissen.
Ausgehend von einer Zukunft – die wir definitiv nicht haben – in der Assistenten in der Lage sind, absolut korrektes Wissen in Form individueller Inhalte für den Alltagsgebrauch zu fabrizieren, welche Fähigkeiten sind dann noch von Relevanz? Welches individuelle Wissen bietet Vorzüge?
Ich glaube, dass intellektuelle Fertigkeiten (wieder) mehr Stellenwert erlangen als individualisiertes Wissen. In der Rechtswissenschaft könnte man sich beispielsweise wieder mehr auf die Dinge konzentrieren, die Juristen früher ausmachten: Rhetorik, Methodik oder auch sprachliche Fertigkeiten wie Stil und Ausdruck.
Wenn intellektuelle Evolution immer irgendwie auch eine zunehmende Abstraktion war, würde dies bedeuten, dass man sich vom konkreten Wissen immer weiter weg entwickelt, hin zu einem klareren, strukturierten Denken. Man könnte auch sagen: nicht was man weiß, sondern wie man weiß. Damit würde man zugleich erlernen, was so wichtig ist in einer Welt der alles durchdringenden künstlichen Intelligenz: Wie man das Werkzeug bedient.
Roboter-Ethik
Was wollen wir jetzt mit Asimov bei diesem Thema? Nun, ich habe seine Geschichten geliebt als Kind und früh – nicht nur über ihn – gemerkt, wie viel Ethik und damit Gesellschaftspolitik in wissenschaftlicher Entwicklung steckt.
Asimovs wohl bekanntester Beitrag zur (von ihm begrifflich geschaffenen!) „Robotik“ sind die „Drei Gesetze der Robotik“, die in seinen Geschichten und Romanen, insbesondere in der „Robot“-Reihe, eine zentrale Rolle spielen:
- Ein Roboter darf einem Menschen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird.
- Ein Roboter muss den Befehlen der Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
- Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum ersten oder zweiten Gesetz steht.
In seinen Geschichten geht es um komplexe, unerwartete Wege, auf denen diese Gesetze interpretiert und angewandt werden können (also irgendwie um Jura). Dabei werden tiefgreifende Fragen über Ethik, Freiheit und die Natur des Bewusstseins aufgeworfen, die nicht nur für Teenager fesselnd sind.
Die drei Gesetze zeigen eine Sichtweise davon auf, dass (auch – oder gerade?) intelligente Maschinen ethische Grenzen und Richtlinien benötigen, um sicherzustellen, dass ihre Existenz und ihr Einsatz der Menschheit dienen, ohne unbeabsichtigte Schäden zu verursachen. Später hinterfragt er übrigens, inwieweit der Anspruch richtig ist, dass sie Menschen zu dienen haben (die Verfilmung mit Will Smith, nur bedingt gelungen, deutet dies am Ende an).
Das Gesamtkonzept von Asimov führt letztlich zu deutlich tiefergehenden philosophischen wie ethischen Fragen. Wenn man sich länger damit beschäftigt, wird klar, dass die Schöpfer und Nutzer von Robotern die ethische Verantwortung für ihre Handlungen tragen. Ein unmittelbar vor uns liegendes Problem, denn die Frage, wie wir in einer Gesellschaft mit Robotern, mit von diesen verursachten Schäden umgehen wollen, ist nicht beantwortet – und drängt immer mehr in unseren Alltag.
Auch eine andere Thematik von Asimov, die Notwendigkeit künstliche Intelligenz in eine moralische und ethische Struktur einzubetten, die ihre Entscheidungsfindung leitet, ist längst Alltag und beherrscht schon jetzt die Frage der Nutzung generativer KI. Und auch hier zeigt sich wieder, dass das Beherrschen allgemeiner ethischer Fragen wichtiger ist, als das Auswendiglernen von Einzelaspekten.
Anthropomorphismus?
Das Phänomen, bei dem Menschen Maschinen oder Objekten menschliche Eigenschaften zuschreiben und mit ihnen interagieren, als wären sie menschlich, wird als Anthropomorphismus bezeichnet. Dies geschieht oft unbewusst und kann in Situationen vorkommen, in denen Menschen Technologie oder Gegenstände so behandeln, als hätten sie Gefühle, Bewusstsein oder persönliche Absichten, beispielsweise wenn jemand „Danke“ zu einem Sprachassistenten oder einem Fahrkartenautomaten sagt. Anthropomorphismus ist ein weit verbreitetes Phänomen und spiegelt die Tendenz des Menschen wider, das Vertraute in das Unbekannte zu projizieren.
Ich komme zum letzten Aspekt, ein Kernthema von Asimov, den Mensch-Maschine-Beziehungen: Sie erkunden, wie Menschen und Maschinen interagieren können und sollten, insbesondere im Hinblick auf Autorität und Gehorsam. Nicht ohne Grund widmet sich Asimov auch dem Thema Liebe, aus heutigem Blickwinkel (zu) stark geprägt von moralischen Vorstellungen der damaligen Zeit.
Doch genau hier liegt das Problem, im Anthropomorphismus – eigentlich eine Stärke von Menschen, da wir uns unsere Menschlichkeit bewahren, indem wir mit menschlich agierenden Maschinen nicht unmenschlich umgehen. Würden wir durchgehend rau und bösartig zu Maschinen sein, wäre dies der Maschine egal, es würde aber unseren allgemeinen Umgangston am Ende prägen. Einen kleinen Vorgeschmack haben wir im Straßenverkehr der narzisstischen Social-Media-Welt von heute schon. Ich glaube nicht, dass man davon mehr braucht. Die nächste Stufe wäre vielleicht die Unfähigkeit, andere Menschen zu lieben und das Heil – wie Asimovs Claire Belmont – in der konfliktarmen Liebe zu Maschinen zu suchen.
Es ist ein Treppenwitz, dass wir bis heute nicht in der Lage sind, zu definieren, ob unser eigener Wille frei ist – und doch maßen wir uns an, bei Tieren und nun Maschinen definieren zu wollen, wann „echtes Bewusstsein“ oder freier Wille vorliegen. Dabei existiert spätestens seit den 1990ern die Diskussion, ob das Bewusstsein nur Illusion ist, von der Evolution geschaffen, um in der Flut der Sinneseindrücke einen Überlebensvorteil zu haben (Ende der 90er in einem GEO-Artikel ging man so weit, zu überlegen, ob auch Emotionen nur Illusion sind, die man widerspiegelt, sodass Menschen nur Gefühlszombies wären ohne es selbst zu merken).
Was diese Gedanken an Potenzial schaffen für die Programmierung uns gleichwertiger von Bewusstsein gesteuerter KI … und welche Abgründe sich für die Menschlichkeit dabei auftun. Ohne methodisches und moralisches Gerüst wären wir verloren, die ein Bewusstsein simulierende KI wäre der Spiegel, der uns schmerzhaft vorgehalten wird. Wir würden uns verlieren in der Frage, ob Lebewesen wie Tiere (und damit am Ende wir selbst) reine Reflexmaschinen sind, im Sinne eines mechanistischen Weltbildes, so dass wir die Maschinen sind, die andere Maschinen schaffen.
Vielleicht, ein Fazit …
Wie so oft geht es mir darum, zum Nachdenken anzuregen, freilich nur die, die es auch wollen. Wir leben in einer Welt, in der Bücher günstiger sind denn je (jedenfalls gebraucht) und in der es so einfach ist wie nie, sich methodisches Wissen anzuarbeiten. Mit ChatGPT auf dem Smartphone und einem Methodenkoffer im Hirn wären wir vielleicht in der Lage eine neue Welt zu schaffen. Dabei sollte man überdenken, ob man nicht wieder lernen möchte, was humanistische Werte sind und wie man sich selbst als Mensch definiert – unter anderem, indem wir Neurodiversität als Stärke begreifen.
Das schöne ist, dass Asimov lesen dabei schon helfen kann (Bradbury, Heinlein und viele andere die man für wenige Cents kaufen kann ebenso). Das Erschreckende mag sein, was wir über uns selbst herausfinden, wenn wir Wissen nicht mehr über Auswendiglernen, sondern über Verstehen definieren. Ob es schlimmer ist, als sich über gestellte Insta-Postings zu definieren ist vielleicht schon jetzt zu bezweifeln.
- Zukunft der Robotik: Einfluss des Data Act auf Innovation und rechtliche Rahmenbedingungen - Oktober 4, 2024
- Allgemeine Überlegungen zu Robotern: Definitionen, Bewusstsein und Asimovs Gesetze - August 18, 2024
- Whitepaper des BSI zur Transparenz von KI-Systemen - August 16, 2024