5-mal-5 KI-Zukünfte – Wie in aktuellen Büchern über die KI-Zukunft nachgedacht wird
Arbeitspapier, Stand 22. Oktober 2024
“Was machen Zukunftsforschende eigentlich? Und wie arbeiten sie?” – das werde ich häufig gefragt. Sie suchen nach Wiederholungen! Sie prüfen, wo sich in Statistiken, Büchern, Studien, Filmen, Serien und Gesprächen Aussagen über die Zukunft wiederholen. In den nächsten Wochen möchte ich diesen Prozess in Form einer Recherche zu den gegenwärtig heftig diskutierten KI-Zukünften transparent machen.
Ich mache diese Serie aus drei Gründen. Erstens möchte ich die Zukunftsforschung entmystifizieren und möchte zeigen, dass sie in einer seriösen Ausprägung ebenso kritisch wie methodisch passiert. Hartnäckige Arbeit, insbesondere Lesen ist hierzu unerlässlich. Zweitens möchte ich dabei gleichzeitig die Mythen der Künstlichen Intelligenz entmystifizieren und etwas zu einem sachlichen und präzisen Diskurs beitragen. Drittens kann ich mich durch dieses öffentliche Selbststudium selber weiterbilden.
Um den Hype der Künstlichen Intelligenz zu entschlüsseln, schaue ich mir fünf Bücher an und fasse sie hier in Form von 5 mal 5 Thesen zusammen. Im Vordergrund der Lektüre steht die Frage, welche Aussagen das Buch über KI macht. In einem zweiten Schritt werde ich – subjektiv – zentrale politische und wirtschaftliche Aufgaben für die Zukunft ableiten. Diese beiden Schritte bilden die Ausgangslage, um dann drittens einen neuen eigenständigen Zuschnitt auf das Thema zu erarbeiten.
Am liebsten arbeite ich mit Büchern, um nach Wiederholungen zu suchen. Weil das analoge Buch das Deep Reading unterstützt und es Beleg dafür ist, dass sich jemand über mehrere Jahre mit einem Thema beschäftigt hat. Eine gute Auswahl an Büchern zu treffen, ist für die weitere Arbeit entscheidend. Ich habe darauf geachtet, dass eine spannender Zuschnitt gewählt wurde und die Autorenschaft sowie der Verlag eine gewisse Reputation haben.
Dabei gilt: Je mehr ein Buch in Umlauf kommt, desto stärker wirken seine “selbsterfüllenden Prophezeiungen”. Zukünfte entstehen auch indem über sie gesprochen wird.
Yuval Harari “Nexus” (2024)
Wir beginnen mit einem Marktführer der Prognostik. Aufgrund seiner Reputation und den hohen Verkaufszahlen dürfte das neue Buch “Nexus” von Yuval Noah Harari die Diskussion der Zukunft in den nächsten Monaten, wenn nicht Jahren, stark prägen.
Hararis Blick auf KI
Für Hararis Zugang sind drei Dinge entscheidend. Erstens argumentiert der Historiker aus einer Big-History-Optik. Er sucht nach den grossen Linien, die Vergangenheit und Zukunft verbinden, wobei er die “KI-Revolution” korrekter einordnen will (S. 543). So interessant solche Ansätze sind, sie führen automatisch zu einer “Glättung” von Ereignissen, Beobachtungen und Argumenten.
Zweitens stellt Harari das “Informationsnetzwerk” einer Gesellschaft ins Zentrum seiner Untersuchung. Die Erfindung neuer Informationstechnologien sei “immer Katalysator für historische Umwälzungen”. Er erklärt dies dadurch, dass die wichtigste Funktion von Information darin bestehe “neue Netzwerke zu knüpfen” und nicht bereits bestehende Realitäten abzubilden (S. 544). Grundlegend für seine Argumentation ist die Kritik am “naiven Informationsverständnis” – die Erwartung, dass mehr Information zu mehr Wissen und damit mehr Nutzen für eine Zivilisation führt. Harari zeigt warum Informationsnetzwerke nicht nur der Suche nach Wahrheit dienen, sondern mindestens so sehr der Herstellung von Ordnung. Die Hauptaufgabe von Information bestehe darin, zu verbinden (S. 545 f.).
Das Buch verknüpft die Entstehung von Informationsnetzwerken mit dem “Duell” zwischen Demokratie und Autokratie, dem Aufstieg der Wissenschaft und der Funktionsweise von Religionen. Letzteres ist das dritte nennenswerte Merkmal seiner Herangehensweise. Harari vergleicht das Wissensrepertoire der (allgemeinen) KI mit einer neuen heiligen Schrift. Im Unterschied zur Bibel oder zum Koran können Gläubige eine Interpretation direkt “anfragen” und so deren Botschaften, Leitlinien und Verhaltensvorschläge auf einen Einzelfall der Gegenwart zu übertragen.
Botschaft 1 Die Menschen verstehen ihre Informationsnetzwerke nicht (mehr)
Harari beginnt sein Buch mit der Feststellung, dass die menschliche Zivilisation durch ihre Informationsnetzwerke “gewaltige Macht” aufgebaut hat. Information sei das “Garn, das diese Netzwerke” zusammenhält, wobei grosse Netzwerke mit “Fiktionen und Illusionen” arbeiten würden, um die Mitglieder “an sich zu binden” und “für Ordnung” zu sorgen.
Harari kritisiert den Zeitgeist des naiven Informationsverständnisses. Aber Geschichte und Gegenwart zeigten gut: ein mehr an Informationen ist nicht per se besser. Kritisch sieht er etwa die Transformation von Informationsnetzwerken zu Überwachungssystemen. Als Beispiele nennt er neben den Social-Scoring-Projekten die Diktatur der Likes (S. 361). Sie führe zu Konformismus, “Unterwürfigkeit, Heuchelei und Zynismus” (S. 359).
Er fürchtet sich vor neuen Hexenjagden, bei denen das Informationsnetzwerk definiere, wer schuldig sei und zugleich beim Aufspüren des Sündigen hilft. Harari verweist auf Iranerinnen, die durch smarte Kameras verwarnt werden, wenn sie kein Kopftuch tragen oder auf das Eyetracking, um zu erkennen, was wir am Computer tun (S. 334 ff.). Schliesslich erwähnt er die “Winner Takes It All” Effekte der grossen Informationsnetzwerke als Gefahr. Nur grosse Akteure könnten sich Zugang zu Daten und den Betrieb der riesigen Rechenzentren leisten.
Zukunft heisst, unser Verständnis für die Mechanismen, Chancen und Grenzen historischer, heutiger und künftiger Informationsnetzwerke zu verbessern. Die daraus resultierenden Erkenntnisse ermöglichen es, heutige Netzwerke zu verbessern und die Infrastrukturen der Zukunft smart zu bauen.
Botschaft 2 Nicht menschliche Akteure werden Teil des Informationsnetzwerkes
Harari geht von einer Zunahme nicht menschlicher Akteure in menschlichen Informationsketten aus. Diese “digitalen Agenten” würden Entscheide anders als Menschen treffen – und wir können diese nicht immer nachvollziehen. Der Zuwachs an digitalen Akteuren führe “zwangsläufig die Form von Armee, Religionen, Märkten und Nationen verändern”. Wie erfahren wir allerdings nicht.
Weiter thematisiert Harari das autonome Handeln der KI. Wie Menschen würden sie als digitale Agenten “intersubjektive Wahrheiten” herstellen und gehäuft selbständig entscheiden – zum Beispiel, ob und wann Aktien verkauft werden. Bereits heute würde 90 Prozent des Devisenmarktes so abgewickelt (S. 303). Zudem verweist Harari auf den US-Wahlkampf 2020, in dem über 40 Prozent der Tweets von Bots abgeschickt wurden (S. 470).
Aus einer Risikoabwägung heraus erwägt er eine Regulierung der nicht-menschlichen Akteure. Ein Verbot der “Menschenfälschung” empfiehlt er zum Beispiel in den sozialen Medien (S. 473) und für Deepfaking (S.474). Bots seien so lange willkommen, wie sie nicht behaupten, Menschen zu sein (S. 474).
Zukunft heisst, das Entstehen einer Mensch-Maschinen-Zivilisation, wobei die Rechte und Pflichten von nicht menschlichen Akteuren noch zu definieren sind. KI wird in Form digitaler Agenten vermehrt autonom entscheiden, solche Prozesse sollten transparent sein.
Botschaft 3 Die Infosphäre ist immer mehr verschmutzt
Harari zeichnet ein düsteres Bild der Gesundheit unserer Infosphäre und diagnostiziert, dass die Informationsnetzwerke vieler Demokratien bereits zusammengebrochen sind (S. 370, S. 477). Das Internet sei voller Müll, voller Lügen. Ein damit verbundenes Problem ist der Machtverlust früherer Gatekeeper (wie z.B. die etablierten Medien), was zu einer Art “digitalen Anarchie” führen könne (S. 469 ff.).
Der “beschleunigte technologische Wandel” ist für Harari eine Ursache, warum es zurzeit so viel Populismus gibt und warum sich konservative Parteien überall auf dem Planeten in “radikal-revolutionäre” Parteien wandeln (S. 446). Diese Gefahr verstärke sich durch die wirtschaftlichen Unruhen in Folge des technologischen Wandels. Sie macht Menschen empfänglich für (zu) einfache Rezepte.
Um mit der Zukunft klarzukommen, sei Flexibilität die wichtigste Fähigkeit der Menschen (S. 449). Maschinen hätten ihr volles Potenzial noch nicht ausgeschöpft, Menschen aber auch nicht. Der Umgang mit Spam sei ein Beispiel, dass es technische Lösungen gebe, um das Problem der verschmutzten Infosphäre in Griff zu bekommen.
Zukunft heisst, die “Verschmutzung” der Infosphäre zu reduzieren – ähnlich wie die Meere vom Plastik und das All von Weltraumschrott gereinigt werden müssen. Reinigen liesse sie sich etwa durch Steuern (auf Rechenzentren oder auf Posts) oder durch digitale Wasserzeichen, um Echtheit zu beweisen. Gleichzeitig sind die Voraussetzungen zu schaffen, damit Menschen ihre Potenziale besser ausschöpfen können. Technologie ist eine Möglichkeit, um diese Potenziale zu wecken, aber sicherlich nicht die einzige.
Botschaft 4 Die Ziele der KI müssen transparent sein
Harari deutet die Gegenwart als wichtiges Zeitfenster, um die Werte festzulegen, die das künftige Verhalten der KI bestimmen (S. 546). Er vergleicht die gegenwärtige “Verfestigung der künstlichen Intelligenz” mit dem Verfassen der Bibel. Was jetzt “niedergeschrieben” werde, könne die Menschheit über Jahrhunderte hinweg prägen.
Bei der Definition von Werten spricht man von “Alignment” (oder auch “Ausrichtung”), von Leitplanken oder Grundsätzen, die hinter den Entscheiden der KI stehen. Dabei gelte es jetzt die langfristigen Interessen aller Menschen über die kurzfristigen Interessen einiger weniger zu stellen (S. 529). Harari nennt vier “Grundprinzipien” an denen sich künftige Gesellschaften orientieren könnten: Fürsorge, Dezentralisierung, Gegenseitigkeit (zum Beispiel im Hinblick auf Transparenz) sowie Raum für Veränderung (und Ruhe um diesen zu verdauen) (S. 429 ff.).
Damit Demokratien überleben, bräuchten sie nicht nur “engagierte bürokratische Institutionen”, welche die Informationsnetzwerke überwachen, sondern auch Künstler:innen, “die die neuen Strukturen auf verständliche und unterhaltsame Weise erklären”. Interessant ist ein Hinweis im Epilog. Harari plädiert für globale Spielregeln. Wie ein Virus beeinflusst KI alle Menschen auf dem Planeten und kann nicht einfach national “isoliert” werden (S. 528).
Zukunft heisst, die normativen Grundsätze der künftigen Mensch-KI- Zivilisation festzulegen. Das Setzen der Prioritäten durch die Politik hängt von Narrativen ab, die häufig historische Wurzeln haben. Seriöse Zukunftsarbeit macht diese Narrative transparent.
Botschaft 5 KI braucht Prozesse der Selbstkontrolle
Der vermutliche wichtigste Punkt im neuen Buch von Harari ist der wiederholte Hinweis auf die Notwendigkeit der Selbstkontrolle in Informationsnetzwerken. Damit meint er Prozesse, die Fehler korrigieren und vermeiden, dass sich Vorurteile und Verzerrungen ungebremst fortpflanzen bzw. verfestigen.
Solche Kontrollmechanismen sind bei Diktaturen am schwächsten ausgeprägt, aber auch bei den alten Religionen sind sie quasi inexistent. Am besten sind sie in der Wissenschaft verankert, da deren Methodik geradezu darauf ausgelegt sei, Fehler und Lügen zu finden. Wenn KI zum zentralen Informationsnetzwerk digitaler Gesellschaften aufsteigt, sind solche Korrekturschleifen unerlässlich. Im Unterschied zu früheren Informationsnetzwerken kann KI selbst Ideen entwickeln. Die Coder:innen müssten sich bewusst sein, dass sie nicht “Werkzeuge” herstellen, sondern “unabhängige Akteure” und “möglicherweise sogar neue Götter”.
In der Skizzierung dieser Mechanismen der Selbstkontrolle bleibt Harari vage. Zum Beispiel verlangt er Prozesse, die belohnen, “wenn jemand die Wahrheit sagt” (S. 367.). Ein konkreter Hinweis findet sich zudem in der ständigen Überprüfung der Datensätze, die KI trainieren. Eine digitale Gesellschaft müsse, wenn sie an Chancengleichheit interessiert sei, in Diversität investieren und Vorurteile in der Programmierung vermeiden. Aber völlig freie vorurteilsfreie Trainingsdaten gebe es wohl nicht (S. 413).
Zukunft heisst, Selbstkontrolle in künstlicher Intelligenz zu verankern. Das bedingt Aufklärungsarbeit, um den Glauben an das naive Informationsverständnis zu brechen. Soll KI nicht die Macht der weissen Männer festigen, ist Diversität beim Codieren unverzichtbar. Wettbewerb zwischen IT-Konzernen hilft Machtmissbrauch zu verhindern. Die anspruchsvollste Aufgabe dürfte es sein, KI selbstreflexiv zu erziehen.
Kate Crawford “Atlas der KI” (2024, auf englisch: 2021)
Als zweites habe ich mir den “Atlas der KI” von Kate Crawford angeschaut. Gemäss Time Magazin gehört sie zu den einflussreichsten 100 Denker:innen im Bereich KI. Sie hat einen wissenschaftlichen Hintergrund und lehrt zurzeit an der University of Southern California. Crawford argumentiert interdisziplinär und tritt zudem künstlerisch in Erscheinung (Musik, Infografiken).
Crawfords Blick auf KI
Der Atlas von Kate Crawford bietet einen Überblick über sechs Themen, die KI beeinflusst: Erde, Arbeit, Daten, Klassifizierung, Affekt bzw. Gefühle und Staat. Diese Karten funktionieren alleine, wobei sich durch das Nebeneinanderlegen Zusammenhänge ergeben.
Wie der Untertitel “Die materielle Wahrheit hinter den neuen Datenimperien” verrät, argumentiert Crawford kritisch. Sie bietet dadurch eine alternative Perspektive zu den häufig allzu positiven und naiven Erzählungen von KI, die zurzeit in Büchern und an Konferenzen hemmungslos herumgereicht werden. Dies und die dichte Aneinanderreihung von Fakten und Beobachtungen machen das Buch ebenso wertvoll wie anspruchsvoll zu lesen.
Mit dem Atlas will Crawford Dinge sichtbar machen, die sonst verborgen bleiben. Das betrifft sowohl die Art und Weise wie KI entsteht, als auch deren Nebenwirkungen auf Mensch, Natur und Demokratie. In diesem Sinne ist es ein sehr politisches Buch.
Botschaft 1 KI beruht auf aggressiven Extraktionen
KI mag als virtuelles, unsichtbares Wesen daherkommen, doch ihre Rechenzentren und Chips brauchen viel Energie, Wasser und Rohstoffe. Crawford zeigt zum Beispiel die Abhängigkeit der KI-Zukunft von Lithium und seltenen Erden auf, wobei die Gewinnung dieser Rohstoffe die Umwelt belastet. Aus einer ökologischen Sicht ist weiter der “ökologische Fussabdruck” im Betrieb problematisch: in China beziehen Rechenzentren 73 Prozent ihres Stroms aus Kohle (S. 52).
Je digitaler die Welt wird, desto aggressiver werden die “Extraktionen”. Crawford wirft den Tech-Konzernen und deren CEOs ein “zutiefst verstörendes Verhältnis zur Erde” vor. Lieber würden sie im All Ressourcen schürfen als auf die Gesundheit des Planeten achten (S. 253). Genauso rücksichtslos sei die Nutzung menschlicher Fähigkeiten, um KI funktionsfähig zu machen. Sie verweist zum einen auf Cloud- und Clickworker, die für schlechte Löhne und ohne Jobgarantie primitive Trainingsaufgaben übernehmen. Zum anderen hebt sie die jungen, in der Regel männlichen Programmierer des Silicon Valley hervor, die sich selbst ausbeuten, um in den glamourösen Tech-Konzernen Erfolg zu haben.
Auch die Gewinnung von Daten folgt einer aggressiven Extraktionslogik. Sämtliche Inhalte des Internets und der sozialen Medien werden als Rohstoff verstanden, nach dem die Tech-Konzerne ohne unser Einverständnis schürfen. Diese Extraktion ist längst passiert und sie fand überdies an zusätzlichen, unerwarteten Orten statt – etwa bei Überwachungsvideos in Taxis (S. 122). Kritische Beobachtende sprechen von einem “Datenkolonialismus” (vgl. die Bücher Mejias & Couldry oder Echterhölter, beide 2024).
Zukunft heisst, die externalen Kosten transparent zu machen, die entstehen, um KI zu trainieren, zu nutzen und zu betreiben. Weiter muss es natürlich darum gehen, diese Kosten zu reduzieren.
Botschaft 2 KI multipliziert unterkomplexe Weltbilder
KI ordnet Wissen – und damit Weltbilder. Damit sie das tun kann, muss sie unaufhörlich “klassifizieren”. Die Einteilung der Welt beginnt bei der Auswahl der Trainingsdaten. Crawford deutet nicht nur auf die bekannten Probleme durch mangelnde Diversität (Alter, Geschlecht, Herkunft) hin. Sie arbeitet ebenso heraus, wie KI auf einem Weltbild basiert, bei dem man alles binär ordnen kann, zum Beispiel Gesichter in “männlich” und “weiblich”. Diese Klassifizierungen führen zu Wissensmaschinen, welche die Welt unterkomplex repräsentieren. Nuancen und Übergänge verschwinden (selbst wenn man beispielsweise eine dritte Kategorie bei den Geschlechtern einführt).
KI-Weltbilder sind zweitens geprägt vom Glauben an Unendlichkeit. Sehr gut verkörpert diese Vorstellung das Mantra, das Robert Mercer zugeschrieben wird “There’s no data like more data” (S. 111). Die KI-Apostel wollen – ganz im Sinne des naiven Informationsverständnisses von Harari – mehr und mehr Daten, um sämtliche Anwendungsfälle abzudecken und durch “einen kontinuierlichen Datenfluss” besser (als die Konkurrenz) zu werden (S. 126). Dabei gehen KI-Fans und -Betreibenden davon aus, dass die dafür notwendigen Rechenkapazitäten, Energien und materiellen Rohstoffen ewig und ohne Nebenwirkungen zur Verfügung stehen.
Drittens ist die Nutzung von KI durchdrungen vom Streben nach Effizienz und Profiten. KI ist in dieser Logik dann ein Erfolg, wenn sie viel genutzt wird, viele zusätzliche Daten generiert und ihre Besitzer viel Geld verdienen. Im Hype um KI sind Karrieren und Börsenbewertungen stark an deren Erfolg geknüpft. Crawford ergänzt, dass KI in Arbeitswelten genutzt wird, um das Maximum von Mitarbeitenden “herauszupressen” – sei es beim Lagermanagement, der Optimierung von Kurierrouten oder der Überwachung von Home-Office-Arbeitenden. Die dadurch realisierten Margen kämen Top-Management und Aktionären zugute.
Zukunft heisst, für die Konstruktionsprozesse von KI zu sensibilisieren. Die Kriterien bei der Auswahl der Trainingsdaten sollten stets transparent sein. Wir sollten uns darüber unterhalten, was wir warum nicht messen beziehungsweise nicht messen wollen.
Botschaft 3 KI-Anwendungen sind häufig nicht wissenschaftlich abgesegnet
KI-Anbieter machen uns glaubhaft, dass ihre Angebote wissenschaftlich fundiert sind. Doch das ist nach Crawford nicht immer der Fall. Konkret zeigt sie die Problematik am Beispiel der Gefühlsdiagnostik mit Gesichtern auf. Wissenschaftler:innen bezweifeln, dass Gesichtsausdrücke von Gefühlen universal, also überall auf der Welt, gleich sind. Überhaupt würden Gesichter Gefühle nicht zuverlässig vermessen (S. 166, S. 189 ff.).
Obwohl die wissenschaftlichen Grundlagen fehlen, kommen die Instrumente zum Einsatz - und können reale Folgen haben. Crawford macht auf Rekrutierungsinterviews aufmerksam, auf Gesichtsscans beim Autofahren (zwecks Vermeidung von Ablenkung oder Einschlafen, S. 168 f.) sowie auf Konsumsituationen – etwa beim Betrachten von Werbetafeln oder beim Scrollen in Social Media. Schulen könnten überprüfen, wie konzentriert die Schüler:innen im Unterricht sind (S. 169). Menschen, deren Gesichter schlecht in Trainingsdaten abgebildet sind, werden negativer beurteilt.
Die Anwendungsfälle kritisiert sie nicht nur als Ausprägungen des Überwachungskapitalismus (Shoshana Zuboff). Sondern KI könnte aufgrund falscher Annahmen (und schlechter Trainingsdaten) auch falsch entscheiden. Problematisch ist für Crawford schliesslich, dass die KI-Anbieter Anspruch auf “wissenschaftliche Neutralität” erheben, tatsächlich aber bei der Auswahl von Trainingsdaten, der Gestaltung der Arbeitsbedingungen und der Definition der Ziele sehr wohl normative und politische Urteile eine Rolle spielen. Diese Werturteile werden in der Regel nicht transparent gemacht.
Zukunft heisst, wissenschaftlichen Argumenten in der Entwicklung, Überprüfung und Evaluierung von KI mehr Bedeutung zu schenken. In Unternehmen sollten Wissensflüsse gestärkt und transparent werden, damit KI evidenzbasiert entwickelt und weiterentwickelt wird.
Botschaft 4 Beim KI-Wandel geht um Macht – nicht (nur) um Technologie
Crawford führt vor, wie viele Machtfragen sich in KI verstecken. Das beginnt bereits bei der Wahl der Trainingsdaten, wo Orte, Menschen, Themen, ausserhalb des Machtzentrums kaum berücksichtigt werden. Offensichtlicher sind die Machtfragen bei der Festlegung der Ziele von KI. Plakativ können die Antworten von KI helfen, die Klimakrise zu bewältigen oder mehr Produkte zu verkaufen.
Eine weitere Machtebene betrifft die Rolle von KI in der Geopolitik. Seit den 1950er-Jahren waren etwa amerikanische Geheimdienste und militärische Akteure wichtige Impuls- und Finanzgeber (S. 200 ff.). Das gilt bis heute, so sind Palantir, Microsoft und früher Google in die Entwicklung automatisierter Auswertung von Drohnenvideos involviert (Projekt Maven, S, 205 ff.). Die Fortschritte von KI seien eng mit dem Duell zwischen den USA und China verwoben, wobei Dual-Use-Anwendungen die Grenze zwischen dem kommerziellen und dem zivilen Sektor zusätzlich verwischen (S. 203).
Ein letztes Beispiel für die Macht durch KI ist innenpolitisch. Auch Behörden würden vermehrt KI-Systeme nutzen, zum Beispiel, um die Rückfallquote von Straftäter:innen zu beurteilen oder Sozialgelder zu verteilen. Das ist für Crawford problematisch, weil so die Denkweise der Tech-Konzerne im Sozialwesen Einzug hält oder die Problematik bei Trainingsdaten Folgen in der realen Verwaltungstätigkeit haben kann.
Zukunft heisst, KI-Strategien zu entwickeln - für Unternehmen und für Gesellschaften. Sie sollten zeigen, wo und warum KI zum Einsatz kommen soll und wo warum nicht. Aus europäischer Sicht kritisch: Man gehört einmal mehr nicht zu den wichtigsten Akteuren für Endkunden. Um aufzuholen scheint ein europäischer Ansatz ebenso unverzichtbar wie ein institutionenübergreifender.
Botschaft 5 Ein reflektierter Einsatz von KI setzt mehr Politik der Verweigerung voraus
Wie Harari fordert Crawford, allzu einfache KI-Narrative zu hinterfragen. Sie kritisiert sowohl dystopische wie utopische Varianten und hält diese für “metaphysische Zwillinge”. Beide Narrative argumentierten “zutiefst ahistorisch”, weil sie “Macht ausschliesslich in der Technologie selbst” (also nicht in Personen, Unternehmen und Staaten) lokalisieren. Es ergebe sich jeweils ein “technologischer Determinismus” – eine ohnmächtige Unterwerfung unter technologische Entwicklungen.
Dadurch sieht Crawford einerseits einen neuen Descartesischen Dualismus aufkommen (Trennung von Körper und Geist). Künstliche Intelligenzen würden hierbei zu “körperlosen Gehirnen”, die völlig unabhängig von ihren Schöpfern und ihren Infrastrukturen Wissen aufsagen und hervorbringen. Aufgrund der im Buch beschriebenen Extraktionen ist dies natürlich nicht der Fall. Anderseits verleite diese Argumentation, “systemische Kräfte” zu übersehen, die aus einem “zügellosen Neoliberalismus”, “durch Austeritätspolitik”, “rassifizierte Ungleichheit” und die “weit verbreite Ausbeutung von Arbeiterinnen und Arbeitern” folgen. Vermeintlicher Determinsmus kann Widerstand schwächen.
Aber um die Dinge wieder ins Lot zu bringen, fordert Crawford eine “Politik der Verweigerung” – “gegen das Narrativ der technologischen Zwangsläufigkeit, dem zufolge alles, was gemacht werden kann, auch gemacht werden wird”. Wir müssten nicht fragen, wo KI eingesetzt wird, sondern “warum sie überhaupt angewendet werden sollte” (S. 245).
Zukunft heisst, die Narrative zu beleuchten, die den Aufstieg von KI begleiten – inklusive deren historische Wurzeln. Es gilt auf KI zu verzichten, wenn andere Lösungswege mehr Sinn machen. Das kann heissen, aus KI-Projekten auszusteigen.
Eva Weber-Guskar “Gefühle der Zukunft” (2024)
In der dritten Folge zu Zukunftsfragen in aktuellen KI-Büchern dreht sich alles um Gefühle. Der Überblick widmet sich sowohl den Gefühlen von Menschen als auch denjenigen von Robotern und Künstlichen Intelligenzen. Verfasst wurde “Gefühle der Zukunft” von Eva Weber-Guskar. Sie ist seit 2019 Professorin für Ethik und Philosophie der Emotionen an der Universität Bochum.
Weber-Guskars Blick auf KI
Weber-Guskar setzt sich in ihrem Buch intensiv mit dem Zusammenspiel von künstlicher Intelligenz und menschlichen Gefühlen auseinander. Wie sie mit ihrem Untertitel “Wie wir emotionaler KI unser Leben verändert” andeutet, geht sie von überraschenden Entwicklungen in den nächsten Jahren aus. Auf ihrem spannenden Rundgang tangiert sie Fragen wie “Kann KI unsere Gefühle erkennen?”, “Wird KI Gefühle haben?” oder “Sollen und können wir Gefühle für KI entwickeln”.
Weber-Guskar argumentiert ebenso wissenschaftlich wie differenziert, weder verteufelt sie noch verherrlicht sie. An vielen Stellen weist sie darauf hin, dass sich die besprochenen Technologien rasch weiterentwickeln. Sie macht für die Lesenden deutlich, wo sie über bereits existierende Fälle nachdenkt und wo sie die Zukunft antizipiert und bewertet. Diese reflektierte Herangehensweise überzeugt, weil dadurch eine sachliche Diskussion möglich wird. Genauso fördert ein ausgewogenes Buch den bewussten Einsatz beziehungsweise die reflektierte Weiterentwicklung von KI. Sie setzt in dieser Entwicklung dort Grenzen, wo es nur darum geht, Menschen zu ersetzen und dort, wo unsere Gefühle durch KI-Wesen zu sehr durcheinander geraten könnten (S. 78).
Die Auseinandersetzung mit dem Thema der Gefühle finde ich vor allem deshalb spannend, weil sonst immer aus der Optik der Information über KI, Fortschritt und Zukunft nachgedacht wird. Doch Gefühle sind genauso wie der Fluss von Informationen etwas, das uns menschliche Spezies auszeichnet.
Botschaft 1 Menschen bleiben in einer KI-Zukunft Gefühlswesen
Menschen sind “Gefühlswesen” (S. 80) - und selbst in einer Zukunft, die noch mehr als heute von Information geprägt sein wird, sind es unsere Gefühle, die uns als Menschen auszeichnen. Ihrer Bedeutung ergibt sich einerseits durch ihre Funktion als Wahrnehmungsfilter. Sie erlauben uns zu erkennen, was wichtig ist. “Ohne Emotionen und Stimmungen ginge uns nichts etwas an” (S. 36). Dadurch unterstützen uns unsere Gefühle beim Selektionieren, Priorisieren und Fokussieren. Sie zeigen uns, was wir lernen und verändern möchten.
Anderseits funktionieren Gefühle als eine Art “Leim” in sozialen Beziehungen. Etwas gemeinsam zu erleben, verbindet. Und wenn wir unsere Gefühle gegenüber anderen öffentlich machen, schafft das Nähe, Vertrauen und eine Basis, um gemeinsam zu wachsen. Im Austausch miteinander erfahren wir, wie das Sprechen über Gefühle unsere Beziehungen vertieft und wertvoller macht (S. 73). Aus diesen zwei Gründen sind KI-Designer stark unseren Gefühlen interessiert.
Doch Weber-Guskar wiederholt die Kritik von Kate Crawford an der Gefühlsdiagnostik durch KI. Sie erkenne (durch Scans von Körperdaten oder unserer Gesichter) vielleicht Ausprägungen unserer Gefühle. Aber ihre Einteilung sei bisher sehr grob und erlaube nur die Einteilung in Freude, Trauer, Furcht, Ärger, Ekel (S. 66). KI “sehe” die “Objekte” unserer Gefühle nicht, also warum wir glücklich oder wütend seien. Das wäre nötig, um Emotionen in ihrer Komplexität zu erfassen.
Zukunft heisst Städte, Arbeitswelten, Technologien und Fortschritt nicht nur aus Brille der Information zu betrachten, sondern auch aus der Perspektive unserer Gefühle. Wie können uns Gefühle helfen, das richtige zu tun? Wie werden sie zum Kompass für unsere persönlichen und kollektiven Zukunft?
Botschaft 2 KI unterstützt unsere Gefühlsarbeit.
Weber-Guskar befürwortet es, wenn KI in der persönlichen “Gefühlsarbeit” unterstützt. Sie helfe, Emotionen frühzeitig zu erfassen und präziser zu benennen. Für das Gefühlswesen Mensch ist diese Selbstreflexion nicht nur zentral, um sich selbst als “stimmig” zu erleben. Genauso kann er so seinen emotionalen Ordnungsmechanismus optimieren. Über die innere Landschaft Bescheid zu wissen, sei für ein gutes Leben viel wichtiger, als “Geschichtsdaten oder die geografische Lage von Orten auswendig zu kennen”. (S. 72).
KI helfe, diffuse Gefühlslagen zu entschlüsseln und die Sensibilität unseren Emotionen gegenüber zu stärken (S. 80). Wichtig sei aber, dass der Mensch seine Unabhängigkeit von der Maschine sicherstelle, um Selbstwirksamkeit zu erfahren (S. 72). Dieses Argument ist nicht nur im Hinblick auf die Gefühlsarbeit interessant, sondern auch in Bezug auf Wissen. Unsere Selbstwirksamkeit ist weniger gross, wenn wir KI bitten einen Text zu schreiben, als wenn wir diesen selbst verfassen.
Selbstreflexion ist anstrengend. Gefühle gehen und vergehen rasch, Gefühlsarbeit nimmt nie ein Ende. Weber-Guskar sieht deshalb eine Gefahr, dass wir weniger differenziert über unsere Gefühle nachdenken könnten, wenn wir ständig die Maschine dazu aufrufen. Verlernen wir zu fühlen, wenn andere sagen, was wir fühlen sollten? Ausserdem befürchtet sie eine Vereinsamung und eine Schwächung des Gemeinschaftlichen durch Gefühls-KI. Wenn wir uns verstärkt an Maschinen wenden, um unsere Gefühle zu klären, würden wir gleichzeitig unsere menschlichen Kontakte vernachlässigen.
Zukunft heisst unseren Gefühlen mehr Aufmerksamkeit zu schenken – in Gesprächen mit Maschinen und natürlich mit anderen Menschen. Im Sinne der Liebe zum Ort sollten wir in analoge Räume investieren, die Begegnungen zwischen Menschen möglich machen.
Botschaft 3 Gefühls-KI macht uns vulnerabler
Weber-Guskar erwartet in Zukunft mehr KIs, die Unternehmen, Behörden, Politikerinnen und Werbenden etwas unsere Gefühle verraten. Sie wollen unsere “Tauglichkeit” und “Verhaltenswahrscheinlichkeiten” überprüfen: “Ist jemand akut in der Lage, sicher ein Auto zu steuern? Wird jemand wahrscheinlich ein bestimmtes Produkt kaufen, oder wird jemand anderes wahrscheinlich etwas kaufen?”.
In Autos würden überwachende KI-Kameras bald zum Standard gehören und auch in der Kriminalitätsprävention würden sich Anwendungen ausbreiten (S. 109). Dolche Zukünfte sind gesellschaftspolitisch nicht gefahrlos. Wie im Film Minority Report könnten Verdächtige künftig vorsorglich festgenommen werden. Ausserdem wiederholt Webe-Guskar die Gefahr der Fehleranfälligkeit der Systeme (die mitunter auf die bei Crawford herausgearbeiteten Probleme bei Trainingsdaten zurückzuführen sind). “Bestimmte Bevölkerungsgruppen” könnten von KI häufiger falsch verdächtig werden (S. 111).
Die Privatsphäre zu gewähren, sei essenziell, um Menschen vor Überwachung aber auch vor Manipulation und Diskriminierung zu schützen. Das gilt für Gefühle noch mehr als für Informationen, weil wir diese weniger kontrollieren können als unsere Taten und weil unsere Gefühle unser Verhalten steuern. “Wenn jemand Informationen über meine Emotionen oder Stimmungen hat, bin ich leichter manipulierbar” (S. 122) – in der Werbung, beim Daten, in Wahlsituationen. Letztlich will Weber-Guskar die Autonomie des Individuums schützen.
Zukunft heisst in den Schutz der Privatsphäre zu investieren. Das kann durch Regulierung passieren, etwa um das Scannen von Gefühlen im öffentlichen Raum zu verbieten. Doch auch andere sind gefordert, etwa die Bildung. Damit sich Menschen nicht von KI (beziehungsweise deren Konzerne) manipulieren lassen, braucht es einerseits Wissen über KI und (die Ökonomie der KI) und anderseits eine achtsame Nutzung von KI.
Botschaft 4 Durch KI entstehen neue Gefühle und neue Beziehungstypen
Weber-Guskar zeigt sich sehr offen gegenüber der Möglichkeit, dass wir künftig Gespräche mit KIs führen und sogar Gefühle für diese entwickeln (S. 178). Ein Beispiel dafür ist die App Replika - eine therapeutische Freundin. Ein anderes Beispiel für eine befreundete KI ist ein ChatGPT basierter Pfarrer mit hervorragenden Bibel-Kenntnissen. Ein Grund für die Offenheit von Weber-Guskar ist die Einsamkeit, die eines “der grossen Themen der Gegenwart” sei (S. 137). Zudem erweitert der Dialog mit KI das Menschsein um ein neues “Gefühlsrepertoire” (S. 178).
Man solle Beziehungen zu KIs aber als “neue Art von Beziehung” denken, etwa so, wie wir zu unseren Haustieren eine spezifische Art von Freundschaft entwickeln. Es sei wichtig zwischen “fiktionalistischen” und menschlichen Beziehungen zu unterscheiden (S. 173). KI hätte kein Bewusstsein und fühle nichts, sie “spuckt Ergebnisse von Berechnungen aus” (S. 133). Zwar lässt Weber-Guskar offen, wie das in Zukunft sein wird, aber im Moment sei KI kein lebendiges Gegenüber. Wer nicht zwischen fiktiv und real unterscheide, habe ein Problem mit seiner “Realitätswahrnehmung” (S. 153). Es handle sich nicht um ausgeglichene, nicht um wechselseitige Beziehungen. Weiter könne es zu “komplizierten Selbstverhältnissen” kommen, wenn jemand stets fiktionalisistische Beziehungen bevorzuge. Wer oder was bin ich in einer Gesellschaft der Menschen, wenn ich KI gegenüber Menschen bevorzuge?
Es könnte für das Zusammenleben in einer Gesellschaft problematisch sein, wenn Menschen künftig immer häufiger Chatbots den Vorzug geben. Was genau passieren würde, beschreibt sie nicht. Sie erwähnt allerdings, dass wir durch die Beziehungen zu KI vielleicht Menschen vernachlässigen würden, die leiden.
Zukunft heisst, sich offen für neuartige Gefühle gegenüber und neue Beziehungsformen mit KI-Wesen zu zeigen. Manche werden sich verlieben, andere sich therapieren lassen, dritte ihre Einsamkeit lindern. Doch je mehr fiktionale Beziehung unser Leben prägen, desto wichtiger ist die Reflexion der eigenen Gefühle und Beziehungen.
Botschaft 5 Entwickelt keine humanoiden Roboter
So offen sich Weber-Guskar an vielen Stellen im Themenfeld “Zukunft der Gefühle” zeigt, so klar äussert sie sich in der Frage, ob wir Maschinen entwickeln sollten, die selber Gefühle empfinden können. Sie rät insbesondere davon ab, “Schmerzempfindlichkeit”, aber auch “persönliche Frustration oder Enttäuschung oder gar moralische Emotionen, wie Dankbarkeit, Schuld und Wut” nachzubilden (S. 202). Gleichzeitig ist sich bewusst, dass Tech-Konzerne genau solche Emotionen der KIs und Roboter anstreben. Je emotionaler eine Maschine reagiere, desto grösser sei unsere Bindung.
Ihre klare Positionierung, nicht in diese Richtung zu forschen und zu entwickeln, begründet sie mit drei Argumenten. Erstens will sie die Gefahren der “Anthropomorphisierung” vermeiden. Sie denkt an die “Gefahr der Täuschung, die Gefahr der Vermischung von Wirklichkeit und Fiktion, die Gefahr der Verzerrung der moralischen Gewichtung und die Gefahr der Vernachlässigung von anderen Beziehungen” (S. 206). Zweitens lebten wir schon heute in einer Welt, in der es zu viel Leid gebe. Warum eine weitere Spezies entwickeln, die zusätzliches Leid in die Welt bringt? Drittens: Wenn KI und Roboter Gefühle empfinden, wären wir verpflichtet, dieses Leid ernst zu nehmen.
Das würde uns in der Arbeitswelt vor ein grosses Problem stellen. Bisher wurden Roboter vor allem entwickelt, damit sie uns lästige, schmutzige und gefährliche Arbeit abnehmen (“dirty, dangerous, dull”, S. 226). Sobald nun aber Roboter beziehungsweise künstliche Intelligenz selbst Leid empfinden könne, würden sie sich vielleicht wehren, die stupide Arbeit zu übernehmen, die wir Menschen nicht machen wollen.
Zukunft heisst, die Geisteswissenschaften durch interdisziplinäre Projektgruppen stärker in die Weiterentwicklung von Robotern und Avataren zu involvieren. Bevölkern wir unseren Planeten tatsächlich mit fühlenden KIs müssten wir auf deren Gefühle genauso achtgeben, wie wir den Gefühlen unserer Haustiere entgegentreten. Ein Negativanalogie ist der unser Umgang mit Nutztieren.
Holger Volland “Overload” (2023)
Das vierte Buch, das ich mir bezüglich KI-Zukünften angeschaut habe, ist “Overload” von Holger Volland. Er ist CEO des Medienverlags brand eins – und dieser Blickwinkel auf KI wird in seinem Buch auch deutlich. Er widmet sich sowohl medienpolitischen als auch medienökonomischen Fragen einer digitalen Zukunft, in der es von KI generierten “synthetische Inhalte” nur so wimmeln wird.
Vollands Blick auf KI
Nachdem im letzten Buch von Weber-Guskar die Gefühle im Vordergrund standen, kehren wir zurück zu den Informationen. Volland fragt in seinem kompakten Text, was passieren wird, wenn KI wahnsinnig viel synthetische Inhalte produzieren wird. Damit meint er Bilder, Texte, Musik oder ganze Filme, die KI mehr oder weniger autonom herstellt und ins Internet beziehungsweise die sozialen Medien lädt. Die Untertitel des Buches verraten, um welche Fragen es Volland geht: “Die Medienflut kommt. Was ist noch echt, was Fake?”
Im Unterschied zu den bereits besprochenen Büchern hat “Overload” einen stärkeren Fokus auf wirtschaftliche Fragen, wobei vor allem die Contentproduktion und das Marketing diskutiert werden.
Botschaft 1 KI führt uns in eine synthetische Fake Welt
Holger Volland lässt keinen Zweifel daran, dass ein grosser Teil der künftigen digitalen Welt “synthetisch” sein wird. Damit meint er Inhalte, die zumindest teilweise von künstlicher Intelligenz produziert wurden. Ausgangspunkt seiner Recherche bildete eine Schlagzeile, wonach künftig “90 Prozent” der Online-Inhalte durch KI produziert sein würden. Wie er in seiner Einleitung zeigt, ist die Schlagzeile ein gutes Beispiel für eine Schlagzeile, die sich durch unreflektiertes Copy Paste und oberflächliche Recherchen unkontrolliert im Internet verbreitet.
Die in der Schlagzeile enttarnt er als beiläufige Schätzung und er versucht durch Argumente mehr Substanz in die Synthetik zu bringen. Vor allem bei “flüchtigen Inhalten”, die wir auf dem Smartphone konsumieren, erwartet er eine drastische Zunahme synthetischer Inhalte. Dasselbe gilt für “Gebrauchsinhalte” zum Beispiel für Termineinladungen oder die Zusammenfassung von Sitzungen (S. 27). Wir alle würden bald einen Klon der eigenen Stimme haben (S. 74) und dieser generiert dann weitere synthetische Inhalte. Auch für das Design der unendlichen Welten in Videospielen und im Metaversum werde unweigerlich viel KI zum Einsatz kommen. Schliesslich geht Volland für die Werbung und die Sozialen Medien von einer starken Synthetisierung aus – was zweifelsohne Auswirkungen auf das Marketing und die politische Kommunikation haben wird.
Grund für die Nutzung von KI zur Generierung dieser Inhalte ist zum einen die Personalisierung. Durch die Nutzung von Daten über die Bedürfnisse und Interessen der Nutzer:innen (oder über deren Stimmungen und Gefühle) lassen sich Botschaften personalisieren. Dasselbe gilt für die Auswahl von Bildern. Zum Beispiel kann ein Wellnesshotel in den Bergen je nach Nutzer seine Werbegeschichte ganz anders erzählen und wahlweise mit Foodporn oder moderner Architektur bebildern. Ein zweiter Grund sind die Kosten: KI-Inhalte zu generieren ist günstiger als eine Fotografin, einen Grafiker und eine Typografin zu engagieren.
Zukunft heisst, Menschen mit kreativen Fähigkeiten zu unterstützen – durch unsere Aufmerksamkeit und unser Geld. Wir sollten bewusster posten, bewusster lesen, bewusster liken – bewusster digital konsumieren.
Botschaft 2 Die Kreativität von Menschen und Maschinen ist nicht mehr zu unterscheiden
Am stärksten “verschont” bleibt gemäss Volland die Produktion von Filmen, aus dem einfachen Grund, dass hier verschiedene Medien integriert (Bild, Text, Ton) werden müssen. Zwar werde Musik in Fahrstühlen und Lobbys künftig von KI komponiert und eingesungen, aber an einem Konzert und für ein gemütliches Nachtessen zu Hause wollen wir Menschenmusik.
Allerdings sei der Unterschied in menschlicher und maschineller Kreativität künftig kaum mehr zu unterscheiden (S. 58). Das gelte für die gesamte “Alltagskreativität”, die uns umgebe – von leichten Popsongs über Einladungskarten für Hochzeiten und Gutenacht-Geschichten für Kinder. “Selbstverständlich” werde es Ausnahmen geben, wobei es Volland schwerfällt, diese zu präzisieren. Er verweist auf die Architektur von Tadao Andõ oder ein Konzert einer Strassenmusikerin, vermeidet aber Verallgemeinerungen. Berühren würden uns menschliche Kunst, wenn es “Ausnahmen” seien, “Besonderheiten, Randerscheinungen” (S. 59).
In einer Welt der synthetischen Medien würde uns immer häufiger die “Sehnsucht und Rückkehr zum Menschengemachten” begegnen (S. 66). Wir wollen ein Konzert hören, weil die Musikerin Fehler macht, Gefühle zeigt, jeder Liederabend anders als der andere ist. Aber werden wir auch für ein Buch, eine Weihnachtskarte, ein Logo bezahlen, das vergleichsweise sehr viel kostet?
Zukunft heisst, analoge und digitale Kunst zu fördern. Menschen sollten in Zeit «investieren», in der wir ohne Bildschirme und ohne Algorithmen leben, um in einer immer synthetischeren Welt das Menschliche bewahren. Nicht weil dieses zwingend besser ist als das synthetische sondern weil Vielfalt immer smarter oder langfristiger gedacht ist als Monokultur.
Botschaft 3 KI disrupiert die Wissensarbeit
In Vollands Buch geht es auch um die Zukunft der Arbeit, wobei er mehrheitlich über die Zukunft der Wissensarbeit, der Kulturarbeit sowie der Wissenschaft schreibt. KI sei sehr gut für Übersetzungen geeignet oder auch für das Herausarbeiten von Kernpunkten und die Literaturrecherche. “Hochexplosiv” sei das “Feld wissenschaftlicher Publikationen”. Denn KI könne auch sehr gut Datensätze analysieren, Muster erkennen und Vorhersagen treffen, “die für menschliche Forschende nicht so einfach zu erschliessen sind”. (S.44)
KI-Modelle können tausende wissenschaftliche Artikel scannen und die “relevantesten Informationen extrahieren”. Das beschleunige den Forschungsprozess “erheblich”. Offen bleibt was Forschende (und die gesamte Gesellschaft) mit der gewonnenen Zeit tun sollen. Wenn KI künftig intensiv mitforscht – wie die gelesenen Bücher alle assoziieren – stellt sich neben der Zeitfrage noch dringender die Frage, an welchen Fragen geforscht werden soll und welche Probleme die Menschen mit Hilfe der Wissenschaft lösen möchte.
Interessant und für das heutige Bildungssystem äusserst provokativ sind die Äusserungen Vollands zur Bildung. Er geht von einer starken Zunahme synthetischer Inhalte in Schulen und Hochschulen aus. E-Learning-Plattformen würden zukünftig personalisierte Lehrbücher zur Verfügung stellen. Das Lehrbuch wird zum Chatbot und dieses generiert personalisierte Übungstests, um sich auf die abschliessenden Prüfungen vorzubereiten. Was man in einem solchen Szenario thematisieren muss: auf welche geteilten Inhalte beziehungsweise Wissensbausteine sind Gesellschaften, damit sie nicht auseinanderfallen.
Zukunft heisst, zu diskutieren, welches Wissen die Menschheit im 21. Jahrhundert braucht. Es kann sich lohnen, hier auch KI-Modellen zuzuhören, weil diese nicht emotional reagieren und keine «Aktien» an der Vergangenheit besitzen.
Botschaft 4 Wahrheit in einer synthetischen Welt ist teuer
In einer synthetischen Welt könnte es immer schwieriger werden, das gute vom schlechten und das richtige vom falschen zu trennen. Wir werden uns noch mehr als heute die Frage stellen: Ist das ein Fake? Jedes Bild, jeder Text, jedes Video könnte gefälscht sein – von einem Menschen oder noch wahrscheinlicher von einer Maschine, der man den Auftrag zur Fälschung erteilt hat. Wahrheit zu manipulieren, wird nichts mehr kosten. Das aber macht Wahrheit teuer. Wir sind sowohl auf Instanzen angewiesen, welche die Nadeln im Heu suchen wie auch auf Mechanismen, die das Echte und Wahre kennzeichnen.
Das erste Versprechen verläuft über Medien, die das Durcheinander für uns aufzuräumen. In Zukunft sei nicht mehr der “Zugang zur Vielfalt Luxus,”, sondern “vielmehr die Begrenzung, die Kuratierung, die Einschränkung” (S. 67). Das Filtern ist eine Aufgabe, die bereits heute Qualitätsmedien erfüllen. Sie filtrieren und übernehmen dadurch eine Gatekeeper-Funktion, um in allem multimedialen und in Zukunft synthetischen Lärm die relevanten Stimmen zu hören und für uns zusammenzufassen. Doch wird sich vielleicht noch akzentuierter als heute die Frage stellen, wer bereit ist, in einem Zeitalter wo alle Information scheinbar kostenlos vorhanden ist (und durch KI sogar gratis zusammengefasst wird), zu bezahlen.
Abos für Qualitätsmedien sind genauso teuer wie Instanzen, die Fakten und Geschichten auf ihren Wahrheitsgehalt überprüfen. Um die Wahrheit zu überprüfen, wird es nicht reichen, einfach einen Chatbot zu befragen. Man muss sich in die Tiefenschichten graben – bis man bei den Originalstudien in der Originalsprache beziehungsweise bis man zu den Menschen vorgestossen ist, die man in einem persönlichen Gespräch befragen kann. Das kostet Zeit und Aufmerksamkeit. In Zukunft werden Medienmarken noch mehr als heute die Wahrheit bezeugen müssen. Sie können dieses «Markieren» zusätzlich stärken, indem sie in digitale Wasserzeichen und ähnliches investieren, die digitale Inhalte besser als heute vor Kopien und Umgestaltung schützen.
Zukunft heisst, Steuergelder in das Kuratieren und in die Überprüfung von Inhalten durch Qualitätsmedien zu investieren – sofern man daran interessiert ist, Lüge und Wahrheit zu trennen.
Botschaft 5 KI ist der grösste Markt oder Raubzug der Geschichte
Volland zeigt die Märkte einer KI-Wirtschaft auf. Er unterscheidet vier verschiedene “Schalen”. Im innersten Kreis lokalisiert er die Unternehmen, welche die Daten sammeln, für KI aufbereiten und in Form von Chatbots zur Verfügung stellen. Darauf folgt eine zweite Schale von Unternehmen, die es braucht, damit diese Wertschöpfung überhaupt generiert werden kann, zum Beispiel Hardware-Unternehmen. Der Bedarf an “Technik für Computer, Server, Netzwerke” würde “in den kommenden Jahren stark anwachsen” (S. 119)
Es folgen Schale drei und vier mit Unternehmen, die indirekt vom KI-Boom profitieren. Dazu gehören einerseits Unternehmen, welche die KI-Modelle ausdifferenzieren, verknüpfen und spezifische Branchenlösungen entwickeln. Sie würden zum Beispiel dafür sorgen, dass “Menschen in einer Fabrik mit Produktionsrobotern per menschlicher Sprache interagieren”. In der äusserten Schale folgen schliesslich Unternehmen, die KI “für sich arbeiten lassen” und dadurch die “gesamte Bandbreite an Dienstleistungen von Webdesign über medizinische Hilfsdienste bei zur Steuererklärung anbieten” (S. 120).
Man kann diese Märkte je nach Optik als riesige Chance, als Hype oder als “grössten Raubzug in der Geschichte” verstehen (S. 101). Wie bereits im KI-Atlas sichtbar, wurden wir alle digital enteignet, damit die KI-Modelle entstehen können. Zwar könnte man die entstehenden Modelle und die entstandene neue Form von Intelligenz als Allgemeingut, als Allmende betrachten, weil wir sie (freilich gegen Eintrittsgebühr und noch mehr Daten) benutzten dürfen. Allerdings sind es primär die grossen Konzerne, die künftig die Profite einstreichen – und wie bei Harari gelesen, über immer mehr kapitalistische sowie ordnende politische Macht verfügen. Das geht so lange gut, wie sie an einer freien Gesellschaft interessiert sind, in der es für Vielfalt und Kritik Platz hat.
Zukunft heisst, Autorinnen und allgemein Kreative zu entschädigen, die durch ihr digitale Inhalte die KIs füttern. Basis KI-Modelle sollten ähnlich wie Wikipedia auch in Zukunft von allen Nutzenden kostenlos genutzt werden können.
Sara Weber “Das kann doch jemand anders machen” (2024)
Als fünftes habe ich mir das KI-Zukunftsbuch von Sara Weber angeschaut. Nach einem Studium der Publizistik und Buchwissenschaften besuchte die deutsch-US-amerikanische Autorin die Journalistenschule. Bevor sie zu LinkedIn wechselte und dort die Redaktionsleitung für die DACH- und Benelux-Regionen übernahm, arbeitete sie als freie Journalistin u. a. für die Süddeutsche Zeitung. Ihre neue Publikation schliesst an das im letzten Jahr erschienene Buch “Die Welt geht unter, und ich muss trotzdem arbeiten?”, in dem sie sich ebenfalls mit guter Arbeit beschäftigt hat.
Webers Blick auf KI
In Webers Buch “Das kann doch jemand anderes machen! Wie KI uns alle sinnvoller arbeiten lässt” stehen die Auswirkungen von KI auf die Arbeitswelt im Vordergrund – ein zentrales Zukunftsthema, das die bisher analysierten Texte nicht explizit beleuchten. Weber diskutiert aktuelle Trends, stellt Zukunftserwartungen aus Studien vor und formuliert Wünsche an eine bessere, gerechte Arbeitswelt. In diesem Vorhaben geht sie etwas weniger präzise und eng als die bisherigen Autorinnen und Autoren vor, ihr Zugang ist journalistisch, nicht streng wissenschaftlich.
Sara Weber gelingt es in ihrer Auseinandersetzung aber die zentralen Punkte zu benennen, die für das Design einer KI-unterstützten Arbeitswelt entscheidend sind. Das Buch ist vor allem deshalb eine sinnvolle Ergänzung, weil die Arbeitswelt ein Ort ist, wo die Auswirkungen von KI schon heute spürbar werden. Entsprechend emotional sind wir involviert. Es geht nicht nur um einen Grossteil unserer Zeit und damit unsere Identität, sondern auch um unser Einkommen.
Botschaft 1 Eine von KI dominierte Arbeitswelt ist wahnsinnig langweilig
Langeweile droht im Büro der Zukunft zum einen durch unsere Durchschnittlichkeit. Wir sind faul und setzen KI für immer mehr Arbeitsschritte ein. Und weil es mit KI einfacher wird, Inhalte zu kreieren, “wird es viel mehr durchschnittliche Inhalte geben, die das Internet, unsere Inbox und unsere Arbeitswelt fluten”. (S. 171). Es sind die synthetischen Inhalte, die bereits Volland in seinem Buch “Overload” behandelte. Als Beispiele führt Sara Weber die Pressearbeit auf, den Journalismus, das Grafikdesign und die Videoproduktion.
Durchschnittlichkeit entsteht, weil die Inhalte digital geglättet werden. Alles sieht ungefähr gleich aus und wird gleich strukturiert, weil alle dieselben Maschinen nutzen und sich kaum jemand getraut, aus dem Rahmen zu fallen. Wissens- und Marketinghäppchen werden so aufbereitet, dass sie die Maschinen verstehen, die Algorithmen fleissig verbreiten und die Nutzer:innen brav liken. Durch den Rechenfleischwolf gedrückt, bleiben die kritischen Stimmen aus, werden Ecken und Kanten abgeschliffen.
Schliesslich warnt Weber vor einer “Boring Apocalypse”, einer “Klickwelt aus der Hölle, mit uns als Menschen als Robotern, die als Verbindungsstelle zwischen zwei Maschinen sitzen, als moderne Variante der Telefonistin” (S. 198). In dieser Zukunft (die wohl vielerorts bereits Gegenwart wurde), weisen wir die KIs an, eine Zusammenfassung einer Präsentation (die durch KI generiert wurde) an eine Kollegin weiterzuleiten und einen Termin zu suchen, um die Folien zu besprechen. Das Gegenüber liest aber nicht einmal die Zusammenfassung, sondern weist Chat GPT an, die Zusammenfassung zu zusammenzufassen. Merken wir überhaupt, dass wir selbst Maschinen werden?
Zukunft heisst, Menschen nicht zu Klick-Maschinen zu deformieren. Dazu braucht es Mut, die Maschine nicht zu benutzen, etwas zu posten, das vielleicht nicht viele Likes erhält und sich gegen das “System” ausspricht. KI-freie Zeiten und Räume erhalten die Kreativität – zum Beispiel Offline-Freitage. In der Schulung von KI sollte neben der Effizienz die Qualität von Inhalten Platz haben (z.B. Präzision, Nachvollziehbarkeit, historische Tiefe, Kreativität).
Botschaft 2 Deine Chefin könnte eine KI sein
Weber diskutiert eine Zukunft, in der unsere KIs unsere Chefs sind. Wichtig scheint zunächst zwischen Führung und Management zu unterscheiden. Im sachlichen Management (verstanden als dem Gewichten von Problemen, Themen und Innovationen) könnte es durchaus Sinn machen, KIs zu vertrauen. Diese können nicht nur viel mehr Daten als Menschen verarbeiten, sondern entscheiden auch rationaler. Gerade bei Exnovationen kann diese Rationalität hilfreich sein, weil exponentielle Entwicklungen besser geschätzt und Pfade der Vergangenheit nicht überbewertet werden. Weber argumentiert weiter mit den Kosten in Millionenhöhe, um das Top-Management zu entschädigen. Werden sie durch günstige KI-CEOs ersetzt, müsste aber im Sinne Hararis transparent sein, auf welcher Grundlage KI Entscheidungen trifft.
Schwieriger zu beurteilen wird das Szenario, wenn es um das Führen von Menschen geht. Hier stehen Bedürfnisse im Vordergrund, Menschen wollen gesehen und wertgeschätzt werden, Feedback erhalten und sich entwickeln. Das hat viel mit Gefühlen zu tun – was alle Ausführungen von Weber-Guskar zurück ins Spiel bringt. Sara Weber wirft die spannende Frage auf, mit wem wir KI-Führungskräfte vergleichen sollten. Wählen wir die besten, die schlechtesten oder die durchschnittlichen Chefs als “Vergleichsgrösse” (S. 150)? In diesem Vergleich müssten wir weiter berücksichtigen, dass schlechte Chefs viel kaputt machen können und als zentraler Grund gelten, warum Mitarbeitende künden. “Kann es nicht sein, dass ich lieber eine verständnisvolle KI zur Vorgesetzten hätte, als einen cholerischen Chef?” (S. 157).
In die Diskussion von Führung lässt Weber geschickt noch einen weiteren Aspekt einfliessen: Die Tatsache, dass junge Menschen heute wenig Lust zeigen, eine Führungsrolle zu übernehmen. Sie scheuen die Arbeit am Abend und am Wochenende, die öffentliche Exponierung, das Zerreiben in der Mitte der Organisation. In Deutschland ist es gemäss Weber gerade noch ein Drittel, das führen will. Diese Un-Lust stellt die ganze Pyramide der Arbeitswelt in Frage. Trotzdem sieht Weber den Einsatz von KI nicht als Patentrezept – vor allem weil Menschen Reibung, Konflikte und Krisen bräuchten, um zu wachsen (S. 157).
Zukunft heisst Erfahrungen mit Maschinen-Führungskräften zu sammeln. Sie könnten dort zum Einsatz kommen, wo das Kombinieren von Informationen und das rationale Entscheiden im Vordergrund steht. KI könnte Freiräume schaffen, damit mehr Zeit für die menschlichen Aspekte von Führung übrigbleibt. Menschliche Führungskräfte sollten zum einen Visionen und ethische Leitlinien entwickeln und zum anderen andere Menschen in ihrer Entwicklung unterstützen.
Botschaft 3 Organisiert Arbeit neu
Weber macht in ihren Überlegungen zur künftigen Arbeitswelt eine interessante Analogie zur industriellen Revolution beziehungsweise zum Aufkommen der Elektrizität. Diese hätte ihren wahren “Boost” entfaltet, “als die Produktion neu organisiert wurde (S. 182). Strom hätte es ermöglicht, die Maschinen nicht mehr nach ihrer Energieintensität “rund um die Energiequellen” aufzustellen. Sondern die Maschinen konnten nun so positioniert werden, wie es “für die Arbeitsabläufe am meisten Sinn ergab, “mit Fliessbändern und beweglichen Maschinen”.
Um die ineffizienten Problemzonen der heutigen Arbeitswelt zu beschreiben, greift Weber auf Beispiele zurück. “Ist es produktiv, den ganzen Tag in Meetings zu sitzen, auf E-Mails zu antworten und Slack-Nachrichten zu schicken und erst am Feierabend Zeit für die eigentliche Arbeit zu haben” (S. 183). Diese Beispiele sind ebenso einleuchtend wie der Hinweis auf eine MIT-Studie, die besagt, dass Mitarbeitende ChatGPT bisher primär nutzen, um ihren Arbeitsaufwand zu reduzieren und viel weniger, um ihre Arbeit besser zu machen - etwa wenn KI beim “Brainstorming hilft” oder Entwürfe im “Ping Pong” verbessert werden (S. 188). Der relevante Baustein, den sie zu wenig ausarbeitet, ist wie Arbeitsstrukturen redesignt werden müssen, damit sich die Produktionsversprechen der KI tatsächlich realisieren.
Weber verweist auf Fake-Arbeit, die von Mitarbeitenden gemacht wird, weil sie sich nicht getrauen, zuzugeben, dass sie KI eingesetzt haben. Selbstverständlich muss es in der Arbeitswelt der Zukunft erlaubt sein, KI-Abkürzungen zu nehmen. Das ist eine gute Beobachtung, allerdings ein kulturelles Problem und kein organisatorisches. Was sich lächerlich anhört, dass Mitarbeitende “Arbeit spielen”, um den Schein zu wahren, dürfte verbreiteter sein als man denkt. Um Arbeit neu zu organisieren, braucht es strukturelle Eingriffe – zum Beispiel das Verlagern von SYNC zu ASYNC, meetingfreie Tage aber auch die Anpassung von Jobprofilen. Das zeigt: So schnell wird sich die Arbeitswelt durch KI nicht verändern. Solche Anpassungen dauern eher Jahrzehnte als Jahre.
Zukunft heisst, zu verhindern, dass KI zu mehr Fake-Arbeit führt. Das setzt eine Re-Organisation von Arbeit voraus. Die Arbeitszeit von Wissensarbeitenden sollte maximal für komplexe, nicht repetitive und menschennahe Tätigkeiten eingesetzt werden. Hierzu muss Administration eliminiert oder an Maschinen delegiert werden, Abstimmungsprozesse sollten durch mehr ASYNC minimiert werden. Hierarchien müssen sich noch stärker zu Netzwerken entwickeln - ohne Parallelstrukturen zu etablieren.
Botschaft 4 KI birgt die Gefahr einer noch stärkeren Polarisierung
In ihrem Buch sammelt Weber Argumente, warum es zu einer stärkeren Polarisierung der Arbeitswelt kommen könnte - oder eben gerade nicht. Verschärft KI bestehende Ungleichheiten oder trägt sich zur “Rettung der Mittelschicht” bei? Für mich sind die Argumente für eine weitergehende Polarisierung überzeugender, zumal Weber für den Ausgleich auf den politischen Goodwill setzt. Technologie müsse “menschenzentriert, nicht profitzentriert” gebaut und genutzt werden, “sozial und gerecht, nicht diskriminierend und spaltend”. Das aber setzt aus meiner Sicht neben Regulierung auch Massnahmen im Sinne des Limitarismus nach Ingrid Robeyns voraus (Steuern auf Kapitalmarktgewinnen und Erbschaften sowie auf den Gewinnen der Tech-Konzerne voraus).
Das Problem der Mittelschicht in den nächsten Jahrzehnten ist, dass KI Kreativ- und Wissensarbeit mit durchschnittlichen Anforderungen beziehungsweise durchschnittlicher Lösungsqualität sehr gut erledigen kann. Das ist dann der Fall (übrigens völlig übereinstimmend mit der Argumentation von Volland), wenn sie nicht etwas Neues schaffen soll, sondern eher Bestehendes weiterentwickelt. Und das ist in der heutigen Arbeitswelt sehr oft der Fall, gerade in verwaltenden Organisationen wie Versicherungen, Banken, Krankenkassen und Verwaltungen. Kaum jemand ist dazu angestellt, “um die Welt neu zu erfinden.” Und wenn wir ehrlich seien, ist das Ergebnis unserer Arbeit “oft durchschnittlich” – und genau in diesem Bereich reüssieren ChatGPT & Co bereits heute sehr gut.
Was deutlich wird: Um zu den Gewinner:innen der KI-Transformation zu gehören, reicht es nicht, die neuen Wissensmaschinen nach Vorschrift zu “bedienen”. Um wirklich gute Prompts zu schreiben und die Qualität der Ergebnisse zu beurteilen, braucht es Kreativität – und ich würde ergänzen: Kontextwissen. Um kreative Wissensarbeit abzuliefern, muss man gute, neue und originelle Fragen stellen können. Wer künftig nicht nur in der stillen Kammer sitzen will, müsse zudem « Räume einnehmen können», begeistern, überzeugen, motivieren und zum nachdenken bringen. Dazu braucht es T-Kompetenz: fachliche Fähigkeiten, um sich entweder sehr detailliert oder über die Zusammenhänge in einem Thema auszukennen sowie überfachliche Fähigkeiten, um dieses Wissen vermitteln, kombinieren und übertragen zu können.
Zukunft heisst, die Neugierde zu stärken; in der Schule, an der Universität, durch die Ausgestaltung der Arbeitswelt, durch Liebe zum Ort. Der Bedarf an T-Kompetenz verlangt, gleichzeitig in die Tiefe und Breite sowie fachlich und überfachlich zu wachsen. Um besser als die Maschinen zu sein, ist die Fähigkeit Fragen zu stellen unerlässlich – an sich, an KI-generierte Lösungen, an die Zukunft. Das bedingt ein Lernverständnis, das sich weg von der Vermittlung von Inhalten bewegt und sich eher an Erlebnissen und Entdeckungen orientiert.
Botschaft 5 Wertet Jobs auf, die unentbehrlich sind
Weber zitiert eine WEF-Studie laut der generative KI in drei Bereichen neue Jobs schaffen wird: Erstens für Menschen, die KI entwickeln, zweitens für Menschen, die KI erklären und drittens für Menschen, die dafür sorgen, dass KI bestmöglich eingesetzt wird. Dazu braucht es nicht nur Ethik und Regulierung, sondern auch hochwertigen Content (S. 175).
In den nächsten Jahrzehnten wird es gleichzeitig zu dieser hochqualifizierten Arbeit viele Jobs geben, für die KI keine Bedrohung darstellen wird. KI-Roboter sind entweder zu teuer, um sämtliche Arbeiten zu ersetzen oder bei einfachen manuellen Tätigkeiten überfordert. Weber zitiert das Beispiel von Robotern, die Wäsche zusammenlegen sollten und deutlich schlechter als Menschen abschneiden. Beim “Speed Folding” gelingt es dem neusten (ABB-)Roboter in einer Stunde immerhin 30 bis 40 Kleidungsstücke zu falten (S. 173). Jobs ohne KI wird es überall geben, wo Menschen und Maschinen Dreck, Abfall und Unordnung hinterlassen. Weiter wollen Menschen und Tiere gepflegt, geheilt und unterhalten werden.
Weber fordert uns auf, diese Jobs aufzuwerten – sie sind unentbehrlich damit eine Gesellschaft funktionieren kann (S. 163). Gleichzeitig sollten wir auf Bullshit-Jobs verzichten, auf Jobs, in denen sich Menschen langweilen, Fake Work spielen oder im Sinne von Harari die Infosphäre verschmutzen.
Zukunft heisst, der Polarisierung von Löhnen entgegenzuwirken. Dazu kann man bei den Mindest-, bei den Höchstlöhnen oder der Lohnspanne ansetzen. Um mehr kreative Dynamik im Arbeitsmarkt zu haben, sollte die Bogenkarriere vorgelebt werden und darauf verzichtet werden, Löhne jährlich ohne Grund und nur aufgrund des Alters zu erhöhen. Berufslehren für quereinsteigende Erwachsene sollten gefördert werden.