Morfinismus und KI

Letztens hab ich in Jena gespielt. Zur Abwechslung nicht in der JG, sondern außerhalb der Stadt an der Bundesstraße Richtung Weimar. Das Ganze war soli für russische Anarchist:innen. Die können es brauchen, allein der Repression wegen, der sie ausgesetzt sind. Von den Schwierigkeiten der Emigration will ich gar nicht reden. Zwar fanden die revolutionären Massen nur bruchstückhaft ins soziokulterelle Zentrum Carla, trotzdem war es ein schönes Konzert. Ein paar Euro sind – so hörte ich – auch zusammengekommen. Der Abend hatte eine weitere und von mir nicht geplante Folge: Im Publikum saß Morf. Dieser ist ein ziemlich produktiver Youtuber mit interessantem Content. Morf schrieb mich an, ich sagte zu und so kam ich 19 Jahre nach meinem ersten Auftritt auf Youtube zu meinem ersten richtigem Video-Talk (auch wenn ich wirklich nur bedingt beantworten konnte, wie ich zum Weltschmerz stehe). Hört und seht:

Nach dem immerhin mehr als zweistündigen Gespräch haben wir weiter geredet und wie es so ist, werden manche Gespräche ja eher tiefer und intensiver, wenn die Kamera aus ist, bzw nicht mehr mitgeschnitten wird. Zu einigen der Fragen, die wir dabei aufgeworfen haben, hat Morf im Nachgang einen interessanten und aufschlussreichen Text geschrieben, der zur Aufklärung von technisch weniger versierten Leuten wie mir beitragen könnte. Das scheint mir wichtig zu sein – schliesslich wird uns die KI nicht mehr loslassen. Zugleich braucht es dringend Strategien, mit der zusehends durch kommerzielle Algorithmen strukturierten Welt klarzukommen. Nun lässt sich das schwer in einem kleinen Text beantworten, jedoch scheint mir eine genauere Beschäftigung mit der Materie Voraussetzung für alles Weitere zu sein. Lest selbst:

Einmal Aufklärung über KI bitte!

von Moritz Q. Flink

Der vorliegende Text verweist per Hyperlink auf mein Videotagebuch – nach versehentlichem Klick bitte nicht erschrecken! Der Text ist dazu gedacht, künstliche Intelligenz (KI) fachlich sauber zu erläutern und – entgegen der Marketingnarrative – in den gesellschaftlichen Kontext einzuordnen.

Wo früher von Expertensystemen als Werkzeuge für Menschen, statistischen Modellen oder neuronalen Netzen gesprochen wurde, dominieren heute Schlagworte wie „Superintelligenz“ oder „künstliches Bewusstsein“. Teile der Öffentlichkeit scheinen sich bereits in einem technologischen Endzeitnarrativ eingerichtet zu haben, in dem große Sprachmodelle oder Bildgeneratoren den ersten Schritt auf dem Weg zum Maschinengott darstellen. Doch je näher man den tatsächlichen technischen Grundlagen kommt, desto klarer wird: Ein Großteil dieses Diskurses lebt nicht von Wissen, sondern von Projektionen, Missverständnissen – und gezielten Marketingübertreibungen.

Die großen KI-Butzen, allen voran OpenAI, müssen exponentiell mehr Gelder einwerben, um ihre laufenden Kosten zu decken. Zu dumm nur, dass sie nicht ansatzweise genug Umsätze erzielen, um auf sinnvollen Zeithorizonten ihren aktienkursbedingten Bewertungen gerecht zu werden. Die resultierende Investitionsblase ist sowohl manifestiertes Unverständnis über die tatsächlichen technischen Möglichkeiten, als auch Wirkmächtigkeit von naiven Heilsversprechen.

Gerade weil viele der lautesten Stimmen keine echten Nutzer von KI sind, sondern Unternehmer, Influencer, Zukunftspropheten oder Journalisten, entsteht ein Bild, das mit den realen Fähigkeiten der Technologie nur am Rande zu tun hat. KI erscheint darin als nebulöse, autonome Kraft, deren innere Mechanik weder verstanden wird noch verstanden werden soll. Die Magie ist Teil des Produkts. Doch diese Betrachtung ist gefährlich – nicht, weil KI tatsächlich eine unkontrollierbare Superintelligenz hervorbringen würde, sondern weil der Diskurs gesellschaftliche Entscheidungen beeinflusst, die auf falschen Annahmen beruhen und, wie wir sehen werden, Verantwortung verunmöglicht.

Die Vermarktung der Superintelligenz: Ein Geschäftsmodell

Viele der modernen KI-Unternehmen funktionieren, wie Tech-Start-ups. Sie verkaufen Zukunftsversprechen. Der Wert eines Unternehmens bemisst sich nicht selten weniger am aktuellen Produkt, sondern am Potenzial, das man Investoren überzeugend präsentieren kann. In diesem Umfeld gewinnt die Idee einer baldigen Superintelligenz eine ganz besondere Funktion. Sie schafft Aufmerksamkeit, löst FOMO aus (Fear of Missing Out), verschafft Glaubwürdigkeit (wenn ausreichend hochkarätige Nerds eingekauft wurden) und liefert eine Rechtfertigung für gigantische Investitionen.

Wenn ein CEO erklärt, dass seine Systeme möglicherweise in naher Zukunft „bewusster“ sein könnten als der Mensch, bereits „intelligenter“ als akademische Experten und schneller im Zusammenfügen kompliziertester Sachverhalte, erzeugt das zwei Dinge: Erstens wird der Eindruck vermittelt, dass enorme Summen sinnvoll und notwendig seien, um diese Zukunft kontrollierbar zu machen. Zweitens entsteht eine Aura des Mystischen – ein Produkt, das nicht nur Werkzeuge bereitstellt, sondern eine Art technologisches Orakel.

Das Problem dabei ist nicht, dass Unternehmen sich gut verkaufen müssen – das liegt in der Natur des Wettbewerbs. Das Problem ist, dass viele Menschen, darunter auch Entscheider in Politik, Intellektuelle und der Wirtschaft, diese Erzählungen glauben. Aus Marketing wird eine gesellschaftliche Wahrheit!

Die Illusion des Verstehens

Es ist kaum jemandem vorzuwerfen, wenn er komplexe technische Systeme nicht begreift. Moderne KI, insbesondere große neuronale Netze, sind in der Tat schwer intuitiv zu verstehen – und im Detail nicht intelligibel. Doch viele Kommentatoren – von Bestsellerautoren bis Talkshowgästen – haben keine Scheu, mit selbstbewussten Prognosen aufzutreten, obwohl sie weder Informatik noch Statistik noch maschinelles Lernen je auch nur auf einem Klappentext gesehen haben. Stattdessen greifen sie auf vertraute Denkmodelle zurück: Anthropomorphismus, Science-Fiction oder pseudophilosophische Spekulation – oft unter dem Selbstanspruch der Aufklärung.

Weil KI scheinbar Sprache versteht, schließen sie daraus, dass sie denkt.
Weil KI Muster erkennt, glauben sie, dass sie „versteht“.
Weil KI in manchen Szenarien Menschen übertrifft, vermuten sie, dass sie „generalisieren“ wird.

Dabei ist jeder dieser Schlüsse ein Kategorienfehler. KI hat keine Intention, keine Persönlichkeit und ist kein Agent. Auch das „Generalisieren“ kann nicht beobachtet werden. Hiermit ist gemeint, die Analogie zu bilden, etwas zu verstehen und auf eine andere Sache anzuwenden wie eine vollständig durchdrungene gedankliche Schablone. Pädagogen würden sagen: die Transferleistung zu liefern. Aber – wie auch im Bildungssystem – wird nirgends auf den Unterschied zwischen Lernen und Verstehen hingewiesen. Bei KI handelt es sich um Statistiken, die Wahrscheinlichkeiten für Folgezustände berechnen. Die Genialität dieser Modelle liegt nicht darin, dass sie menschenähnlich wären, sondern darin, dass sie funktionieren müssen. Sie werden gewissermaßen mathematisch dazu „gezwungen“.

Es ist schließlich so, dass eine mathematische Funktion immer auf ihre Optima untersucht werden kann. Diese Untersuchung liefert etwas, das aussieht wie ein Optimum in der echten Welt. Es entspricht etwas, das aussieht wie eine Lösung des Problems, das sich in der echten Welt gestellt hat. Es hängt nun davon ab, wie die Funktion definiert wurde und wie sie interpretiert wird.

Beispielsweise kann der Wert der Funktion (Output) den zu erwartenden Umsatz am Boxoffice eines Films in der ersten Woche darstellen. Die Variable ist das Skript und der Cast des Films. Die Macher des Films werden nun an den Variablen kleine Veränderungen so durchführen, dass der Output größer wird. Kommen sie an eine Konfiguration von Skript und Cast, ab der jede weitere kleine Veränderung zu einer Verringerung des zu erwartenden Umsatzes führt, könnten sie entweder den Film in die Produktion schicken oder nochmal mit gänzlich anderen Variablen von Neuem beginnen.

So oder so: Dank außenstehend magisch wirkender numerischer Methodik und merkwürdig wirkender griechischer Buchstaben und Formelgehabe von den Nerds im Keller, die man zuvor mit Pizza und Energydrinks für ein Jahr eingesperrt hat, rasten alle Marketingspinner und Kapitalistenfreunde komplett aus ob der Zahlenmagie. Was sie nicht sehen wollen: Alle Filme der Hollywoodindustrie sind identisch. Das ist nun weniger schlimm, denn niemand braucht diese Scheißindustrie. Das Problem ist, dass dieses Vorgehen prinzipiell auf alles losgelassen werden kann – vorausgesetzt, man hat ausreichend Pizza, Energydrinks, Nerds und Daten.

Dieser Use-Case von KI kann als Verzweiflung von Menschen begriffen werden, die – gemessen an dem Problem, das sie lösen wollen – schlicht von der Komplexität des Lösungsraums überfordert sind. Die Daten übrigens sind – dank Infrastrukturabhängigkeit, menschlichen Clickworkern und Überwachungskapitalismus – oft tatsächlich verfügbar oder könnten mit einem gewissen Aufwand zur Verfügung gestellt werden.

Hat man sein Problem also auf eine geeignete Funktion abgebildet, kann nahezu jedes beliebige Problem „gelöst“ werden – zumindest sieht es so aus. Und das reicht denjenigen, die zuständig sind. Denn sie interessieren sich nicht für den Inhalt, also die konkrete Lösung, sondern nur für die oberflächliche Prüfmetrik. Wie gut sieht die Lösung aus für jemanden, der nur auf Prüfzahlen, Excel-Tabellen und Aktienkurse achtet? Vergleichbar mit der Tragedy of the Commons entsteht eine Diskrepanz zwischen Eigentümern und Besitzern. Spieltheoretisch bedeutet das: Wer kein Skin in the Game hat, scheißt drauf.

Typischerweise sind dieselben Zuständigen in einer Machtposition. Sie haben also per Definition die Möglichkeit, Menschen, auf die sie Macht ausüben, zu zwingen, sich so zu verhalten, als ob ihre Lösung auch wirklich brillant ist. Ob nun Consulting wie Palantir, die Auswertung der Mammographie, die „Erfindung“ eines Pastarezepts, die Zusammenfassung eines Videos, die Steuerung eines Roboters oder, oder, oder … es gibt unzählige Beispiele – werdet mal kreativ!

In der KI-Forschung spricht man hier übrigens oft vom Alignmentproblem. Zusammenfassend bedeutet das Obige:

1. Um eine geeignete mathematische Zielfunktion zu finden, braucht es ein sehr gutes analytisches Verständnis des zu lösenden Problems. Die Optima sollen so beschaffen sein, dass sie auch den gewünschten Optima in der realen Welt entsprechen.

2. Zu wissen, ob sich die Lösung im globalen Optimum oder lediglich in einem lokalen Optimum befindet, ist meist keine trivial zu beantwortende Frage.

3. Der spieltheoretische Default ist der Reward-Hack. Wozu Biologie verstehen, wenn ich die Datentabellen und Texte einfach wie ein Gedicht auswendig lernen kann? Für eine gute Schulnote reicht’s aus.

4. Solange eine glaubhafte Geschichte über den Erfolg der Zuständigen erzählt werden kann, sind doch alle zufrieden, oder? Alles hängt davon ab, ob das Alignment-Problem gelöst wurde. Doch dieses selbstreferenzielle Problem ist eine harte Nuss, und unsere Entrepreneurfreunde und Marketingkasper sind meist nicht an solcherlei intellektuellen Spitzfindigkeiten interessiert. Wird schon gut gehen!

Die Diskrepanz zwischen technischem Fortschritt und populären Erzählungen

Die Zielfunktion von Sprachmodellen wie ChatGPT ist übrigens eine, deren Output das wahrscheinlichste Wort bei einem gegebenen Input von Wörtern (Prompt) ist. Die Bewertung der Wahrscheinlichkeit hängt hier vom Training ab. Quasi: Welches nächste Wort kommt in meinen Daten am häufigsten vor bei einer vorangegangenen Kette von Worten wie der, mit der ich es hier zu tun habe? Technisch gesehen ist jedes dieser Sprachmodelle lediglich eine wirklich teure Autokorrektur. Das Hintereinanderanwenden (Iteration) der Bestimmung des nächsten Wortes ergibt schlussendlich den vom Nutzer gewünschten Text.

Während Sprachmodelle und generative Systeme enorme Fortschritte gemacht haben, wurde gleichzeitig deutlich, wie eindimensional das Weltverständnis ist, über das sie scheinbar verfügen. Sie sind hervorragend darin, Muster aus gigantischen Datensätzen zu imitieren – aber sie besitzen kein mentales Modell der Welt. Dort wird nicht auf Repräsentationen verwiesen und deren Beziehungen zueinander. Nein, die Beziehungen der Wörter zueinander sind das Ergebnis der Statistiken aus den Daten, welche den Modellen zum Training zur Verfügung gestellt wurden. Heutzutage bedeutet das: jeder Text, der im Internet verfügbar ist, und noch weitere, die aus alten Bibliotheken per Hand gecrawlt wurden.

Die Sprachmodelle verfügen über keine Intention, sie streben nicht, sie wollen nichts. Sie tun auch nicht so, als ob – auch wenn es so scheint. Alles, was sie erzeugen, ist ein Spiegel dessen, was bereits vorhanden war, nur in neuer Kombination.

Trotzdem liest man in Zeitungen regelmäßig Schlagzeilen wie:

„KI entwickelt eigenes Bewusstsein

„Droht die Menschheit an Maschinen zu verlieren?“

„Computer überholen bald die menschliche Intelligenz“

Es sind Variationen einer langen Tradition technischer Panik- oder Heilsvorstellungen. Doch die Realität dahinter ist nüchtern: KI kann heute statistische Muster erkennen, optimieren und ausgeben – aber sie hat keinen Begriff davon, was Bedeutung ist. Das gesamte Fundament der „Superintelligenz“-Erzählung basiert auf der Projektion menschlicher Eigenschaften auf nicht-menschliche Systeme. KI-Experten wissen um diese Probleme, aber ihre eigene Anreizstruktur verbietet das ehrliche Transportieren. Nur langsam kommt in der Öffentlichkeit an, was schon vor zwei Jahren allen mit Ahnung bekannt war. Mit Sprachmodellen allein, wird es nichts.

Der Standard-Use-Case von KI

Wenn man verstehen möchte, wofür KI heute tatsächlich eingesetzt wird, muss man die populären Erzählungen für einen Moment beiseiteschieben. Die Realität der Technologie verläuft – nicht im Reich hypothetischer Superintelligenzen, sondern im Alltag konkreter Aufgaben, die Menschen automatisieren wollen, die mit vielen Daten arbeiten. Künstliche Intelligenz ist bereits ein marketingtechnisch cleverer Gaslighting-Trick. Es handelt sich dabei nämlich nicht um das, was wir umgangssprachlich mit Intelligenz bezeichnen würden. Im Englischen wird „intelligence“ eben auch als Nachrichtenverarbeitung oder Informationsverarbeitung verwendet. Die CIA ist schließlich nicht die Zentrale Intelligenz-Agentur. KI bedeutet schlicht: automatisierte Informationsverarbeitung. KI ist kein denkender Agent, kein autonomer Entscheider, der diese Menschen ersetzt, sondern ein hochgradig effizientes Werkzeug, welches für diese Menschen triviale Entscheidungen ausführt. Und genau darin liegt ihr Standard-Use-Case.

Der Ausgangspunkt ist immer menschlich: Ein Unternehmen, eine Behörde, ein Entwickler besitzt ein Problem, eine wiederkehrende Tätigkeit, eine datengetriebene Herausforderung. Die Frage lautet dann nicht: „Wie kann KI mein System übernehmen?“, sondern: „Welche Teilaufgabe lässt sich hier automatisieren?“ KI operiert darin als Bot, nicht als autonomer Akteur.

Mal angenommen, die Aufgabenstellung besteht darin, einen Ordner mit Dateien in zwei Kategorien zu sortieren. Beispielsweise Dateien ab einer bestimmten Dateigröße in ein anderes Format zu konvertieren. Dann könnte der Nutzer „per Hand“ die Sortierung (z. B. im Windows Explorer) durchführen und durch „Ausschneiden und Einfügen“ in einen neuen Ordner und anschließender Dateikonvertierung die Aufgabe lösen. Falls sich diese Aufgabe nun aber nicht für einen Ordner voller Dateien wiederholt, sondern für dreitausend Ordner, so wäre es ratsam, ein Programm zu schreiben – einen Algorithmus. Dieser bekäme als Input einen Dateipfad, in dem alle Ordner sind, die wiederum unterschiedlich viele Dateien unterschiedlicher Größen haben. Des Weiteren braucht der Algorithmus die Dateigröße, ab der die Konvertierung getätigt werden soll, und natürlich eine Möglichkeit, die Konvertierung durchzuführen. Der Algorithmus würde nun beginnen, für jeden Ordner seiner Programmierung entsprechend die Aufgabenstellung zu lösen. Hierfür benötigt es keine KI!

Merke: Ein Algorithmus bezeichnet eine Abfolge von Wenn-dann-Anweisungen, die bei festem Input stets den identischen Output liefert. Dies trifft im Allgemeinen nicht auf KI-Anwendungen zu!

KI käme ins Spiel, wenn die Aufgabenstellung eine nicht-triviale Kategorisierung beinhalten würde. Beispielsweise soll nicht nur nach Dateigröße sortiert werden, sondern ob die Dateien Bilder von Hunden oder Katzen sind. Dies kann im Fall von einem einzigen Ordner durch einen Menschen geschehen. Sind es ebenfalls tausende von Ordnern mit beliebig vielen Dateien, mit denen etwas getan werden muss – abhängig davon, ob sie Hunde oder Katzen beinhalten – genau dann ist KI das geeignete Werkzeug. Der Standard-Use-Case für KI ist etwas, das ein Mensch ohne Probleme selbst erledigen kann, sich aber nicht durch ein lineares Programm (einen Algorithmus) automatisieren lässt. Wenn es eine oder mehrere für Menschen triviale Entscheidungen beinhaltet – je trivialer, desto sicherer. Trivial bedeutet hierbei meist: wie sicher die Entscheidung durch meine Trainingsdaten erfasst ist. Alles, was einen Menschen lediglich viel Wiederholung kostet, alles, was einen Menschen schnell langweilt, weil das Schema, nach dem die Entscheidungen getroffen werden müssen, intelligibel ist – genau diese Fälle sind prädestiniert.

Der Standard-Use-Case von KI ist nicht Autonomie, sondern Automatisierung. KI bestimmt keine Zwecke und verfolgt keine eigenen Ziele. Sie verlängert die Hand des Menschen. Meist sind diese Menschen Experten und wollen lediglich eine für sie triviale Tätigkeit automatisieren. Trivial bedeutet hier, dass sie genaue Erwartungen an das Ergebnis haben und dementsprechend sofort erkennen, ob die Automatisierung funktioniert wie angedacht.

Sprachmodelle – ein technologischer Nebenschauplatz

Der Hype um Chatbots, Bildgeneratoren und virtuelle Assistenten hat eine Illusion geschaffen: die Idee, dass diese Systeme der Kern moderner KI seien. Doch in Wahrheit stellen sie nur einen schillernden Randbereich dar, einen leicht konsumierbaren Nebenschauplatz, der die Aufmerksamkeit von jenen Bereichen ablenkt, in denen der eigentliche technologische und machtpolitische Schwerpunkt liegt.

Sprachmodelle sind beeindruckende Imitatoren. Sie erzeugen Anschein, nicht Erkenntnis. Sie liefern Ergebnisse, die mehr Scheinpräzision als epistemischen Gehalt besitzen. Ihr Output ist statistische Rekombination. Wer glaubt, dass Sprachmodelle die Spitze des KI-Fortschritts repräsentieren, verwechselt Rhetorik mit Substanz. Sie reproduzieren Hochglanzmarketingästhetik ohne Inhalt. Deshalb sind sie auch nicht belastbar, und deshalb kann mit ihnen auch nicht genug Geld verdient werden. Sie sind eine sehr teure Spielerei.

Der öffentliche Fokus auf diese Modelle funktioniert wie ein Scheinwerfer, der Aufmerksamkeit auf einen Bereich wirft, um den Rest im Dunkeln zu lassen. Die wirklich gewinnbringende Nutzung liegt im Bereich der Herrschaft. Denn während die breite Öffentlichkeit fasziniert auf KI-Slob starrt, arbeiten Geheimdienste, Militärs und große Dateninfrastrukturen an jenen Technologien weiter, die den tatsächlichen Standard-Use-Case der KI darstellen: Big-Data-Analyse, Mustererkennung in Massendatensätzen, automatisierte Überwachung, Profilbildung, Signalextraktion, explorative Suche. Das sind nicht die Dinge, die man in eine bunte App verpackt und an Konsumenten verkauft. Das sind Systeme, die tief in staatliche und ökonomische Machtstrukturen eingebettet sind. Bei der Auswertung großer Datenmengen braucht es schließlich mehr als einen Algorithmus. Dort entstehen die Systeme, die Menschen klassifizieren, filtern, sortieren – nicht in Chatbots, die plausible, aber unverlässliche Antworten generieren. Wenn überhaupt, sind die Chatbots die Schnittstellen, mit denen Menschen ihre persönlichsten Daten teilen – den Plattformen also ihre zukünftige kommerzielle Anwendung vereinfachen. Stichwort: Behavior Modification!

Superintelligenz als popkulturelle Erzählung, nicht als technologische Realität

Interessant ist, dass die Angst vor Superintelligenz erstaunlich wenig mit den tatsächlichen Risiken von KI zu tun hat. Während sich Mechanismen wie Desinformation, Automatisierung, Überwachung oder automatisierte Diskriminierung real und konkret zeigen, werden die gesellschaftlichen Debatten von metaphysischen Befürchtungen dominiert. KI wird genutzt, um Löhne zu drücken, aber nicht, um relevante Mengen an Arbeit zu automatisieren. KI ist die Grundlage für Geheimdienstaktivitäten der Gegenwart. KI ist ein Grund für Staaten, erhebliche Summen für Infrastruktur auszugeben und erhebliche Mengen an Strom zu verschwenden.

Die Angst in der öffentlichen Debatte ist häufig weniger technologisch als durch Marketing begründet. Sie speist sich aus tief verwurzelten Narrativen: dem Schöpfer-Mythos, der Angst vor der Rebellion des Geschaffenen. Die Vorstellung, dass Technik am Ende den Menschen überholt, ist so alt wie die Industrialisierung selbst. Doch sie übersieht, dass KI-Systeme nicht von sich aus komplexer werden – noch nicht zumindest. Und wenn doch, passiert es aus Versehen und ohne, dass jemand es bemerkt. Es gibt keinen automatischen Weg vom Sprachmodell zur Superintelligenz.

Die Fehlerraten (Halluzinationen) sind zu hoch, die Fehlerpropagation explodiert. Das Verschalten (Iterieren) von autonomen Sprachmodellen mit der Zielsetzung, zu forschen und zu entwickeln, ist schlicht nicht praktikabel. Einfachstes Beispiel wäre sicher das Ersetzen der Steuerberatertätigkeit oder einer Online-Zeitung – alles textbasiert und seriell. Eine ganze Redaktion von autonomen Agenten, bestückt mit Titeln wie Redaktionschef, Investigativjournalist und sonstiger Schreiberling, könnte fast aus dem Nichts in ein virtuelles Büro gepromptet werden. Sie würden sich gegenseitig Mails schreiben und in den Nachrichten „schauen“, was es zu berichten gäbe. Sie könnten jeden Tag, 24 Stunden am Tag, redundante, aber täuschend echt wirkende Essays über inhaltliche Kombinationen von Artikeln und Videos in die Welt scheißen, die sie „gesehen“ haben. Es würde längst geschehen, wenn es denn möglich wäre. Da wir noch keine Intelligenzexplosion (egal in welchem Bereich) beobachten konnten, können wir sicher sein, dass jede Schlagzeile über Superintelligenz eine bewusst gesetzte Marketingmasche ist – dazu gedacht, die KI-Blase noch ein wenig weiter aufzupumpen. Darüber hinaus fehlen die Mechanismen und das Interface, die Bewusstsein hervorbringen könnten. Die Vorstellung eines autonomen intellektuellen Wachstums ist mythologisch, nicht technisch realistisch.

Die Gefahr liegt bei den Herrschern – nicht in der KI

Gerade weil der Diskurs so stark von Übertreibungen geprägt ist, besteht die größte Gefahr heute nicht darin, dass KI eine Superintelligenz bildet, sondern darin, dass Gesellschaft, Politik und Wirtschaft falsche Entscheidungen treffen – basierend auf Mythen. Exakt das Gleiche passiert ja auch in der sogenannten Wirtschaft und bei den Kommentatoren der Wirtschaft. Die sogenannten Wirtschaftswissenschaftler, von denen die meisten nachgewiesenermaßen kaffeesatzlesende religiöse Kasper sind, die sich gern damit schmücken, Wissenschaftler zu sein (was ich ihnen gern abspreche). Dabei sind sie Teil der wichtigsten Marketingkampagne der letzten hundert Jahre: Der Neoklassik.

Wenn Regulierungen auf Annahmen beruhen, die technologisch falsch sind, können sie sowohl über- als auch unterregulieren. Unternehmen können mit „Superintelligenz“-Rhetorik enorme Kapitalmengen monopolisieren. Die Öffentlichkeit kann reale Probleme aus den Augen verlieren – etwa Datenschutz, infrastrukturbedingte Machtkonzentration oder die Auswirkungen auf Arbeitsmärkte.

Herrschaft – egal in welchem Gewand – erzählt die Geschichte von der eigenen Verantwortung. Herrschaft schafft es, Probleme zu lösen. Herrschaft funktioniert! Doch können wir das überhaupt beobachten? Ich beantworte das mit einem entschlossenen Nein! Was wir beobachten, ist, dass wir durch Herrschaft mehr Probleme bekommen, als wir mit Herrschaft lösen. Die Probleme werden in die Zukunft verschoben und stacken zu einem gigantischen Pile of Shame. Beispiele hierfür sind: das sechste Massenartenaussterben, Kriege, die Antibiotikakrise, das Phytoplanktonsterben, der Klimawandel, die Phosphorkrise, 6PPD-Reifenabrieb, Mikroplastik, Forever Chemicals und viele mehr. Anbei eine Videozusammenfassung dieser Punkte mit Production Value:

Die Übertreibung der KI-Fähigkeiten führt dazu, dass Menschen sich ohnmächtig fühlen gegenüber der Automatisierung. Aber sie sind es eigentlich gegenüber ihren Chefs und Politikern. Und das ist nichts Neues, sondern der Default aller Herrschaftssysteme. Was eigentlich passiert, ist, dass die Verantwortungslosigkeit ein neues Gesicht bekommt. Sie wird in die Marketinggeschichte projiziert. Dabei ist KI kein eigenständiges Ding – KI ist ein Werkzeug. Und einen Presslufthammer würde ja auch niemand einfach anschalten und dann unbeaufsichtigt lassen. Vom Presslufthammer würde allerdings auch niemand behaupten, er würde eigenständig Entscheidungen treffen! Die Tatsache, dass Intellektuelle und sogenannte Aufklärer genau dies beim Thema KI tun, lässt nur den Schluss zu, dass die Aufklärung gescheitert ist.

Aufklärung wär toll

Um einen vernünftigen gesellschaftlichen Umgang mit KI zu finden, müsste die Öffentlichkeit ein realistischeres Verständnis der Technologie entwickeln. Dazu gehört:

– Technische Bildung, auch für Nicht-Techniker.

– Klare Trennung von Marketing und wissenschaftlicher Realität.

– Kritische Medienkompetenz im Umgang mit KI-bezogenen Schlagzeilen.

– Transparenz über Limitierungen statt Fokus auf hypothetische Zukunftsszenarien.

– Stärkung der Stimmen echter Experten, nicht der lautesten Propheten. Wenns geht auch diejenigen die nicht direkt vom eigenen Aktienkurs profitieren lol.

Eine aufgeklärte Gesellschaft fürchtet keine Technologie – sie gestaltet sie. Leider befinden sich alle in verschiedenen, miteinander verwobenen Herrschaftskontexten. Und Aufklärung ist per Definition der Erzfeind von Herrschaft. Aufklärung die nicht herrschaftskritisch ist, ist so nützlich wie ein Lutscher der nach Kacke schmeckt.


PS.: Ein passendes altes Lied. Und tausend Dank für den schönen Artikel!

Leave a Reply

Your email address will not be published. Required fields are marked *

captcha
Reload

Please enter the characters shown in the CAPTCHA to verify that you are human.