
Nicht Nerds, sondern Schrift-Gelehrte sind es, die das Feld der generativen Künstlichen Intelligenz wie ChatGPT erklären können: Solche »Large Language Models« wurzeln in der Sprachwissenschaft, Literaturkritik, ja sogar in der Auslegung heiliger Texte. Diese These verfolgt Martin Warnke durch eine Archäologie der LLM-Ursprünge - von Zellig S. Harris' statistischer Sprachtheorie über Walter Benjamins Sprachphilosophie bis zur jüdischen Kabbala. Dabei zeigt sich, dass mystische Textauslegungstechniken ähnliche Eigenheiten und damit auch Probleme aufweisen wie heutige Computersysteme: Es sind Sprachstrukturen, keine künstlichen Gehirne, die uns faszinieren und beängstigen. Die »Halluzinationen« der KI sind keine Kinderkrankheiten, sondern zwangsläufige Folge linguistischer Verfahren, die Semantik ohne Weltbezug allein aus Syntax ableiten. Eine Kritik muss daher bei der fundamentalen Frage ansetzen: Was sind das für Systeme, die nur in der Sprache sind und keine Welt haben?
Besprechung vom 07.02.2026
Magisches Walten
Martin Warnke glaubt keine KI-Versprechen
Verführerisch glimmt das Icon des KI-Assistenten im rechten oberen Eck des Bildschirms, die Textmaschine wartet dort auf Befehle. Es wäre so einfach, draufzuklicken und sie das PDF von Martin Warnkes "Large Language Kabbala" einfach zusammenfassen zu lassen, anstatt es selbst zu lesen. Allerdings entginge dem KI-User dann ein ausgezeichneter Text darüber, warum man diesen Dienst lieber nicht in Anspruch nehmen sollte. Denn der Autor, Physiker und Historiker digitaler Medien erklärt in ihm knapp und stringent, warum Large Language Models (LLMs) viel produzieren können, aber gerade kein intelligentes Verhalten.
Im ersten Teil seines Essays legt Warnke die Genese der sprachwissenschaftlichen Theorie hinter den LLMs dar und leitet daraus ab, dass sie mit dem Instrumentarium statistikbasierter Linguistik erklärt und kritisiert werden sollte, aus der sie hervorgegangen ist. Es gehe um einen sprachtheoretischen Ansatz, der von Zellig S. Harris (1909-1992), dem Doktorvater Noam Chomskys, entwickelt wurde. Harris stellte seine Theorie auf eine statistische Grundlage, die sich zu seiner Zeit technisch nicht realisieren ließ, mittlerweile aber "in Form von etwa ChatGPT ihre maschinelle Realisierung gefunden hat". Schon dieser Teil des Buchs lohnt die Lektüre, denn er hilft dabei, die Möglichkeiten von LLMs und Bildgeneratoren im operativen Einsatz einschätzen zu können.
Im zweiten Teil zieht der Autor unter Rückgriff auf Gershom Scholem und Umberto Eco dann die Kabbala als Illustration heran, denn in seinen Augen stimmt das Verhältnis von Text und Semantik in Harris' Linguistik, LLMs und kabbalistischer Auslegungspraxis überein: Da wie dort gehe Sinn aus einem Prozess der Mustererkennung in einem Textkorpus hervor. An diesem Leitfaden unternimmt Warnke einen Ausflug in die jüdische Mystik, um zu zeigen, dass die LLMs letztlich dem Reich der Magie zugehören. Ein entsprechendes Zitat von Open-AI-Chef Sam Altman hat er dazu parat, dem zufolge seine Systeme demnächst in der Lage sein würden, "Dinge zu tun, die unseren Großeltern wie Magie erschienen wären". Hier lässt sich freilich fragen, ob nicht besser zwischen Software und ihren Verkäufern unterschieden wäre. Die Tradition des parareligiösen Techno-Schamanismus im Marketing des Silicon Valley ist schließlich älter als die aktuelle "KI"-Welle.
Im letzten Abschnitt seines Essays möchte Warnke dann die LLMs und die Kabbala mit Walter Benjamins Begriff der "Schwellenkunde" zusammenbinden, Er greift dazu auf Überlegungen Benjamins im Aufsatz "Die Aufgabe des Übersetzers" zurück und bringt ins Spiel, was Autoren wie Claude Shannon, Marshall McLuhan und Niklas Luhmann über die Trennung von Medium und Inhalt schrieben. Benjamin ist hier die Gegeninstanz zu der von Shannon formulierten Ansicht, dass die "semantischen Aspekte der Kommunikation" für "das technische Problem irrelevant" seien. Eine Ansicht, von welcher sich für Warnke die Informatik nie befreit habe, worin aber freilich genau ihr technischer Erfolg liege, von dem noch die heutigen LLMs zehrten. Warnkes Fazit dieser Gegenüberstellung lautet, dass die graduelle Weiterentwicklung der LLMs, dieser "gottlosen Kabbalistik", zu einer Künstlichen allgemeinen Intelligenz als Pendant einer Natürlichen allgemeinen Intelligenz eine Illusion ist.
Der technik- und wissenschaftshistorische Teil des Buchs ist überzeugend. Der ideengeschichtliche Teil des Essays ist weniger stringent. Wenn Warnke Walter Benjamins Auffassung von der Übersetzung als einer Serie von Transformationen beschreibt, die sich mit den rein mathematischen Mitteln von Claude Shannons Informationstheorie nicht vollständig erfassen lassen, gälte die mit Benjamin als notwendig erachtete Einbettung einer Kulturtechnik in ein größeres Ganzes dann nicht auch für die Kabbala? Warnke erachtet das Fehlen einer solchen Einbettung als grundlegendes Defizit von ihr wie den LLMs. Man könnte aber genauso argumentieren, dass gerade die auf sich gestellte Interpretationsmethode eine derart starke innere Logik erzeugt, dass sie über ihre Adepten messianisch mächtig ausstrahlt. Bis zur Herabkunft der nächsten Erlösungstechnologie. GÜNTER HACK
Martin Warnke: "Large Language
Kabbala". Eine kleine Geschichte der Großen Sprachmodelle.
Matthes & Seitz Verlag, Berlin 2026. 150 S., br.
Alle Rechte vorbehalten. © Frankfurter Allgemeine Zeitung GmbH, Frankfurt am Main.Es wurden noch keine Bewertungen abgegeben. Schreiben Sie die erste Bewertung zu "Large Language Kabbala" und helfen Sie damit anderen bei der Kaufentscheidung.