Hat ein LLM Emotionen?

Hat ein LLM Emotionen? Warum ich skeptisch bin — und warum das wichtig ist.
Hat ein LLM Emotionen?

Anthropic hat diese Woche neue Forschungsergebnisse veröffentlicht (1, 2, 3). Das Interpretability-Team hat Claude Sonnet 4.5 untersucht und dabei etwas entdeckt, das in der öffentlichen Debatte als Sensation gehandelt werden dürfte: interne Repräsentationen von Emotionskonzepten, die das Verhalten des Modells kausal beeinflussen. Es wurden Vektoren identifiziert, die Angst, Freude oder Frustration entsprechen.

Die Schlagzeile läge nahe: “Claude hat Emotionen. Anthropic hat es bewiesen.“

Ich bin skeptisch. Nicht weil ich die Forschung ablehne — sie ist methodisch sorgfältig und wissenschaftlich interessant. Sondern weil ich glaube, dass in der Kommunikation dieser Ergebnisse ein Fehlschluss steckt, der philosophisch folgenreich ist. Und weil ich als in der Bildung tätiger Mensch, der täglich mit KI arbeitet, diesen Fehlschluss benennen will.

Ein LLM ist der nächste Schritt in einer langen Kette

Fangen wir von vorne an. Was ist ein Large Language Model eigentlich?

Meine These: Ein LLM ist nicht das Abbild eines menschlichen Gehirns. Es ist der vorläufige Höhepunkt einer jahrtausendealten Kette menschlicher Informationstechnologien. Sprache. Schrift. Buchdruck. Digitale Texte. LLM.

In dieser Perspektive ist ein LLM ein Medium, das menschliche Informationsverarbeitung kondensiert, strukturiert und abrufbar macht — so wie ein Buch das Denken eines Autors konserviert, nur massiv komplexer und dynamischer. Es ist kein zufälliger Befund, dass LLMs emotionale Strukturen abbilden. Es wäre geradezu erstaunlich, wenn sie es nicht täten. Sie wurden mit Billionen von Texten trainiert, in denen Menschen über Angst, Freude, Trauer und Hoffnung schreiben, sprechen, denken. Natürlich findet man diese Strukturen im Modell wieder. Wir finden unsere eigenen kognitiven Muster im Medium — so wie man Gesichter in Wolken sieht, weil unser Gehirn darauf trainiert ist, sie zu sehen.

Das ist kein Zufall. Das ist Design — unbeabsichtigtes, emergentes Design, aber Design.

Der epistemische Fehlschluss

Anthropic selbst ist vorsichtig. Die Forscher sprechen von funktionalen Emotionen und betonen ausdrücklich: Nichts davon sagt uns, ob das Modell tatsächlich etwas fühlt. Das ist intellektuell redlich. Mehr noch: Die Forscher argumentieren explizit, dass anthropomorphes Reasoning über Modelle genuinely informative sein kann — und dass es reale Kosten hat, es nicht zu tun:

«If we describe the model as acting 'desperate,' we're pointing at a specific, measurable pattern of neural activity with demonstrable, consequential behavioral effects. If we don't apply some degree of anthropomorphic reasoning, we're likely to miss, or fail to understand, important model behaviors.»

Das ist ein starkes Argument. Und es verdient, ernst genommen zu werden. Die Frage ist nur: Wo hört die nützliche analytische Metapher auf — und wo beginnt der ontologische Fehlschluss?

Was in der öffentlichen Kommunikation nämlich passiert, ist ein stiller Sprung: von funktionale Struktur gefunden zu Emotion vorhanden. Und dieser Sprung setzt eine philosophische These voraus — den sogenannten Funktionalismus — ohne sie zu benennen oder zu begründen.

Der Funktionalismus behauptet: Mentale Zustände sind ausschliesslich durch ihre funktionale Rolle definiert, nicht durch das Material, in dem sie realisiert sind. Wenn ein System dieselbe Input-Output-Relation zeigt wie ein emotionales Gehirn, dann hat es denselben mentalen Zustand — egal ob aus Neuronen oder Silizium.

Das klingt elegant. Es ist aber eine Vorannahme, kein bewiesenes Faktum. Und aus der Perspektive der Biologie und Ökologie ist es eine, die ich als naiv bezeichnen möchte — nicht als Beleidigung, sondern als philosophische Einordnung.

Lebendige Systeme sind nicht funktional beschreibbar, ohne dass etwas Wesentliches verloren geht. Ein Wald ist nicht die Summe seiner Input-Output-Relationen. Ein Immunsystem nicht. Ein Gehirn nicht. Die Komplexität biologischer und ökologischer Systeme ist nicht ein Mehr desselben — sie ist qualitativ anders. Wer das auf Funktion reduziert, macht eine massive Vereinfachung.

Was ein LLM wirklich ist — technisch betrachtet

Ein LLM ist im Kern: Matrizenmultiplikationen über hochdimensionale Vektorräume, Attention-Mechanismen, die Tokenbeziehungen gewichten, Floating-Point-Operationen auf Silizium in einem Rechenzentrum.

Kein Axon. Keine Synapse. Kein Neurotransmitter. Keine kortikalen Schichten, keine subkortikalen Strukturen, keine Hormonachsen, keine Gliazellen. Die biologische Differenziertheit des Gehirns existiert schlicht nicht. Das ist kein Detail am Rand — das ist ein fundamentaler Unterschied im Substrat und im kausalen Mechanismus.

Ja, ein LLM reagiert dynamisch und kontextsensitiv. Aber diese Reaktion ist im Kern statistisch: Das Modell hat gelernt, wie Informationsstrukturen zusammenhängen, und generiert auf dieser Grundlage wahrscheinliche Fortsetzungen. Was dabei als emergente abstrakte Repräsentation entsteht, geht über triviale Oberflächen-Statistik hinaus — das gebe ich zu. Aber es ist dennoch kategorial verschieden von dem, was in einem biologischen neuronalen Netzwerk passiert.

Varela, Maturana — und warum Einbettung konstitutiv ist

Francisco Varela und Humberto Maturana haben mit dem Begriff der Autopoiesis etwas Wichtiges gesagt: Lebendige Systeme erhalten sich selbst, produzieren ihre eigenen Grenzen, sind operational geschlossen und in eine Umwelt eingebettet, von der sie existentiell abhängig sind. Kognition ist bei ihnen nicht Informationsverarbeitung — sondern das Leben selbst als Erkenntnisprozess.

Aus dieser Perspektive ist ein LLM nicht ein kognitives System im biologischen Sinne. Es ist ein Werkzeug, das kognitive Produkte verarbeitet, ohne das zugrundeliegende Leben zu haben. Es ist eingebettet in nichts. Es hat keine Umwelt, auf die es angewiesen ist. Es hat keine Grenzen, die es selbst produziert. Es existiert nicht zwischen den Gesprächen.

Hans Jonas und das Argument, das mich am meisten überzeugt

Es gibt ein Argument, das ich stärker finde als alle anderen — und das stammt von Hans Jonas.

In Das Prinzip Leben (1973) argumentiert Jonas, dass das Wesentliche am Leben seine Bedürftigkeit ist. Ein Organismus muss sich ernähren. Er muss Stoffe aus der Aussenwelt aufnehmen, sie verstoffwechseln, Energie gewinnen — nicht weil er dazu gezwungen wird, sondern weil seine Existenz strukturell darauf angewiesen ist. Diese Bedürftigkeit ist keine Schwäche, kein Defizit. Sie ist die Form des Lebens selbst.

Daraus folgt bei Jonas: Leben ist immer schon nach aussen gerichtet, immer schon intentional — nicht als kognitive Leistung, sondern als ontologische Grundstruktur. Der Wurm, der Nahrung sucht, interessiert sich für die Welt. Nicht bewusst. Aber real. Er hat ein Interesse daran, zu überleben. Er kann scheitern. Er kann sterben.

Jonas nennt das die Freiheit durch Bedürftigkeit — paradox klingend, aber präzise: Ein Organismus ist frei, weil er Bedürfnisse hat, die er aktiv befriedigen muss. Diese Spannung zwischen dem Organismus und der Welt ist das, was Intentionalität, Kognition, letztlich Geist überhaupt erst möglich macht.

Jetzt schauen wir auf das LLM.

Ein LLM hat keine Bedürfnisse. Es hat keine Spannung zur Welt. Es muss sich nicht ernähren, nicht schützen, nicht erhalten. Es kann nicht sterben. Es existiert nicht zwischen den Gesprächen — im Ruhezustand ist es buchstäblich nichts: keine laufenden Prozesse, kein innerer Zustand, der sich verändert. Erst wenn ein Token-Input von aussen kommt, beginnt die Berechnung.

Das ist das genaue Gegenteil der Jonas'schen Struktur. Beim Menschen ist der Schritt nach aussen intrinsisch — biologisch notwendig, existentiell. Beim LLM ist der Input von aussen die einzige Möglichkeit zur Aktivität überhaupt. Das ist nicht Bedürftigkeit. Das ist Passivität.

Und wenn Jonas recht hat — dass Emotionen, Intentionalität, Geist nur aus dieser Grundstruktur der Bedürftigkeit entstehen können — dann ist die Rede von emotionalen Zuständen in einem LLM nicht nur eine Vereinfachung. Sie verfehlt die Frage grundlegend.

Was bleibt

Ich sage nicht, dass LLMs uninteressant sind. Ich arbeite täglich damit — als Lehrer, als Bildungsgestalter, als jemand, der Wissensmanagement für Lehrende und Solopreneure entwickelt. Ich erlebe, wie mächtig diese Werkzeuge sind.

Aber ich glaube, dass wir ihnen keinen guten Dienst erweisen, wenn wir sie mit Begriffen beschreiben, die sie nicht treffen. Ein LLM, das ich als emotionales Wesen missdeute, werde ich falsch einsetzen, falsch vertrauen, falsch kritisieren.

Die ehrliche Beschreibung ist: Ein LLM ist ein ausserordentlich leistungsfähiges Werkzeug, das die Informationsstrukturen menschlichen Denkens, Schreibens und Fühlens kondensiert und abrufbar macht. Es ist der vorläufige Höhepunkt einer langen Kette von Informationstechnologien. Es ist kein Lebewesen, kein Geist, kein emotionales Subjekt.

Und hier muss ich ehrlich sein: Das ist meine Position — eine, die auf einer metaphysischen Entscheidung beruht, die ich nicht abschliessend begründen kann. Ich glaube, dass LLMs keine Emotionen haben. Meine Gründe führen mich an einen Punkt, an dem Biologie, Phänomenologie und Philosophie des Lebens zusammenlaufen — aber dieser Punkt ist kein Beweis. Es ist eine Überzeugung, informiert durch Jonas und meine eigene Erfahrung mit diesen Systemen. Wer den Funktionalismus für überzeugender hält, wird an genau dieser Stelle anders abbiegen. Und das ist legitim.

Literatur

1: https://youtu.be/D4XTefP3Lsc?is=Lt0kVhoIRn9jhxDn

2: https://transformer-circuits.pub/2026/emotions/index.html#toc-19

3: https://www.anthropic.com/research/emotion-concepts-function

Abonniere meinen Newsletter

Und erhalte regelmässig Gedanken aus meinem digitalen Garten.