Ex-OpenAI-Entwickler Andrej Karpathy hat kürzlich beschrieben, wie er mit einem LLM persönliche Wissensbasen baut («LLM Knowledge Bases»): Rohdaten sammeln, per KI in ein Markdown-Wiki kompilieren, per Chat abfragen und erweitern. Die Reaktion auf X war sofort enthusiastisch. Meine erste Reaktion? Eine Mischung aus Interesse und Skepsis. Denn Karpathys Ansatz klingt nach einer eleganten Lösung für die mühsamen Aspekte der Wissensarbeit — aber er berührt auch einen Nerv: Ist das das alte Lied «Technologe missversteht, was Wissensarbeit eigentlich ist»?
Chris Bühler hat daraufhin in seinem LinkedIn-Post drei Fragen formuliert, die mich nicht losgelassen haben. Hier meine Antworten.
1. Welche Arbeiten kann KI bei der Pflege eines Zettelkastens übernehmen, ohne dessen einzigartige Effekte zu torpedieren?
Ich denke, das hängt von deinem System ab — und von deiner KI-Literacy.
Voraussetzung ist, dass du ein funktionierendes Wissensmanagement-System hast. Einen Zettelkasten, ein Second Brain in einer Obsidian-Vault oder ein Notion-Setup — die Form ist zweitrangig. Entscheidend ist in meinen Augen: Du hast eine Struktur, in der dein Denken stattfindet.
Wenn diese Struktur steht, erweitert KI sie um ein Werkzeug. Nicht mehr, nicht weniger. Die KI kann bei der Verwaltung helfen: Notizen taggen, Verbindungen zwischen Zetteln vorschlagen, Zusammenfassungen erstellen, tote Links finden. Das sind operative Aufgaben, die Zeit fressen, aber kein Denken erfordern.
Andy Matuschak warnt zu Recht vor dem Trugschluss, dass man «intellektuell» wird, wenn man das Notizbuch des klugen Menschen kopiert. Die sichtbare Komponente — das Notieren, Ordnen, Verwalten — ist nicht das, was Wissensarbeit ausmacht. Das Denken dahinter ist es. Und genau da liegt die Grenze: Was die KI nicht übernehmen sollte, ist die Entscheidung, warum eine Notiz relevant ist. Die Verknüpfung zweier Ideen zu einem neuen Gedanken. Die Frage, die aus einer Beobachtung entsteht.
Dieser Schritt — KI als Werkzeug im bestehenden System — kommt sowieso. Ob du Obsidian, Notion oder Evernote nutzt, die Integration von KI in diese Tools ist bereits Realität. Es spricht nichts dagegen, diesen Schritt zu nutzen. Solange du weisst, wo die Grenze zwischen Verwalten und Denken liegt.
2. Wie weit kann die Erfassung und Verarbeitung von Material ausgelagert werden, ohne den persönlichen Lerneffekt zu verlieren?
Richard Feynman wurde einmal gefragt, ob seine Notizbücher eine «unglaubliche Aufzeichnung seines Denkens» seien. Seine Antwort: «Nein, nein. Sie sind nicht die Aufzeichnung des Denkprozesses. Die Notizbücher sind mein Denkprozess.»
Niklas Luhmann formulierte es ähnlich radikal: «Ohne zu schreiben, kann man nicht denken; jedenfalls nicht in anspruchsvoller, anschlussfähiger Weise.»
Diese Einsicht ist der Kern. Und sie ist der Grund, warum pauschales Auslagern an eine KI problematisch wäre. Wenn das Schreiben das Denken ist, dann kann ich das Schreiben nicht delegieren, ohne das Denken zu verlieren.
Aber — und das ist der entscheidende Punkt — «Schreiben» muss heute nicht mehr das einsame Notizbuch sein.
In meiner eigenen Praxis hat sich der Denkprozess verschoben: vom Monolog zum Dialog. Wenn ich ein Thema bearbeite, führe ich ein Gespräch mit dem LLM. Ich bringe meinen Kontext ein — mein Vorwissen, meine Fragen, meine Perspektive. Die KI bringt Informationen, Zusammenhänge, Gegenargumente. Und in diesem Hin und Her entsteht etwas, das keiner von uns beiden allein produzieren könnte.
Ein Beispiel: Kürzlich habe ich mich mit der Frage beschäftigt, ob hermeneutische Interpretation durch KI unterstützt werden kann. Im Dialog hat das LLM drei philosophische Perspektiven eingebracht, die ich so nicht nebeneinandergestellt hätte. Aber die Synthese — die Erkenntnis, dass der Interpretationsakt selbst das Verstehen ist und nicht delegiert werden kann — war meine. Ohne den Dialog wäre ich langsamer zum selben Punkt gekommen. Ohne mein Vorwissen wäre der Dialog oberflächlich geblieben.
Das ist kein Auslagern. Das ist erweitertes Denken. Oder wie ich es in einem früheren Beitrag beschrieben habe: Kontext-Architektur. Du baust den Rahmen, die KI spiegelt dich statistisch-sprachlich — sie arbeitet mit Wahrscheinlichkeiten, nicht mit Verständnis — und du entscheidest, was bleibt.
Am Ende des Dialogs muss ich den Gedanken formulieren. Die KI liefert Rohstoff. Die Synthese bleibt bei mir. Wenn ich den Chat abschliesse und die Kernerkenntnisse in eigenen Worten zusammenfasse, dann spiegeln diese Notizen meine Denkstrukturen — unabhängig davon, ob ein LLM am Prozess beteiligt war.
3. Was passiert, wenn eigene Gedanken und KI-generierte Zettel sich vermischen? Verwässert das System?
Meine Antwort: Nein. Zumindest nicht, wenn du bewusst arbeitest.
Entscheidend ist nicht wer den Text produziert hat, sondern ob du ihn durchdacht hast. Der Unterschied liegt zwischen zwei Szenarien:
Szenario A: Du stellst der KI eine Frage, kopierst die Antwort und speicherst sie als Notiz. Das ist Informationssammlung, kein Denken. Und ja — das verwässert deinen Zettelkasten, weil du Fremdgedanken als eigene ablegen würdest.
Szenario B: Du führst einen Dialog. Du bringst dein Vorwissen ein, hinterfragst die KI-Antworten, kombinierst sie mit eigenen Beobachtungen und formulierst am Ende eine Notiz, die deine Perspektive widerspiegelt. In diesem Fall sind deine persönlichen Gedanken in der Notiz verwoben — egal, ob Teile davon im Gespräch mit einer KI entstanden sind.
Ich glaube nicht, dass sich eigene und KI-unterstützte Gedanken langfristig trennen lassen. Genauso wenig, wie du heute noch trennst, welche deiner Ideen aus einem Buch stammen, welche aus einem Gespräch mit einem Kollegen und welche unter der Dusche entstanden sind. Die Quelle der Inspiration ist weniger wichtig als die Qualität der Verarbeitung.
Die eigentliche Frage ist nicht «vermischt sich etwas?», sondern «hast du den Gedanken wirklich durchdrungen?» Wenn ja, ist er deiner — unabhängig vom Entstehungsweg.
Einwände und Antworten
«Karpathys Ansatz funktioniert doch — er fragt sein Wiki ab und bekommt gute Antworten.»
Ja, für Retrieval — also das Wiederfinden und Zusammenstellen von Informationen — ist das System brillant. Aber ein Zettelkasten ist mehr als eine Datenbank. Er ist ein Denkwerkzeug. Der Wert liegt nicht im Abfragen, sondern im Verknüpfen. Karpathys Wiki ist eine hervorragende Wissensbasis. Ein Zettelkasten im Luhmann'schen Sinn ist es (noch) nicht.
«Nicht jeder hat die Zeit für bewusste Denkarbeit mit KI.»
Stimmt. Aber die Zeitersparnis kommt nicht vom Überspringen des Denkens, sondern von dessen Beschleunigung. Wer seinen Kontext kennt, braucht für einen produktiven KI-Dialog — aus meiner Erfahrung — 15 Minuten statt 2 Stunden manueller Recherche.
«Das ist eine Nischen-Diskussion für PKM-Nerds.»
Vielleicht. Aber die Frage «Wie arbeite ich sinnvoll mit KI?» betrifft jeden Wissensarbeiter. Der Zettelkasten ist nur das Brennglas, durch das diese Frage besonders scharf wird.
Resümee
Karpathys Ansatz zeigt, was technisch möglich ist — und das ist beeindruckend. Aber die spannende Frage ist nicht «Kann KI mein Wiki pflegen?», sondern «Wo endet Verwaltung und wo beginnt Denken?»
Deine Wissensarbeit braucht dich — nicht als Verwalter, sondern als Denker. Die KI macht die Verwaltung effizienter. Das Denken bleibt dein Job.
Quellen & Referenzen
- Andrej Karpathy (2026): X-Post «LLM Knowledge Bases»
- Chris Bühler (2026): LinkedIn-Diskussion zum Thema.
- Andy Matuschak, zitiert in: «Schreiben als Denkstruktur»
- Richard Feynman, zitiert in: «Schreiben als Denkstruktur»
- Niklas Luhmann: zitiert in: «Schreiben als Denkstruktur»
- Georg Gusewski: Werde zum Kontext Architekten
Und erhalte regelmässig Gedanken aus meinem digitalen Garten.