KI erinnert sich nicht. Sie zeichnet nur auf.


Dateien existieren, aber Gedaechtnis nicht

Jeder, der einem KI-Coding-Agenten ein Grossprojekt anvertraut hat, kennt das.

Die erste Aufgabe laeuft glaenzend. Die zweite ist noch in Ordnung. Sobald sich etwa zwanzig Dateien angesammelt haben, passiert etwas Seltsames.

Der Agent kann eine Datei nicht finden, die er gestern selbst erstellt hat.

$ find . -name "*.md" | head -20
$ grep -r "cache" ./docs/
$ cat ./architecture/overview.md    # "Das ist es nicht"
$ cat ./design/system.md            # "Das auch nicht"
$ grep -r "cache strategy" .        # "Ah, hier ist es"

Die Datei existiert eindeutig. Der Agent hat sie selbst geschrieben. Trotzdem hat er keine Ahnung, wo die Dinge sind.

Das ist kein Bug. Er hat aufgezeichnet, aber er hat sein Gedaechtnis nie strukturiert.


Das menschliche Langzeitgedaechtnis funktioniert genau so

Ueberraschend ist, dass dieses Muster strukturell identisch mit dem menschlichen Langzeitgedaechtnis ist.

Ihr Gehirn haelt Jahrzehnte an Erfahrung. Was Sie gestern zu Mittag gegessen haben, den Namen Ihres Klassenlehrers in der dritten Klasse, diesen einen eindrucksvollen Satz aus einem Buch, das Sie 2019 gelesen haben.

All das ist irgendwo gespeichert. Aber wenn Sie versuchen, es abzurufen?

“Das Ding… was war es nochmal… ich erinnere mich, ich hab es in einem Cafe gelesen…”

Sie tasten nach Hinweisen. Assoziierte Erinnerungen haengen sich an. Irrelevante Erinnerungen draengen sich auf. Manchmal finden Sie es nie. Andere Male taucht es unerwartet aus dem Nichts auf.

Das grep des KI-Coding-Agenten ist strukturell identisch mit dem menschlichen Erlebnis von “was war es nochmal…”

Die Information ist gespeichert. Der Abruf ist ein Chaos.


Das Problem ist nicht die Speicherung, sondern der Abruf

Dieser Punkt muss praezise formuliert werden.

Heutiger KI fehlt nicht die Faehigkeit aufzuzeichnen. LLMs schreiben gut. Sie produzieren wunderbar strukturierte Markdown-Dokumente. Sie generieren Code, verfassen Zusammenfassungen und erstellen Analyseberichte.

Speicherung ist bereits ein geloestes Problem.

Was ungeloest bleibt, ist der Abruf.

Wenn sich hundert Dateien angesammelt haben, kann keine existierende KI sofort beantworten: “Wo ist die Cache-Strategie, die wir vor drei Wochen besprochen haben?”

Jedes KI-System “loest” dieses Problem auf dieselbe Weise. Alles nochmal lesen. Oder per Stichwort suchen.

Es ist wie eine Bibliothek mit einer Million Buecher, aber ohne Katalogkarten. Fuer jede Frage durchsucht der Bibliothekar die Regale von Anfang bis Ende.


Ein Schritt: Eine strukturierte Datei-Karte

Die Loesung ist nicht weit. Es ist ein Schritt.

Eine einzige .memory-map.md-Datei.

# Memory Map
Letztes Update: 2026-02-26

## Architektur
- architecture/cache-strategy.md: 3-stufiges Reasoning-Cache-Design (28.01.)
- architecture/wms-overview.md: WMS-Zentralhub-Struktur (30.01.)

## Codebooks
- codebook/verb-sidx.md: SIDX-Zuordnung fuer 13.000 Verben (29.01.)
- codebook/entity-top100.md: Top-Entity-Klassifikationssystem (31.01.)

## Entscheidungen
- decisions/2026-01-28.md: Begruendung fuer die Einfuehrung des SIMD-Exhaustivscans
- decisions/2026-01-31.md: Entscheidung zur Priorisierung des Go-AST-Proof-of-Concept

## Offene Fragen
- open/query-generation.md: Cache-Abruf-Abfragegenerierungsmethode offen
- open/entity-codebook-scale.md: 100M-Entity-Mapping-Strategie offen

Das ist alles.

Nach jeder Aufgabe eine Zeile zu dieser Karte hinzufuegen. Vor Beginn der naechsten Aufgabe diese eine Datei lesen.

Fertig.

Kein find noetig. Kein grep noetig. Statt fuenfzig Dateien zu durchwaehlen, genuegt eine Karte.


Warum produziert allein das einen dramatischen Leistungsgewinn?

Schluesseln wir die Zeit auf, die ein KI-Coding-Agent fuer eine Aufgabe aufwendet.

Gesamte Aufgabenzeit: 100%

Tatsaechliches Denken und Generieren: 30-40%
Kontextfindung und Exploration: 40-50%
Fehlerkorrekturen und Wiederholungen: 10-20%

Die mittleren 40-50% sind der Schluessel.

“Zeit, die aufgewendet wird um herauszufinden, was vorher gemacht wurde” macht die Haelfte der Gesamtzeit aus. Wenn ein Projekt waechst, steigt dieser Anteil. Ab 200 Dateien kann die Exploration ueber 70% der Gesamtzeit ausmachen.

.memory-map.md reduziert diese 40-50% auf nahezu 0%.

Das Lesen der Karte dauert eine Sekunde. Sofort wissen, wo die benoetigte Datei ist. Sofort mit der Arbeit beginnen.

Wenn die Explorationszeit gegen null geht, kann der Agent nahezu seine gesamte Zeit dem tatsaechlichen Denken und Generieren widmen.

Die dramatische Verbesserung der wahrgenommenen Leistung ist die natuerliche Folge.


Die Menschheit hat das bereits erfunden

Das ist keine neue Idee. Menschen haben dieselbe Loesung vor Tausenden von Jahren erfunden.

Das Inhaltsverzeichnis ist genau das.

Stellen Sie sich ein Buch ohne Inhaltsverzeichnis vor. Um bestimmte Inhalte in einem 500-Seiten-Buch zu finden, muessten Sie ab Seite 1 zu lesen beginnen.

Mit einem Inhaltsverzeichnis? Sie sehen “Kapitel 3, Abschnitt 2, Seite 87” und schlagen direkt dort auf.

Die Bibliotheks-Katalogkarte ist genau das.

In einer Bibliothek mit einer Million Buecher ist es ohne Katalog unmoeglich, das gewuenschte Buch zu finden.

Die Verzeichnisstruktur des Dateisystems ist genau das.

Selbst bei einer Million Dateien auf einer Festplatte kann man die gewuenschte Datei finden, indem man der Ordnerstruktur folgt.

Inhaltsverzeichnis. Katalog. Verzeichnis. Alle dasselbe Prinzip.

“Der Inhalt ist dort drueben; hier notieren wir nur, wo die Dinge sind.”

Das grundlegendste Prinzip menschlicher Wissensorganisation. Und doch tut KI im Jahr 2026 genau das nicht.


Von der Karte zur Intelligenz

.memory-map.md ist nur der Anfang.

Flache Dateiliste -> hierarchische Klassifikation -> semantische Verknuepfung -> Graph.

Was passiert, wenn wir Schritt fuer Schritt in diese Richtung gehen?

Stufe 1: Dateiauflistung (jetzt moeglich) “cache-strategy.md ist im Architektur-Ordner.” Man weiss, wo die Dinge sind.

Stufe 2: Beziehungsaufzeichnung “cache-strategy.md haengt von wms-overview.md ab.” “Diese Entscheidung entstand aus jener Diskussion.” Man kennt die Beziehungen zwischen den Dateien.

Stufe 3: Semantische Indexierung “Finde alle Dokumente zum Thema Reasoning-Effizienz.” Suche nach Bedeutung, nicht nach Stichwort.

Stufe 4: Strukturierter Wissensgraph Jedes Konzept ist ein Knoten, jede Beziehung eine Kante. “Zeige mir die Kausalkette aller Designentscheidungen, die die Cache-Strategie beeinflussen.” Das wird moeglich.

Von Stufe 1 zu Stufe 4. Von .memory-map.md zu WMS. Von flachem Text zu einem strukturierten Wissensstrom.

Es ist alles dieselbe Reise.


Das ist das Kernprinzip

Kehren wir zum Kernprinzip dieses Ansatzes zurueck.

“Der Denkprozess einer KI darf nicht verworfen werden – er muss aufgezeichnet werden.”

Hinter diesem Satz liegt ein implizites Korollar:

“Aufgezeichnetes Denken muss abrufbar sein.”

Aufzeichnen ohne abrufen zu koennen ist dasselbe, als haette man nie aufgezeichnet. Ein Gedaechtnis, das man mit grep durchwuehlen muss, ist kein Gedaechtnis – es ist ein Papierkorb.

Der Grund, Denken zu strukturieren, der Grund, ein semantisch ausgerichtetes ID-System zu verwenden, der Grund, relevantes Wissen mit einer einzigen Bitmaske abzurufen –

Alles laeuft hierauf hinaus.

Es ist kein Problem der Aufzeichnung, sondern des Abrufs. Es ist kein Problem der Speicherung, sondern der Struktur.

.memory-map.md ist die primitivste Implementierung dieses Prinzips. Und wenn selbst diese primitive Implementierung einen dramatischen Leistungsgewinn erzeugt, stellen Sie sich vor, was passiert, wenn man dieses Prinzip bis an seine Grenzen treibt.


Zusammenfassung

Das Gedaechtnisproblem der KI liegt nicht in der Speicherung, sondern im Abruf.

  1. Heutige KI schreibt Dateien gut, kann aber die Dateien, die sie geschrieben hat, nicht wiederfinden.
  2. Das ist strukturell identisch mit den Einschraenkungen des menschlichen Langzeitgedaechtnisses.
  3. Die Loesung wurde vor Tausenden von Jahren erfunden: Inhaltsverzeichnisse, Kataloge, Verzeichnisse.
  4. Eine einzige .memory-map.md kann die effektive Leistung einer KI dramatisch verbessern.
  5. Dieses Prinzip bis zum Aeussersten zu treiben, fuehrt zu einem strukturierten Wissensstrom.

Selbst die ausgefeiltetste KI arbeitet ohne eine einzige Katalogkarte. Wir beabsichtigen, das zu aendern.