L’IA ne se souvient pas. Elle ne fait qu’enregistrer.


Les fichiers existent, mais la memoire n’existe pas

Quiconque a confie un projet de grande envergure a un agent de codage IA le sait.

La premiere tache se passe brillamment. La deuxieme est encore acceptable. Une fois qu’une vingtaine de fichiers se sont accumules, quelque chose d’etrange se produit.

L’agent ne trouve plus un fichier qu’il a cree la veille.

$ find . -name "*.md" | head -20
$ grep -r "cache" ./docs/
$ cat ./architecture/overview.md    # "Ce n'est pas celui-ci"
$ cat ./design/system.md            # "Ce n'est pas celui-la non plus"
$ grep -r "cache strategy" .        # "Ah, le voila"

Le fichier existe clairement. L’agent l’a ecrit lui-meme. Pourtant il n’a aucune idee de l’emplacement des choses.

Ce n’est pas un bug. Il a enregistre, mais il n’a jamais structure sa memoire.


La memoire a long terme humaine fonctionne exactement de la meme maniere

Ce qui est surprenant, c’est que ce schema est structurellement identique a la memoire a long terme humaine.

Votre cerveau contient des decennies d’experience. Ce que vous avez mange hier midi, le nom de votre instituteur de CE2, cette phrase marquante d’un livre lu en 2019.

Tout cela est stocke quelque part. Mais quand vous essayez de le retrouver ?

“Ce truc… c’etait quoi deja… je me souviens que je le lisais dans un cafe…”

Vous tatonnez en cherchant des indices. Des souvenirs associes suivent. Des souvenirs sans rapport s’incrustent. Parfois vous ne trouvez jamais. D’autres fois cela remonte a la surface de maniere inattendue.

La commande grep de l’agent de codage IA est structurellement identique a l’experience humaine du “c’etait quoi deja…”

L’information est stockee. La recuperation est un desordre.


Le probleme n’est pas le stockage, mais la recuperation

Ce point doit etre articule avec precision.

L’IA d’aujourd’hui ne manque pas de capacite d’enregistrement. Les LLM ecrivent bien. Ils produisent des documents markdown magnifiquement structures. Ils generent du code, composent des resumes et creent des rapports d’analyse.

Le stockage est deja un probleme resolu.

Ce qui reste non resolu, c’est la recuperation.

Quand une centaine de fichiers se sont accumules, aucune IA existante ne peut repondre instantanement a “Ou est la strategie de cache dont nous avons discute il y a trois semaines ?”

Chaque systeme d’IA “resout” ce probleme de la meme maniere. Tout relire. Ou chercher par mot-cle.

C’est comme une bibliotheque avec un million de livres mais sans fiches de catalogue. Pour chaque question, le bibliothecaire parcourt les etageres du debut a la fin.


Une seule etape : une carte de fichiers structuree

La solution n’est pas loin. C’est une seule etape.

Un seul fichier .memory-map.md.

# Carte memoire
Derniere mise a jour : 2026-02-26

## Architecture
- architecture/cache-strategy.md : Conception du cache de raisonnement a 3 niveaux (28/01)
- architecture/wms-overview.md : Structure du hub central WMS (30/01)

## Codebooks
- codebook/verb-sidx.md : Correspondance SIDX pour 13 000 verbes (29/01)
- codebook/entity-top100.md : Systeme de classification des entites principales (31/01)

## Decisions
- decisions/2026-01-28.md : Justification de l'adoption du balayage exhaustif SIMD
- decisions/2026-01-31.md : Decision de prioriser la preuve de concept Go AST

## Questions ouvertes
- open/query-generation.md : Methode de generation de requetes de recuperation de cache a determiner
- open/entity-codebook-scale.md : Strategie de correspondance de 100M d'entites a determiner

C’est tout.

Apres chaque tache, ajoutez une ligne a cette carte. Avant de commencer la tache suivante, lisez ce seul fichier.

Termine.

Plus besoin de find. Plus besoin de grep. Au lieu de fouiller dans cinquante fichiers, une seule carte suffit.


Pourquoi cela seul produit-il un gain de performance spectaculaire ?

Decomposons le temps qu’un agent de codage IA consacre a une tache.

Temps total de la tache : 100%

Reflexion et generation effectives : 30-40%
Decouverte et exploration du contexte : 40-50%
Correction d'erreurs et tentatives : 10-20%

Les 40-50% du milieu sont la cle.

“Le temps passe a retrouver ce qui a ete fait avant” represente la moitie du total. A mesure qu’un projet grandit, cette proportion augmente. Une fois que les fichiers atteignent 200, l’exploration peut depasser 70% du temps total.

.memory-map.md reduit ces 40-50% a quasiment 0%.

Lire la carte prend une seconde. Savoir instantanement ou se trouve le fichier necessaire. Commencer a travailler immediatement.

Quand le temps d’exploration approche zero, l’agent peut consacrer quasiment tout son temps a la reflexion et la generation effectives.

L’amelioration spectaculaire de la performance percue en est la consequence naturelle.


L’humanite a deja invente cela

Ce n’est pas une idee nouvelle. Les humains ont invente la meme solution il y a des milliers d’annees.

La table des matieres est exactement cela.

Imaginez un livre sans table des matieres. Pour trouver un contenu specifique dans un livre de 500 pages, il faudrait commencer a lire a la page 1.

Avec une table des matieres ? Vous voyez “Chapitre 3, Section 2, page 87” et vous y allez directement.

La fiche de catalogue de bibliotheque est exactement cela.

Dans une bibliotheque d’un million de livres, trouver celui que vous voulez sans catalogue est impossible.

La structure de repertoires du systeme de fichiers est exactement cela.

Meme avec un million de fichiers sur un disque dur, vous pouvez trouver celui que vous voulez en suivant la structure des dossiers.

Table des matieres. Catalogue. Repertoire. Tous le meme principe.

“Le contenu est la-bas ; ici, nous notons seulement ou se trouvent les choses.”

Le principe le plus fondamental de la gestion des connaissances humaines. Et pourtant, en 2026, l’IA ne fait pas cela.


De la carte a l’intelligence

.memory-map.md n’est que le debut.

Liste de fichiers a plat -> classification hierarchique -> liaison semantique -> graphe.

Que se passe-t-il a mesure que nous avanceons pas a pas dans cette direction ?

Etape 1 : Listing de fichiers (possible maintenant) “cache-strategy.md est dans le dossier architecture.” Vous savez ou se trouvent les choses.

Etape 2 : Enregistrement des relations “cache-strategy.md depend de wms-overview.md.” “Cette decision est nee de cette discussion.” Vous connaissez les relations entre les fichiers.

Etape 3 : Indexation semantique “Trouver tous les documents lies a l’efficacite du raisonnement.” Recherche par sens, pas par mot-cle.

Etape 4 : Graphe de connaissances structure Chaque concept est un noeud, chaque relation est une arete. “Montrez-moi la chaine causale de toutes les decisions de conception qui affectent la strategie de cache.” Cela devient possible.

Passer de l’etape 1 a l’etape 4. Passer de .memory-map.md a WMS. Passer du texte a plat a un flux de connaissances structure.

C’est le meme voyage.


C’est le principe fondamental

Revenons au principe fondamental de cette approche.

“Le processus de raisonnement d’une IA ne doit pas etre jete – il doit etre enregistre.”

Derriere cette phrase se cache un corollaire implicite :

“Le raisonnement enregistre doit etre recuperable.”

Enregistrer sans pouvoir recuperer, c’est la meme chose que de n’avoir jamais enregistre. Une memoire qu’il faut fouiller avec grep n’est pas une memoire – c’est une corbeille.

La raison de structurer le raisonnement, la raison d’utiliser un systeme d’identifiants semantiquement alignes, la raison de recuperer les connaissances pertinentes avec un seul masque de bits –

Tout se resume a ceci.

Ce n’est pas un probleme d’enregistrement, mais de recuperation. Ce n’est pas un probleme de stockage, mais de structure.

.memory-map.md est l’implementation la plus primitive de ce principe. Et si meme cette implementation primitive produit un gain de performance spectaculaire, imaginez ce qui se passe quand on pousse ce principe jusqu’a sa limite.


Resume

Le probleme de memoire de l’IA ne reside pas dans le stockage, mais dans la recuperation.

  1. L’IA d’aujourd’hui ecrit bien des fichiers, mais ne peut pas retrouver les fichiers qu’elle a ecrits.
  2. Cela est structurellement identique aux limitations de la memoire a long terme humaine.
  3. La solution a ete inventee il y a des milliers d’annees : tables des matieres, catalogues, repertoires.
  4. Un seul .memory-map.md peut ameliorer spectaculairement la performance effective d’une IA.
  5. Pousser ce principe a l’extreme mene a un flux de connaissances structure.

Meme l’IA la plus sophistiquee travaille sans une seule fiche de catalogue. Nous avons l’intention de corriger cela.