AIは記憶しない。ただ記録するだけだ。
ファイルは存在するが、記憶は存在しない
大規模プロジェクトをAIコーディングエージェントに任せたことがある人なら知っているだろう。
最初のタスクは見事にこなす。 二番目もまだ大丈夫。 ファイルが約20個たまると、奇妙なことが起こる。
エージェントが昨日自分で作ったファイルを見つけられない。
$ find . -name "*.md" | head -20
$ grep -r "cache" ./docs/
$ cat ./architecture/overview.md # 「これじゃない」
$ cat ./design/system.md # 「これでもない」
$ grep -r "cache strategy" . # 「あった、ここだ」
ファイルは確かに存在する。エージェント自身が書いたものだ。 なのに何がどこにあるか全くわからない。
これはバグではない。 記録はしたが、記憶を構造化しなかったのだ。
人間の長期記憶もまったく同じ
驚くべきことに、このパターンは人間の長期記憶と構造的に同一である。
あなたの脳は数十年分の経験を保持している。 昨日のランチに何を食べたか、小学3年の担任の名前、 2019年に読んだ本のあの印象的な一文。
すべてどこかに格納されている。 しかし取り出そうとすると?
「あれ…何だっけ…カフェで読んでたのは覚えてるんだけど…」
手がかりを手探りする。関連する記憶がついてくる。無関係な記憶も割り込む。 見つからないこともある。予期せず突然浮かぶこともある。
AIコーディングエージェントの grep は、人間の「何だっけ…」という体験と構造的に同一である。
情報は格納されている。検索がめちゃくちゃなのだ。
問題は格納ではなく検索
この点は正確に述べなければならない。
今日のAIは記録能力が不足しているわけではない。 LLMは上手に書く。美しく構造化されたmarkdownドキュメントを生成する。 コードを生成し、要約を書き、分析レポートを作成する。
格納はすでに解決済みの問題だ。
未解決なのは検索である。
ファイルが100個たまったとき、 「3週間前に議論したキャッシュ戦略はどこだ?」に即座に答えられるAIは現存しない。
あらゆるAIシステムがこの問題を同じ方法で「解決」する。 すべてを読み返す。またはキーワードで検索する。
100万冊の本があるのにカード目録がない図書館のようなものだ。 質問のたびに、司書が棚を端から端まで見て回る。
一歩:構造化ファイルマップ
解決策は遠くにあるのではない。一歩だけだ。
一つの .memory-map.md ファイル。
# メモリマップ
最終更新:2026-02-26
## アーキテクチャ
- architecture/cache-strategy.md:3段階推論キャッシュ設計 (1/28)
- architecture/wms-overview.md:WMS中央ハブ構造 (1/30)
## コードブック
- codebook/verb-sidx.md:13,000動詞のSIDXマッピング (1/29)
- codebook/entity-top100.md:トップエンティティ分類体系 (1/31)
## 意思決定
- decisions/2026-01-28.md:SIMD全数スキャン採用の根拠
- decisions/2026-01-31.md:Go AST概念実証を優先する決定
## 未解決課題
- open/query-generation.md:キャッシュ検索クエリ生成方法 未定
- open/entity-codebook-scale.md:1億エンティティマッピング戦略 未定
これだけだ。
タスクごとにこのマップに一行追加する。 次のタスクを始める前にこの一つのファイルを読む。
完了。
find は不要。grep も不要。
50個のファイルを探し回る代わりに、一つのマップだけで済む。
なぜこれだけで劇的な性能向上が生まれるのか?
AIコーディングエージェントがタスクに費やす時間を分解してみよう。
総タスク時間:100%
実際の思考と生成:30-40%
コンテキストの発見と探索:40-50%
エラー修正とリトライ:10-20%
中間の40-50%がカギだ。
「以前何をしたか把握する時間」が全体の半分を占めている。 プロジェクトが大きくなるにつれ、この割合は上昇する。 ファイルが200に達すると、探索が総時間の70%を超えることもある。
.memory-map.md はその40-50%をほぼ0%に減らす。
マップを読むのに1秒。 必要なファイルがどこにあるか即座にわかる。 すぐに作業を開始する。
探索時間がゼロに近づくと、エージェントはほぼすべての時間を 実際の思考と生成に充てることができる。
体感性能の劇的な向上は自然な帰結である。
人類はすでにこれを発明していた
これは新しいアイデアではない。 人類は何千年も前に同じ解決策を発明していた。
目次がまさにそれだ。
目次のない本を想像してみよう。 500ページの本で特定の内容を見つけるには、 1ページ目から読み始めなければならない。
目次があれば? 「第3章第2節、87ページ」と見てそこに直接飛ぶ。
図書館のカード目録がまさにそれだ。
100万冊の本がある図書館で、 目録なしに欲しい本を見つけるのは不可能だ。
ファイルシステムのディレクトリ構造がまさにそれだ。
ハードドライブに100万のファイルがあっても、 フォルダ構造をたどれば欲しいものが見つかる。
目次。目録。ディレクトリ。 すべて同じ原理だ。
「中身はあちらにある。ここでは、何がどこにあるかだけを記す。」
人類の知識管理の最も基本的な原則。 なのに2026年の今、AIはこれをやっていない。
マップから知性へ
.memory-map.md は始まりにすぎない。
フラットなファイルリスト -> 階層分類 -> 意味リンキング -> グラフ。
この方向に一歩ずつ進むと何が起こるか。
段階1:ファイルリスト(今すぐ可能) 「cache-strategy.md はarchitectureフォルダにある。」 何がどこにあるかがわかる。
段階2:関係の記録 「cache-strategy.md は wms-overview.md に依存している。」 「この決定はあの議論から生まれた。」 ファイル間の関係がわかる。
段階3:意味索引 「推論効率に関連するすべてのドキュメントを見つけよ。」 キーワードではなく意味で検索する。
段階4:構造化知識グラフ すべての概念がノード、すべての関係がエッジ。 「キャッシュ戦略に影響するすべての設計決定の因果連鎖を示せ。」 これが可能になる。
段階1から段階4へ。
.memory-map.md からWMSへ。
フラットテキストから構造化知識ストリームへ。
すべて同じ旅路である。
これが核心原則だ
このアプローチの核心原則を再確認しよう。
「AIの推論過程は捨ててはならない——記録しなければならない。」
その文の背後には暗黙の系として:
「記録された推論は検索可能でなければならない。」
検索できない記録は、記録していないのと同じだ。
grep で手探りしなければ見つからない記憶は記憶ではない——ゴミ箱だ。
推論を構造化する理由、 意味整列ID体系を使う理由、 一回のビットマスクで関連知識を取り出す理由——
すべてこの一点に帰着する。
記録の問題ではなく、検索の問題だ。 格納の問題ではなく、構造の問題だ。
.memory-map.md はこの原則の最も原始的な実装だ。
そしてその原始的な実装ですら劇的な性能向上を生むなら、
この原則を極限まで推し進めたらどうなるか想像してほしい。
まとめ
AIの記憶問題は格納ではなく検索にある。
- 今日のAIはファイルを上手に書くが、自分が書いたファイルを見つけられない。
- これは人間の長期記憶の限界と構造的に同一である。
- 解決策は何千年も前に発明されていた:目次、目録、ディレクトリ。
- 一つの
.memory-map.mdでAIの実効性能は劇的に向上する。 - この原則を極限まで押し進めれば、構造化知識ストリームにたどり着く。
最も洗練されたAIでさえ、カード目録一枚もなく働いている。 私たちはそれを変えるつもりだ。