AIは記憶しない。ただ記録するだけだ。


ファイルは存在するが、記憶は存在しない

大規模プロジェクトをAIコーディングエージェントに任せたことがある人なら知っているだろう。

最初のタスクは見事にこなす。 二番目もまだ大丈夫。 ファイルが約20個たまると、奇妙なことが起こる。

エージェントが昨日自分で作ったファイルを見つけられない。

$ find . -name "*.md" | head -20
$ grep -r "cache" ./docs/
$ cat ./architecture/overview.md    # 「これじゃない」
$ cat ./design/system.md            # 「これでもない」
$ grep -r "cache strategy" .        # 「あった、ここだ」

ファイルは確かに存在する。エージェント自身が書いたものだ。 なのに何がどこにあるか全くわからない。

これはバグではない。 記録はしたが、記憶を構造化しなかったのだ。


人間の長期記憶もまったく同じ

驚くべきことに、このパターンは人間の長期記憶と構造的に同一である。

あなたの脳は数十年分の経験を保持している。 昨日のランチに何を食べたか、小学3年の担任の名前、 2019年に読んだ本のあの印象的な一文。

すべてどこかに格納されている。 しかし取り出そうとすると?

「あれ…何だっけ…カフェで読んでたのは覚えてるんだけど…」

手がかりを手探りする。関連する記憶がついてくる。無関係な記憶も割り込む。 見つからないこともある。予期せず突然浮かぶこともある。

AIコーディングエージェントの grep は、人間の「何だっけ…」という体験と構造的に同一である。

情報は格納されている。検索がめちゃくちゃなのだ。


問題は格納ではなく検索

この点は正確に述べなければならない。

今日のAIは記録能力が不足しているわけではない。 LLMは上手に書く。美しく構造化されたmarkdownドキュメントを生成する。 コードを生成し、要約を書き、分析レポートを作成する。

格納はすでに解決済みの問題だ。

未解決なのは検索である。

ファイルが100個たまったとき、 「3週間前に議論したキャッシュ戦略はどこだ?」に即座に答えられるAIは現存しない。

あらゆるAIシステムがこの問題を同じ方法で「解決」する。 すべてを読み返す。またはキーワードで検索する。

100万冊の本があるのにカード目録がない図書館のようなものだ。 質問のたびに、司書が棚を端から端まで見て回る。


一歩:構造化ファイルマップ

解決策は遠くにあるのではない。一歩だけだ。

一つの .memory-map.md ファイル。

# メモリマップ
最終更新:2026-02-26

## アーキテクチャ
- architecture/cache-strategy.md:3段階推論キャッシュ設計 (1/28)
- architecture/wms-overview.md:WMS中央ハブ構造 (1/30)

## コードブック
- codebook/verb-sidx.md:13,000動詞のSIDXマッピング (1/29)
- codebook/entity-top100.md:トップエンティティ分類体系 (1/31)

## 意思決定
- decisions/2026-01-28.md:SIMD全数スキャン採用の根拠
- decisions/2026-01-31.md:Go AST概念実証を優先する決定

## 未解決課題
- open/query-generation.md:キャッシュ検索クエリ生成方法 未定
- open/entity-codebook-scale.md:1億エンティティマッピング戦略 未定

これだけだ。

タスクごとにこのマップに一行追加する。 次のタスクを始める前にこの一つのファイルを読む。

完了。

find は不要。grep も不要。 50個のファイルを探し回る代わりに、一つのマップだけで済む。


なぜこれだけで劇的な性能向上が生まれるのか?

AIコーディングエージェントがタスクに費やす時間を分解してみよう。

総タスク時間:100%

実際の思考と生成:30-40%
コンテキストの発見と探索:40-50%
エラー修正とリトライ:10-20%

中間の40-50%がカギだ。

「以前何をしたか把握する時間」が全体の半分を占めている。 プロジェクトが大きくなるにつれ、この割合は上昇する。 ファイルが200に達すると、探索が総時間の70%を超えることもある。

.memory-map.md はその40-50%をほぼ0%に減らす。

マップを読むのに1秒。 必要なファイルがどこにあるか即座にわかる。 すぐに作業を開始する。

探索時間がゼロに近づくと、エージェントはほぼすべての時間を 実際の思考と生成に充てることができる。

体感性能の劇的な向上は自然な帰結である。


人類はすでにこれを発明していた

これは新しいアイデアではない。 人類は何千年も前に同じ解決策を発明していた。

目次がまさにそれだ。

目次のない本を想像してみよう。 500ページの本で特定の内容を見つけるには、 1ページ目から読み始めなければならない。

目次があれば? 「第3章第2節、87ページ」と見てそこに直接飛ぶ。

図書館のカード目録がまさにそれだ。

100万冊の本がある図書館で、 目録なしに欲しい本を見つけるのは不可能だ。

ファイルシステムのディレクトリ構造がまさにそれだ。

ハードドライブに100万のファイルがあっても、 フォルダ構造をたどれば欲しいものが見つかる。

目次。目録。ディレクトリ。 すべて同じ原理だ。

「中身はあちらにある。ここでは、何がどこにあるかだけを記す。」

人類の知識管理の最も基本的な原則。 なのに2026年の今、AIはこれをやっていない。


マップから知性へ

.memory-map.md は始まりにすぎない。

フラットなファイルリスト -> 階層分類 -> 意味リンキング -> グラフ。

この方向に一歩ずつ進むと何が起こるか。

段階1:ファイルリスト(今すぐ可能) 「cache-strategy.md はarchitectureフォルダにある。」 何がどこにあるかがわかる。

段階2:関係の記録 「cache-strategy.md は wms-overview.md に依存している。」 「この決定はあの議論から生まれた。」 ファイル間の関係がわかる。

段階3:意味索引 「推論効率に関連するすべてのドキュメントを見つけよ。」 キーワードではなく意味で検索する。

段階4:構造化知識グラフ すべての概念がノード、すべての関係がエッジ。 「キャッシュ戦略に影響するすべての設計決定の因果連鎖を示せ。」 これが可能になる。

段階1から段階4へ。 .memory-map.md からWMSへ。 フラットテキストから構造化知識ストリームへ。

すべて同じ旅路である。


これが核心原則だ

このアプローチの核心原則を再確認しよう。

「AIの推論過程は捨ててはならない——記録しなければならない。」

その文の背後には暗黙の系として:

「記録された推論は検索可能でなければならない。」

検索できない記録は、記録していないのと同じだ。 grep で手探りしなければ見つからない記憶は記憶ではない——ゴミ箱だ。

推論を構造化する理由、 意味整列ID体系を使う理由、 一回のビットマスクで関連知識を取り出す理由——

すべてこの一点に帰着する。

記録の問題ではなく、検索の問題だ。 格納の問題ではなく、構造の問題だ。

.memory-map.md はこの原則の最も原始的な実装だ。 そしてその原始的な実装ですら劇的な性能向上を生むなら、 この原則を極限まで推し進めたらどうなるか想像してほしい。


まとめ

AIの記憶問題は格納ではなく検索にある。

  1. 今日のAIはファイルを上手に書くが、自分が書いたファイルを見つけられない。
  2. これは人間の長期記憶の限界と構造的に同一である。
  3. 解決策は何千年も前に発明されていた:目次、目録、ディレクトリ。
  4. 一つの .memory-map.md でAIの実効性能は劇的に向上する。
  5. この原則を極限まで押し進めれば、構造化知識ストリームにたどり着く。

最も洗練されたAIでさえ、カード目録一枚もなく働いている。 私たちはそれを変えるつもりだ。