AI는 기억하지 못한다. 기록할 뿐이다.
파일은 있는데 기억은 없다
AI 코딩 에이전트에게 대규모 프로젝트를 맡겨본 사람은 안다.
첫 번째 작업은 훌륭하다. 두 번째 작업도 괜찮다. 파일이 20개쯤 쌓이면 이상한 일이 벌어진다.
에이전트가 자기가 어제 만든 파일을 못 찾는다.
$ find . -name "*.md" | head -20
$ grep -r "cache" ./docs/
$ cat ./architecture/overview.md # "이건 아니네"
$ cat ./design/system.md # "이것도 아니네"
$ grep -r "캐시 전략" . # "아 여기 있었네"
파일은 분명히 있다. 에이전트가 직접 쓴 파일이다. 그런데 어디에 뭐가 있는지 모른다.
이것은 버그가 아니다. 기록은 했지만 기억을 구조화하지 않은 것이다.
인간의 장기기억도 똑같이 작동한다
놀라운 것은, 이 패턴이 인간의 장기기억과 정확히 같다는 것이다.
당신의 뇌에는 수십 년간의 경험이 저장되어 있다. 어제 점심에 뭘 먹었는지, 초등학교 3학년 담임 선생님 이름, 2019년에 읽었던 그 책에서 인상적이었던 그 문장.
전부 어딘가에 있다. 그런데 꺼내려고 하면?
“그거 있잖아… 뭐였더라… 아 그때 카페에서 읽었는데…”
단서를 더듬는다. 연관된 기억이 딸려온다. 찾던 것과 관련 없는 기억이 끼어든다. 결국 못 찾을 때도 있고, 엉뚱한 데서 불현듯 떠오를 때도 있다.
AI 코딩 에이전트의 grep은 인간의 “뭐였더라…“와 구조적으로 동일하다.
저장은 되어 있다. 인출이 엉망인 것이다.
문제는 저장이 아니라 인출이다
이 지점을 정확히 짚어야 한다.
현재의 AI는 기록하는 능력이 부족한 게 아니다. LLM은 글을 잘 쓴다. 마크다운 문서를 훌륭하게 구조화한다. 코드를 생성하고, 요약을 작성하고, 분석 보고서를 만든다.
저장은 이미 해결된 문제다.
해결되지 않은 것은 인출이다.
파일이 100개 쌓여 있을 때, “3주 전에 논의한 캐시 전략이 어디 있지?“에 즉시 답할 수 있는 AI는 현재 존재하지 않는다.
모든 AI 시스템은 같은 방식으로 이 문제를 “해결"한다. 전부 다시 읽는다. 혹은 키워드로 검색한다.
도서관에 책이 100만 권 있는데 색인 카드가 없는 것이다. 모든 질문에 대해 사서가 서가를 처음부터 끝까지 훑는다.
한 발자국: 파일 구조화 맵
해법이 멀리 있지 않다. 한 발자국이면 된다.
.memory-map.md 파일 하나.
# Memory Map
최종 갱신: 2026-02-26
## 아키텍처
- architecture/cache-strategy.md: 추론 캐시 3단계 설계 (1/28)
- architecture/wms-overview.md: WMS 중앙 허브 구조 (1/30)
## 코드북
- codebook/verb-sidx.md: 동사 13,000종 SIDX 매핑 (1/29)
- codebook/entity-top100.md: 상위 엔티티 분류 체계 (1/31)
## 결정사항
- decisions/2026-01-28.md: SIMD 전수조사 채택 근거
- decisions/2026-01-31.md: Go AST 우선 실증 결정
## 미해결
- open/query-generation.md: 캐시 인출 쿼리 생성 방법 미정
- open/entity-codebook-scale.md: 1억 엔티티 매핑 전략 미정
이것뿐이다.
매 작업이 끝날 때마다 이 맵에 한 줄을 추가한다. 다음 작업을 시작할 때 이 파일 하나만 읽는다.
끝이다.
find도 필요 없다. grep도 필요 없다.
파일 50개를 뒤질 필요 없이, 지도 한 장이면 된다.
왜 이것만으로 성능이 극적으로 올라가는가
AI 코딩 에이전트의 작업 시간을 분해해보자.
전체 작업 시간: 100%
실제 사고와 생성: 30~40%
맥락 파악과 탐색: 40~50%
오류 수정과 재시도: 10~20%
중간의 40~50%가 핵심이다.
“이전에 뭘 했는지 파악하는 시간"이 전체의 절반을 차지한다. 프로젝트가 커질수록 이 비율은 올라간다. 파일이 200개가 되면, 탐색이 전체의 70%를 넘길 수도 있다.
.memory-map.md는 이 40~50%를 거의 0%로 줄인다.
맵을 읽는 데 1초. 필요한 파일이 어디 있는지 즉시 파악. 바로 작업 시작.
탐색 시간이 0에 가까워지면, 에이전트는 거의 모든 시간을 실제 사고와 생성에 쓸 수 있다.
체감 성능이 극적으로 올라가는 것은 당연하다.
인간은 이미 이것을 발명했다
이것은 새로운 아이디어가 아니다. 인간은 수천 년 전에 이미 같은 해법을 발명했다.
책의 목차가 그것이다.
목차가 없는 책을 상상해보라. 500페이지짜리 책에서 특정 내용을 찾으려면 1페이지부터 읽어야 한다.
목차가 있으면? “3장 2절, 87페이지"를 보고 바로 펼친다.
도서관의 색인 카드가 그것이다.
100만 권의 책이 있는 도서관에서 색인 카드 없이 원하는 책을 찾는 것은 불가능하다.
파일 시스템의 디렉토리 구조가 그것이다.
하드디스크에 파일이 100만 개 있어도 폴더 구조를 따라가면 원하는 파일을 찾을 수 있다.
목차, 색인, 디렉토리. 전부 같은 원리다.
“내용은 거기에 있고, 여기에는 어디에 뭐가 있는지만 적어둔다.”
인류 지식 관리의 가장 근본적인 원리. 그런데 2026년의 AI는 이것을 하지 않고 있다.
지도에서 지능으로
.memory-map.md는 시작에 불과하다.
평면적 파일 목록 → 계층적 분류 → 의미적 연결 → 그래프.
이 방향으로 한 걸음씩 나아가면 무슨 일이 벌어지는가.
1단계: 파일 목록 (지금 가능) “cache-strategy.md가 architecture 폴더에 있다.” 어디에 뭐가 있는지 안다.
2단계: 관계 기록 “cache-strategy.md는 wms-overview.md에 의존한다.” “이 결정은 저 논의에서 나왔다.” 파일 사이의 관계를 안다.
3단계: 의미 인덱싱 “추론 효율과 관련된 모든 문서를 찾아라.” 키워드가 아니라 의미로 검색한다.
4단계: 구조화된 지식 그래프 모든 개념이 노드, 모든 관계가 엣지. “캐시 전략에 영향을 주는 모든 설계 결정의 인과 관계를 보여줘.” 이것이 가능해진다.
1단계에서 4단계로 가는 것.
.memory-map.md에서 WMS로 가는 것.
평면 텍스트에서 구조화된 지식 스트림으로 가는 것.
전부 같은 여정이다.
이것이 핵심 원칙이다
이 접근의 핵심 원칙을 다시 보자.
“AI의 추론 과정은 버려지지 않고 기록되어야 한다.”
이 문장의 뒷면에는 이런 말이 숨어 있다.
“기록된 추론은 다시 찾을 수 있어야 한다.”
기록만 하고 못 찾으면 기록하지 않은 것과 같다.
grep으로 더듬어야 하는 기억은 기억이 아니라 쓰레기통이다.
추론을 구조화하는 이유, 의미 정렬된 ID 체계를 쓰는 이유, 비트마스크 한 번으로 관련 지식을 인출하는 이유,
전부 이것이다.
기록의 문제가 아니라 인출의 문제. 저장의 문제가 아니라 구조화의 문제.
.memory-map.md는 이 원리의 가장 원시적인 구현이다.
그리고 그 원시적 구현만으로도 성능이 극적으로 올라간다면,
이 원리를 극한까지 밀어붙인 것이 어떤 결과를 낳을지 상상해보라.
요약
AI의 기억 문제는 저장이 아니라 인출에 있다.
- 현재의 AI는 파일을 잘 쓰지만, 자기가 쓴 파일을 못 찾는다.
- 이것은 인간 장기기억의 한계와 구조적으로 동일하다.
- 해법은 수천 년 전에 발명되었다. 목차, 색인, 디렉토리.
.memory-map.md하나만으로 AI의 체감 성능이 극적으로 향상된다.- 이 원리를 극한까지 확장하면 구조화된 지식 스트림에 도달한다.
가장 정교한 AI도 색인 카드 하나 없이 일하고 있다. 우리는 이것을 고치려 한다.