AI לא זוכר. הוא רק רושם.


קבצים קיימים, אבל זיכרון לא

כל מי שהקצה פרויקט גדול לסוכן AI לקידוד יודע את זה.

המשימה הראשונה הולכת מצוין. השנייה עדיין בסדר. אחרי שכעשרים קבצים מצטברים, משהו מוזר קורה.

הסוכן לא מוצא קובץ שהוא עצמו יצר אתמול.

$ find . -name "*.md" | head -20
$ grep -r "cache" ./docs/
$ cat ./architecture/overview.md    # "Not this one"
$ cat ./design/system.md            # "Not this one either"
$ grep -r "cache strategy" .        # "Ah, here it is"

הקובץ בבירור קיים. הסוכן עצמו כתב אותו. ובכל זאת אין לו מושג איפה שום דבר.

זה לא באג. הוא רשם, אבל לעולם לא מבנה את הזיכרון שלו.


הזיכרון ארוך-הטווח האנושי עובד בדיוק באותה צורה

מה שמפתיע הוא שהתבנית הזו זהה מבנית לזיכרון ארוך-הטווח האנושי.

המוח שלך מכיל עשרות שנים של חוויה. מה אכלת לצהריים אתמול, השם של המחנכת בכיתה ג’, אותו משפט בולט מספר שקראת ב-2019.

הכל מאוחסן איפשהו. אבל כשאתה מנסה לשלוף?

“הדבר ההוא… מה זה היה… אני זוכר שקראתי את זה בבית קפה…”

אתה מגשש אחר רמזים. זיכרונות קשורים נגררים. זיכרונות לא רלוונטיים פולשים. לפעמים אתה לעולם לא מוצא. לפעמים זה צף פתאום משום מקום.

ה-grep של סוכן AI לקידוד זהה מבנית לחוויה האנושית של “מה זה היה שוב…”

המידע מאוחסן. השליפה בבלגן.


הבעיה היא לא אחסון, אלא שליפה

את הנקודה הזו חייבים לנסח במדויק.

ה-AI של ימינו לא חסר יכולת רישום. LLM-ים כותבים היטב. הם מפיקים מסמכי Markdown מעוצבים יפה. הם מייצרים קוד, מלחינים סיכומים ויוצרים דוחות ניתוח.

אחסון הוא כבר בעיה פתורה.

מה שנותר לא פתור הוא שליפה.

כשמאה קבצים הצטברו, שום AI בנמצא לא יכול לענות מיידית “איפה אסטרטגיית המטמון שדנו בה לפני שלושה שבועות?”

כל מערכת AI “פותרת” את הבעיה הזו באותה דרך. קרא הכל מחדש. או חפש לפי מילת מפתח.

זה כמו ספרייה עם מיליון ספרים אבל ללא כרטיסי קטלוג. לכל שאלה, הספרן סורק את המדפים מתחילתם ועד סופם.


שלב אחד: מפת קבצים מובנית

הפתרון לא רחוק. הוא מרחק שלב אחד.

קובץ .memory-map.md אחד.

# Memory Map
Last updated: 2026-02-26

## Architecture
- architecture/cache-strategy.md: 3-stage reasoning cache design (1/28)
- architecture/wms-overview.md: WMS central hub structure (1/30)

## Codebooks
- codebook/verb-sidx.md: SIDX mapping for 13,000 verbs (1/29)
- codebook/entity-top100.md: Top entity classification system (1/31)

## Decisions
- decisions/2026-01-28.md: Rationale for adopting SIMD exhaustive scan
- decisions/2026-01-31.md: Decision to prioritize Go AST proof-of-concept

## Open Issues
- open/query-generation.md: Cache retrieval query generation method TBD
- open/entity-codebook-scale.md: 100M entity mapping strategy TBD

זהו הכל.

אחרי כל משימה, הוסף שורה אחת למפה הזו. לפני תחילת המשימה הבאה, קרא את הקובץ הבודד הזה.

זהו.

אין צורך ב-find. אין צורך ב-grep. במקום לחפור בחמישים קבצים, מפה אחת מספיקה.


למה זה לבד מייצר שיפור ביצועים דרמטי?

נפרק את הזמן שסוכן AI לקידוד מקדיש למשימה.

Total task time: 100%

Actual thinking and generation: 30-40%
Context discovery and exploration: 40-50%
Error correction and retries: 10-20%

40-50% האמצעיים הם המפתח.

“זמן שמוקדש להבנת מה נעשה קודם” מהווה מחצית מהזמן הכולל. ככל שפרויקט גדל, הפרופורציה הזו עולה. כשקבצים מגיעים ל-200, חקירה יכולה לעלות על 70% מהזמן הכולל.

.memory-map.md מצמצם את אותם 40-50% לכמעט 0%.

קריאת המפה לוקחת שנייה אחת. תדע מיידית איפה הקובץ הנדרש. תתחיל לעבוד מיד.

כשזמן חקירה מתקרב לאפס, הסוכן יכול להקדיש כמעט את כל זמנו לחשיבה ויצירה בפועל.

השיפור הדרמטי בביצועים הנתפסים הוא תוצאה טבעית.


האנושות כבר המציאה את זה

זה לא רעיון חדש. בני אדם המציאו את אותו פתרון לפני אלפי שנים.

תוכן העניינים הוא בדיוק זה.

דמיין ספר ללא תוכן עניינים. כדי למצוא תוכן ספציפי בספר בן 500 עמודים, היית צריך להתחיל לקרוא מעמוד 1.

עם תוכן עניינים? אתה רואה “פרק 3, סעיף 2, עמוד 87” ופונה ישירות לשם.

כרטיס הקטלוג של הספרייה הוא בדיוק זה.

בספרייה עם מיליון ספרים, למצוא את הספר שאתה רוצה ללא קטלוג בלתי אפשרי.

מבנה הספריות של מערכת הקבצים הוא בדיוק זה.

גם עם מיליון קבצים על דיסק קשיח, אפשר למצוא את הקובץ שאתה רוצה על ידי מעקב אחר מבנה התיקיות.

תוכן עניינים. קטלוג. ספרייה. כולם אותו עיקרון.

“התוכן נמצא שם; כאן, אנחנו רק מציינים איפה הדברים.”

העיקרון הבסיסי ביותר של ניהול ידע אנושי. ובכל זאת, ב-2026, AI לא עושה את זה.


ממפה לאינטליגנציה

.memory-map.md הוא רק ההתחלה.

רשימת קבצים שטוחה -> סיווג היררכי -> קישור סמנטי -> גרף.

מה קורה ככל שאנחנו מתקדמים שלב אחד בכיוון הזה?

שלב 1: רשימת קבצים (אפשרי כעת) “cache-strategy.md נמצא בתיקיית architecture.” אתה יודע איפה הדברים.

שלב 2: רישום קשרים “cache-strategy.md תלוי ב-wms-overview.md.” “ההחלטה הזו יצאה מהדיון ההוא.” אתה יודע את הקשרים בין הקבצים.

שלב 3: אינדוקס סמנטי “מצא את כל המסמכים הקשורים ליעילות הסקה.” חיפוש לפי משמעות, לא לפי מילת מפתח.

שלב 4: גרף ידע מובנה כל מושג הוא צומת, כל קשר הוא קשת. “הראה לי את שרשרת הסיבתיות של כל החלטות העיצוב שמשפיעות על אסטרטגיית המטמון.” זה הופך לאפשרי.

מעבר משלב 1 לשלב 4. מעבר מ-.memory-map.md ל-WMS. מעבר מטקסט שטוח לזרם ידע מובנה.

הכל אותו מסע.


זהו העיקרון המרכזי

נחזור לעיקרון המרכזי של הגישה הזו.

“תהליך ההסקה של AI לא צריך להיזרק – הוא חייב להירשם.”

מאחורי המשפט הזה מסתתר מסקנה משתמעת:

“הסקה שנרשמה חייבת להיות ניתנת לשליפה.”

רישום ללא יכולת שליפה זהה לכך שלא רשמת כלל. זיכרון שצריך לחפש אותו בעזרת grep הוא לא זיכרון – הוא סל אשפה.

הסיבה למבנון הסקה, הסיבה לשימוש במערכת מזהים מיושרת-סמנטית, הסיבה לשליפת ידע רלוונטי עם מסכת ביטים אחת –

הכל מסתכם בזה.

זו לא בעיה של רישום, אלא של שליפה. זו לא בעיה של אחסון, אלא של מבנה.

.memory-map.md הוא המימוש הפרימיטיבי ביותר של העיקרון הזה. ואם אפילו המימוש הפרימיטיבי הזה מייצר שיפור ביצועים דרמטי, דמיין מה קורה כשדוחפים את העיקרון הזה עד הקצה.


סיכום

בעיית הזיכרון של AI נמצאת לא באחסון, אלא בשליפה.

  1. AI של ימינו כותב קבצים היטב, אבל לא מוצא את הקבצים שהוא כתב.
  2. זה זהה מבנית למגבלות הזיכרון ארוך-הטווח האנושי.
  3. הפתרון הומצא לפני אלפי שנים: תוכן עניינים, קטלוגים, ספריות.
  4. .memory-map.md אחד יכול לשפר דרמטית את הביצועים האפקטיביים של AI.
  5. הרחבת העיקרון הזה עד הקצה מובילה לזרם ידע מובנה.

גם ה-AI המתוחכם ביותר עובד ללא כרטיס קטלוג אחד. אנחנו מתכוונים לתקן את זה.