AI智能体完成任务后,它获得的知识去了哪里?
答案是:无处可去。上下文消失了。模型推断出的隐含关系——没了。它发现的隐性知识——没有记录。对于使用AI智能体开发的工程师来说,这就是记忆问题,正在成为智能体系统的决定性制约。
Meta工程团队刚刚给出了他们的答案。他们部署了50多个专门化AI智能体协同工作,绘制跨越4100个文件、三种编程语言、四个代码仓库的隐性知识图谱。他们没有让模型在运行中逐步理解代码库,而是构建了预计算引擎,在编码开始前先生成知识地图。
系统分阶段运作。两个探索者智能体勘察全局。十一个模块分析智能体阅读每个文件并回答五个标准化问题。两个写作者生成编码隐式模式的上下文文件。十个评审智能体运行质量审查——三轮独立验证。修复智能体纠正错误。补缺智能体填补剩余覆盖漏洞。编排逻辑清晰可见:五十多个专门任务在单次会话中协调执行。
结果用数字说话。Meta的代码覆盖率从5%跃升至100%。工具调用下降40%。他们记录了五十多个非显而易见的模式——这类知识本只存在于工程师脑海中,从未进入文档。系统还能自我维护:自动化作业定期验证路径、检测新漏洞、自动修复过时引用。
开源社区提供了另一种思路。GitHub上的Hippo项目采用了不同路径——受生物学启发的AI智能体记忆系统。Meta将知识集中于预计算层,而Hippo借鉴神经科学:能根据上下文进行优先排序、检索和适应的记忆系统。核心理念是智能体应该携带自己的记忆,而非查询中央数据库。
两个项目得出相同诊断:当今AI智能体本质上是无状态的。对话窗口是它们唯一的记忆。解决这一问题,就能解锁不同类别的应用——智能体能像资深工程师那样理解代码库,而不仅仅是当前文件。
问题在于实现方式。Meta的集中式方案证明了预计算确实有效且效果可衡量。这需要基础设施投入,但维护是自动化的。Hippo受生物学启发的模型则暗示解决方案或许根本不是知识库——而是一种根本不同的记忆架构。
两条路都已摆上桌面。记忆战争已经开始。