本周AI行业迎来两大基础设施突破,分别聚焦计算能力和记忆系统两大核心领域,为先进AI智能体的发展奠定基础。
Thinking Machines Lab签署千兆瓦级算力协议
前OpenAI副总裁Mira Murati创立的AI研究初创公司Thinking Machines Lab与英伟达签署了一份多年算力协议,涉及至少千兆瓦级别的计算能力。该协议于3月10日公布,同时包含英伟达的战略投资,成为今年AI领域最大的基础设施投资之一。
千兆瓦算力相当于一座小型城市的耗电量,这一合作彰显了Thinking Machines Lab训练前沿级AI模型的雄心。该公司去年融资超过20亿美元,定位为OpenAI、Anthropic和谷歌DeepMind的竞争对手。
英伟达的投资延续了其AI基础设施市场的主导地位。英伟达的H100和即将推出的Blackwell GPU仍是训练大语言模型的金标准,此类合作确保了计算密集型AI研究的稳定供应链。
微软PlugMem重新定义智能体记忆
同一天,微软研究院发布了PlugMem,一种即插即用的记忆系统,旨在改变AI智能体存储和利用信息的方式。与传统存储原始文本片段的方法不同,PlugMem将智能体交互历史转换为结构化的可复用知识单元,并组织在记忆图中。
该系统包含三个核心组件:结构化、检索和推理。结构化组件将事实和可复用技能组织成离散知识单元;检索组件实现高效访问相关记忆;推理组件则让智能体能够将过去的交互综合为可操作的洞察。
在多样化的智能体基准测试中,PlugMem在消耗显著更少记忆token的情况下实现了性能提升。这种效率对于努力构建低计算开销智能体的开发者至关重要。
"传统记忆系统将智能体当作录音机——存储一切但难以理解,"微软研究人员在博客中写道,"PlugMem将记忆视为随时间推移越来越有价值的动态知识库。"