综合 综合自 2 个来源

英伟达微软加码AI智能体

要点

  • Thinking Machines Lab签署千兆瓦算力协议
  • 英伟达战略投资AI研究初创公司
  • 微软PlugMem将原始日志转为结构化知识
  • 记忆图包含结构化检索推理三组件
  • PlugMem减少token使用提升智能体性能
  • 两大突破分别解决算力和记忆基础设施需求
参考来源 (2)
  1. [1] 微软PlugMem将AI智能体记忆从原始日志转换为结构化知识 — Microsoft AI Blog
  2. [2] Thinking Machines Lab与Nvidia签署大规模算力协议 — TechCrunch AI

本周AI行业迎来两大基础设施突破,分别聚焦计算能力和记忆系统两大核心领域,为先进AI智能体的发展奠定基础。

Thinking Machines Lab签署千兆瓦级算力协议

前OpenAI副总裁Mira Murati创立的AI研究初创公司Thinking Machines Lab与英伟达签署了一份多年算力协议,涉及至少千兆瓦级别的计算能力。该协议于3月10日公布,同时包含英伟达的战略投资,成为今年AI领域最大的基础设施投资之一。

千兆瓦算力相当于一座小型城市的耗电量,这一合作彰显了Thinking Machines Lab训练前沿级AI模型的雄心。该公司去年融资超过20亿美元,定位为OpenAI、Anthropic和谷歌DeepMind的竞争对手。

英伟达的投资延续了其AI基础设施市场的主导地位。英伟达的H100和即将推出的Blackwell GPU仍是训练大语言模型的金标准,此类合作确保了计算密集型AI研究的稳定供应链。

微软PlugMem重新定义智能体记忆

同一天,微软研究院发布了PlugMem,一种即插即用的记忆系统,旨在改变AI智能体存储和利用信息的方式。与传统存储原始文本片段的方法不同,PlugMem将智能体交互历史转换为结构化的可复用知识单元,并组织在记忆图中。

该系统包含三个核心组件:结构化、检索和推理。结构化组件将事实和可复用技能组织成离散知识单元;检索组件实现高效访问相关记忆;推理组件则让智能体能够将过去的交互综合为可操作的洞察。

在多样化的智能体基准测试中,PlugMem在消耗显著更少记忆token的情况下实现了性能提升。这种效率对于努力构建低计算开销智能体的开发者至关重要。

"传统记忆系统将智能体当作录音机——存储一切但难以理解,"微软研究人员在博客中写道,"PlugMem将记忆视为随时间推移越来越有价值的动态知识库。"

0:00