政策 综合自 2 个来源

美军用机密数据训AI,放弃Anthropic

要点

  • 美军将在安全设施用机密数据训练AI模型
  • OpenAI和xAI已在机密环境运营
  • 美军寻求AI优先作战能力应对伊朗局势升级
  • 与Anthropic决裂后五角大楼开发替代方案
  • 安全专家警告模型训练带来数据泄露风险
参考来源 (2)
  1. [1] 五角大楼寻求Anthropic替代方案 — TechCrunch AI
  2. [2] 五角大楼拟开放机密数据训练AI — MIT Technology Review AI

五角大楼机密数据训练AI计划

MIT科技评论报道,五角大楼正在计划一项重大举措:允许AI公司在机密情报数据上训练军事专用模型。此举将把敏感的监视报告、战场评估等机密信息直接嵌入AI模型,标志着与当前仅让模型回答机密问题做法的重大背离。

在美国与伊朗冲突升级的背景下,美军正加速推进成为"AI优先"作战力量的战略。OpenAI和马斯克的xAI已获得在机密环境下运营模型的协议,如今五角大楼更计划进一步直接在机密数据上训练新型号模型。

机密训练如何运作

训练将在获得政府机密项目认证的安全数据中心进行,AI模型副本将与机密数据集配对。据一位国防部官员透露,持有适当安全许可的AI公司人员在极少数情况下可直接访问这些信息。该官员表示,在机密数据上训练预计能显著提升模型在伊朗目标分析等任务中的准确性。不过,在启动全面机密训练前,五角大楼计划先用商业卫星图像等非机密数据评估模型表现。

放弃Anthropic,转向OpenAI和xAI

TechCrunch报道,五角大楼正在积极开发Anthropic的替代方案,此前双方发生了"戏剧性决裂"。Anthropic的Claude已在机密环境中证明了价值,包括用于分析伊朗目标。但五角大楼的新策略明显倾向于将OpenAIxAI作为最敏感AI倡议的主要合作伙伴。

安全风险引发担忧

前谷歌和OpenAI政策专家、现担任战略与国际研究中心Wadhwani AI中心主任的阿洛克·梅塔警告称,在机密数据上训练带来前所未有的风险。最大担忧在于:模型可能意外记忆并泄露机密信息,创造出新型安全漏洞,这是AI仅回答机密问题时不存在的风险。五角大楼尚未对此AI训练计划置评。

0:00