政策 综合自 1 个来源

美军首批获准机密数据训AI

要点

  • 美军将开放机密数据训AI
  • Claude已秘密分析伊朗目标
  • 嵌入情报创造新攻击面
  • Re-AIM战略驱动军事AI投入
  • 企业面临安全承诺与军方需求张力
  • 需建立安全设施和监督机制
参考来源 (1)
  1. [1] 五角大楼拟在机密数据上训练AI模型 — MIT Technology Review AI

美军AI战略重大升级

五角大楼宣布将设立安全环境,允许生成式AI公司在机密数据上训练军事专用模型,标志着美国国防能力与人工智能整合进入新阶段。

据国防部官员透露,该计划将允许AI公司访问并学习敏感情报——包括监视报告和战场评估——在受控的机密环境中进行。这与现有做法有本质区别:当前Anthropic的Claude等AI模型虽已在机密军事环境中部署,用于回答问题和分析信息,但并未在敏感数据上进行训练。

安全风险与漏洞

该提案引发重大安全担忧。将机密情报直接嵌入AI模型会创造新的攻击面。一旦被攻破,此类模型可能暴露多年积累的监视数据、情报来源和作战细节。安全研究人员已记录了包括提示注入攻击模型提取漏洞在内的风险,这些漏洞可能被对手利用。

一位知情国防官员表示:「这将使AI公司与机密数据的距离前所未有地接近。」

当前军事AI部署

AI系统已在机密军事环境中积极使用。有报道称Claude等模型已被部署用于分析伊朗等目标的情报工作。新计划将从基于查询的使用转向在机密数据集上进行全面训练,创建具有深度嵌入情报知识的模型。

该计划与五角大楼更广泛的Re-AIM战略保持一致,该战略为自主武器系统和AI赋能军事平台分配了大量资金。国防官员将AI定位为维持美国对抗近邻竞争对手军事优势的关键。

行业影响

对Anthropic等领先AI公司而言,该计划既代表机遇也带来张力。获取机密训练数据可产生高度能力的领域专用模型,但可能与其公开的安全和透明度承诺产生冲突。公司将需要建立严格的安全协议,并可能需要创建专门处理机密信息的专用基础设施。

该提案的实施仍面临挑战,包括建设安全计算设施、建立责任框架,以及为在机密环境中运营的商业实体开发监督机制。

展望未来

随着全球军事AI能力加速发展,五角大楼的举措表明,人工智能与机密国防业务的整合正在进入新阶段。政策制定者和公众将需要应对将情报数据直接嵌入AI系统的安全、伦理和战略影响。

0:00