Anthropic已向美国国防部提起诉讼,挑战一项“供应链风险”认定,该公司警告这可能使其损失数十亿美元,严重损害业务。这场于2026年3月9日宣布的诉讼,标志着AI行业与五角大楼之间围绕新兴技术分类和监管问题的紧张关系显著升级。
认定意味着什么
国防部将Anthropic指定为“供应链风险”实体,这一标签实际上阻止了该公司获得联邦合同。Anthropic在法庭文件中辩称,这一认定既不合理又具有危害性,声称它可能削弱该公司与政府机构合作的能力。该公司表示,这一标签是在没有充分理由的情况下应用的,也没有给Anthropic任何有意义的回应机会。
这一认定正值人们对先进AI系统外国获取途径以及敏感技术通过供应链转移的担忧加剧之际。然而,Anthropic认为,其以安全为中心的AI开发方法使其不太可能成为此类认定的目标。
行业声援Anthropic
AI行业出现了罕见的团结时刻,OpenAI和Google的员工已提交支持Anthropic诉讼的法庭之友简报。这些简报于3月9日提交,认为五角大楼的认定为可能抑制创新、阻止AI公司与政府合作的危险先例。
OpenAI安全团队和Google DeepMind的员工强调,此案的影响远超Anthropic本身。“这一认定可能影响每一个希望负责任地与联邦政府合作的AI公司,”一位匿名OpenAI员工告诉The Verge。“我们都在关注事态发展。”
TechCrunch报道称,这些员工请愿书代表了竞争AI实验室之间罕见的统一倡议,工人们集体认为五角大楼的做法缺乏透明度和正当程序。
对军事AI的更广泛影响
这场诉讼正值华盛顿AI政策的关键时刻。IEEE Spectrum在3月8日发表分析文章认为,军事AI应用需要更强的民主监督,并指出Anthropic争议凸显了制定AI公司与国防机构互动更清晰规则的必要性。
一些行业分析师担心,这场争端可能会阻止初创公司寻求国防合同。“如果公司得不到公平的听证,它们就会完全避开政府工作,”一位熟悉国防AI市场的风险投资家告诉TechCrunch。“这不利于任何人——不利于军队,不利于科技行业,不利于美国的竞争力。”
其他人则认为此案是对当前分类系统是否能应对快速发展的AI技术的考验。MIT Technology Review指出,白宫最近对拒绝政府监管的AI实验室采取了更强硬的立场,表明Anthropic案符合该行业与监管机构之间更大紧张模式。
接下来会怎样
Anthropic正在寻求推翻供应链风险认定,并请求法院在案件审理期间发布禁令阻止其实施。该公司强调,它仍然愿意与国防机构在适当的AI安全措施方面开展合作,但坚持认为当前的认定削弱而非增进国家安全利益。
五角大楼尚未公开回应诉讼,目前尚不清楚法院何时可能作出裁决。然而,此案已成为美国AI治理的决定性时刻,可能影响政府未来几年如何对AI公司进行分类和合作。