五角大楼称Anthropic对国家安全构成"不可接受风险"。Anthropic回应称国防部根本不懂AI技术。这两种说法无法同时成立——而两者之间的鸿沟,恰恰暴露了华盛顿试图管控前沿AI的困局正在加深。
Anthropic于周五提交两份宣誓声明至加州联邦法院,反驳国防部将其定性为安全威胁的立场。声明由公司高管签署,辩称政府案件建立在技术误解之上,而这些误解在数月谈判中从未被提出。然而法庭披露的内部通信显示,就在特朗普宣布关系"已终结"几天后,五角大楼官员曾告知Anthropic双方"几乎达成一致"。
眼前争议的核心是:Anthropic是否可能在冲突中操纵其Claude模型——降低性能、植入隐藏缺陷、或切断美国盟友的访问权限。Anthropic的立场很直接:该公司做不到这些,因为它无法控制模型运行的底层基础设施。客户通过自有云服务商、自有数据中心部署Claude。"我们不是网络安全公司,"一位高管私下表示,"我们没有埋在推理服务器里的终止开关。"
但这层辩护——"我们技术上做不到"——回避了一个更棘手的问题。五角大楼真正在问的,并非Anthropic是否会蓄意破坏自家产品,而是任何AI公司能否保证AI系统在冲突、胁迫或被渗透条件下的可预测行为。这个问题的答案几乎肯定是否定的,而且在场所有人都心知肚明。
AI模型并非拥有明确故障模式的武器系统。它们是概率系统,其行为取决于上下文、提示词和部署后才发生的微调。华盛顿数十年来依赖确定性保证——从硬件信任根到密码学完整性验证——现在面对的是一个无法提供这些保证的行业。没有合同条款、没有审计、没有技术规范能解决这一根本性的错配。
赌注远超Anthropic本身。每家寻求国防合同的AI实验室现在都在观望此事走向。如果五角大楼能仅凭理论可能性而非实际危害,就成功将前沿AI公司定性为"不可接受风险",整个国防AI合作模式将崩塌。业内人士预计,竞争对手将悄然调整政府合作策略,先观望Anthropic能否挺过这一关。
法庭文件显示,Anthropic打算抗争而非和解。公司不仅在辩称五角大楼误解了其技术,更在主张政府的主张在谈判晚期才出现,不构成终止合同的合法依据。法官是否接受这一程序性论点,将决定此事是停留在合同纠纷层面,还是升级为关于行政权力将科技公司定性为国家安全风险的更广泛宪法争议。
真正悬而未决的是:谁能说清真正的保证应当是什么样子。五角大楼表达了关切。Anthropic提供了技术反驳。双方都没有提出能够同时满足彼此的标准。只要这种标准不存在,每一份国防AI合同都将带着这个缺陷——包裹在法律术语中,埋藏在法庭文件里,但在现行框架下根本无法解决。
这段关系或许可以修复。法庭可能强制调解。双方可能达成掩盖哲学分歧的商业安排。但根本张力——美国最强大的AI系统运行在华盛顿数十年来依赖的管控框架之外——将在此次合同纠纷结束后长期存在。