司法部强硬回击Anthropic诉讼
美国司法部于2026年3月18日向人工智能公司Anthropic发起反击。在公开的法庭文件中,司法部宣称Anthropic不值得信任,不应参与作战系统开发,并为政府惩罚试图限制军事使用AI技术的公司进行辩护。
司法部的立场标志着美国政府对AI企业管控军事应用的政策明显收紧。这一争端的背后,是政府与企业之间关于AI权力归属的深层博弈。
案件核心分歧
Anthropic此前提起诉讼,抗争联邦政府因其尝试限制军事和情报机构使用Claude AI模型而施加的惩罚。这家AI公司试图阻止其技术被用于自主武器系统、定点清除行动及某些情报收集活动。
司法部的回应将Anthropic的限制性政策定性为对政府权威的根本挑战。文件明确写道:“Anthropic不值得被信任参与作战系统。”这一表述暗示政府认为AI企业缺乏判断国家安全应用适当性的资质。
硅谷震动
此案在AI行业引发连锁反应。多家公司正悄悄重新评估军事AI合作伙伴政策。部分企业开始起草更严格的限制性使用条款,另一些则加速开发技术护栏,希望在不明确禁止国防客户的前提下限制有害应用。
Anthropic的坚持
Anthropic坚持认为,其使用限制反映了对AI安全的合理关切。公司声称有权决定哪些应用符合其“造福人类”的使命。内部文件显示,Anthropic领导层认为,明确限制某些军事用途对于防止灾难性滥用至关重要。
后续走向
法律观察人士预计这场官司将旷日持久。Anthropic已表示将继续抗辩,主张政府不能强迫私营公司将其技术出售用于任何目的。国会也在密切关注,多位参议员呼吁就AI企业的国家安全责任举行听证会。
最终结果可能重塑整个AI行业,迫使企业在道德限制与庞大的联邦市场之间做出选择。