政策 综合自 1 个来源

美司法部:Anthropic不可信

要点

  • 司法部称惩罚Anthropic合法合规
  • 政府指Anthropic不可信用于作战系统
  • Anthropic起诉保护Claude免遭军事滥用
  • 案件考验私企权利与政府权力边界
  • AI行业密切关注政策先例
  • 国会或立法明确AI军事应用规则
参考来源 (1)
  1. [1] 司法部质疑Anthropic军事AI可信度 — Wired AI

司法部强硬回击Anthropic诉讼

美国司法部于2026年3月18日向人工智能公司Anthropic发起反击。在公开的法庭文件中,司法部宣称Anthropic不值得信任,不应参与作战系统开发,并为政府惩罚试图限制军事使用AI技术的公司进行辩护。

司法部的立场标志着美国政府对AI企业管控军事应用的政策明显收紧。这一争端的背后,是政府与企业之间关于AI权力归属的深层博弈。

案件核心分歧

Anthropic此前提起诉讼,抗争联邦政府因其尝试限制军事和情报机构使用Claude AI模型而施加的惩罚。这家AI公司试图阻止其技术被用于自主武器系统、定点清除行动及某些情报收集活动。

司法部的回应将Anthropic的限制性政策定性为对政府权威的根本挑战。文件明确写道:“Anthropic不值得被信任参与作战系统。”这一表述暗示政府认为AI企业缺乏判断国家安全应用适当性的资质。

硅谷震动

此案在AI行业引发连锁反应。多家公司正悄悄重新评估军事AI合作伙伴政策。部分企业开始起草更严格的限制性使用条款,另一些则加速开发技术护栏,希望在不明确禁止国防客户的前提下限制有害应用。

Anthropic的坚持

Anthropic坚持认为,其使用限制反映了对AI安全的合理关切。公司声称有权决定哪些应用符合其“造福人类”的使命。内部文件显示,Anthropic领导层认为,明确限制某些军事用途对于防止灾难性滥用至关重要。

后续走向

法律观察人士预计这场官司将旷日持久。Anthropic已表示将继续抗辩,主张政府不能强迫私营公司将其技术出售用于任何目的。国会也在密切关注,多位参议员呼吁就AI企业的国家安全责任举行听证会。

最终结果可能重塑整个AI行业,迫使企业在道德限制与庞大的联邦市场之间做出选择。

0:00