美国国防部想封禁Anthropic,但政府却通过Palantir使用该公司AI超过一年。这一矛盾上周被加州法官Rita Lin的43页裁决书曝光。Lin法官临时叫停了五角大楼将Anthropic标记为供应链风险并命令各机构停用其Claude大模型的命令,暴露出特朗普政府AI黑名单运动背后的制度漏洞。
政府封禁Anthropic的理由在法庭文件中自相矛盾。2025年大部分时间,国防部员工通过Palantir访问Anthropic的Claude,遵循公司联合创始人Jared Kaplan所说的"禁止大规模监视美国人和致命自主武器"的条款。当时没有任何投诉,没有国家安全风险警告。但当政府寻求直接合同并遭遇Anthropic的道德限制时,冲突才真正爆发。
后续发展遵循熟悉的模式:先发推特,再请律师。2月27日,特朗普在Truth Social上发文要求所有联邦机构停止使用Anthropic,称其员工为"左翼疯子"。国防部长Pete Hegseth随后宣布将Anthropic标记为供应链风险。但这一定性需要遵循特定程序——通知国会委员会、记录替代方案评估、证明实际损害——Lin发现政府每一步都跳过了。
政府声称Anthropic可能部署"关闭开关",但承认没有证据支持这一指控。这个临时禁令标志着特朗普政府将前沿AI公司列入国家安全风险黑名单运动的首次法律受挫,但局势远未尘埃落定。Lin的裁决表明,当局在追求政治目标时忽视了基本的程序要求。