安全 综合自 3 个来源

Anthropic黑名单测试AI安全承诺含金量

要点

  • Anthropic因设定军事AI限制被特朗普政府列入黑名单
  • 公司提起诉讼,指控宪法权利被侵犯
  • 舒默起草法案欲将Anthropic自主武器红线编入法典
  • Anthropic被排除后OpenAI抢先拿下五角大楼合同
  • MIT科技评论:各公司正竞争如何武器化AI
参考来源 (3)
  1. [1] 民主党议员推动立法限制AI武器化应用 — The Verge AI
  2. [2] MIT Tech Review重推AI炒作指数,Niantic为机器人构建世界地图 — MIT Technology Review AI
  3. [3] AI炒作指数:五角大楼冲突、OpenAI交易、Agent爆火 — MIT Technology Review AI

AI公司能否对五角大楼说不还能存活?

Anthropic正在给出答案。这家以"机器永远不应自主做出生死决定"为原则创立的AI安全公司,已经与特朗普政府对抗了整整三周——因为它拒绝让军方在无人监督的情况下部署Claude。现在,政府将其列入黑名单,OpenAI抢走了合同,国会正争相将Anthropic的安全原则写入法律,以免它们彻底消失。

问题不在于Anthropic能否熬过这场对抗。这家公司已提起诉讼,认为黑名单认定侵犯了其宪法权利。舒默等民主党参议员正在起草立法,将Anthropic在自主武器上的红线编入法典,而斯拉特金则推动另一项限制AI大规模监控的法案。这些都是有意义的回应。但更深层的考验是:当世界上最强大的政府要求删除这些限制时,任何AI公司能否维持道德底线。

《麻省理工科技评论》本周报道,Anthropic与五角大楼"在如何武器化Claude问题上发生了冲突"——这种表述凸显了这场争端的非比寻常。大多数AI公司都在争相追逐国防合同。OpenAI在Anthropic被排除后几乎立即推出了自己的五角大楼合作,被观察者形容为"机会主义且草率的"。这种对比引发了关于安全承诺在真正权力面前究竟价值几何的深层问题。

Anthropic的立场有原则但也有限。这家公司并没有拒绝所有军事工作。它禁止其模型支持完全自主武器和对美国人的大规模监控——这些红线它已经公开发表。特朗普政府要求移除这些限制。Anthropic拒绝了。黑名单随之而来。

接下来发生的事将决定所有其他AI安全谈判的走向。如果Anthropic输了——合同落入不那么谨慎的竞争者手中,诉讼失败,国会的修补方案未能通过——那么每一家公司都会明白:当政府强力施压时,安全承诺是可以谈判的。考验的不是Anthropic能否生存,而是这些原则能否生存。

这一结果将决定,当世界上最强大的政府要求让步时,任何AI公司能否维持道德底线。

0:00