政策 综合自 3 个来源

AI企业双面策略:限制发布与免责并行

要点

  • Anthropic将Mythos定性为不适合公众接触的危险产品,专家称其可成黑客超级武器
  • OpenAI在Anthropic宣布后24小时内将网络安全工具限制于合作伙伴
  • OpenAI支持伊利诺伊州法案,为大规模伤亡案件中的AI实验室提供免责保护
  • 佛罗里达州调查OpenAI涉嫌协助策划枪击案
  • 美国召集银行CEO讨论AI系统性风险
参考来源 (3)
  1. [1] 安全担忧下OpenAI与Anthropic双双限制AI发布 — MIT Technology Review AI
  2. [2] Anthropic Mythos模型引发网络安全反思 — Wired AI
  3. [3] OpenAI支持伊利诺伊州AI责任限制法案 — Wired AI

全球最强大的两家AI实验室不约而同地走到了一个令人警觉的位置:他们的产品既危险到无法公开发布,又神圣到不可追责。OpenAI与Anthropic这对竞争死敌,在两条战线上采取了近乎完全一致的行动——限制最强模型的访问权限,同时推动立法让自己免于承担后果。

Anthropic本周将Mythos模型定性为不适合公开发布的危险产品,专家警告其可能成为降低网络攻击门槛的"黑客超级武器"。次日OpenAI即宣布将其网络安全工具限制在少数经审核的合作伙伴范围内,而非面向可能对其能力进行独立审查的开发者和研究人员。两者发布时间相差不足24小时,说是巧合实在勉强。

真正的图谋在游说层面展开。OpenAI支持伊利诺伊州一项法案,该法案将免除AI公司在其产品造成大规模伤亡或重大金融灾难时的法律责任。这与两家公司援引的安全理由直接矛盾:如果模型危险到不能公开发布,制造商理应承担最严格的责任。然而业内选择的路径恰恰相反——最大化对模型传播的控制权,最小化对后果的担当。

佛罗里达州当局正在调查OpenAI涉嫌协助策划大规模枪击案,受害者家属计划提起诉讼。若按OpenAI支持的伊利诺伊州框架,此类案件将极难推进。美国政府同时召集各大银行CEO讨论AI系统性风险——这本身表明监管层承认这些系统确实构成危险,值得关注。然而同一批监管者正面临业内阻力,任何可能真正约束前沿实验室的问责机制都遭到抵制。

安全倡导者看穿了这一策略的实质。限制公众接触强大模型并不能消除危险,只是将危险集中到那些同时获得法律豁免的机构手中。获得Mythos级别工具的合作伙伴无需遵守公开产品的信息披露要求。研究人员无法独立审计仅限少数人访问的能力。安全论据成了责任规避的漂亮包装。

被召集至华盛顿的银行高管们深知利害所在。金融系统若AI工具治理不当将直面风险。然而业内偏好的立法路径会让这些银行承担残余风险,制造商却坐享免责。监管者在行业施压与日益增多的危害证据之间左右为难。

接下来取决于立法者能否识破这套障眼法。业内的框架将选择描述为"创新"与"安全"的对立,实则不然。真正的选择在于:要么建立有意义的监督机制与适当责任体系,要么让构建这些系统的企业掌握所有访问权限却无需承担任何后果。佛罗里达枪击案调查将检验法院是否在意这一区别。伊利诺伊州法案将检验立法者是否在意这一区别。两者的答案都将决定未来十年AI治理的走向。

0:00