一家承诺"让AI更安全"的企业,能否同时游说立法机构,在其系统造成大规模伤害时获得法律豁免?这个悖论正是当前美国两大AI实验室之间日益激烈争端的焦点。
Anthropic与OpenAI在伊利诺伊州一项法案上站在了对立面。该法案将免除AI开发商对系统造成大规模伤亡和重大金融灾难的赔偿责任。如果通过,这将成为美国科技行业有史以来最广泛的免责条款。两家公司都声称自己的立场服务于公共利益。但仔细审视便会发现,原则与竞争优势之间的界限模糊不清。
Anthropic反对该法案。这家获得亚马逊和谷歌支持的企业辩称,广泛的免责保护会造成错误的激励机制,让实验室在安全测试上偷工减料而无需承担后果。该公司在向伊利诺伊州议会的正式提交文件中表示:"取消问责制就等于取消了谨慎行事的主要驱动力。"这个论点听起来合理,但也恰好符合Anthropic的商业模式——其Claude模型与OpenAI的旗舰产品直接竞争,且公司一直将自己定位为"安全优先"的替代选择。严格的责任规则会不成比例地损害那些不太谨慎的竞争对手——而这些竞争对手目前在市场份额上领先。
OpenAI支持该法案。该公司认为,如果没有责任保护,AI开发将转移到监管更宽松的地区,让美国企业无法与不受限制的中国实验室竞争。OpenAI还警告说,扩大的责任范围可能会彻底扼杀创新,因为即使设计良好的系统也可能造成意外伤害。这种推理并非没有道理,但也恰好服务于OpenAI作为当前市场领导者的地位——拥有最大的先发优势。一个监管环境如果对新进入者来说难以驾驭,对拥有超过1000亿美元估值和微软紧密关系的OpenAI而言,合规成本是可控的,但对处于早期阶段的初创企业却是致命的。
这项伊利诺伊法案将建立一个美国历史上前所未有的法律框架。根据提案条款,即使AI系统随后造成大规模死亡或经济浩劫,只要达到基线安全认证,开发商就不承担经济责任。支持者称这与制药公司临床试验期间的保护类似。批评者反驳说,AI系统本质不同:它们被设计为在不可预测的环境中自主运行,而"基线安全认证"是一个法案未能明确定义的模糊术语。
消费者权益倡导者和诉讼律师都谴责双方立场是穿着公共利益外衣的企业自利行为。"Anthropic想要伤害OpenAI的规则,"一位要求匿名以坦诚发言的消费者组织代表表示,"OpenAI想要伤害所有人的规则。他们谁也不是在为你游说。"伊利诺伊州诉讼律师协会已发起反击运动,认为该法案将剥夺受害者在AI系统造成真正伤害时的任何追索权。
该法案计划在三周内进行委员会投票。两家公司都未披露其游说支出规模,尽管伊利诺伊州游说记录显示,Anthropic和OpenAI近月都聘请了斯普林菲尔德知名游说公司。结局将很可能影响其他州乃至联邦政府对AI责任的态度。在伊利诺伊发生的事不会停留在伊利诺伊。问题是,它最终是服务于公众,还是服务于在这场斗争中获胜的公司的资产负债表。