真正令AI行业高管夜不能寐的数字,不是9.8的漏洞评分,也非OpenClaw在GitHub上斩获的34.7万星。这些数字只是表象。真正的问题在于,从安全研究人员发出警告到OpenClaw公司响应之间,足足延误了超过一个月;从Mercor数据泄露事件曝光到行业形成有效应对预案,这之间存在无法弥补的空白。
这才是核心叙事所在。
本周,人工智能基础设施安全领域遭遇了连环打击。周四,Wired报道Meta等主要AI实验室正在调查Mercor的安全事件,这家知名数据供应商的系统可能暴露了其专有训练方法论。Meta已暂停与该公司的合作。与此同时,Ars Technica披露OpenClaw——这款可跨Telegram、Discord、Slack及本地文件系统自动执行任务的AI代理工具——终于发布了三项高危漏洞的修复补丁。其中最严重的CVE-2026-33579,允许任何拥有配对级访问权限的用户提升至管理员权限,潜在控制该工具触及的所有资源。
这些漏洞在公开讨论了一个多月后才获得修复,期间没有任何跨行业协调预警机制启动。Mercor的客户与OpenClaw的用户之间,缺少任何信息共享通道。市场各方各自为政:Meta暂停与Mercor的合作、安全研究人员发布发现、OpenClaw推送补丁。碎片化运转,互不相通。
这并非某款产品的缺陷,而是AI行业构建方式的内在特征。整个生态系统依赖密集的供应商网络——数据服务商、工具提供商、基础设施公司——每一家都深度介入数十家竞争对手的模型与系统。Mercor为相互竞争的实验室处理训练数据,OpenClaw在横跨所有主流AI平台的开发者机器上运行,浪潮信息则在漏洞修复前数天宣布企业级OpenClaw治理方案,将该工具的影响力延伸至企业环境,却未在安全时间线上进行任何协调。
协调失败具有结构性。目前没有行业机构制定AI相关漏洞的披露时限,没有跨公司事件响应协议,更不存在针对多客户数据泄露的协同应对机制。每家公司独立管理自身供应商风险、独立决定补丁周期、独立执行客户通知——一旦出事,便陷入孤军奋战的混乱。
风险分布极不对称。OpenClaw的漏洞不仅威胁其用户,还可能暴露每台运行该工具的机器上的所有API密钥、文件与会话令牌。Mercor的泄露也不仅影响其自身——可能暴露的,是竞争对手实验室共享同一家供应商的多年研究成果。
安全研究人员已警告数月:代理工具所需的广泛权限会产生叠加风险。OpenClaw的设计故意在机器上复制用户权限,跨尽可能多的资源运作——这是一种在功能与安全之间的刻意权衡,但公司做出这一决定时,并无行业标准可供参考。
接下来事态如何演变,将决定本周事件是成为转折点,还是仅仅沦为行业数据库中的一个注脚。AI行业可以继续将每次泄露视为孤立事件,由各家公司自行处理;也可以开始构建协调基础设施——跨公司漏洞披露网络、最低披露时限标准、协同事件响应协议——以应对当前数据的敏感性所带来的挑战。工具之间的关联度已过于紧密,任何其他方案都难以为继。
真正关键的数字不是9.8,而是OpenClaw漏洞在行业缺乏协同应对机制的情况下,足足三十余天未能修复这一事实。