安全 综合自 3 个来源

开源AI工具安全危机暴露行业协作短板

要点

  • Meta暂停与Mercor合作,数据泄露或暴露AI训练方法论
  • OpenClaw在研究人员警告超过一个月后才发布CVE-2026-33579漏洞补丁
  • AI行业缺乏跨公司漏洞披露和事件响应协议
  • OpenClaw等代理工具因设计需广泛系统权限而放大安全风险
  • 浪潮信息在安全补丁发布前几天宣布企业级OpenClaw方案
参考来源 (3)
  1. [1] Meta暂停Mercor合作,数据泄露影响AI训练 — Wired AI
  2. [2] OpenClaw修复关键漏洞,GitHub星标34.7万 — Ars Technica AI
  3. [3] 浪潮信息发布企业级OpenClaw智能体管控方案 — 量子位 QbitAI

真正令AI行业高管夜不能寐的数字,不是9.8的漏洞评分,也非OpenClaw在GitHub上斩获的34.7万星。这些数字只是表象。真正的问题在于,从安全研究人员发出警告到OpenClaw公司响应之间,足足延误了超过一个月;从Mercor数据泄露事件曝光到行业形成有效应对预案,这之间存在无法弥补的空白。

这才是核心叙事所在。

本周,人工智能基础设施安全领域遭遇了连环打击。周四,Wired报道Meta等主要AI实验室正在调查Mercor的安全事件,这家知名数据供应商的系统可能暴露了其专有训练方法论。Meta已暂停与该公司的合作。与此同时,Ars Technica披露OpenClaw——这款可跨Telegram、Discord、Slack及本地文件系统自动执行任务的AI代理工具——终于发布了三项高危漏洞的修复补丁。其中最严重的CVE-2026-33579,允许任何拥有配对级访问权限的用户提升至管理员权限,潜在控制该工具触及的所有资源。

这些漏洞在公开讨论了一个多月后才获得修复,期间没有任何跨行业协调预警机制启动。Mercor的客户与OpenClaw的用户之间,缺少任何信息共享通道。市场各方各自为政:Meta暂停与Mercor的合作、安全研究人员发布发现、OpenClaw推送补丁。碎片化运转,互不相通。

这并非某款产品的缺陷,而是AI行业构建方式的内在特征。整个生态系统依赖密集的供应商网络——数据服务商、工具提供商、基础设施公司——每一家都深度介入数十家竞争对手的模型与系统。Mercor为相互竞争的实验室处理训练数据,OpenClaw在横跨所有主流AI平台的开发者机器上运行,浪潮信息则在漏洞修复前数天宣布企业级OpenClaw治理方案,将该工具的影响力延伸至企业环境,却未在安全时间线上进行任何协调。

协调失败具有结构性。目前没有行业机构制定AI相关漏洞的披露时限,没有跨公司事件响应协议,更不存在针对多客户数据泄露的协同应对机制。每家公司独立管理自身供应商风险、独立决定补丁周期、独立执行客户通知——一旦出事,便陷入孤军奋战的混乱。

风险分布极不对称。OpenClaw的漏洞不仅威胁其用户,还可能暴露每台运行该工具的机器上的所有API密钥、文件与会话令牌。Mercor的泄露也不仅影响其自身——可能暴露的,是竞争对手实验室共享同一家供应商的多年研究成果。

安全研究人员已警告数月:代理工具所需的广泛权限会产生叠加风险。OpenClaw的设计故意在机器上复制用户权限,跨尽可能多的资源运作——这是一种在功能与安全之间的刻意权衡,但公司做出这一决定时,并无行业标准可供参考。

接下来事态如何演变,将决定本周事件是成为转折点,还是仅仅沦为行业数据库中的一个注脚。AI行业可以继续将每次泄露视为孤立事件,由各家公司自行处理;也可以开始构建协调基础设施——跨公司漏洞披露网络、最低披露时限标准、协同事件响应协议——以应对当前数据的敏感性所带来的挑战。工具之间的关联度已过于紧密,任何其他方案都难以为继。

真正关键的数字不是9.8,而是OpenClaw漏洞在行业缺乏协同应对机制的情况下,足足三十余天未能修复这一事实。

0:00