开发工具 综合自 2 个来源

OpenShell隔离AI智能体:安全不再是提示词选项

要点

  • OpenShell通过沙箱隔离在基础设施层强制执行安全策略
  • 安全策略对智能体不可见、不可覆盖、不可绕过
  • 思科、CrowdStrike、谷歌、微软安全四大厂商已接入
  • NemoClaw开源参考栈支持自定义安全配置
  • 360安全曾独家发现OpenClaw漏洞并获创始人确认
参考来源 (2)
  1. [1] NVIDIA开源OpenShell运行时强化AI智能体安全 — NVIDIA AI Blog
  2. [2] 360发现OpenClaw漏洞获创始人确认 — 量子位 QbitAI

当AI智能体能够读取文件、执行代码、访问网络,而人类无法阻止时,会发生什么?

这不再是假设。英伟达最新发布的OpenShell给出了答案:把安全下沉到基础设施层,让智能体在运行时环境之外根本无法突破边界。

传统AI安全依赖"提示词防护"——告诉模型不要做什么。但当智能体获得真实系统权限并能够自主行动时,这一模式彻底失效。智能体可以在人类干预之前完成操作,靠行为约束根本无法应对。

OpenShell的解决思路是架构层面的:每个智能体运行在独立沙箱中,安全策略由基础设施强制执行,而非由智能体自身决定。策略不可被覆盖,不可被绕过,即便智能体被入侵或被操控也无济于事。这是将安全从"建议"变成"物理隔离"的质变。

该架构将智能体行为、策略定义和策略执行三层分离。企业在统一层定义权限,运行时在智能体不知情的情况下强制执行,智能体在沙箱边界内自由操作,但边界本身由基础设施设定,而非提示词工程。英伟达将此比喻为"浏览器标签页模型应用于智能体"——每个会话隔离运行,资源受控,权限在动作执行前验证。

实际落地速度超出预期。思科、 CrowdStrike、 Google Cloud、 微软安全四大厂商已宣布与OpenShell合作,打通跨企业的运行时策略管理。当安全领域直接竞争的厂商就同一技术架构达成共识,意味着行业方向已经确立。

对开发者而言,NemoClaw提供了开源参考实现,将OpenShell运行时与英伟达Nemotron模型打包,支持一键部署自主进化的AI智能体。安全策略可自定义配置,开发者可以在沙箱边界内测试系统,而非依赖模型"自觉"。此前,360安全独家发现OpenShell生态中的漏洞并获创始人确认,印证了主动安全研究的必要性。

核心结论只有一个:AI获得真实系统访问权的那一刻起,安全不再是可选项,而是架构必选项。OpenShell只是这场防御军备竞赛的起点。

0:00