OpenAI声称其新款网络安全模型只服务于"好人"。但真正的新闻,是这家公司正在华盛顿悄然布局的东西。
周一,OpenAI扩大了其"网络防御可信访问"计划,推出GPT-5.4-Cyber——一款必须经过审核才能使用的模型。公司将此举定位为安全措施,目的是防止强大的人工智能能力落入坏人之手。官方说法是GPT-5.4-Cyber将帮助合法的安全团队,而非支持攻击行为。
这是表面文章。真正的战略另有玄机。
通过在任何监管框架强制要求之前,为经过验证的政府和国防用户提供专属渠道,OpenAI完成了一项比特许技术成就更有价值的任务——它正在建立一种AI-政府合作的模板,而条款由自己拟定。当国会最终起草规范AI在关键基础设施或国家安全领域应用的立法时,OpenAI将能够指向这个计划说:"看到了吗?我们已经在负责任地处理这件事。不需要新的强制性规定。"
这是苹果成功把自己塑造成隐私保护者而非政府监控工具的翻版——不是靠反对华盛顿,而是靠让自己变得不可或缺。OpenAI赌的是,展示对国防界的价值将创造纯粹的安全倡导无法提供的政治保护。
审核机制本身也意味深长。通过控制谁有资格成为"防御者",OpenAI保留了巨大的裁量权来决定哪些组织获得访问权限。这不仅仅是安全过滤器——更是商业和外交过滤器。每一个获得GPT-5.4-Cyber访问权的机构,都成为OpenAI继续免受严厉监管的既得利益者。
网络安全框架还服务于纯粹的国防合同无法实现的公关功能。"防御者"这个词比"五角大楼合作伙伴"更不容易让监管机构和公众感到不安。OpenAI得以把自己定位为负责任的行为者,防止AI落入敌对势力之手,同时确保友好势力——特别是经美国政府审核批准的势力——拥有优先访问权。
讽刺之处显而易见:强大到足以引发国家安全担忧的AI,现在正被用来定义哪些安全关切值得获得该AI的访问权。OpenAI没有等待华盛顿制定交战规则。它在抢先起草,然后向国防部门提供俱乐部会员资格,而会员标准由它自己掌控。
结果是:一种政府关系战略在安全政策的包装下悄然运作。其成功与否,取决于国会愿意让这家构建了最强大AI系统的公司,在多大程度上继续自行制定治理规则。