Linux内核运行在从安卓手机到超级计算机的一切设备上,支撑着数十亿台设备的运转,数十年来一直是现代互联网的共享基础设施。当这样一个项目——全球最大的开源协作——发布关于AI编码助手的官方规则时,这意味着什么?AI是被欢迎、被禁止,还是某种更微妙的东西——每个开发者和公司很快都必须面对的问题?
4月10日发布的官方内核文档正式确定了AI编码助手的处理方式。该文档明确要求贡献者披露何时以及如何使用AI工具、确保AI生成的代码经过适当审查,并最终对代码质量承担个人责任。这一政策没有指定具体的AI工具品牌或型号,而是采用了一种技术中立的方法,专注于工具的使用方式而非工具本身。
这是Linux内核,全球最大的开源项目。它制定的规则将影响整个生态系统。
该政策反映了一种审慎的平衡——不是全面禁止,也不是无条件的拥抱。在Linus Torvalds的领导下,内核维护者选择了以披露为核心的治理模式。所有AI辅助的贡献都必须被明确标记,但重点落在人类责任上。开发者需要对AI生成的代码负责,就像对任何其他代码负责一样。这与那些全面禁止AI工具的项目,以及那些不加约束地欢迎AI的项目形成了鲜明对比。
利害关系远不止单个项目。大多数开源维护者目前在AI工具使用方面没有正式的指导方针。个人贡献者每天都在使用这些工具,却往往没有明确的协议。内核的做法提供了一个模板:结构化的披露,而非一刀切的禁止。对于担心AI会损害代码质量或贡献标准的项目来说,Linux的方法暗示了一条中间道路——透明度与责任并重。
这一做法能否成为行业标准,取决于其他项目的跟进。Apache、Eclipse和Python治理委员会等大型基金会目前尚未发布类似政策。内核的立场之所以重要,恰恰在于其规模和影响力,但执行才是关键问题。该政策要求贡献者遵守规定,但内核的分布式审查模式意味着实际执行负担落在各个维护者身上。这套规则指明了一个方向。持久影响如何,取决于采用曲线。