政策 综合自 1 个来源

Linux内核正式出台AI工具使用规范

要点

  • Linux内核要求所有代码贡献必须披露AI使用情况
  • 人类责任原则确立——开发者对AI生成代码负责
  • 政策保持技术中立,未指定具体工具品牌
  • 未禁止AI工具,仅建立规范化使用框架
  • 全行业是否会跟进类似政策尚不确定
参考来源 (1)
  1. [1] Linux内核正式纳入AI编程助手使用规范 — Hacker News AI

Linux内核运行在从安卓手机到超级计算机的一切设备上,支撑着数十亿台设备的运转,数十年来一直是现代互联网的共享基础设施。当这样一个项目——全球最大的开源协作——发布关于AI编码助手的官方规则时,这意味着什么?AI是被欢迎、被禁止,还是某种更微妙的东西——每个开发者和公司很快都必须面对的问题?

4月10日发布的官方内核文档正式确定了AI编码助手的处理方式。该文档明确要求贡献者披露何时以及如何使用AI工具、确保AI生成的代码经过适当审查,并最终对代码质量承担个人责任。这一政策没有指定具体的AI工具品牌或型号,而是采用了一种技术中立的方法,专注于工具的使用方式而非工具本身。

这是Linux内核,全球最大的开源项目。它制定的规则将影响整个生态系统。

该政策反映了一种审慎的平衡——不是全面禁止,也不是无条件的拥抱。在Linus Torvalds的领导下,内核维护者选择了以披露为核心的治理模式。所有AI辅助的贡献都必须被明确标记,但重点落在人类责任上。开发者需要对AI生成的代码负责,就像对任何其他代码负责一样。这与那些全面禁止AI工具的项目,以及那些不加约束地欢迎AI的项目形成了鲜明对比。

利害关系远不止单个项目。大多数开源维护者目前在AI工具使用方面没有正式的指导方针。个人贡献者每天都在使用这些工具,却往往没有明确的协议。内核的做法提供了一个模板:结构化的披露,而非一刀切的禁止。对于担心AI会损害代码质量或贡献标准的项目来说,Linux的方法暗示了一条中间道路——透明度与责任并重。

这一做法能否成为行业标准,取决于其他项目的跟进。Apache、Eclipse和Python治理委员会等大型基金会目前尚未发布类似政策。内核的立场之所以重要,恰恰在于其规模和影响力,但执行才是关键问题。该政策要求贡献者遵守规定,但内核的分布式审查模式意味着实际执行负担落在各个维护者身上。这套规则指明了一个方向。持久影响如何,取决于采用曲线。

0:00