根据最新报道,Linux 内核团队终于在经过几个月的讨论后,为 AI 辅助编程工具制定了新的指导方针。这意味着开发者可以使用如 GitHub Copilot 等工具进行编码,但最终的错误和安全问题均需由提交代码的个人负责.
这一政策的提出,源于开源社区内对于 AI 使用的长时间争论,而其中的激烈讨论在今年 1 月时达到顶峰。英特尔的工程师 Dave Hansen 与 Oracle 的员工 Lorenzo Stoakes 在“是否应对 AI 工具施加严格限制”问题上展开了热烈的争论。
在这一背景下,Linux 的创始人 Linus Torvalds 亲自介入,以结束这场纠纷。他明确表示,全面禁止 AI 并无太大意义,强调技术本身没有对错之分。
Linus Torvalds 的观点相对务实,他认为 AI 工具只是辅助开发者的手段。而且,他补充道,那些提交劣质代码的开发者原本就不遵循规则,因此不如直接追究提交者的责任。这种务实的态度与部分社区对 AI 工具持有的过于谨慎和偏见的看法形成了鲜明对比。
不过,在这一政策制定之前,各大开源项目的应对措施各不相同。部分项目如 NetBSD 和 Gentoo 则选择直接禁止 AI 生成代码,后者甚至认为大模型生成的内容在法律层面上应被视为“污染”,因为它们的训练数据来源并不明晰。
此外,这一情况引发了另一个重要问题:原创声明(DCO)。该声明要求开发者需确保提交代码时拥有相应的版权,但当前AI大型模型训练所使用的许多代码都受限于 GPL 等许可证。这意味着开发者无法完全保证 AI 生成代码的合法性。
除了合规性问题外,开源社区的维护者们不得不面对大量低质量的 AI 代码,尤其是在 cURL 项目中,幻觉代码泛滥,导致其不得不关闭漏洞奖励计划。Node.js 和 OCaml 项目中也收到了成千上万行 AI 补丁,引发了内部的激烈争论。
值得注意的是,社区成员对于不披露 AI 使用情况的行为感到非常反感。例如,Sasha Levin 在未公开的情况下提交了 AI 生成的 Linux 补丁,虽然代码在技术上可运行,但性能极差,连 Torvalds 也承认审查不够充分。
在这样的氛围下,Linux 新规的表述十分明确:不禁止 AI 的使用,但要求所有开发者在提交时明确代码是否由 AI 生成,同时将失误责任归属于人类开发者。这相当于将“谁签字,谁负责”的逻辑转变为“谁点提交,谁负责”。



