2026年3月20日,维基百科英文版的1900余名活跃志愿者编辑投票通过了一项严厉的新规:全面禁止使用大语言模型生成或改写百科条目。这项政策立即生效,且具备执行机制。
新规措辞直接:禁止使用大语言模型生成或重写维基百科词条。政策文本明确指出,"大语言模型生成的文本经常违反维基百科的多项核心内容政策",因此全面禁止是唯一可行的选择。这不是悬而未决的提案。AI Pulse从三个独立信源确认,该政策在投票通过后立即生效。
禁令设有严格例外条款。编辑可使用大语言模型进行基础校对——修正拼写错误、调整语气——但条件是工具"不得引入任何自主生成的内容"。从其他语言版本的维基百科翻译成英文同样被允许。除此之外,所有涉及AI内容生成的行为均被禁止。
这一决定的影响不可小觑。维基百科拥有超过600万英文条目,长期位列全球访问量前十网站。其志愿编辑团队始终秉持可验证来源和人类责任追溯的原则运作。AI生成的文本常常自信地陈述事实,却无法提供可追溯的来源证明,这从根本上与维基百科的原则相冲突。
维基百科的这项决定来之不易。此前已有数月的内部讨论,多轮限制大语言模型使用的尝试在社区引发激烈辩论,但始终未能形成具有约束力的政策。今年3月20日的投票标志着决定性的转折。"大语言模型生成的文本经常违反维基百科的多项核心内容政策,"新政策写道,"因此,使用大语言模型生成或改写词条内容被禁止。"
批评者指出,政策执行依赖社区自觉。维基百科没有自动化系统来检测AI写作——只有人工审核才能标记可疑编辑。平台历来面临审核力量不足的问题;志愿者倦怠是有据可查的挑战。该政策能否从纸面规定转化为持续执行,取决于编辑们是否愿意投入时间进行监管。
也有人认为禁令力度不够。政策针对词条创建和大规模改写,但留下了灰色地带:使用AI研究主题、构思结构或识别现有条目的空白。帮助编辑思考但不撰写正文的机器人并不在禁止范围内。这一区分是否真正有意义,还是只是表面功夫,值得商榷。
可以确定的是维基百科的明确立场。这座历时24年建造的全球最大百科全书——建立在知识应经过人类验证和来源可追溯的原则之上——已在AI生成内容问题上划定了明确界限。这条线可能会随着技术演进和社区重新评估而调整。但就目前而言,维基百科以具有约束力的政策形式表态,而非又是一份束之高阁的委员会白皮书。任何人都可以编辑的维基百科做出了决定:机器写的,不算数。