瓦莱丽·维塔奇对AI创作社区失去信心,不是因为她第一次看到AI工具生成种族歧视图像——而是因为她试图谈论这个问题,却没有人理会。
这位导演在OpenAI于2024年发布Sora后满怀热情地拥抱了生成式AI,随后开始记录一个令人不安的模式:这些工具持续生成充满种族偏见和性别歧视的图像。中世纪场景中只有白人角色。公司环境中根本没有有色人种的存在。她收集了这些例子,希望引发对话。然而她得到的却是沉默,然后是防御性的回应。同事们告诉她反应过度了,技术还在改进中,她应该专注于令人兴奋的可能性,而不是纠结于问题。
这种回应揭示了比偏见本身更令人不安的东西:AI创作社区——那些日复一日构建和实验这些工具的艺术家、开发者和爱好者——在承认有据可查的危害方面,形成了集体的盲点。维塔奇并非孤例。在Discord服务器、Reddit社区和社交媒体群组中,模式不断重复:AI爱好者会争论模型架构、分享工作流优化、为创意价值激烈辩论,但一旦提出对偏见的担忧,就会遇到一堵否认的高墙。行业公开承诺的多元化和负责任的发展,与日常使用这些工具的人的实际行为存在于两个不同的宇宙中。
AI图像生成器中的偏见已有充分记录。在互联网数据上训练的模型会继承并放大社会偏见,生成强化种族、性别和民族刻板印象的内容。研究人员已经广泛测量了这些失败。但记录在案的问题并没有转化为问责。行业所承诺的与用户实际体验之间的差距揭示了一个更深层的问题:不仅仅是技术需要修复,是整个生态系统在使这些失败正常化。
这种正常化通过日积月累的小时刻发生。版主将偏见报告 dismiss 为一次性的故障。公司发言人给出模糊的保证,说正在"努力减少伤害"。社区将提出担忧的人视为麻烦制造者,而不是预警信号。维塔奇在尝试在AI创作者聚集的空间进行诚实对话时,亲身经历了这些。最应该关心技术缺陷的人——那些每天使用它并声称在突破其边界的人——似乎最不愿正视它们。
令人不舒服的真相是,AI创作社区已经围绕乐观主义和可能性构建了一种身份认同。承认工具携带严重危害威胁到了这种身份认同。将问题归因于成长中的痛苦比面对现在正在发生的事情更容易。但这种乐观主义已成为一种共谋形式。多元化承诺、伦理工作组、发布的准则——如果社区内部的人不愿认真对待同行的担忧,这些就毫无意义。
维塔奇继续使用生成式AI工作,继续发声。她找到了一小群同样有此担忧的其他创作者,但对更广泛的领域不抱幻想。社区对偏见的漠视不是一个暂时的阶段——这是这些空间的结构性特征。直到这种情况改变,行业的崇高承诺将继续停留在这个层面:只是承诺。那些有勇气指出言辞与现实之间差距的人,将继续被忽视。