近600名学生,近90所学校。这是WIRED与Indicator本周披露的数字——AI生成的深度伪造裸照已波及全球范围内的未成年人,实际规模几乎可以肯定远超这一统计。
同一周,另一则报道揭开了一段幕后博弈:苹果公司曾在今年1月悄悄威胁将埃隆·马斯克的Grok应用从App Store下架。缘由:Grok未能遏制在X平台上蔓延的非自愿色情深度伪造内容。手段:一份致美国参议员的私人信函,要求开发者"制定内容审核改进方案"。结果:几乎没有公开变化。
这就是监管真空的具象化呈现。苹果手握消费科技领域最有效的执法工具——切断数亿iPhone用户的分发渠道。它动用了。但只一次,私下进行,针对单一应用,单一违规,无公开问责,无后续跟进。深度伪造危机并未因此减缓。
反观平台管控本应呈现的面貌:苹果App Store审核指南明确禁止"令人反感的内容",包括非自愿亲密图像。执法可以意味着强制技术防护、水印要求或干脆清退。然而,面对今年最受关注的AI滥用丑闻,这家市值最高的公司给出的回应是一封私信加一个等待期。
WIRED的调查揭示了这种低调做派的代价。研究人员发现,制造深度伪造的技术扩散速度远超学校、平台或监管机构的应对能力。受害者——以年轻女孩为主——发现除了请求删除特定图像外几乎没有救济途径,而这一流程首先要求知晓图像的存在位置。
苹果做法的辩护者会指出,平台执法确实困难重重。判断何为深度伪造、区分讽刺与滥用、在数十亿内容中规模化审核,都是真实的技术和法律挑战。他们还可能辩称,私下施压比公开指责更能达成结果,保留关系才能谈判持久变革。
这些并非无理取闹。但它们恰恰是科技平台十五年来逃避问责的老生常谈。执法工具已然在手,危害触目惊心。苹果、谷歌及其他守门人是否会以危机所要求的紧迫感动用管控权力——这个问题悬而未决,留待闭门谈判解决,而近600名已立案的学生,或许还有成千上万未曝光的受害者,只能继续等待。