这笔账已经算不清了。生成一张以假乱真的AI图片,成本大约是0.001美元。而要通过专业取证分析将其识破,需要50到500美元,视深度和严谨程度而定。当伪造现实的代价比识破它低五个数量级时,某些根本性的东西就崩塌了。崩塌的正是互联网本应依赖的验证体系。
这正是Wired本周报道的危机,而数字只说出了故事的一部分。没错,AI生成的图片正以任何人肉核查团队都无法企及的速度淹没社交平台。但更具有腐蚀性的问题是这场军备竞赛的经济学本身。验证系统并非在逐渐失守;它们从一开始就在结构上处于劣势。每花一美元验证内容,就会有价值一千美元的合成攻击几乎不花任何代价地跟进。
这场冲突中的各方有着截然不对称的动机。X、Facebook、TikTok等平台承担着托管虚假信息的成本,却几乎无法从严格验证中获得价值。它们的商业模式依赖于用户粘性,而煽动性的合成内容产生的粘性,往往是经过核实的事实无法匹敌的。与此同时,新闻机构和独立事实核查机构——这些真正有制度性动机维护信息完整性的群体——却在预算缩减和法律风险的夹缝中挣扎,在他们给内容贴上"虚假"标签时面临诽谤诉讼的风险。
用户夹在中间,越来越难以在缺乏专业工具的情况下区分真实记录和伪造内容。记者依赖卫星图像来核实冲突和自然灾害,但受限的卫星数据正在与AI生成的替代品竞争——而后者对于非专业人士来说根本无法分辨。法院面临的是为照片天然具有可信度那个年代制定的证据标准。执法机构调查的罪行,可能从未以真实视频的形式发生过。
各方论点揭示了僵局的深度。平台辩称,大规模内容审核需要自动化系统,而自动化系统无法在不侵犯言论自由的情况下达到明确裁定所需的准确度。言论自由倡导者担心,任何强制性验证框架都会为政府审查创造关卡。与此同时,AI开发商面临压力,被要求在模型中嵌入水印和溯源标准,但这类措施会给合法使用场景增加摩擦,而且对于坚决的恶意行为者来说只是部分障碍。
轨迹并不乐观。每一次检测能力的提升都会迅速触发生成技术的迭代。合成媒体标准从推出到被攻破的窗口期,已从数年缩短到数月。正在讨论监管框架的各国政府发现,自己在起草的法规所针对的技术,到立法通过时将已经发生根本性演变。
目前可以确定的是,当前的方法——将验证作为事后被动应对——无法规模化。只要生成成本不大幅上升、验证成本不大幅下降,或者激励机制不发生根本性转变,经济学就将继续有利于创造而非认证。这三种结果都没有显现出即将到来的迹象。
互联网建立在"人人都能发布,真相会在竞争中胜出"的假设之上。这个假设依赖于识别欺诈的能力。当欺诈变得几乎免费,而检测仍然代价高昂时,真相市场就面临着系统性崩溃。