今年1月,一款名为BLOCKADE的软件工具发布——全称"阻截纵欲狂热内容、隔绝淫秽与极端主义"——专门用于帮助保守派倡导组织标记书籍。该工具调用xAI和OpenAI的语言模型分析PDF文件,生成学校适宜性报告。矛盾之处在于:BLOCKADE明确将"教育不当内容"定义为"冒犯保守价值观的内容",却同时指示AI不要解释其判断理由。禁书的标准变成了黑箱模型自行决定的结果。
宾厄姆顿大学计算机科学副教授、人工智能与社会研究所所长杰里米·布莱克本对此表示担忧。他向404 Media表示:"大量责任被推卸了。"BLOCKADE的脚本包含约300个词汇,每个词都分配了严重程度分数,汇总成整体适宜性评分。工具输出的风险报告格式,与Moms for Liberty等组织在AI聊天机器人出现前推广的书籍评论如出一辙。
更值得警惕的是,复制该项目思路的衍生工具已经出现,部分甚至生成热力图,按州、校区和学校建筑追踪争议书籍的位置。这种做法将历来受限于个人投诉者时间和精力的书籍审查流程,变成了可扩展的自动化监控——规模取决于计算资源而非人力投入。俄亥俄州郊区的家长和德克萨斯州农村的家长现在可以同时标记同样的40本书,汇总数据使每起个人投诉都显得像协调行动的一部分。
知识产权自由倡导者警告,顶尖模型在这类任务上出了名的不靠谱。涉及医学解剖讨论、奴隶制历史叙述或LGBTQ+角色的书籍,常规被内容过滤器误标。模型继承了训练数据中关于"不当内容"的偏见,意味着该工具不是在应用标准,而是在传递偏见。当BLOCKADE将保守价值观诠释为xAI或OpenAI模型所认定的那样时,输出看起来像证据,实则是披着技术语言外衣的观点。
这指向了AI审核基础设施的更广泛武器化。驱动聊天机器人和内容过滤器的相同API,可以被重新定向用于任何标记任务,唯一的限制是持有API密钥者的创造力。xAI和OpenAI等公司面临无监管要求去监控其模型在下游应用中的部署方式。服务条款禁止某些滥用,但自动化书籍禁令处于灰色地带——技术上合法、文化上爆炸性、操作上可规模化。该工具本身并不禁书,它生成报告供人类用来为禁书决定辩护——这些报告带着算法背书的文件证据,可以在学区会议上挥舞。这种距离——AI评估与人类决策之间的距离——或许正是设计的精妙之处。