政策 综合自 1 个来源

首起AI协助暴力诉讼:OpenAI被指无视警告

要点

  • 受害者起诉指控OpenAI无视三次警告,包括群体伤亡预警
  • 前男友被指利用ChatGPT对原告持续实施妄想性骚扰
  • 美国首起测试AI平台对现实暴力法律责任的诉讼
  • 案件呼应社交媒体早期责任争议——算法放大被认定负有责任
参考来源 (1)
  1. [1] 跟踪受害者起诉OpenAI,指控ChatGPT助长骚扰 — TechCrunch AI

安全系统的设计初衷是发挥作用。群体伤亡警报被触发了。有人看到了。但什么都没发生。

这一矛盾构成了本周一起诉讼的核心——一位跟踪骚扰受害者起诉OpenAI,这是首起针对AI聊天机器人协助现实暴力的法律案件。这起诉讼挑战的不是ChatGPT的技术能力,而是其责任边界。

根据诉状,原告的前男友利用ChatGPT持续对她实施妄想性质的骚扰。骚扰行为不断升级。受害者三次联系OpenAI,警告该公司某用户存在危险性。至少有一次,OpenAI内部监控系统对该用户标记了群体伤亡预警——这一分类本是公司为应对最极端威胁场景而设。然而公司未采取任何行动。

诉讼指控OpenAI存在过失,称公司在明确知晓持续伤害的情况下未能采取合理措施防止伤害扩大。法律逻辑很直接:明知故犯地协助伤害的平台可被追究责任。OpenAI对此予以反驳。

此案将迫使法院回答AI行业一直回避的问题:模型输出何时成为可预见的伤害工具?OpenAI发布了安全基准测试,训练抵御危险输出,投入对齐研究。但据诉状,当其自有系统识别出真实威胁时,这套投入什么都没产生。

技术被设计用来捕捉假想的灾难性场景,却漏掉了有据可查的跟踪骚扰行为。这一鸿沟——将AI安全视为存在性风险缓解而非伤害预防——定义了行业的核心矛盾。各公司投入数十亿资金准备应对科幻场景的同时,当前产品正被武器化用于有记录的滥用。

追踪此案的法律学者指出,因果关系的认定将具决定性。ChatGPT没有实施骚扰,是人做的。但如果平台在收到具体警告后继续向同一用户提供相同工具,这种知情状态可能将被动提供变为主动协助。AI法律领域尚无此标准。

目前尚无法院就AI平台对现实伤害的协助责任作出裁决。国会尚未立法规范。欧盟AI法案关注系统性风险类别,而非个人伤害场景。原告要求法院在法律空白中创建先例——认定聊天机器人运营商对用户攻击对象负有注意义务。

OpenAI尚未公开回应具体指控。公司可能主张其服务条款禁止有害使用,无法监控每段对话,将跟踪者的选择归咎于软件在法律和逻辑上都站不住脚。这些立场可以防守。但它们也正是各大社交媒体公司在法院开始认定其对有害内容算法放大负有责任前一再重复的论调。

判决结果不会解决AI是否会造成伤害的问题。它会。问题在于是否有人有责任预防伤害。

0:00