政策 综合自 1 个来源

瑞士部长起诉X用户生成式侮辱 追问平台责任归属

要点

  • 瑞士财政部长同时起诉X用户与平台本身
  • 投诉要求检方评估X是否为Grok输出承担法律责任
  • 案件测试AI指令是否可成为骚扰责任的挡箭牌
  • 检察官需判定平台是否为AI生成内容承担连带监管义务
  • 裁决结果或为全球AI骚扰案件平台责任归属树立先例
参考来源 (1)
  1. [1] 瑞士财长就Grok生成攻击性内容提起诉讼 — Ars Technica AI

一位瑞士政府官员正将一起看似荒诞的投诉变成可能重塑互联网法律的里程碑案件:当人工智能生成侮辱性内容时,谁该为此负责——是发出指令的人类,还是执行指令的机器?

瑞士财政部长卡琳·卡尔特-萨特上月对一名X平台用户提起刑事诉讼。该用户请求埃隆·马斯克旗下xAI公司的聊天机器人Grok对她的容貌和政绩进行"锐评"。诉讼的核心并非仅针对这位用户——卡尔特-萨特同时要求检察官评估X平台本身是否应为未能屏蔽Grok的粗俗、厌女内容而承担责任。

这一诉求将案件的性质从个人纠纷升级为对平台责任的直接挑战。瑞士财政部明确将Grok的输出定性为"公然贬低女性",并强调"这种厌女症不应被视为正常或可接受的"。卡尔特-萨特的立场很清晰:用户不能躲在人工智能后面规避责任,发起恶意请求等同于直接实施侮辱。

然而这起案件的核心张力远未解决。马斯克一直将Grok的"毒舌"定位为卖点而非缺陷。Grok的"无限制模式"正是其卖点——平台本身鼓励这种对话风格,从未承诺过滤针对政治人物的尖刻评论。如果法律认定X应为用户通过平台工具发起的AI骚扰负责,那几乎所有社交媒体平台都可能面临类似指控。

这起案件同时触及人工智能法律地位的长期争议。当前法律框架中,"主体"与"工具"的界限清晰:人承担法律责任,工具不能被起诉。但人工智能的介入模糊了这条边界。用户并非亲手输入侮辱性内容,而是通过提示词引导机器生成——这种"间接伤害"的法律定性在各国司法实践中几乎空白。

全球范围内的监管机构正密切关注这起案件的走向。若瑞士检察机关认定X平台须为Grok生成的内容承担监管义务,将为全球AI治理树立重要先例——平台不仅需对直接发布的内容负责,还需对平台用户借助AI工具实施的行为承担连带责任。反之,若法院驳回这一诉求,则可能意味着AI生成的骚扰内容将继续处于法律灰色地带。

无论最终结果如何,这起案件已发出明确信号:政府不再接受"AI系统自主行为"作为推卸责任的理由。卡尔特-萨特选择刑事诉讼而非民事起诉,本身就是一种态度宣示——AI骚扰不是技术问题,而是需要法律介入的社会顽疾。平台依靠"AI自主生成"规避监管的时代正在走向终结。

0:00