Grammarly因其AI驱动的“专家审阅”功能面临严重法律麻烦。这家写作助手公司同时遭到集体诉讼和记者、隐私研究员朱莉娅·安文(Julia Angwin)的个人诉讼,她声称自己的身份被盗用,用于训练一个模仿她编辑风格的AI克隆体。
事件经过
该功能于2025年底推出,允许Grammarly用户获得所谓来自人类专家的写作反馈。然而,该公司使用AI复制这些专家的写作风格和专业知识,却未获得有效同意。根据近几周提起的诉讼,Grammarly基本上创建了真实人物的数字克隆——使用他们的名字、资历和风格特征——却未经许可。
朱莉娅·安文是一位著名的记者、前ProPublica编辑,曾广泛撰写关于AI伦理的文章,她是身份被挪用的“专家”之一。她现在直接起诉该公司,指控Grammarly在未经她知情或同意的情况下使用她的名字并创建了她编辑风格的AI模仿版本。
Grammarly的回应
面对日益加剧的批评,Grammarly于2026年3月11日宣布将完全禁用AI专家审阅功能。该公司承认,应该从其身份被复制的人类专家那里获得更明确的许可。
“我们犯了错误,”Grammarly在一份声明中表示。“该功能未达到我们关于同意和透明度的标准。”
然而,该公司尚未说明将如何处理从用户收集的数据,也未计划如何补偿其身份被使用的专家。
为何重要
Grammlar案凸显了人们对AI公司在未获同意的情况下使用真实人物身份、声音和创作成果的担忧。随着AI系统越来越擅长模仿个人,法律框架正在努力跟上。
隐私倡导者认为,这代表了一种新形式的身份盗窃——不仅利用个人信息,还利用使每个人工作独特的无形品质。被克隆的专家不仅名字被使用;他们的整个编辑理念被复制并盈利。
如果原告胜诉,此案可能为AI公司如何处理其产品中的人类相似性设定重要先例。整个行业可能不得不重新思考如何获得对AI生成的模仿的同意。
后续发展
集体诉讼和安文的个人案件预计都将推进。法律专家表示,关键问题将集中在AI生成的真人模仿是否构成身份盗窃形式,以及现有隐私法是否充分防止这种新的用例。
目前,依赖专家审阅功能的Grammarly用户需要寻找其他编辑支持。该公司完全关闭该功能的决定表明,可能很难以满足用户和身份被挪用的专家双方需求的方式进行修复。
这一事件提醒我们,AI行业在围绕同意、透明度和在机器学习产品中使用人类身份方面确立道德边界方面仍有大量工作要做。