开发工具 综合自 2 个来源

千条评论秒变人格画像:LLM协作者新范式

要点

  • Willison向Claude Opus 4.6喂入1000条HN评论实现用户画像
  • Algolia API以开放CORS提供HN按作者分类的评论历史
  • LLM综合分析揭示搜索无法触达的推断性事实
  • Rodney代理通过Claude Code审计37MB网页
  • 代理工程放大而非取代开发者专业能力
参考来源 (2)
  1. [1] 开发者用LLM为HN用户生成画像 — Simon Willison's Weblog
  2. [2] AI工具分析PC Gamer网页:文章体积达37MB — Simon Willison's Weblog

开发者Simon Willison打开ChatGPT,粘贴一位陌生人在Hacker News上的1000条评论,打下三个字:「Profile this user」。几秒钟后,模型返回一份详细报告:职业身份、核心观点、沟通风格,甚至可能的收入来源。没有搜索引擎参与,没有人工阅读,只有与一个真正理解上下文的协作者之间的对话。

这个场景出现在Willison 2026年3月的博客中,凝聚了开发者们两年来一直在试探的转变。大多数人仍把LLM当作增强版搜索——问一个问题,得到答案,结束。但Willison的评论画像技巧揭示了不同的东西:当你把这些模型当作具有工作记忆和上下文推理能力的协作者时,它们解锁了搜索从未拥有的能力。

技术实现很简单。Algolia的Hacker News API按日期排序暴露评论数据,并以作者用户名作为标签。Willison构建了一个简单工具,调用该API获取任意用户的最多1000条评论并格式化到剪贴板。他把这些数据喂给Claude Opus 4.6——他目前做这类任务的首选——然后提示「profile this user」。模型在数千个数据点中综合提炼模式:写作风格、关注话题、论证倾向,甚至变现策略。

令人惊讶的是模型推断出的内容——这是任何搜索结果都不会直接呈现的。它通过追踪某人几个月评论中对AI编码话题的讨论,识别出其核心论点。它注意到某位开发者通过GitHub赞助而非公司薪水变现,因为模型检测到他们如何描述自己的工作。这些不是你用搜索找到的事实——它们是通过综合分析得出的结论。

同样的协作者思维驱动着Willison最近的另一个实验。当一位开发者指出PC Gamer一篇文章因自动播放视频广告和网络膨胀膨胀到37MB时,Willison部署了他的自定义Claude Code代理Rodney来审计该页面。代理获取内容、分析性能特征、合成发现,全程无需在开发者工具和浏览器检查器之间手动切换。

两个实验共享一个模式:人类设定目标,LLM处理对混乱真实世界数据的解释、综合和推理。这不是LLM取代开发者工具,而是LLM成为协调这些工具的中间层。

对开发者工具的影响是具体的。调试变成对话而非grep和堆栈跟踪的仪式。性能分析变成综合而非仪表盘凝视。技能从掌握每个工具的使用方法转变为知道如何向协作者提出正确的问题。

Willison本人将此定义为「代理工程」——使用编码代理作为熟练开发者的生产力倍增器。定语很关键:这些工具放大专业知识,而非取代它。不理解分析器作用的开发者不会知道让LLM分析什么。但对于已经掌握技艺的开发者来说,协作模式把繁琐任务变成了对话。

1000条评论的门槛并非随意设定。这是上下文窗口的粗略限制,同时留出模型思考的空间。低于这个数量,你只能得到表面分析。高于它,你冒着模型虚构不存在联系的风险。找到这个最佳点——喂给LLM足够上下文使其有用但不至于让它胡编——正成为核心开发者技能。

Willison的博客现在托管着一份关于这种方法的持续更新指南,最近条目发表于3月21日,包含画像提示能捕获什么、遗漏什么的详细分解。这是实践知识,公开分享,正是通过链接而非算法在开发者社区传播的那种信息。

0:00