行业 综合自 1 个来源

120万亿tokens背后的算力暗战

要点

  • 豆包日处理量达120万亿tokens(量子位数据)
  • 使用强度差距比模型能力差距更关键
  • 推理算力创造复合数据优势
  • 中国AI部署已突破消费市场临界点
  • 真正竞争在于日均tokens处理量而非基准测试
参考来源 (1)
  1. [1] 字节豆包日均消耗120万亿Tokens — 量子位 QbitAI

真正值得硅谷警惕的数字,既不是基准测试分数,也不是模型能力参数——而是潜伏在中国科技报道深处的一个消费数据:豆包每天处理120万亿tokens。量子位报道的这个数字,代表着一种不同量级的日常推理算力投入,而它提出的根本问题是:谁才是这场AI竞赛的真正赢家?

答案并不简单。西方AI公司打造了能力更强的模型,OpenAI的GPT-4o仍然是追赶的标杆。但120万亿tokens不是模型指标——而是部署指标。部署指标衡量的是不同维度的东西:AI渗透日常行为的深度。

豆包的tokens消耗量表明,中国用户已将AI整合到日常工作流程中,其强度是西方平台尚未实现的。比较并非完全对等——token计算方法各异——但量级已经说明问题。如果豆包每天处理120万亿tokens,而GPT-4o高峰期只有其一小部分,差距不在于智能程度,而在于使用强度

这之所以重要,有一 个被西方AI讨论忽视的原因:推理算力的规模效应与训练算力不同。训练前沿模型是一次性事件——百米冲刺。推理是马拉松。用户生成的每个token都需要实时计算,每次计算都有成本。当字节跳动承诺每天处理120万亿tokens时,这不只是一次性投资,而是持续运营承诺,塑造着数据中心建设、芯片采购和能源基础设施。

这个模式揭示的东西,熟悉中国科技行业的人不会陌生:基础设施先行,优化随后。中国AI公司正以大规模规模建设推理能力,押注使用量将随之而来。他们不等待完美产品吸引用户,而是用易用工具充斥市场,让使用模式揭示人们真正想要什么。

这创造了一种复合优势,西方公司可能难以追赶。规模带来数据,数据带来改进,改进带来更多规模。字节跳动深刻理解这个循环——它正是基于这个原则构建了TikTok的推荐引擎。现在它正在将同样的逻辑应用于AI推理。

地缘政治维度更难忽视。推理算力正在成为AI竞争的新前沿,中国领先公司的投资规模反映了他们对持续需求的信心。特朗普政府的芯片限制针对的是训练能力——阻止中国建立最大的模型。但推理是不同的问题。你不需要最新芯片来服务每天120万亿tokens。你需要大量芯片、大量能源,以及愿意生成tokens的大量用户。

使用强度差距可能比能力差距更重要。中国消费者不等说服相信AI有用。他们已经在日常生活中使用它,产生数据和建立使用模式,这些将定义下一代AI产品。120万亿tokens这个数字不仅仅是字节跳动云成本的指标,更是中国AI部署已达到临界速度的证据——而硅谷仍在争论这场竞赛是否重要。

真正的竞争在于:不是谁发布了最好的基准测试,而是谁能建设最多tokens日处理量的基础设施,年复一年。字节跳动刚刚在那里划了一条线。

0:00