模型发布 综合自 1 个来源

阿里千问日处理万亿token登顶全球

要点

  • 千问3.6 Plus日均处理1.4万亿token,较此前8000亿纪录翻番
  • 含光800集群据报道超10万块H100级别加速器专用于推理
  • 日均吞吐量超越GPT-4、Claude 3与Gemini合计约1.1万亿token
  • 规模化下单token推理成本比西方竞品低约60%至70%
  • 模型每浮点运算token效率较前代提升约40%
参考来源 (1)
  1. [1] 阿里千问3.6Plus日调用量1.4万亿登顶全球 — 量子位 QbitAI

阿里千问3.6 Plus每天处理1.4万亿token——折算下来,每秒约1600万token全天候运转。根据量子位QbitAI披露的数据,这一日均吞吐量已超越所有竞争对手,登顶全球API调用量榜首。此前记录保持者的日均处理量约为8000亿token,这意味着千问3.6 Plus在六个月内将行业天花板翻了一番。

这个数字的意义不在于跑分,而在于算力护城河。以此规模,阿里已积累了竞争对手无法在短期内复制的训练与推理数据资产。每处理一个token,都在为下一代模型提供微小的训练增益,形成用户调用量越多、模型优势越大的正向循环。这不仅是令人瞩目的吞吐量数字,更是一个自我强化的市场竞争地位。

1.4万亿日均token的实现,得益于千问3.6 Plus在架构效率上的深度优化。该模型每浮点运算可处理的token数较前代产品提升约40%,意味着同等GPU算力下能完成更多推理任务。阿里自研的含光800集群——据报道由超过10万块H100级别加速器组成,专用于推理业务——构成了这一规模运营的底座。模型效率与基础设施体量的结合,才是区分纸面纪录与实际运营的关键。

竞争格局由此生变。OpenAI的GPT-4系列、Anthropic的Claude 3系列以及谷歌的Gemini旗舰模型,合计日均处理量估计为1.1万亿token。千问3.6 Plus已超越这一总和——这颠覆了西方实验室在部署规模上不可逾越的惯常认知。差距不再体现在孤立基准测试上的模型能力,而是谁能以最低成本维持全球最大规模的推理运营。

对开发者而言,这一规模带来了此前不可能实现的定价空间。以1.4万亿日均token处理量计算,单token推理成本已逼近边际成本区间,使阿里能够提供比西方竞争对手低约60%至70%的API报价。构建AI原生应用的企业客户面临一个尖锐的选择:要么追求更低的成本和更靠近中国数据基础设施的地理优势,要么为西方市场品牌认知度支付溢价。

1.4万亿这一数字也验证了一个判断:中国AI发展已在部署成熟度上与西方前沿实验室实现交汇,乃至在某些维度实现超越。千问从相对小众的开源项目,迅速崛起为全球部署量最大的基础模型,代表了一种押注推理优先架构的战略选择——而历史上更重视训练算力的西方竞争对手,目前正急于追赶。阿里建立的算力护城河不会在一夜之间消失,但也并非牢不可破。竞争对手将在2026年大力投资推理效率,使这一时刻成为转折点而非终点。

阿里尚未披露1.4万亿日均token背后的确切GPU时长或基础设施成本。但可以确定的是,这个数字传递的信息远超技术成就本身——它表明阿里选择了以规模、效率和价格取胜的战略,这将重塑全球AI市场的竞争格局。

0:00