开源 综合自 1 个来源

许可协议而非参数规模成就GLM-5.1

要点

  • Z.ai在Hugging Face以MIT许可证发布GLM-5.1(7540亿参数,1.51TB)
  • 模型能无提示生成并自我debug SVG/CSS动画
  • MIT许可允许自由商用、微调和部署
  • 中国实验室押注生态采用而非专有锁定
  • 对比:GPT-4o、Claude 3.5、Gemini Ultra均为闭源API
参考来源 (1)
  1. [1] 智谱发布7540亿参数GLM-5.1,MIT许可开源 — Simon Willison's Weblog

7540亿参数能做什么?这才是关键问题。

这是AI社区应该追问的话题,尽管Z.ai最新发布的GLM-5.1模型重达1.51TB权重文件、能在Hugging Face上自由下载、生成的SVG和CSS动画甚至能自我debug。参数规模不是重点,MIT许可证才是。

当OpenAI把GPT-4o锁在API墙内、Anthropic把Claude 3.5 Sonnet藏在付费层、Google把Gemini Ultra当旗舰消费品来卖时,Z.ai做了一件激进的事:将1.51TB权重全部开源,没有任何限制条款。不收版税,不设用量上限,不要求"联系销售"。只有代码、权重和自由。

这是中国AI实验室正在下的战略赌注,逻辑比西方观察者预期的更加清晰:美国公司在用专有模型筑护城河,Z.ai、DeepSeek等却在押注生态大于锁定。这一逻辑很直接:能够自由微调、量化、部署模型的开发者,会成为该模型社区的永久成员。他们报bug、写文档、做集成,再吸引更多开发者,形成正向循环。

GLM-5.1的技术能力支撑这个策略。测试中模型展现了一个有趣能力——不仅生成SVG图像,还生成含嵌入式CSS动画的完整HTML页面,在被追问时甚至能debug自己损坏的输出。对于正在构建Web应用的开发者而言,这不是花活,而是能够完全拥有、定制和部署的工作流组件。

参数规模几乎无关紧要。7540亿听起来很震撼,直到你想起Llama 3 70B经过量化后能在消费级硬件运行,而很多企业更关心部署灵活性而非原始基准分数。Z.ai在自己能赢的领域竞争—— permissive许可和社区信任——而不是试图在算力上超越OpenAI。

批评者会指出开源权重模型往往在推理基准上落后于闭源竞品。这是对的,对某些场景很重要。但开发者生态的算法不需要技术优越性,只需要可及性,而MIT许可正是API访问永远无法提供的东西。

Z.ai的这一步标志着新兴AI格局中真正的意识形态分裂正在形成:美系实验室优化每用户收入,中系实验室优化每算力美元的用户量。后者策略需要开源权重,因为当你的优势不在原始能力时,这才是最大化采用的方式。

鹈鹕骑自行车的SVG很可爱。它下面的MIT许可证才是真正的棋局。

0:00