研究 综合自 1 个来源

算力分配前,先给模型装上「自知之明」

要点

  • CVPR 2026论文将置信度校准嵌入推理时算力路由
  • 核心问题:多模态模型对模糊遮挡图像进行自信误分类
  • 框架在输出前将不确定输入导向密集处理
  • 生产安全需要校准的不确定性,而非仅追求原始准确率
  • 研究将AI部署从基准优化重新定义为可靠性工程
参考来源 (1)
  1. [1] 浙大提出多模态置信度校准方法 — 量子位 QbitAI

一辆自动驾驶汽车驶入雾区。视觉模型以94%的置信度输出「前方畅通」。这6%的落差——即模型声称的确定性与真实可靠性之间的差距——正是生产环境中AI系统悄然失效的关键所在。

浙江大学研究团队开发了一套框架来解决这一核心问题。他们的方法已被CVPR 2026接收,采用置信度校准后再分配算力的策略——确保多模态模型处理图像时,其置信度分数反映的是真实的预测概率,而非训练动态的副产品。根本症结在于:现代视觉-语言模型擅长模式匹配,却难以准确估计自身的不确定性,尤其是在模糊、遮挡或对抗性样本这类模糊输入面前。

技术贡献在于解耦了两个被大多数系统混为一谈的流程。该团队没有将置信度视为事后校正的输出,而是将其嵌入路由决策本身。当校准后的置信度低于阈值时,算力资源转向更密集的处理路径——这类似于人类专家识别出案例超出自身能力范围后转交给同事的动态决策过程。

研究建立在已确立的校准理论上:校准良好的模型在80%的案例中表现正确时,其置信度恰好为80%。此前的方法如温度缩放和普拉特缩放在训练后进行校正,但浙江团队的工作将校准直接集成到推理时资源决策中。在其框架中,算力分配成为不确定性的函数,而非固定流水线。

实际意义远超实验室范畴。医学影像中,对模糊扫描充满信心的模型与标记不确定性供人工复核的模型,代表截然不同的风险画像。工业检测中,校准后的不确定性使真正的人机协作成为可能,而非盲目委托。该团队在图像分类和视觉推理任务的标准基准测试中,展示了可靠性指标的显著改善。

更广泛的意义在于重新定义生产级AI优化应瞄准的目标。基准测试排行榜奖励的是原始准确率;而生产部署需要的是校准。配备良好校准置信度的85%准确率模型,在安全关键应用中表现优于配备错误校准置信度的92%准确率模型——不是因为它犯错更少,而是因为它处理错误的方式不同。

CVPR接收使该工作处于围绕不确定性量化的持续行业对话中。构建以部署为中心的AI系统的组织,越来越将校准不确定性视为核心能力而非可选功能。浙江团队的贡献提供了实现这一目标的具象机制:基于模型实际所知进行路由,而非基于它声称所知。

当前挑战在于规模化。真实世界的输入持续分布漂移;在训练数据上学到的校准在部署时会退化。然而基础洞察仍然成立:在生产系统中,最危险的失效模式不是不确定性——而是自信的错误。为这种区分进行校准,或许比下一个基准测试分数更重要。

0:00