10月16日,火山引擎发布了豆包大模型的系列更新,包括豆包大模型 1.6 原生支持多种思考长度,并推出了豆包大模型1.6 lite、豆包语音合成模型2.0、豆包声音复刻模型2.0等全新模型。
随着AI产业落地持续加速,数据显示,截至2025年9月底,豆包大模型日均tokens调用量已突破30万亿,相比今年5月底增长超80%。IDC报告显示,2025年上半年中国公有云大模型服务市场,火山引擎以49.2%的份额占比位居前列。
火山引擎总裁谭待指出,全球AI大模型正在三个方向上快速发展:一是深度思考模型正与多模态理解能力融合,二是视频、图像、语音模型逐步实现生产级水平,三是企业级复杂Agent正在走向成熟,为企业激发新的生产力潜能。

火山引擎总裁 谭待
在服务大量企业用户的过程中,火山引擎发现,当开启深度思考模式,模型效果平均可提升31%,但会提高模型延迟和使用成本,这导致在实际应用中,深度思考模式的使用占比仅有18%。针对这一痛点,豆包大模型1.6全新升级:提供Minimal、Low、Medium、High四种思考长度,平衡企业在不同场景下对模型效果、时延、成本的不同需求,并进一步提升了思考效率。这也是国内首个原生支持“分档调节思考长度”的模型。
此外,为进一步满足企业的多样化需求,火山引擎正式推出豆包大模型1.6 lite,相比旗舰版本更轻量、推理速度更快。
模型越来越多,面对具体需求时,如何选择模型最有性价比?为了解决这个问题,火山引擎发布智能模型路由(Smart Model Router),这是国内首个针对模型智能选择的解决方案。即日起,用户可以在火山方舟上选择“智能模型路由”功能,该功能支持“平衡模式”、“效果优先模式”和“成本优先模式”三种方案,可针对任务请求自动选择最合适的模型,达到效果与成本的最优解。(英皓)