豆包大模型重磅升级,并推出创新性的“区间定价”模式,打响了一场平衡成本与性能的“价值战”。
6月11日,字节跳动旗下火山引擎举办Force原动力大会。会上,豆包大模型家族全面升级,火山引擎发布了豆包大模型1.6、豆包视频生成模型Seedance 1.0 Pro、实时语音与播客等新模型,并升级了Agent(智能体)开发平台等AI云原生服务。除了主论坛外,本次大会还将举办多场从技术革新到行业场景落地的分论坛,涉及芯片、汽车、智能终端、软件应用等领域的众多企业合作伙伴。
综合来看,本次大会的核心关键词有三个,分别是性能升级、成本下降、应用普惠。性能升级上,权威测评成绩显示,豆包1.6—thinking的表现已跻身全球前列;成本下降上,豆包1.6首创按“输入长度”区间定价,使综合使用成本降至豆包1.5深度思考模型的三分之一;AI普惠上,在性能与成本的双重加持下,有望加速智能体的大规模应用落地。
豆包大模型1.6发布,性能跻身全球前列
会上,最受关注的当属豆包大模型1.6系列的重磅发布。
其中,豆包1.6是全功能综合模型,支持256K长上下文,能够自适应思考(即自动判断是否开启深度推理);豆包1.6—thinking则强化深度推理,编码、数学、逻辑能力显著提升,支持复杂智能体构建;豆包1.6—flash则是极速版本,具有低延迟特点,适用于智能客服、语音助手等实时交互场景。
据会上披露的多项权威测评成绩,在复杂推理、竞赛级数学、多轮对话和指令遵循等测试集上,豆包1.6—thinking的表现已跻身全球前列。
此外,豆包1.6还在多模态能力上取得了新突破,支持实时视频通话分析、商品图片同款识别等。据火山引擎总裁谭待介绍,豆包1.6系列模型支持多模态理解和图形界面操作,能够理解和处理真实世界问题。此前,豆包1.5的多模态能力在60个公开评测基准中取得38项最佳成绩,已广泛应用在电商识图、自动驾驶数据标注、门店巡检等场景。图形界面操作能力则让豆包1.6进一步具备“行动力”。
除了豆包大模型1.6系列,视频生成模型Seedance 1.0 pro也在本次大会上亮相。在国际知名评测榜单Artificial Analysis上,Seedance在文生视频、图生视频两项任务上均排名首位,超越了谷歌的Veo3、快手的可灵2.0等优秀模型。
使用成本下降至1/3,首推“区间定价”
一直以来,豆包大模型都在积极推动降低成本,屡屡刷新行业价格底线。本次大会,豆包大模型1.6的价格体系也成了关注焦点。
会上,谭待表示,通过技术和商业的双重创新,豆包1.6首创按“输入长度”区间定价,深度思考、多模态能力与基础语言模型统一价格。这一定价体系打破了行业的定价规则,让企业以更低成本获取更强AI能力。
具体来看,根据以往的模型定价机制,大模型按tokens(文本基本处理单元)收费,输入输出的tokens数量直接决定成本。例如输入1000字的中文文本约生成1500个tokens,而输出1000字则需约1500个tokens,上下文长度是成本的核心变量。
而根据豆包大模型1.6的定价策略,其主要有两大核心特点:
一是统一价格,消除功能溢价。这意味着,无论是否开启深度思考或多模态功能,豆包大模型1.6的token价格完全一致,打破行业惯性,让企业无需为非必要功能支付额外成本。
二是分区调度,可精准匹配需求。豆包大模型1.6将定价区间按照输入长度分为0—32K区间、32K—128K区间和128K—256K,价格随着输入长度的增加而增加。其中,在企业使用量最大的0—32K输入区间,豆包1.6的输入价格为0.8元/百万tokens、输出8元/百万tokens,综合成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一。
豆包1.6与豆包1.5thinking综合使用成本对比
此外,Seedance 1.0 pro模型每千tokens仅0.015元,每生成一条5秒的1080P视频只需3.67元,为行业最低。
谭待表示,之所以按“输入长度”区间定价,是因为火山引擎观察到,模型成本存在“成本递增效应”,即随着上下文长度增加,模型处理每个token的计算复杂度呈指数级上升。例如有些模型在处理超过128K tokens时收费翻倍,因其注意力机制需与前文所有tokens进行关联计算。“当前,超过80%的企业调用请求集中在32K tokens以内。若能针对这一主流区间优化调度,可显著降低整体成本。”谭待说。
因此,豆包大模型1.6通过区间定价模式,能够在性能与成本之间取得平衡,从而精准匹配企业需求分布。
加速Agent的大规模落地
“豆包1.6的定价策略不仅是一次简单的降价,更是AI普惠的战略升级。”字节跳动火山引擎表示。
业内人士普遍认为,2022年年底,Chat GPT的横空出世引爆了AI大模型,经过两年多技术迭代,如今AI智能体已成为行业焦点和落地方向。2025年是智能体爆发元年,智能体在金融、汽车、教育、港口、矿山、运营、客服等多个领域密集涌现。
然而,在AI智能体快速发展的当下,规模化落地面临多重挑战。根据行业观察,企业级Agent的实际应用成本压力尤为突出,单个Agent每日token消耗成本可达20美元。IDC数据显示,2024年中国AI智能体市场规模仅50亿元,远低于预期,反映出企业对高成本的观望心态。
因此,豆包大模型1.6的定价策略锚定成本高这一痛点,以上下文长度为核心的分区间定价模式,使企业使用成本降至行业平均的1/3左右,有望加速Agent的大规模落地应用。
事实上,豆包大模型近年来在市场上不断“攻城略地”,使用量也呈现出爆发性增长的态势,据火山引擎披露,豆包大模型日均tokens调用量从去年12月的4万亿飙升至2025年5月的16.4万亿。年增长率超300%。
同时,火山引擎也凭借快速增长的势头,“搅动”着云市场原有的市场格局。IDC发布的《中国公有云大模型服务市场格局分析,2025年一季度》报告显示,2024年中国公有云大模型调用总量达到114.2万亿tokens,其中火山引擎占据46.4%的市场份额,位列第一,调用量几乎等于阿里云与百度云之和。
业内人士分析称,正如豆包1.0以极致性价比开启了大模型的规模调用时代,豆包1.6在性能与成本上的优化,或将加速Agent的大规模落地,降低企业AI应用门槛,进而巩固火山引擎在AI云原生基础设施领域的领导地位。
责编:叶舒筠
校对:王朝全
版权声明
证券时报各平台所有原创内容,未经书面授权,任何单位及个人不得转载。我社保留追究相关行为主体法律责任的权利。
转载与合作可联系证券时报小助理,微信ID:SecuritiesTimes