•   欢迎光临~~~
  •   欢迎光临~~~

股票资源交流群:股票开户了怎么买-使用成本降至三分之一!字节大模型重磅更新!

摘要:   豆包大模型重磅升级,并推出创新性的“区间定价”模式,打响了一场平衡成本与性能的“价值战”。  6月11日,字节跳动旗下火山引擎举办Fo...
代码 名称 当前价 涨跌幅 最高价 最低价 成交量(万)

  豆包大模型重磅升级,并推出创新性的“区间定价”模式 ,打响了一场平衡成本与性能的“价值战 ”。

  6月11日,字节跳动旗下火山引擎举办Force原动力大会 。会上,豆包大模型家族全面升级 ,火山引擎发布了豆包大模型1.6、豆包视频生成模型Seedance 1.0 Pro 、实时语音与播客等新模型,并升级了Agent(智能体)开发平台等AI云原生服务。除了主论坛外,本次大会还将举办多场从技术革新到行业场景落地的分论坛 ,涉及芯片、汽车、智能终端 、软件应用等领域的众多企业合作伙伴。

  综合来看,本次大会的核心关键词有三个,分别是性能升级、成本下降、应用普惠 。性能升级上 ,权威测评成绩显示 ,豆包1.6—thinking的表现已跻身全球前列;成本下降上,豆包1.6首创按“输入长度”区间定价,使综合使用成本降至豆包1.5深度思考模型的三分之一;AI普惠上 ,在性能与成本的双重加持下,有望加速智能体的大规模应用落地。

  豆包大模型1.6发布,性能跻身全球前列

  会上 ,最受关注的当属豆包大模型1.6系列的重磅发布。

  其中,豆包1.6是全功能综合模型,支持256K长上下文 ,能够自适应思考(即自动判断是否开启深度推理);豆包1.6—thinking则强化深度推理,编码 、数学、逻辑能力显著提升,支持复杂智能体构建;豆包1.6—flash则是极速版本 ,具有低延迟特点,适用于智能客服、语音助手等实时交互场景 。

  据会上披露的多项权威测评成绩,在复杂推理 、竞赛级数学 、多轮对话和指令遵循等测试集上 ,豆包1.6—thinking的表现已跻身全球前列。

  此外 ,豆包1.6还在多模态能力上取得了新突破,支持实时视频通话分析、商品图片同款识别等。据火山引擎总裁谭待介绍,豆包1.6系列模型支持多模态理解和图形界面操作 ,能够理解和处理真实世界问题 。此前,豆包1.5的多模态能力在60个公开评测基准中取得38项最佳成绩,已广泛应用在电商识图、自动驾驶数据标注 、门店巡检等场景 。图形界面操作能力则让豆包1.6进一步具备“行动力”。

  除了豆包大模型1.6系列 ,视频生成模型Seedance 1.0 pro也在本次大会上亮相。在国际知名评测榜单Artificial Analysis上,Seedance在文生视频、图生视频两项任务上均排名首位,超越了谷歌的Veo3、快手的可灵2.0等优秀模型 。

  使用成本下降至1/3 ,首推“区间定价 ”

  一直以来,豆包大模型都在积极推动降低成本,屡屡刷新行业价格底线。本次大会 ,豆包大模型1.6的价格体系也成了关注焦点。

  会上,谭待表示,通过技术和商业的双重创新 ,豆包1.6首创按“输入长度”区间定价 ,深度思考 、多模态能力与基础语言模型统一价格 。这一定价体系打破了行业的定价规则,让企业以更低成本获取更强AI能力。

  具体来看,根据以往的模型定价机制 ,大模型按tokens(文本基本处理单元)收费,输入输出的tokens数量直接决定成本。例如输入1000字的中文文本约生成1500个tokens,而输出1000字则需约1500个tokens ,上下文长度是成本的核心变量 。

  而根据豆包大模型1.6的定价策略,其主要有两大核心特点:

  一是统一价格,消除功能溢价。这意味着 ,无论是否开启深度思考或多模态功能,豆包大模型1.6的token价格完全一致,打破行业惯性 ,让企业无需为非必要功能支付额外成本。

  二是分区调度,可精准匹配需求 。豆包大模型1.6将定价区间按照输入长度分为0—32K区间、32K—128K区间和128K—256K,价格随着输入长度的增加而增加。其中 ,在企业使用量最大的0—32K输入区间 ,豆包1.6的输入价格为0.8元/百万tokens、输出8元/百万tokens,综合成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一。

  豆包1.6与豆包1.5thinking综合使用成本对比

  此外,Seedance 1.0 pro模型每千tokens仅0.015元 ,每生成一条5秒的1080P视频只需3.67元,为行业最低 。

  谭待表示,之所以按“输入长度”区间定价 ,是因为火山引擎观察到,模型成本存在“成本递增效应 ”,即随着上下文长度增加 ,模型处理每个token的计算复杂度呈指数级上升 。例如有些模型在处理超过128K tokens时收费翻倍,因其注意力机制需与前文所有tokens进行关联计算。“当前,超过80%的企业调用请求集中在32K tokens以内。若能针对这一主流区间优化调度 ,可显著降低整体成本 。”谭待说。

  因此,豆包大模型1.6通过区间定价模式,能够在性能与成本之间取得平衡 ,从而精准匹配企业需求分布。

  加速Agent的大规模落地

  “豆包1.6的定价策略不仅是一次简单的降价 ,更是AI普惠的战略升级 。”字节跳动火山引擎表示。

  业内人士普遍认为,2022年年底,Chat GPT的横空出世引爆了AI大模型 ,经过两年多技术迭代,如今AI智能体已成为行业焦点和落地方向。2025年是智能体爆发元年,智能体在金融 、汽车、教育、港口 、矿山、运营、客服等多个领域密集涌现 。

  然而 ,在AI智能体快速发展的当下,规模化落地面临多重挑战。根据行业观察,企业级Agent的实际应用成本压力尤为突出 ,单个Agent每日token消耗成本可达20美元。IDC数据显示,2024年中国AI智能体市场规模仅50亿元,远低于预期 ,反映出企业对高成本的观望心态 。

  因此,豆包大模型1.6的定价策略锚定成本高这一痛点,以上下文长度为核心的分区间定价模式 ,使企业使用成本降至行业平均的1/3左右 ,有望加速Agent的大规模落地应用。

  事实上,豆包大模型近年来在市场上不断“攻城略地 ”,使用量也呈现出爆发性增长的态势 ,据火山引擎披露,豆包大模型日均tokens调用量从去年12月的4万亿飙升至2025年5月的16.4万亿。年增长率超300% 。

  同时,火山引擎也凭借快速增长的势头 ,“搅动 ”着云市场原有的市场格局 。IDC发布的《中国公有云大模型服务市场格局分析,2025年一季度》报告显示,2024年中国公有云大模型调用总量达到114.2万亿tokens ,其中火山引擎占据46.4%的市场份额,位列第一,调用量几乎等于阿里云与百度云之和。

  业内人士分析称 ,正如豆包1.0以极致性价比开启了大模型的规模调用时代,豆包1.6在性能与成本上的优化,或将加速Agent的大规模落地 ,降低企业AI应用门槛 ,进而巩固火山引擎在AI云原生基础设施领域的领导地位。

(文章来源:证券时报)

你可能想看:
分享到:

发表评论

评论列表

还没有评论,快来说点什么吧~