2025 年 6 月 16 日 上午 11:19

豆包使用成本 「卷」 至 1/3 火山引擎瞄准智能体 「爆发」 催生智算一体机新需求

财联社 6 月 14 日讯 (记者 付静)「正如去年豆包 1.0 开启了大模型规模调用一样,我也相信豆包 1.6 和区间定价的新模式,能够让多模态深度思考得到更广泛的调用,让 Agent 的大规模应用进一步加速。」 火山引擎总裁谭待在最新召开的 Force 原动力大会上表示。

今年以来 AI 智能体迎来爆发,火山引擎日前最新升级豆包大模型,通过 「区间定价」 将其使用成本降至三分之一,以期使智能体规模化应用提速。财联社记者获悉,智能体目前已在 B 端多场景率先落地,模型的智能水平和性价比提升将进一步加速其大规模应用。虽然业内还在针对智能体进行效果评估和持续迭代,但随着智能体爆发,强化学习的算力消耗正在快速攀升,为此软硬件厂商通过生态协作,已推出了云边一体的智算一体机方案。

智能体规模化应用提速

去年底,豆包大模型曾一度引爆 AI 玩具板块在内的豆包概念股行情,本次 Force 原动力大会亦受到业内期待,大会召开前夕二级市场上豆包概念股亦出现震荡拉升。而财联社记者在此次大会上看到,在豆包再度升级的基础上,智能体作为重点方向被频繁提及。

「我们实际正处于 PC 到移动到 AI 三个时代的变化之中。这三个时代里技术主体在发生变化,PC 时代的主体是 web,移动时代是 APP,AI 时代是 Agent。」 谭待表示。

据了解,深度思考、多模态和工具调用等模型能力提升,是构建智能体的关键要素。火山引擎方面预计,随着大模型智能水平持续提升,智能体正逐渐进入企业核心业务,两到三年之内将带来巨大的生产力提升。

同时火山引擎方面认为,模型更优的性价比将使智能体规模化应用提速。

财联社记者最新获悉,豆包 1.6 按 「输入长度」 区间定价,深度思考、多模态能力与基础语言模型统一价格。在 0-32K 输入区间,豆包 1.6 的输入价格为 0.8 元/百万 tokens、输出价格为 8 元/百万 tokens,综合成本约为豆包 1.5 深度思考模型或 DeepSeek R1 的三分之一。

谈及模型成本,谭待亦对其原理进行了解释:「大模型是按 tokens 来收费。市面上有不同类型的模型,支持深度思考的、不支持深度思考的、支持多模态的等等,但实际上对于同结构同参数的模型而言,对成本真正影响的是上下文长度,而不是是否开启了思考和多模态功能。」


(大模型成本原理 财联社记者摄)

目前火山引擎已经推出了 AI Agent 平台 「扣子」、企业级智能体构建平台 HiAgent 等,支持智能体开发应用。大会期间,财联社记者亦注意到了 「扣子」 与产业链厂商共同推出的多款细分领域应用。具体的应用场景方面,智能体目前已涉足金融风控审核、教育场景辅助教学、制造业等泛企业场景做流程的打通等。

实际上,智能体当下已受到众多厂商的积极加码布局。5 月,价格曾炒到 10 万、一码难求的 AI 智能体平台 Manus 宣布开放注册,腾讯、京东、荣耀、昆仑万维 (300418.SZ) 等随后陆续宣布各自智能体新进展。5 月 22 日上午天工超级智能体上线不久后,昆仑万维更是发布了限流通知。

火山引擎 AI 生态与智能终端资深解决方案架构师朱成刚表示,火山引擎目前主要聚焦的场景一是大模型核心能力,二是 Agent 开发支持能力。「在私有化场景里,模型的迭代速度没有那么快,我们重点关注的还是企业如何能在内部私有化场景里落地并发挥价值,因此关键点就成为做一套持续运营、可优化可迭代的智能体体系。」

一位从业者告诉财联社记者,「现在我们看到,如果把大模型只当成 Chat bot 来聊天的话,其实它真正帮助我们的效果并不见得很好。而 Agent to B 的利用效果会更好一些,尤其在跨多个不同的 IT 系统时帮助会更大。」

「真正面向企业的业务,绝对不是一个大模型就能全部解决的。」 另有业内人士在现场这样表示。

据朱成刚介绍,「我们最终提供的服务就是一个智能体应用,想做出这样的应用需要大量工具和能力的支持,最简单的方式就是大模型外部工具,目前是 RAG、Function call 和 MCP。当前阶段 MCP 和 A2A 等开放智能体生态虽然有了标准,在实际使用中还是存在一些问题,所以还是多种接入形态共存。」

火山引擎方面同时认为,针对智能体的效果评估和持续迭代,将是长期的重要方向。

算力端催生一体机新需求

AI 应用端智能体的落地提速,将如何推动算力端演进?

财联社记者在大会现场注意到一个基于 AI PC 的案例:英特尔和 「扣子」 打造了基于 AI PC 的端云协同智能体,其典型应用场景如执行报销、挂号、订票等任务的事务助手。

一位英特尔展台人士向财联社记者展示了借助这一智能体在 「微医」 平台挂号的流程。该展台人士称,面对智能体爆发趋势,「我们在 AI PC 上提供了更多工具链,帮助 ISV(注:指独立软件供应商) 的应用跑在 AI PC 上,不用耗费云端算力,就实现在轻薄本上跑比较重的 AI 应用。」

image
(英特尔 AI PC 挂号助手 财联社记者摄)

不过实际场景中的算力需求不仅限于此。

「在过去的几个月,我们看到强化学习的算力消耗正在快速攀升。我们也做一个大胆的预测,强化学习带来的算力和资金消耗,有可能在 2027 年附近,逼近整个行业在预训练上的投入。」 火山引擎智能算法负责人吴迪在大会期间透露。

财联社记者从火山引擎方面获悉,随着大量智能体加速进入现实世界,强化学习愈加重要,需考虑 GPU/CPU 资源混合编排、异构算力调度、异步推理等。

一位英特尔技术专家现场告诉财联社记者,「一些企业级客户的需求是在本地部署模型,又担心能力演进无法跟上模型快速迭代的步伐。但若使用云上模型,又需考虑隐私数据、保密信息。另外,当企业决定内部部署时,一定会考虑性价比。」

财联社记者注意到,英特尔、火山引擎 HiAgent、华胜天成 (600410.SH) 三方联合打造了智算一体机方案。

据了解,算力方面,该方案基于英特尔至强处理器和多张英特尔锐炫显卡,锐炫 Pro B60 单卡可提供 24GB 显存;平台层面,HiAgent 2.0 覆盖了模型精调、推理优化到智能体开发、编排、运行的全生命周期;服务方面,华胜天成提供需求分析、方案设计、落地实施、运维支持等服务。

值得一提的是,锐炫 Pro B60 系英特尔近期于台北电脑展上最新发布,相比 2023 年发布的锐炫 A770,显存从 16GB 增加至 24GB。

「一年前大家做企业里的知识问答,上下文长度只要 10K 就够,我们现在接触到的客户需求超过 32K 的非常多。这提出了更大的显存需求,因为长的上下文会消耗更多显存,显存对整个应用性能及能够支持的场景也有非常大的帮助。」 英特尔方面向财联社记者表示。

财联社记者获悉,一体机形态可分为纯本地部署、云边一体两种。由于云上大模型按 tokens 收费,商业模式较简单,因此相比需要考虑平台整体成本的本地部署方案,云边一体的一体机胜在性价比。据了解,前述一体机平台既支持 7B-72B 主流模型,也支持 Deepseek V3/R1 671B 本地部署。

另外朱成刚提到,一体机客户的重点投入会在硬件方面,软件的预算和成本偏低,建议一体机分成两端进行。「首先提供开发端的核心开发和运营管理能力,然后通过容器镜像或其他打包方式分发到用户客户端,连接显示器就可以完成应用的调用。如果在单个或多个部门的办公或协同场景,也可以做一些简单的规划隔离,保证用户数据隔离,就可以在极低算力成本下跑通整个智能体平台的核心能力。」

- Advertisement -spot_img

推荐阅读