日均调用量106倍狂飙豆包抢滩“Agent生态卡位战”|算法|文生|agent
用微信扫码二维码

分享至好友和朋友圈
出品 | 网易科技《态度》栏目
当DeepSeek以开源策略席卷开发者社区时,火山引擎用闭源的方式展示了另一种可能性。
“截至2025年3月底,大模型日均tokens已超过12.7万亿,是2024年12月的3倍,是一年前刚刚发布时的106倍。”
4月17日,在火山引擎FORCE LINK AI创新巡展上,火山引擎总裁谭待亮出一组数据,为闭源大模型的生存战注入强心剂。
如今,豆包大模型已成为众多企业AI转型的核心利器。就在巡展当日,
面向企业市场,全新的豆包1.5·深度思考模型正式登场,同时升级图模型3.0及视觉理解模型,还推出了OS 解决方案和AI云原生推理套件。
这一系列动作表明,在模型性能竞赛转向 “Agent生态卡位战” 的当下,火山引擎已精准锚定新的发展方向。
加量不加价,豆包深度思考模型开放API
官方技术报告显示,豆包深度思考模型采用MoE架构,总参数200B,激活参数仅20B,以较小参数实现了媲美顶尖模型的效果。得益于高效和高性能推理系统,豆包模型的API服务在保证高并发的同时,将延迟降至20毫秒,目前已通过火山引擎开放供用户体验。
在数学推理、编程竞赛、科学推理等专业领域,豆包模型的性能与openai o3-mini-high、Gemini 2.5 Pro等模型不相上下。
在通用任务上,豆包深度思考模型的人类评估表现比DeepSeek R1高出8%,
单位推理成本更是降低了50%,完美实现了性能与效率的平衡。相较于仅限文字理解的 DeepSeek,豆包深度思考模型的多模态能力优势显著。
谭待介绍,升级后的豆包・视觉理解模型具备强大的视觉理解能力,使模型不仅 “会看会想”,还能进行立体思考。从识别菜单内容,根据用户口味和过敏食物提供点餐推荐,到分析航拍图上的颜色、形状等信息并结合地貌进行深度研判,豆包的多模态应用场景丰富且实用。
豆包・文生图模型3.0同样表现亮眼,其文字排版和图像生成能力进一步增强,支持2K高清图片生成,在影视、海报、绘画等领域应用广泛。在最新的文生图领域权威榜单Artificial Analysis竞技场中,豆包・文生图3.0模型已跻身全球第一梯队。
豆包这一次放的大招,可谓威力十足。目前豆包已经在AppStore内免费APP排行榜成功登顶,超越位居第三的DeepSeek和第九的腾讯元宝。
迎接Agent元年,“应用Agent”+“OS Agent”双管发力
强大的模型性能为AI Agent的发展奠定了坚实基础。
谭待指出:“
AI Agent应用主要分为应用型Agent和OS Agent两个方向。
应用型Agent专注于特定领域任务,如客服Agent、数据Agent、代码Agent 等;OS Agent则具备跨场景通用性和灵活性,可操作浏览器、电脑、手机等设备,完成复杂任务。”在应用型Agent领域,面向专业开发者的代码Agent——Trae重磅推出。相较于传统AI插件产品,Trae将AI与IDE深度融合,带来更智能的开发体验。
在OS Agent方面,火山引擎正式发布OS Agent解决方案,整合豆包UI-TARS模型,以及veFaaS函数服务、云服务器、云手机等产品,实现对代码、浏览器、电脑、手机及其他Agent的高效操作。
针对Agent带来的大量推理消耗问题,火山引擎推出ServingKit推理套件,可在2分钟内完成671B DeepSeek R1的下载和预热,13秒完成推理引擎加载。
同时,通过优化火山引擎EIC,将KV cache命中率提高10倍,在100% cache命中场景下,TPS吞吐量提升至5倍以上;对算子、AI网关、VKE编排调度的升级,也大幅降低了gpu消耗。
对于GPU的折旧问题,谭待认为:“
如果把软件层面的工作做好,硬件的生命周期是可以拉长的。
而且不同的场景对模型的延迟、吞吐要求是不一样的。更重要的是在软件层面和运营层面做好相关工作,这样就能使硬件的生命周期和投资回报率(ROI)都达到最佳状态。
”模型好坏比开源闭源更关键,对豆包充满信心
“模型好坏,与开源闭源无关。火山引擎在适配DeepSeek方面表现出色,对豆包充满信心。”
火山引擎总裁谭待在采访中直言。面对豆包大模型日均tokens调用量百倍的增长,谭待表示,技术发展短期易被高估、长期易被低估,tokens增长量取决于模型突破,如视觉推理、Agent等方面的进展,对未来模型调用量百倍增长持谨慎乐观态度。
2025年被称为Agent元年,但谭待认为:
“能写诗的不是Agent,能跑通供应链的才是。”
这一观点凸显了火山引擎的务实布局。谭待指出,
“我们希望AI能够解决更复杂,更完整的问题,不再仅仅是对信息的感知、处理和生成,而是能端到端的处理任务。AI能做到这些,才能称之为一个合格的Agent。”
他认为,实现这一目标需完成三大技术突破:首先最核心的是要有更强的模型。要做好Agent,模型需要有能力做好思考、计划和反思,而且要一定得支持多模态。其次,开发OS Agent架构体系,实现数字与物理世界的双向交互。最后,通过AI云原生技术实现推理成本与延迟的指数级下降,支撑大规模应用落地。
目前,火山引擎已支持MCP协议,统一协议有助于降低开发成本、加速行业发展。未来,火山引擎不仅会推出数据智能体Data Agent等垂直类Agent产品,还将为通用Agent开发提供工具和方案。在谭待看来,判断真正的Agent,关键要看其能否完成复杂任务、是否运用深度思考模型。
当闭源模型凭借成本优势挑战开源阵营,当开源生态反哺商业创新,这场大模型竞争早已超越技术层面,演变为组织能力与生态运营的全方位较量。
可以预见的是,在Agent战场中,唯有那些将技术深度融入行业各个环节的参与者,才能最终脱颖而出。
“截至2025年3月底,大模型日均tokens已超过12.7万亿,是2024年12月的3倍,是一年前刚刚发布时的106倍。”
面向企业市场,全新的豆包1.5·深度思考模型正式登场,同时升级图模型3.0及视觉理解模型,还推出了OS 解决方案和AI云原生推理套件。
加量不加价,豆包深度思考模型开放API
在数学推理、编程竞赛、科学推理等专业领域,豆包模型的性能与OpenAI o3-mini-high、Gemini 2.5 Pro等模型不相上下。
在通用任务上,豆包深度思考模型的人类评估表现比DeepSeek R1高出8%,
迎接Agent元年,“应用Agent”+“OS Agent”双管发力
AI Agent应用主要分为应用型Agent和OS Agent两个方向。
如果把软件层面的工作做好,硬件的生命周期是可以拉长的。
更重要的是在软件层面和运营层面做好相关工作,这样就能使硬件的生命周期和投资回报率(ROI)都达到最佳状态。
模型好坏比开源闭源更关键,对豆包充满信心
“模型好坏,与开源闭源无关。火山引擎在适配DeepSeek方面表现出色,对豆包充满信心。”
“能写诗的不是Agent,能跑通供应链的才是。”
“我们希望AI能够解决更复杂,更完整的问题,不再仅仅是对信息的感知、处理和生成,而是能端到端的处理任务。AI能做到这些,才能称之为一个合格的Agent。”
本文地址: https://www.717b.com/jxwxwz/22.html