豆包大模型1.5Pro版面世:用户端已开始灰测,开发者可调用

fjmyhfvclm2025-01-22  3

1月22日,豆包大模型1.5Pro版本正式面世。

根据官方介绍,豆包大模型1.5Pro版本拥有低训练、推理成本和高效的模型结构,在多项公开评测基准上全球领先。此外,该模型在训练过程中,未使用任何其他模型生成的数据,坚实扎实不走“捷径”。

目前,Doubao-1.5-pro(豆包大模型1.5Pro)已在豆包应用程序灰度上线,开发者也可在火山引擎直接调用API(应用程序接口)。

综合能力领先,多模态能力全面提升

豆包大模型1.5Pro在知识(MMLU_PRO、GPQA)、代码(McEval、FullStackBench)、推理(DROP)、中文(CMMLU、C-Eval)等多项公开测评基准上成绩全球领先。此外,新版豆包视觉理解模型Doubao-1.5-vision-pro,视觉理解能力全球领先。

图|受访者供图

全新的豆包实时语音模型Doubao-1.5-realtime-voice-pro,采用Speech2Speech(指将语音信号直接转换为另一种语音信号的技术)端到端框架,真正做到会哭会笑、能说方言会唱歌。目前,该模型已在豆包应用程序全量上线。

基于豆包1.5基座模型,通过RL(强化学习)算法的突破和工程优化,在未使用其他模型数据的情况下,研发豆包深度思考模型。目前,豆包深度思考模型Doubao-1.5-Pro-AS1-Preview在AIME上已取得了业内领先的成绩。

图|受访者供图

训练、推理成本低,高效模型结构

豆包大模型1.5Pro使用较小的激活参数进行预训练,训练成本低,但性能不打折。豆包大模型1.5Pro采用大规模稀疏MoE(混合专家模型)架构,等效7倍激活参数的Dense(稠密)模型性能,远超业内MoE架构约3倍杠杆的常规效率。

字节跳动还凭借自研服务器集群方案,灵活支持低成本芯片,硬件成本比行业方案大幅度降低。此外,自研网卡和网络协议,显著优化小包通讯效率,算子层计算与通信的高效交叠,保证了多机分布式推理的稳定和高效。

编辑 白昊天 校对 柳宝庆

转载请注明原文地址:https://www.gamev918.cn/tech/1305199.html