火山引擎发布豆包1.6大模型 doubao-seed-1.6

3
2025-06-11 15:31:47
火山引擎发布豆包1.6大模型 doubao-seed-1.6

现在真是万模齐发,市场上每过一段时间就有大模型发布。

2025-6-11 在“2025火山引擎春季FORCE原动力大会”上,豆包大模型 1.6 系列正式发布,一同发布的还有 Doubao - Seed - 1.6 - thinking、Doubao - Seed - 1.6 - flash。

以下是关于 Doubao - Seed - 1.6 的一些特点:

支持多种思考模式:该模型支持 on/off/auto 三种思考模式,用户可根据不同需求进行灵活配置。

具备多模态与长文本处理能力:豆包大模型 1.6 系列整体实现了 256K 上下文推理能力,可处理超过 30 万字的长文本,较前序版本提升 8 倍,且支持多模态输入,Doubao - Seed - 1.6 在这些方面也有相应能力,能更好地处理图像、文本、音频等多种类型的信息,可应用于智能客服、内容创作和科学研究等场景。

在技术架构上,豆包 1.6 延续稀疏 MoE(混合专家)架构,并引入 UltraMem 技术优化访存效率,使推理成本较传统 MoE 架构降低 83%,在参数激活量相同的情况下,模型效果超越稠密架构.

豆包大模型1.6发布意味着什么?

豆包大模型1.6(Doubao-Seed-1.6)的发布标志着人工智能领域在性能、成本和应用场景上的重要突破,具体意义体现在以下几个方面:

  1. 性能突破:更强的推理与多模态能力

高考数学全国第一:在高考全国新一卷数学测试中,豆包大模型1.6取得了144分,位列全国第一,展现了其强大的逻辑推理和数学计算能力135。

海淀模拟考试高分表现:该模型在海淀模拟考试中,理科706分、文科712分,进一步验证了其在复杂问题处理上的优势26。

多模态支持:Doubao-Seed-1.6-thinking强化了思考能力,支持多模态输入(如文本、图像等),使其能更全面地理解和生成内容138。

  1. 灵活的使用模式

三种思考模式(on/off/auto):Doubao-Seed-1.6提供灵活的模式选择,用户可根据需求调整模型的思考深度,适用于不同应用场景,如实时交互或深度分析138。

  1. 成本大幅降低,推动AI普惠

超低定价:每百万输入Token仅0.8元,输出Token 8元,相比前代模型和竞品(如DeepSeek R1),综合成本降低约三分之二267。

256K超长上下文支持:适用于长文档分析、复杂对话等场景,同时保持高性价比46。

  1. 行业影响

AI应用普及加速:低价策略降低了企业和个人使用大模型的门槛,可能推动教育、金融、客服等领域的AI应用落地26。

市场竞争加剧:豆包1.6的性能和价格优势可能促使其他厂商跟进,推动行业整体技术进步和成本优化

火山引擎总裁谭待表示,Doubao-Seed-1.6是首个支持256k长上下文的大模型。谭待还透露,到今年5月底,豆包大模型日均tokens(语言生成模型在运作时的最小工作单元)使用量达到16.4万亿。

豆包现在处于什么段位?

很多网友多说豆包好用,甚至比当红辣子鸡deepseek还要好用。本人使用下来的感受是:一些简单的需求给豆包处理很快就能得到响应结果,但复杂点的需求deepseek生成效果就好很多。所以我日常都是豆包+deepseek。

deepseek最大的缺点是太慢了,虽然最近有所变快,但还是很慢,生成结果需要一直在等待,特别浪费时间。所以在此我也推荐大家豆包+deepseek组合使用。