火山引擎发布豆包1.6大模型 doubao-seed-1.6

现在真是万模齐发,市场上每过一段时间就有大模型发布。
2025-6-11 在“2025火山引擎春季FORCE原动力大会”上,豆包大模型 1.6 系列正式发布,一同发布的还有 Doubao - Seed - 1.6 - thinking、Doubao - Seed - 1.6 - flash。
以下是关于 Doubao - Seed - 1.6 的一些特点:
支持多种思考模式:该模型支持 on/off/auto 三种思考模式,用户可根据不同需求进行灵活配置。
具备多模态与长文本处理能力:豆包大模型 1.6 系列整体实现了 256K 上下文推理能力,可处理超过 30 万字的长文本,较前序版本提升 8 倍,且支持多模态输入,Doubao - Seed - 1.6 在这些方面也有相应能力,能更好地处理图像、文本、音频等多种类型的信息,可应用于智能客服、内容创作和科学研究等场景。
在技术架构上,豆包 1.6 延续稀疏 MoE(混合专家)架构,并引入 UltraMem 技术优化访存效率,使推理成本较传统 MoE 架构降低 83%,在参数激活量相同的情况下,模型效果超越稠密架构.
豆包大模型1.6发布意味着什么?
豆包大模型1.6(Doubao-Seed-1.6)的发布标志着人工智能领域在性能、成本和应用场景上的重要突破,具体意义体现在以下几个方面:
- 性能突破:更强的推理与多模态能力
高考数学全国第一:在高考全国新一卷数学测试中,豆包大模型1.6取得了144分,位列全国第一,展现了其强大的逻辑推理和数学计算能力135。
海淀模拟考试高分表现:该模型在海淀模拟考试中,理科706分、文科712分,进一步验证了其在复杂问题处理上的优势26。
多模态支持:Doubao-Seed-1.6-thinking强化了思考能力,支持多模态输入(如文本、图像等),使其能更全面地理解和生成内容138。
- 灵活的使用模式
三种思考模式(on/off/auto):Doubao-Seed-1.6提供灵活的模式选择,用户可根据需求调整模型的思考深度,适用于不同应用场景,如实时交互或深度分析138。
- 成本大幅降低,推动AI普惠
超低定价:每百万输入Token仅0.8元,输出Token 8元,相比前代模型和竞品(如DeepSeek R1),综合成本降低约三分之二267。
256K超长上下文支持:适用于长文档分析、复杂对话等场景,同时保持高性价比46。
- 行业影响
AI应用普及加速:低价策略降低了企业和个人使用大模型的门槛,可能推动教育、金融、客服等领域的AI应用落地26。
市场竞争加剧:豆包1.6的性能和价格优势可能促使其他厂商跟进,推动行业整体技术进步和成本优化
火山引擎总裁谭待表示,Doubao-Seed-1.6是首个支持256k长上下文的大模型。谭待还透露,到今年5月底,豆包大模型日均tokens(语言生成模型在运作时的最小工作单元)使用量达到16.4万亿。
豆包现在处于什么段位?
很多网友多说豆包好用,甚至比当红辣子鸡deepseek还要好用。本人使用下来的感受是:一些简单的需求给豆包处理很快就能得到响应结果,但复杂点的需求deepseek生成效果就好很多。所以我日常都是豆包+deepseek。
deepseek最大的缺点是太慢了,虽然最近有所变快,但还是很慢,生成结果需要一直在等待,特别浪费时间。所以在此我也推荐大家豆包+deepseek组合使用。