腾讯混元-A13B:开源混合推理模型,擅长Agent工具调用和长文理解

AI ToolBox
AI ToolBox
2025年7月7日

核心亮点:动态推理与MoE架构

"混元-A13B"最引人注目的特性是其实时调整推理深度 的能力。面对简单问题时,系统会自动进入快速响应模式 ,以最短路径完成处理;而在遇到复杂任务时,则能切换至多步骤深度思考流程

用户还可通过指令控制推理方式:/think 用于激活深度模式,而 /no_think 则关闭该功能,实现更灵活的交互体验。

图片

技术架构:高效能混合专家系统

该模型基于先进的混合专家(MoE)架构 构建,总参数量高达800亿 ,但在实际运行中仅激活130亿活跃参数,显著提升计算效率。

此外,"混元-A13B"支持最大256,000个标记的上下文窗口,在处理长文本任务方面展现出更强能力。

训练数据与性能表现

据腾讯发布的技术白皮书显示,"混元-A13B"已在20万亿token数据集上完成训练,并针对多种应用场景进行优化。

为增强科学类任务的表现力,研发团队特别从STEM领域(即科学、技术、工程与数学)采集了2500亿token 的高质量训练数据,涵盖内容包括数学教材、考试题库、GitHub代码、逻辑推理题以及覆盖中学到大学阶段的科学文献

横向对比:与行业领先模型的较量

腾讯指出,其"混元-A13B-Instruct"版本已具备与OpenAI、Deepseek及阿里巴巴Qwen等主流模型竞争的实力。

2024年美国数学竞赛AIME 测试中,该模型取得了87.3% 的准确率,明显优于OpenAI o1的74.3%

不过也需注意到,在2025年的新一轮测试 中,OpenAI o1以近3%的优势反超。同时,腾讯引用的Deepseek对比数据采用的是其1月的旧版本 ,而该厂商于5月推出的新版模型 在AIME 2024和2025测试中分别获得91.4分87.5分的优异成绩。