12月31日,YuanLab.ai团队正式开源发布源Yuan3.0 Flash多模态基础大模型。这款400亿参数量级的多模态基础模型基于稀疏混合专家(MoE)架构设计,在单次推理过程中仅激活约37亿参数。其核心技术创新在于首次将强化学习训练方法(RAPO)与反思抑制奖励机制(RIRM)相结合,在训练层面有效遏制无效推理循环。该方案不仅显著提升了推理结果的准确性,更实现了推理过程中的token消耗量级压缩,在保证性能的同时大幅降低了算力成本。(广角观察)
12月31日,YuanLab.ai团队正式开源发布源Yuan3.0 Flash多模态基础大模型。这款400亿参数量级的多模态基础模型基于稀疏混合专家(MoE)架构设计,在单次推理过程中仅激活约37亿参数。其核心技术创新在于首次将强化学习训练方法(RAPO)与反思抑制奖励机制(RIRM)相结合,在训练层面有效遏制无效推理循环。该方案不仅显著提升了推理结果的准确性,更实现了推理过程中的token消耗量级压缩,在保证性能的同时大幅降低了算力成本。(广角观察)
评论前必须登录!
登录微信扫码分享







评论 ( 0 )