4月7日,阿里通义实验室智能计算团队正式发布全新算法FIPO(Future-KL Influenced Policy Optimization),该算法通过引入Future-KL机制并奖励关键标记(Token),成功解决了纯强化学习(Pure RL)训练中长期存在的”推理长度停滞”难题。据团队介绍,在320亿参数规模的纯强化学习框架下,该算法首次在性能上超越了o1-mini及同规模模型DeepSeek-Zero-MATH。(广角观察)
4月7日,阿里通义实验室智能计算团队正式发布全新算法FIPO(Future-KL Influenced Policy Optimization),该算法通过引入Future-KL机制并奖励关键标记(Token),成功解决了纯强化学习(Pure RL)训练中长期存在的”推理长度停滞”难题。据团队介绍,在320亿参数规模的纯强化学习框架下,该算法首次在性能上超越了o1-mini及同规模模型DeepSeek-Zero-MATH。(广角观察)
评论前必须登录!
登录微信扫码分享







评论 ( 0 )