强化学习远不是最优,CMU提出最大似然强化学习
数据派THU
2026-02-14 17:00
文章摘要
本文背景在于大模型时代强化学习被广泛用作提升模型性能的“最后一公里”标准配置,但其优化目标与直觉上期望的最大化正确输出概率存在偏差。研究目的是针对传统强化学习仅优化最大似然目标一阶近似的问题,提出最大似然强化学习(MaxRL)框架,通过一族以计算量为索引的目标函数逐步逼近真正的最大似然优化。结论显示,MaxRL在多个任务和模型规模上均能更高效地提升性能,其优化目标可随计算资源增加而改善,在训练和测试阶段均展现出优于现有方法的计算效率与性能提升。
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。