首页 > 计算机科学

LLM加RL遭质疑:故意用错奖励,数学基准也显著提升,AI圈炸了

学术头条 2025-05-28 16:53
文章摘要
这篇论文挑战了当前大语言模型(LLM)与强化学习(RL)结合的传统观点,特别是可验证奖励强化学习(RLVR)的有效性。研究发现,使用虚假奖励(如随机奖励或错误奖励)训练Qwen2.5-Math-7B模型,竟然也能显著提升数学推理基准MATH-500的成绩,提升幅度接近真实奖励的效果。然而,这种效果并非在所有模型中都适用,例如在Llama3和OLMo2模型中表现有限。论文进一步探讨了虚假奖励生效的原因,指出这与模型预训练中学到的特定推理策略(如代码推理)密切相关。研究还发现,通过提示或强化学习诱导模型使用代码推理,可以进一步提升Qwen模型的性能,但对其他模型可能产生负面影响。最后,论文建议未来的RLVR研究应在更多样化的模型上进行验证,并更深入地理解预训练对下游任务的影响。
LLM加RL遭质疑:故意用错奖励,数学基准也显著提升,AI圈炸了
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
最新文章
LeCun团队连发三文:从稀疏表征到梯度规划,世界模型技术栈再进阶
LeCun团队连发三文:从稀疏表征到梯度规划,世界模型技术栈再进阶
针对世界模型落地难题,LeCun 团队连发三文,给出从算法到工程的全栈最优解。近期,Yann LeCun 团队连发三文,重点攻关非生成式世界模型(World Models)当前面临的三大技术痛点。非生
2026-02-09
比二维码还小!Meta发布TinyLoRA:13个参数媲美全量,RL完胜SFT
比二维码还小!Meta发布TinyLoRA:13个参数媲美全量,RL完胜SFT
26 字节,13 个参数。这是让 7B 模型数学能力逼近全量微调的全部数据。下面这张看似普通的二维码,实则包含了一个名为 TinyLoRA 的微调适配器的全部参数。〓 图1. TinyLoRA 权重二
2026-02-06
ICLR 2026 | GPT-5竟给废图打高分?首个图表“信达雅”评测基准发布
ICLR 2026 | GPT-5竟给废图打高分?首个图表“信达雅”评测基准发布
\uD83E\uDE84 你的 Dashboard 好看又精准吗? 也许,是时候让 AI 来严肃地打一次分了。引言:当 AI 开始 “看图思考”在这个“数据驱动决策”的时代,图表早已不是“锦上添花”的装饰——它是传递复杂信
2026-02-04
Wiley高层访问中国市场:加速AI布局,助力人工智能驱动型研究的发展
Wiley高层访问中国市场:加速AI布局,助力人工智能驱动型研究的发展
近期,威立执行副总裁兼总经理Jay Flynn,威立高级副总裁兼学术出版全球负责人Liz Ferguson及威立高级副总裁兼首席营销官Anna Reeves到访中国市场,在威立北京办公室与威立全球副总
2026-02-04
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1