首页 > 计算机科学

比二维码还小!Meta发布TinyLoRA:13个参数媲美全量,RL完胜SFT

PaperWeekly 2026-02-06 21:19
文章摘要
背景:大型语言模型微调通常需要调整大量参数,LoRA等方法虽减少了参数量,但Meta等机构的研究认为仍有压缩空间。研究目的:探索在强化学习框架下,使用极少数参数(如13个)微调大模型(如Qwen2.5-7B-Instruct)以激活其数学推理能力的极限。结论:提出的TinyLoRA方法通过将矩阵替换为低维向量、跨层全共享参数等激进策略,将参数复杂度降至极低;在GSM8K等数学任务上,仅用13个参数(26字节)结合GRPO强化学习算法,性能逼近全量微调,准确率从76%提升至91%,显著优于监督微调(SFT);研究还发现模型越大,达到特定性能所需更新参数越少,支持了微调是“能力激活”而非“知识注入”的假说,为边缘计算的微型补丁和训练范式从SFT转向RL提供了启示。
比二维码还小!Meta发布TinyLoRA:13个参数媲美全量,RL完胜SFT
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
最新文章
@工程探索者:邀你做一个前瞻性的预测,赢Wiley定制好礼!
@工程探索者:邀你做一个前瞻性的预测,赢Wiley定制好礼!
新学期伊始,2026 年也已悄然进入第三个月。我们想邀请你——走在科研最前线的探索者,来做一个前瞻性的预测:2026年,工程领域哪个细分方向最有可能迎来新的突破与关注?在科研不断演进的进程中,研究热点
2026-03-16
AI太难学?清华开源一批「学习虾」,免费的AI私教团来了
AI太难学?清华开源一批「学习虾」,免费的AI私教团来了
「龙虾养殖潮」风靡大街小巷,已成为一门社交语言。但对非技术的小白们来说,如何更快学习使用龙虾(OpenClaw)、更好地「吃」上龙虾的红利呢?我们先来看一个动图:在上述动图中,AI 应用知名 KOL
2026-03-16
养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了
养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了
一行指令,全自动查文献、跑实验并交付论文初稿。前两天分享的 ARIS 让大家看到了让 AI 自动调代码跑实验的潜力,效果确实惊艳。今天来看个更进阶的:发一条消息,收一篇完整论文。相较于单纯依赖大模型生
2026-03-15
ICLR 2026 | 无需训练跨界泛化,UniOD用单一模型打通全领域异常检测
ICLR 2026 | 无需训练跨界泛化,UniOD用单一模型打通全领域异常检测
TL;DR:本研究提出了一种可跨不同领域、适用于特征维度各异且特征空间异构的数据集的异常检测通用模型。论文标题:UniOD: A Universal Model for Outlier Detecti
2026-03-13
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1