首页 > 计算机科学

2026开年新风向:上下文即Teacher,三文详解Self-Distillation新范式

PaperWeekly 2026-01-30 17:06
文章摘要
本文围绕2026年初MIT、ETH Zurich和UCLA等团队提出的基于上下文的自我蒸馏新范式展开。背景方面,传统知识蒸馏依赖外部强模型作为教师,而新范式利用推理时的额外上下文构建更强的“自我”作为教师。研究目的上,三篇论文分别针对持续学习中的灾难性遗忘、强化学习中的稀疏奖励分配以及复杂推理中的训练-推理分布偏移问题,探索通过上下文构建自我教师以提升模型性能。结论显示,SDFT在持续学习中有效克服遗忘,SDPO在代码生成中利用反馈实现密集监督,OPSD在数学推理中通过答案引导提升效率,共同证明了上下文自我蒸馏在多个领域的有效性和性价比。
2026开年新风向:上下文即Teacher,三文详解Self-Distillation新范式
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
最新文章
告别黑盒!清华发布FaithLens,首创强可解释性的大模型幻觉检测利器
告别黑盒!清华发布FaithLens,首创强可解释性的大模型幻觉检测利器
近年来,大语言模型在检索增强生成(RAG)和文本摘要等任务中表现出惊人的潜力。然而,“忠实度幻觉”(Faithfulness Hallucination)——即模型生成的回复与其提供的参考文档不一致或
10小时前
2026开年新风向:上下文即Teacher,三文详解Self-Distillation新范式
2026开年新风向:上下文即Teacher,三文详解Self-Distillation新范式
2026 开年三文连发,大模型如何靠上下文实现自我进化?最近几天,MIT、ETH Zurich 和 UCLA 等团队,几乎在同一时间提交了关于 Self-Distillation 的重磅论文。虽然它们
10小时前
Rebutta还在手动查文献?Paper2Rebuttal一键生成有理有据的学术回复
Rebutta还在手动查文献?Paper2Rebuttal一键生成有理有据的学术回复
眼下 CVPR Rebuttal 马上截稿,ECCV 的投稿准备也该提上日程了。审稿人写道:“Your method lacks comparison with recent work XXX(202
2026-01-29
破案实锤!Qwen用假信号也能拿高分?虚假的RLVR如何激活隐藏记忆回路?
破案实锤!Qwen用假信号也能拿高分?虚假的RLVR如何激活隐藏记忆回路?
无需真实奖励,哪怕用随机、错误的信号进行训练,大模型准确率也能大幅提升?此前,学术界已经发现了一个令人困惑的现象:像 Qwen2.5 这样的模型,即使在 RLVR(带验证奖励的强化学习)过程中给予虚假
2026-01-28
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1