首页 > 计算机科学

刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相

学术头条 2025-09-11 12:11
文章摘要
背景:大语言模型(LLM)推理中存在不可复现性问题,即使温度参数设为0,相同输入也可能产生不同输出。研究目的:揭示LLM推理不确定性的根本原因,提出实现确定性推理的解决方案。结论:发现不确定性主要源于核函数缺乏批次不变性,而非传统的“并发+浮点”假设;通过实现RMSNorm、矩阵乘法和注意力机制的批次不变性,可确保LLM推理的确定性,这对强化学习等应用至关重要。
刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
最新文章
ICLR 2026 | 告别单一记忆粒度!MemGAS 让智能体不再“转头就忘”
ICLR 2026 | 告别单一记忆粒度!MemGAS 让智能体不再“转头就忘”
今天跟大家分享一篇来自中国科学技术大学、香港城市大学、华为诺亚方舟实验室、大连理工大学的论文,已被 ICLR 2026 接收。针对传统单粒度记忆建模难以建立跨会话、多层次关联,且容易出现关键信息检索不
2026-03-11
含「AI」量超 70%!蚂蚁集团 2026 春招全面启动
含「AI」量超 70%!蚂蚁集团 2026 春招全面启动
蚂蚁集团 2026 届春招现已全面开启本次释放超 70% AI 相关岗位聚焦大模型、多模态、智能体AI Infra 及具身智能等前沿方向想在春招投递中抢占先机?点击关注「蚂蚁集团招聘」公众号后台回复「
2026-03-11
首个Token为何沦为数值垃圾桶?LeCun团队解构大模型底层机制
首个Token为何沦为数值垃圾桶?LeCun团队解构大模型底层机制
学术界长期以为大值激活与 Attention Sink 强绑定,LeCun 团队打破了这一常识。在 Transformer 架构中,长期存在两个如影随形的内部计算现象:大值激活(Massive Act
2026-03-09
人大 × 字节团队破解muP理论分歧:用谱条件统一宽深Scaling
人大 × 字节团队破解muP理论分歧:用谱条件统一宽深Scaling
\u00A9作者 | 郑晨宇单位 | 中国人民大学研究方向 | 机器学习理论概要muP 由于其能够保持模型特征学习稳定、解锁超参迁移能力的优良特性,已经被广泛应用于大模型的宽度 scaling 之中。然而,相较
2026-03-09
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1