首页 > 计算机科学

强化学习之父:大语言模型是一个错误的起点

学术头条 2025-09-28 16:17
文章摘要
背景:强化学习之父Richard Sutton在访谈中批评大语言模型的发展方向,认为其偏离了智能的本质。研究目的:探讨大语言模型作为人工智能起点的局限性,强调经验学习在实现真正智能中的核心地位。结论:Sutton指出大语言模型缺乏目标驱动和对外部世界的预测能力,主张从强化学习的经验学习出发构建可扩展的智能系统,并认为依赖人类知识的路径终将被纯经验学习系统超越。
强化学习之父:大语言模型是一个错误的起点
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
最新文章
ICLR 2026 | 告别单一记忆粒度!MemGAS 让智能体不再“转头就忘”
ICLR 2026 | 告别单一记忆粒度!MemGAS 让智能体不再“转头就忘”
今天跟大家分享一篇来自中国科学技术大学、香港城市大学、华为诺亚方舟实验室、大连理工大学的论文,已被 ICLR 2026 接收。针对传统单粒度记忆建模难以建立跨会话、多层次关联,且容易出现关键信息检索不
2026-03-11
含「AI」量超 70%!蚂蚁集团 2026 春招全面启动
含「AI」量超 70%!蚂蚁集团 2026 春招全面启动
蚂蚁集团 2026 届春招现已全面开启本次释放超 70% AI 相关岗位聚焦大模型、多模态、智能体AI Infra 及具身智能等前沿方向想在春招投递中抢占先机?点击关注「蚂蚁集团招聘」公众号后台回复「
2026-03-11
首个Token为何沦为数值垃圾桶?LeCun团队解构大模型底层机制
首个Token为何沦为数值垃圾桶?LeCun团队解构大模型底层机制
学术界长期以为大值激活与 Attention Sink 强绑定,LeCun 团队打破了这一常识。在 Transformer 架构中,长期存在两个如影随形的内部计算现象:大值激活(Massive Act
2026-03-09
人大 × 字节团队破解muP理论分歧:用谱条件统一宽深Scaling
人大 × 字节团队破解muP理论分歧:用谱条件统一宽深Scaling
\u00A9作者 | 郑晨宇单位 | 中国人民大学研究方向 | 机器学习理论概要muP 由于其能够保持模型特征学习稳定、解锁超参迁移能力的优良特性,已经被广泛应用于大模型的宽度 scaling 之中。然而,相较
2026-03-09
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1