Nat Neurosci:脑机智能全国重点实验室丁鼐团队揭示大脑语言预测的最新神经机制
brainnews
2026-05-08 15:11
文章摘要
背景:大语言模型通过预测下一个词来实现高效的语言处理,但其高能耗和大量训练样本需求与人类大脑的低功耗语言处理方式形成鲜明对比。研究目的:探究人类在语言理解过程中是否像大语言模型一样对每个即将到来的词进行精确预测,并揭示大脑如何在预测精度和认知效率之间取得平衡。结论:丁鼐团队在Nature Neuroscience上发表的研究提出了“成分受限预测假说”,指出大脑会将词汇压缩成更大的句法成分(如短语或句子),在成分边界处放弃精确预测以整理记忆,而在成分内部则进行较准确的预测。通过脑磁图(MEG)、行为测试和脑皮层电图(ECoG)等多种实验验证,该假说得到支持。研究还发现边界确定性越高或更高层级语言结构存在时,约束效应越强。该成果挑战了“预测是语言系统唯一计算目标”的观点,提出在有限认知资源下最大化理解效率的新框架,并开发了相应计算模型。
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。