首页 > 综合性期刊

神经形态脉冲大语言模型(NSLLM)| 李国齐、徐波等NSR

知社学术圈 2025-12-22 11:29
文章摘要
背景:大型语言模型(LLMs)是实现人工通用智能的关键工具,但其部署面临高计算内存成本和缺乏可解释性的挑战,限制了在医疗、金融等高风险领域的可靠应用。研究目的:为提升LLMs的能效和可解释性,中国科学院自动化研究所李国齐、徐波团队提出神经形态脉冲大语言模型(NSLLM),通过借鉴人脑的神经科学原理,构建一个跨学科统一框架,将传统LLMs转化为脉冲格式,以链接神经科学与大模型。结论:NSLLM通过整数脉冲计数-二值脉冲转换和脉冲线性注意力机制,在FPGA平台上定制了无矩阵乘法计算架构,显著降低了动态功耗并提升了吞吐量,同时通过神经动力学分析增强了模型的可解释性,在常识推理等任务中保持了与主流模型相当的性能,为高效AI和下一代神经形态芯片设计提供了新方向。
神经形态脉冲大语言模型(NSLLM)| 李国齐、徐波等NSR
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1