神经形态脉冲大语言模型(NSLLM)| 李国齐、徐波等NSR
知社学术圈
2025-12-22 11:29
文章摘要
背景:大型语言模型(LLMs)是实现人工通用智能的关键工具,但其部署面临高计算内存成本和缺乏可解释性的挑战,限制了在医疗、金融等高风险领域的可靠应用。研究目的:为提升LLMs的能效和可解释性,中国科学院自动化研究所李国齐、徐波团队提出神经形态脉冲大语言模型(NSLLM),通过借鉴人脑的神经科学原理,构建一个跨学科统一框架,将传统LLMs转化为脉冲格式,以链接神经科学与大模型。结论:NSLLM通过整数脉冲计数-二值脉冲转换和脉冲线性注意力机制,在FPGA平台上定制了无矩阵乘法计算架构,显著降低了动态功耗并提升了吞吐量,同时通过神经动力学分析增强了模型的可解释性,在常识推理等任务中保持了与主流模型相当的性能,为高效AI和下一代神经形态芯片设计提供了新方向。
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。