AAAI'26 Oral:小样本对齐人类认知,LLM不再模仿答案
数据派THU
2026-02-04 17:00
文章摘要
本文介绍了一项名为GEM的研究,旨在解决大语言模型与人类偏好对齐时面临的数据效率低下问题,特别是在医疗等专业领域。传统方法依赖海量人工标注,而GEM框架从认知科学出发,利用人类偏好背后隐含的多维认知评估过程,通过熵引导的认知过滤模块提取高质量推理链,再经SEGA模块将熵评分转化为隐式奖励,形成闭环优化。实验表明,GEM在仅使用约十分之一数据的情况下,在通用和医学偏好基准上均超越传统方法,并能提升下游任务的推理质量、减少幻觉。该框架为低资源条件下的AI对齐提供了新思路,有潜力广泛应用于各类依赖少量标注的深度学习任务。
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。