首页 > 计算机科学

GPT之父Alec Radford新作:从文档级到Token级,重塑大模型数据过滤范式

PaperWeekly 2026-01-31 14:44
文章摘要
本文探讨了在Scaling Law背景下,通过将预训练数据过滤粒度从文档级细化到Token级,以解决模型安全与能力平衡的问题。研究背景是传统文档级过滤在移除有害信息时容易误伤有用内容,导致模型通用能力下降。研究目的是验证Token级过滤在提升安全性的同时,能否更好地保留知识。结论表明,Token级过滤能实现高达7000倍的计算效率阻滞,增强模型对抗性鲁棒性,并意外提升拒绝能力,为数据工程提供了精细化治理的新范式。
GPT之父Alec Radford新作:从文档级到Token级,重塑大模型数据过滤范式
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
最新文章
GPT之父Alec Radford新作:从文档级到Token级,重塑大模型数据过滤范式
GPT之父Alec Radford新作:从文档级到Token级,重塑大模型数据过滤范式
Token 级数据清洗不仅更强,还能让攻击成本飙升 7000 倍。作为定义了 GPT-2 范式的核心人物,Alec Radford 曾向业界证明了数据规模的价值。在 2024 年离开 OpenAI 后
10小时前
告别黑盒!清华发布FaithLens,首创强可解释性的大模型幻觉检测利器
告别黑盒!清华发布FaithLens,首创强可解释性的大模型幻觉检测利器
近年来,大语言模型在检索增强生成(RAG)和文本摘要等任务中表现出惊人的潜力。然而,“忠实度幻觉”(Faithfulness Hallucination)——即模型生成的回复与其提供的参考文档不一致或
2026-01-30
2026开年新风向:上下文即Teacher,三文详解Self-Distillation新范式
2026开年新风向:上下文即Teacher,三文详解Self-Distillation新范式
2026 开年三文连发,大模型如何靠上下文实现自我进化?最近几天,MIT、ETH Zurich 和 UCLA 等团队,几乎在同一时间提交了关于 Self-Distillation 的重磅论文。虽然它们
2026-01-30
Rebutta还在手动查文献?Paper2Rebuttal一键生成有理有据的学术回复
Rebutta还在手动查文献?Paper2Rebuttal一键生成有理有据的学术回复
眼下 CVPR Rebuttal 马上截稿,ECCV 的投稿准备也该提上日程了。审稿人写道:“Your method lacks comparison with recent work XXX(202
2026-01-29
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1