首页 > 计算机科学

NeurIPS 2025 | 当系统算法遇上机器学习:GUARD开启学习增强缓存新范式

PaperWeekly 2026-03-05 18:05
文章摘要
本文介绍了机器学习在系统算法中的应用,特别是学习增强缓存算法的发展。背景方面,机器学习正从传统推荐、分类等任务下沉到系统底层决策,如调度、缓存和负载均衡,但模型预测不准时可能导致系统性能下降甚至崩溃。研究目的旨在解决学习增强缓存算法在鲁棒性和一致性之间的平衡问题,提出GUARD框架,在不损害一致性的前提下提升算法鲁棒性,并保持低计算开销。结论显示,GUARD在合成噪声和真实预测器下均表现稳定,实现了预测准确时接近最优、误差大时与传统算法相当的平滑性能,为机器学习增强系统算法提供了可控、可靠的解决方案。
NeurIPS 2025 | 当系统算法遇上机器学习:GUARD开启学习增强缓存新范式
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
最新文章
NeurIPS 2025 | 当系统算法遇上机器学习:GUARD开启学习增强缓存新范式
NeurIPS 2025 | 当系统算法遇上机器学习:GUARD开启学习增强缓存新范式
过去几年,机器学习在系统领域的“下沉”非常明显:它不再只做单纯的推荐、内容分类、搜索排序,还开始直接参与系统里的底层决策,例如基于 ML 模型的调度算法、缓存算法、负载均衡算法等。同时,ML for
17小时前
Mamba作者再发神作:套娃式加速解码SSD,突破vLLM/SGLang极限
Mamba作者再发神作:套娃式加速解码SSD,突破vLLM/SGLang极限
当大模型还在验证,小模型已算好下一步。全异步架构彻底终结解码串行等待。大模型推理的核心瓶颈长期在于自回归解码的串行本质。投机解码(Speculative Decoding, SD)通过引入一个轻量级的
17小时前
一句话生成LoRA、长文档瞬间内化:大模型更新成本还能这样摊销?
一句话生成LoRA、长文档瞬间内化:大模型更新成本还能这样摊销?
显存暴降至 50MB!Sakana AI 提出更新成本摊销,打破长文本 KV-Cache 瓶颈。面对十万乃至百万级别的超长序列输入,Transformer 架构中呈二次方增长的注意力计算与 KV-Ca
2026-03-04
通义开源Mobile-Agent-v3.5:面向多端自动化操作,20+榜单实现SOTA
通义开源Mobile-Agent-v3.5:面向多端自动化操作,20+榜单实现SOTA
拒绝原地打转!通义实验室开源多端 GUI 基座,会反思、能调用工具,让 Agent 真正把活干完。说起 GUI Agent,最尴尬的时刻大概不是它点错按钮,而是它一本正经地操作了半天,最后把你带回了原
2026-03-03
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1