最强多模态大模型在真实网页搜索中被人类碾压?GPT-5.2 仅获 36% 胜率,北大、华为等联合开源全新深度搜索基准BrowseComp-V3
机器学习算法与自然语言处理
2026-03-14 00:00
文章摘要
背景:多模态大语言模型(MLLMs)在接入互联网进行深度搜索时,面临真实开放环境中噪音与跨模态信息的挑战,现有基准在任务复杂度、信息可检索性和评估维度上存在局限。研究目的:北京大学等机构联合推出全新多模态深度搜索基准BrowseComp-V3和通用框架OmniSeeker,旨在系统评估多模态浏览智能体在复杂环境下的能力。结论:实验显示人类专家成功率(68.03%)远超当前最强模型GPT-5.2(36.17%),凸显模型在跨模态整合与长程推理上的不足;工具调用是关键,开源模型表现接近闭源模型;未来需加强跨模态信息深度整合与长程规划研究。
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。