比如,GPT-5.2-Codex采用的就是窗口内的原生上下文压缩技术,在持续数周的大型代码仓库协助任务中保持全上下文信息。 在复杂长文本任务中,RLM的优势也比较显著。面对要求聚合成对信息、复杂度呈二次方增长的OOLONG-Pairs任务,基础GPT ...
在 600 万至 1100 万 Token 规模的 BrowseComp-Plus(1K)多文档推理任务中,RLM(GPT-5)的正确率高达 91.33%,大幅超越其他长文本处理方案; ...
在人工智能领域,长文本处理一直是一个棘手的问题。近期,麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)提出了一种革命性的解决方案——递归语言模型(RLM),该方法能够使大模型在不改变其架构的情况下,处理超长文本,达到千万级token的处理能力。这一研究成果为GPT-5、Qwen-3等顶尖AI模型的推理能力注入了新的活力,开启了长文本处理的新篇章。
在AI领域,处理超长文本的挑战一直是一个备受关注的问题。麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)近期提出了一种名为递归语言模型(RLM)的新方法,能够在不改变现有大模型架构的情况下,显著提升其处理超长文本的能力。这一突破性研究为像GPT-5和Qwen-3这样的顶尖AI模型打开了新的大门,使其能够处理超过千万级的上下文,远超其原生上下文窗口的限制。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果