LangChain发布Deep Agents SDK新工具 解决AI上下文退化问题
LangChain推出开源上下文管理功能
LangChain发布了Deep Agents SDK的开源上下文管理功能,解决了AI在长时间运行任务中的性能下降问题。
LangChain为其Deep Agents SDK发布了一套上下文压缩功能,旨在解决随着AI代理处理更长、更复杂的任务而变得日益严重的问题:上下文退化。
为什么上下文管理现在很重要
最近的研究证实了一个反直觉的事实:给大型语言模型(LLM)更多的上下文往往使其表现变得更糟。Chroma Research在2025年7月发表的研究表明,即使对于简单任务,模型准确率也会随着输入长度的增长而持续下降。这种现象被称为“上下文退化”,与那些号称拥有百万标记上下文窗口的模型宣传背道而驰。
在代理系统中,这个问题更为复杂。当AI代理处理多步骤任务时,其上下文窗口会积累工具输出、文件内容和对话历史。关键指令被埋没,代理的决策开始偏离。标准基准测试如“大海捞针”完全忽略了这一点,因为它们测试的是简单的检索,而不是扩展自主操作的混乱现实。
三层压缩策略
Deep Agents通过不同阈值的压缩触发器来解决这一问题:
大工具结果立即卸载。 当任何工具响应超过20,000个标记时(例如,读取一个巨大的文件或提取API数据),SDK会将其写入文件系统,并用带有10行预览的文件路径引用替代。代理可以根据需要进行搜索或重新阅读。
工具输入在达到85%容量时被修剪。 文件写入和编辑操作会在对话历史中留下完整的文件内容。由于这些内容已经存在于磁盘上,因此是冗余的。一旦上下文达到模型窗口的85%,较旧的工具调用将被截断并替换为文件系统指针。
当卸载不足以解决问题时,摘要功能启动。 一个LLM生成结构化摘要——会话意图、创建的工件、下一步骤——以替代完整的对话历史。原始消息作为规范记录保存在文件系统中。
测试真正会破坏的内容
LangChain团队的评估方法值得注意,特别是对构建类似系统的人员。他们不仅仅依赖广泛的基准测试,而是通过对压缩进行比正常情况更积极的触发(在上下文的10-20%处而不是85%)来压力测试各个功能。
这产生了足够的压缩事件以实际比较不同的方法。一个发现是:在摘要提示中添加专门的“会话意图”和“下一步骤”字段,在压缩后显著提高了性能。
他们还针对特定使用案例运行了有针对性的“大海捞针”测试——在对话早期嵌入关键事实,强制进行摘要,然后检查代理是否可以通过文件系统搜索恢复该事实。最危险的故障模式不是明显的崩溃;而是一个代理微妙地失去了对用户原始意图的跟踪,要么要求不必要的澄清,要么过早宣布胜利。
这对开发人员意味着什么
此次发布反映了行业对上下文窗口思考方式的广泛转变。向更大窗口的竞争(Gemini的百万标记,Claude的200K)不如智能上下文管理重要。正如Chroma研究所指出的:目标是“最小的高信号标记集合”,而不是最大填充。
对于构建自主代理的团队——无论是用于代码生成、研究任务还是工作流自动化——上下文管理基础设施正成为基本要求。Deep Agents SDK已在GitHub上提供,所有压缩功能均开源。






