Skip to content

利用文件系统优化 AI 的上下文管理(Context Engineering)

解决 AI 上下文窗口有限且易被冗余信息填满的痛点:通过将文件系统作为“外部存储”,让 AI 按需加载相关信息,而非在对话中携带所有数据。

为什么需要这个技能

在复杂的开发或研究任务中,AI 经常面临两个极端问题:一是上下文窗口不足,导致早期的指令或关键信息被截断;二是工具输出(如大规模搜索结果、数据库查询)过大,迅速撑爆 Token 限制,导致 AI 反应迟钝或丢失重点。

本技能的核心理念是将文件系统作为 AI 的“动态内存”。通过将大体积数据、长期计划和跨代理信息存储在文件中,AI 可以在需要时通过 greplsread_file 精准检索,实现“按需加载”,从而在保持高性能的同时处理海量信息。

适用场景

  • 处理大体积输出:当 Web 搜索或日志分析返回数千个 Token 时,将其写入文件而非直接返回给 AI。
  • 长程任务追踪:需要 AI 在多轮对话中严格执行复杂计划,通过维护一个 plan.yaml 文件来防止目标偏移。
  • 多 Agent 协作:多个子代理通过共享文件空间传递成果,避免繁琐且易失真的消息传递链。
  • 动态技能加载:拥有大量指令集,但每项任务只需其中一部分,通过文件存储仅在需要时加载特定 Skill。
  • 自我进化学习:让 AI 将用户的偏好或学到的新知识写入持久化配置文件,在后续会话中自动加载。

核心工作流

1. 临时暂存区(Scratch Pad)模式

当工具输出超过阈值(如 2000 Tokens)时,不将其直接放入对话历史,而是执行以下操作:

  • 将全文写入 scratch/output_{timestamp}.txt
  • 仅向 AI 返回该文件的路径及一个简短的摘要。
  • AI 根据需要使用 grep 搜索特定关键词或读取特定行号。

2. 计划持久化(Plan Persistence)模式

创建结构化的状态文件(如 YAML 格式),记录任务目标、当前进度和待办事项。AI 在每轮对话开始或迷茫时重新读取此文件,确保执行路径不偏差。

3. 动态上下文发现流程

  • 静态上下文:仅保留核心指令和文件目录索引。
  • 动态加载:AI 根据当前任务需求 识别所需文件 使用 read_file 加载具体内容 执行任务。

下载和安装

下载 filesystem-context 中文版 Skill ZIP

解压后将目录放入你的 AI 工具 skills 文件夹,重启工具后即可使用。具体路径参考内附的 USAGE.zh.md

你可能还需要

暂无推荐