Appearance
利用文件系统优化 AI 的上下文管理(Context Engineering)
解决 AI 上下文窗口有限且易被冗余信息填满的痛点:通过将文件系统作为“外部存储”,让 AI 按需加载相关信息,而非在对话中携带所有数据。
为什么需要这个技能
在复杂的开发或研究任务中,AI 经常面临两个极端问题:一是上下文窗口不足,导致早期的指令或关键信息被截断;二是工具输出(如大规模搜索结果、数据库查询)过大,迅速撑爆 Token 限制,导致 AI 反应迟钝或丢失重点。
本技能的核心理念是将文件系统作为 AI 的“动态内存”。通过将大体积数据、长期计划和跨代理信息存储在文件中,AI 可以在需要时通过 grep、ls 或 read_file 精准检索,实现“按需加载”,从而在保持高性能的同时处理海量信息。
适用场景
- 处理大体积输出:当 Web 搜索或日志分析返回数千个 Token 时,将其写入文件而非直接返回给 AI。
- 长程任务追踪:需要 AI 在多轮对话中严格执行复杂计划,通过维护一个
plan.yaml文件来防止目标偏移。 - 多 Agent 协作:多个子代理通过共享文件空间传递成果,避免繁琐且易失真的消息传递链。
- 动态技能加载:拥有大量指令集,但每项任务只需其中一部分,通过文件存储仅在需要时加载特定 Skill。
- 自我进化学习:让 AI 将用户的偏好或学到的新知识写入持久化配置文件,在后续会话中自动加载。
核心工作流
1. 临时暂存区(Scratch Pad)模式
当工具输出超过阈值(如 2000 Tokens)时,不将其直接放入对话历史,而是执行以下操作:
- 将全文写入
scratch/output_{timestamp}.txt。 - 仅向 AI 返回该文件的路径及一个简短的摘要。
- AI 根据需要使用
grep搜索特定关键词或读取特定行号。
2. 计划持久化(Plan Persistence)模式
创建结构化的状态文件(如 YAML 格式),记录任务目标、当前进度和待办事项。AI 在每轮对话开始或迷茫时重新读取此文件,确保执行路径不偏差。
3. 动态上下文发现流程
- 静态上下文:仅保留核心指令和文件目录索引。
- 动态加载:AI 根据当前任务需求 识别所需文件 使用
read_file加载具体内容 执行任务。
下载和安装
下载 filesystem-context 中文版 Skill ZIP
解压后将目录放入你的 AI 工具 skills 文件夹,重启工具后即可使用。具体路径参考内附的 USAGE.zh.md。
你可能还需要
暂无推荐