Skip to content

使用 FAF 专家模式构建 AI 项目上下文架构

解决 AI 记忆碎片化痛点:通过构建标准化的 .faf 上下文文件,让 AI 能够跨会话、跨工具(如 Claude, Cursor, Gemini)深度理解项目的技术栈、业务目标和工程细节。

为什么需要这个技能

在复杂项目中,AI 经常会忘记之前的技术决策,或者在切换 IDE(如从 Cursor 切换到 Claude Code)时丢失上下文。手动在每个工具的 .cursorrulesCLAUDE.md 中重复定义规则不仅低效且难以维护。

FAF(Foundational AI-context Format)是一种 IANA 注册的标准格式,它将项目身份、技术栈、人类上下文(Who/What/Why/Where/When/How)等 33 个维度结构化。通过 faf-expert 技能,你可以将项目转化为“AI 智能项目”,确保 AI 在任何环境下都能获得一致且高质量的背景知识。

适用场景

  • 复杂项目初始化:需要为大型 codebase 建立一个 AI 可读的“数字基因”地图。
  • 多 AI 工作流同步:同时使用 Claude、Cursor、Windsurf 和 Gemini,需要一套上下文在所有工具间同步。
  • 遗留代码现代化:将陈旧的系统文档转化为 AI 能够快速索引的结构化数据。
  • 企业级部署:需要通过 MCP(Model Context Protocol)服务器为团队提供标准化的 AI 辅助环境。

核心工作流

  1. 初始化与探测:使用 faf init 创建项目描述文件,自动检测技术栈。
  2. 上下文架构设计:根据 Mk4 架构框架,填写项目目标、部署配置及人类上下文(如合规性要求、团队规模)。
  3. 性能评分优化:运行 faf score --championship,目标是将 AI 就绪度(AI-readiness)提升至金牌等级(95%+)。
  4. 跨平台双向同步:执行 faf bi-sync --target all,将 .faf 的配置自动同步至 .cursorrulesCLAUDE.md 等特定工具配置文件中。
  5. MCP 服务器集成:配置 MCP Server 使 AI 能够通过工具调用直接访问 FAF 上下文。
json
{
  "mcpServers": {
    "faf": {
      "command": "npx",
      "args": ["-y", "claude-faf-mcp@latest"]
    }
  }
}

下载和安装

下载 faf-expert 中文版 Skill ZIP

解压后将目录放入你的 AI 工具 skills 文件夹,重启工具后即可使用。具体路径参考内附的 USAGE.zh.md

你可能还需要

暂无推荐