Appearance
如何利用 AI 自动化提取结构化领域知识库
解决 AI 对话碎片化问题:通过 bdistill 将 AI 的会话能力转化为可累积的知识库,自动将领域问答结构化并量化评分,生成可用于研究或传统机器学习的参考数据集。
为什么需要这个技能
在与 AI 探讨专业领域(如医疗、法律、金融、网络安全)时,有价值的信息往往分散在数次对话中。如果仅靠手动复制粘贴,难以形成系统化的知识体系。
bdistill 提供了一种“知识蒸馏”机制,它不仅能将 AI 的回答结构化,还能通过“对抗模式(Adversarial mode)”挑战 AI 的主张,强制其提供证据并承认局限性,从而产出经过验证的高质量知识条目,而非简单的聊天记录。
适用场景
- 构建领域参考库:需要针对特定专业领域建立可搜索、可导出的 Q&A 数据集。
- 传统 ML 训练集准备:为回归或分类等传统机器学习模型生成结构化的训练数据(而非用于训练大模型)。
- 跨模型对比分析:对比不同 AI 模型在同一专业知识点上的回答质量与置信度。
- 本地私有知识提取:通过 Ollama 调用本地开源模型,在完全离线环境下提取知识。
核心工作流
1. 环境安装
bash
pip install bdistill
claude mcp add bdistill -- bdistill-mcp # 适用于 Claude Code2. 执行知识提取
支持预设领域、自定义词条以及对抗性验证:
/distill medical cardiology # 提取心脏病学预设领域知识
/distill --custom kubernetes docker helm # 提取自定义词条知识
/distill --adversarial medical # 开启对抗模式验证医疗知识3. 知识管理与导出
提取后的知识可进行搜索并导出为多种格式:
bash
bdistill kb list # 列出所有知识域
bdistill kb search "atrial fibrillation" # 关键词搜索
bdistill kb export -d medical -f csv # 导出为 CSV 表格
bdistill kb export -d medical -f markdown # 导出为 Markdown 文档4. 本地模型提取 (Ollama)
对于需要本地化运行的场景:
bash
# 安装并运行 Ollama
ollama serve
ollama pull qwen3:4b
# 使用 bdistill 提取本地模型知识
bdistill extract --domain medical --model qwen3:4b下载和安装
下载 bdistill-knowledge-extraction 中文版 Skill ZIP
解压后将目录放入你的 AI 工具 skills 文件夹,重启工具后即可使用。具体路径参考内附的 USAGE.zh.md。
你可能还需要
暂无推荐