Skip to content

使用 Azure AI Foundry 构建持久化 AI Agent

解决 AI 助手缺乏状态记忆和复杂工具集成的问题:利用 Azure AI Agent Service 实现对话线程持久化,并快速集成代码解释器、网页搜索及 MCP 协议工具。

为什么需要这个技能

在构建企业级 AI 应用时,简单的 Stateless(无状态)对话无法满足复杂业务需求。开发者通常面临三个痛点:一是对话历史管理繁琐,需要手动维护数据库;二是集成外部工具(如实时搜索、代码执行)开发成本高;三是输出结果不稳定,难以直接用于下游系统。

通过 agent-framework-azure-ai-py,你可以直接在 Azure AI Foundry 上创建持久化 Agent。它将对话状态(Thread)托管在云端,并提供开箱即用的托管工具(Hosted Tools),让开发者能够专注于 Agent 的逻辑编排而非基础设施的搭建。

适用场景

  • 企业级知识库助手:利用 HostedFileSearchTool 实现基于自有文档的 RAG 问答。
  • 数据分析机器人:集成 HostedCodeInterpreterTool 自动编写并执行 Python 代码进行数据处理。
  • 实时信息研究员:结合 HostedWebSearchTool(Bing 搜索)获取最新网络信息。
  • 复杂工作流自动化:通过 MCP(Model Context Protocol)协议连接本地或远程服务。

核心工作流

1. 环境准备与安装

安装框架及 Azure 专用包:

bash
pip install agent-framework --pre
pip install agent-framework-azure-ai --pre

配置必要的环境变量,包括项目端点、模型部署名称及 Bing 连接 ID。

2. 构建 Agent 核心逻辑

  • 定义工具:可以直接传递 Python 函数(使用 AnnotatedField 定义参数描述),或使用 SDK 提供的托管工具类。
  • 创建 Provider:使用 AzureAIAgentsProvider 异步管理 Agent 的生命周期。
  • 管理会话线程:通过 agent.get_new_thread() 创建对话线程,确保多次请求之间上下文一致。
  • 处理输出:支持普通文本、流式响应(Streaming)以及基于 Pydantic 的结构化输出(Structured Outputs)。

3. 执行与交互

通过 agent.run()agent.run_stream() 发起请求。若需维持对话状态,必须在调用时传入 thread 参数。

下载和安装

下载 agent-framework-azure-ai-py 中文版 Skill ZIP

解压后将目录放入你的 AI 工具 skills 文件夹,重启工具后即可使用。具体路径参考内附的 USAGE.zh.md

你可能还需要

暂无推荐