Skip to content

GitHub Copilot Chat 从 2024 年起支持多模型切换,用户可以在 GPT-4o、Claude Sonnet、Gemini Pro 等模型之间随时切换。不同模型消耗的 Premium 请求额度不同,免费用户需要特别注意用量。本页说明各平台的切换方法和使用注意事项。

GitHub Copilot Chat 切换 AI 模型:GPT-4o、Claude Sonnet、Gemini Pro 如何选

支持切换的模型

GitHub Copilot Chat 不再绑定单一模型,目前支持来自 OpenAI、Anthropic(Claude)、Google(Gemini)等厂商的多个模型。

企业注意事项:Copilot Business 用户的模型切换权限由管理员控制,需要管理员在 GitHub 企业设置中开启"允许成员切换 AI 模型"才能自行切换。

各客户端的切换方法

VS Code

  1. 打开 Copilot Chat 面板
  2. 在输入框上方找到当前模型名称(如 GPT-4o
  3. 点击模型名称打开下拉列表
  4. 选择目标模型

VS Code 还有一个特殊选项:Auto(自动)——选择后,Copilot 会根据请求类型和当前用量自动选择最合适的模型,有助于减少触及速率限制。

添加更多模型:VS Code 支持通过配置添加来自 Anthropic、Google 等厂商 API 的自定义模型。点击下拉列表底部的"Add models",或安装 AI Toolkit 扩展来管理更多模型。

JetBrains

同样在 Chat 面板的顶部找到模型切换下拉框,选择目标模型。

GitHub 网站

在 github.com 上的 Copilot Chat,同样支持切换模型,入口在 Chat 界面顶部的模型选择器。

GitHub Mobile

目前模型切换功能以 VS Code 和网页端为主,Mobile 端功能有限,以默认模型为主。

Premium 请求与用量计费

切换到高端模型会消耗更多 Premium 请求(premium requests)

模型类型请求倍率(示意)
标准模型(如 GPT-4o mini)
高端模型(如 GPT-4o、Claude Sonnet)较高倍率
顶级模型(如 o1、Claude Opus)最高倍率

具体倍率以 GitHub 官方说明为准,各模型的精确消耗倍率可在 模型对比页面 查看。

Copilot Free 用户:每月 Premium 请求有上限,超出后将被限流到基础模型或停止服务,建议优先使用 Auto 模式避免超额。

Copilot Pro+ 用户:享有更高的高端模型请求额度,适合重度使用 Claude Opus、o1 等模型的场景。

注意事项

模型切换不影响 inline suggestions

切换 Chat 模型只影响 Copilot Chat,IDE 里的内联代码补全(inline suggestions)使用独立的模型配置,不受 Chat 模型选择影响。如需切换内联补全的模型,见 更改内联建议的 AI 模型

Copilot Extensions 可能覆盖模型选择

如果你安装了第三方 Copilot Extensions,扩展可能会强制使用特定模型,忽略你的手动选择。这是扩展本身的设计行为,不是 bug。

预发布模型的限制

Copilot 有时会提供实验性的预发布模型(pre-release)。这些模型:

  • 可能不支持"公开代码匹配过滤"功能
  • 行为不稳定,随时可能下线
  • 适合提前体验新能力,不建议生产环境依赖

如何选择模型

对于中国开发者的日常使用建议:

场景推荐模型
日常代码补全和解释Auto(让 Copilot 自动选)
复杂架构讨论GPT-4o 或 Claude Sonnet
需要深度推理的难题o1 或 Claude Opus(注意用量消耗)
代码审查和 PR 分析Claude Sonnet(文本分析能力强)
限额告急时手动切回标准模型

常见问题

Q: 我切换到 Claude Sonnet 后,会话速度变慢了,是正常的吗?

A: 高端模型通常比基础模型响应时间略长,这是正常现象。Claude 的 Sonnet 系列在长文本理解上表现好,但首 token 延迟可能比 GPT-4o 高一些。如果需要快速响应,可以切回标准模型或使用 Auto 模式。

Q: Copilot Business 的管理员在哪里开启模型切换权限?

A: GitHub Enterprise 管理员进入 GitHub 企业管理控制台 → 设置 → Copilot → 找到"Model switching"相关选项开启。

Q: 这些模型和我直接使用 Claude API 或 OpenAI API 有什么区别?

A: 通过 Copilot 使用这些模型时,GitHub 封装了鉴权和代码上下文注入,但部分高级 API 参数(如 temperature、system prompt 自定义等)不对外暴露。如果需要完全控制模型参数,还是需要直接调用各厂商的 API。