Appearance
GitHub Copilot Chat 从 2024 年起支持多模型切换,用户可以在 GPT-4o、Claude Sonnet、Gemini Pro 等模型之间随时切换。不同模型消耗的 Premium 请求额度不同,免费用户需要特别注意用量。本页说明各平台的切换方法和使用注意事项。
GitHub Copilot Chat 切换 AI 模型:GPT-4o、Claude Sonnet、Gemini Pro 如何选
支持切换的模型
GitHub Copilot Chat 不再绑定单一模型,目前支持来自 OpenAI、Anthropic(Claude)、Google(Gemini)等厂商的多个模型。
企业注意事项:Copilot Business 用户的模型切换权限由管理员控制,需要管理员在 GitHub 企业设置中开启"允许成员切换 AI 模型"才能自行切换。
各客户端的切换方法
VS Code
- 打开 Copilot Chat 面板
- 在输入框上方找到当前模型名称(如 GPT-4o)
- 点击模型名称打开下拉列表
- 选择目标模型
VS Code 还有一个特殊选项:Auto(自动)——选择后,Copilot 会根据请求类型和当前用量自动选择最合适的模型,有助于减少触及速率限制。
添加更多模型:VS Code 支持通过配置添加来自 Anthropic、Google 等厂商 API 的自定义模型。点击下拉列表底部的"Add models",或安装 AI Toolkit 扩展来管理更多模型。
JetBrains
同样在 Chat 面板的顶部找到模型切换下拉框,选择目标模型。
GitHub 网站
在 github.com 上的 Copilot Chat,同样支持切换模型,入口在 Chat 界面顶部的模型选择器。
GitHub Mobile
目前模型切换功能以 VS Code 和网页端为主,Mobile 端功能有限,以默认模型为主。
Premium 请求与用量计费
切换到高端模型会消耗更多 Premium 请求(premium requests):
| 模型类型 | 请求倍率(示意) |
|---|---|
| 标准模型(如 GPT-4o mini) | 1× |
| 高端模型(如 GPT-4o、Claude Sonnet) | 较高倍率 |
| 顶级模型(如 o1、Claude Opus) | 最高倍率 |
具体倍率以 GitHub 官方说明为准,各模型的精确消耗倍率可在 模型对比页面 查看。
Copilot Free 用户:每月 Premium 请求有上限,超出后将被限流到基础模型或停止服务,建议优先使用 Auto 模式避免超额。
Copilot Pro+ 用户:享有更高的高端模型请求额度,适合重度使用 Claude Opus、o1 等模型的场景。
注意事项
模型切换不影响 inline suggestions
切换 Chat 模型只影响 Copilot Chat,IDE 里的内联代码补全(inline suggestions)使用独立的模型配置,不受 Chat 模型选择影响。如需切换内联补全的模型,见 更改内联建议的 AI 模型。
Copilot Extensions 可能覆盖模型选择
如果你安装了第三方 Copilot Extensions,扩展可能会强制使用特定模型,忽略你的手动选择。这是扩展本身的设计行为,不是 bug。
预发布模型的限制
Copilot 有时会提供实验性的预发布模型(pre-release)。这些模型:
- 可能不支持"公开代码匹配过滤"功能
- 行为不稳定,随时可能下线
- 适合提前体验新能力,不建议生产环境依赖
如何选择模型
对于中国开发者的日常使用建议:
| 场景 | 推荐模型 |
|---|---|
| 日常代码补全和解释 | Auto(让 Copilot 自动选) |
| 复杂架构讨论 | GPT-4o 或 Claude Sonnet |
| 需要深度推理的难题 | o1 或 Claude Opus(注意用量消耗) |
| 代码审查和 PR 分析 | Claude Sonnet(文本分析能力强) |
| 限额告急时 | 手动切回标准模型 |
常见问题
Q: 我切换到 Claude Sonnet 后,会话速度变慢了,是正常的吗?
A: 高端模型通常比基础模型响应时间略长,这是正常现象。Claude 的 Sonnet 系列在长文本理解上表现好,但首 token 延迟可能比 GPT-4o 高一些。如果需要快速响应,可以切回标准模型或使用 Auto 模式。
Q: Copilot Business 的管理员在哪里开启模型切换权限?
A: GitHub Enterprise 管理员进入 GitHub 企业管理控制台 → 设置 → Copilot → 找到"Model switching"相关选项开启。
Q: 这些模型和我直接使用 Claude API 或 OpenAI API 有什么区别?
A: 通过 Copilot 使用这些模型时,GitHub 封装了鉴权和代码上下文注入,但部分高级 API 参数(如 temperature、system prompt 自定义等)不对外暴露。如果需要完全控制模型参数,还是需要直接调用各厂商的 API。