Skip to content

OpenCode Go 是一个低成本订阅计划,首月 $5、此后 $10/月,为开发者提供对精选开源编码模型的稳定、低延迟访问。模型由 OpenCode 团队严格测试和基准测试,托管在美国、欧盟和新加坡,不存储用户数据。

OpenCode Go 是一个低成本订阅服务——首月 $5,此后 $10/月——提供对精选开源编码模型的稳定访问。

注意:OpenCode Go 目前处于 Beta 阶段。

Go 和 OpenCode 中的其他 Provider 一样工作,你订阅后获得 API Key,然后在 OpenCode 中配置使用。它是完全可选的,你不需要它也能正常使用 OpenCode。

该计划主要面向国际用户设计,模型托管在美国、欧盟和新加坡,确保全球稳定访问。


背景

开源模型在编码任务上的性能已经接近闭源模型,而且因为有多个 Provider 竞争服务,通常便宜很多。

但问题是:获得稳定、低延迟的访问并不容易,各 Provider 的质量和可用性差异很大。

OpenCode 团队为此做了以下工作:

  1. 精心测试了一批开源模型,并与模型团队沟通了最佳运行方式
  2. 与多个 Provider 合作确保这些模型的服务质量
  3. 对模型与 Provider 的组合进行基准测试,筛选出推荐列表

OpenCode Go 让你以 $5(首月)/ $10/月 的价格访问这些模型。


使用方法

  1. 登录 OpenCode Zen 控制台,订阅 Go 计划并复制 API Key
  2. 在 TUI 中运行 /connect 命令,选择 OpenCode Go,粘贴 API Key
  3. 在 TUI 中运行 /models 查看可用模型列表

注意:每个 Workspace 只有一名成员可以订阅 OpenCode Go。


可用模型

当前列表(可能随时更新):

  • GLM-5 / GLM-5.1
  • Kimi K2.5 / K2.6
  • MiMo-V2-Pro / MiMo-V2-Omni
  • MiMo-V2.5-Pro / MiMo-V2.5
  • MiniMax M2.5 / M2.7
  • Qwen3.5 Plus / Qwen3.6 Plus

使用限制

周期限额(等值美元)
每 5 小时$12
每周$30
每月$60

限额以美元计算。便宜的模型(如 Qwen3.5 Plus)每月可发送约 50,000 次请求;贵一些的模型(如 GLM-5.1)约 4,300 次。

各模型估算请求量(基于典型使用模式):

模型每5小时每周每月
GLM-5.18802,1504,300
GLM-51,1502,8805,750
Kimi K2.51,8504,6309,250
Kimi K2.61,1502,8805,750
MiMo-V2-Pro1,2903,2256,450
MiMo-V2-Omni2,1505,45010,900
MiMo-V2.5-Pro1,2903,2256,450
MiMo-V2.52,1505,45010,900
Qwen3.6 Plus3,3008,20016,300
MiniMax M2.73,4008,50017,000
MiniMax M2.56,30015,90031,800
Qwen3.5 Plus10,20025,20050,500

到达限额后,你仍然可以继续使用免费模型。

如果你在 Zen 账户中有余额,可以在控制台开启 Use balance 选项,这样超出限额后会自动切换到使用余额而不是停止请求。


API 端点

你也可以通过 API 直接访问 Go 模型:

模型Model ID端点AI SDK 包
GLM-5.1glm-5.1https://opencode.ai/zen/go/v1/chat/completions@ai-sdk/openai-compatible
Kimi K2.6kimi-k2.6https://opencode.ai/zen/go/v1/chat/completions@ai-sdk/openai-compatible
MiniMax M2.7minimax-m2.7https://opencode.ai/zen/go/v1/messages@ai-sdk/anthropic
Qwen3.6 Plusqwen3.6-plushttps://opencode.ai/zen/go/v1/chat/completions@ai-sdk/alibaba

在 OpenCode 配置中使用格式 opencode-go/<model-id>,例如 opencode-go/kimi-k2.6


隐私政策

Go 的所有 Provider 均遵循零数据保留政策,不使用你的数据进行模型训练。


常见问题

Q: OpenCode Go 和直接用各家 API 有什么本质区别?

A: OpenCode Go 帮你省去了对比测试多个 Provider 的精力——团队已经做了基准测试,确保这些模型和 Provider 的组合在编码 Agent 场景下表现稳定。另外价格也更低,因为是批量采购。

Q: 到达限额后会停服吗?

A: 不会直接停。超出限额后,你仍然可以使用 OpenCode 的免费模型。如果启用了 Zen 余额,还会自动切换到余额计费。

Q: Go 的模型列表会变化吗?

A: 会。OpenCode 团队会持续测试新模型,根据性能和可用性调整推荐列表。可以随时用 /models 命令查看最新可用模型。