Skip to content

弱者的武器:技术越差,越需要最好的模型

真正的"最好",不是最贵的,是在刚够支撑下一次尝试的地方,把成本压到最低。

一、这不是经验,是一个成本模型

我以前以为,AI 编程工具的选择主要是价格问题。

后来发现不是。

真正贵的不是 API 账单,而是模型给了一个错误方向之后,我没有能力及时发现。

我是个野生开发者,大部分时间切前端,后端和运维靠个人兴趣在摸索。代码能写到"能用",但一遇到复杂的系统架构问题,我的直觉经常是错的。遇到报错,有时候能一眼看穿,有时候在代码里绕一天也出不来。收入也不高,不是那种可以随意刷信用卡包揽所有 AI 订阅的人。

高手把模型当助手。我很多时候把模型当第二套判断系统。

一个强程序员看到错误架构,会停下来、拆开、重做;我不会。我可能顺着它走两天,直到项目长出一堆互相牵扯的错误,才意识到一开始就走错了。我付的不是"更好答案"的钱,而是"避免走错路"的钱。

这就是 AI 编程里最反直觉的地方:技术越强,越能驾驭差一档的模型;技术越弱,对模型质量的要求越高

这是一个看起来很拧巴但又完全合理的处境:越穷,越不能用便宜的工具。

所以我的需求很明确:用最好的模型,花尽量少的钱。这两个条件在中国同时满足,没那么容易。


二、三堵墙,两条死路

大多数人讨论 AI API,只看 token 价格。但对中国开发者来说,价格至少有三层。

账面价格:Anthropic、OpenAI 的官方 API 单价,这是最容易算的一层。

接入价格:你能不能支付?网络稳不稳定?账号会不会因为地区限制出问题?这些成本不写在价格表里,但会直接打断工作流。

错误价格:模型质量不够时,节省的 API 费用可能会变成多花几天调 bug、重构、返工的时间。对我来说,这是最贵的一层。

这三层加在一起就是三堵墙:

支付墙:国内信用卡大多数情况下无法支付。不是你不想付钱,是字面意义上刷不了。

网络墙:就算解决了支付,访问稳定性也是问题。高频使用场景下,不稳定的网络会直接打断工作流。

价格墙:就算以上两个都解决了,Anthropic 官方 API 按量计费的价格,对我这种使用量来说,每月算下来并不便宜。

看起来有两条路:

第一条,API 中转站。 国内有不少中转服务,帮你解决支付和网络问题。但这条路我走不下去,原因有两个。一是良莠不齐,便宜的来路不明,你不知道你的代码在流经谁的服务器;来路清白的价格接近官方,省不了多少。二是更根本的问题——你把依赖从官方转移到了一个陌生的中间人,今天它跑路了,明天它被查了,你没有任何控制力。

第二条,想办法买官方订阅。 我有过一次尝试:一个在海外的朋友通过礼品卡帮我买了 Claude Pro。访问了两天,账号被封。官方对地区的态度非常明确,这不是技术问题,是政策问题,和你用得多还是少无关。这条路也走不通。

然后我发现了 copilot-api 这个开源项目——一个被很多人忽略的缝隙。


三、Copilot:第一个真正可用的出口

GitHub Copilot 订阅 $10/月,后台接的是 Claude Sonnet、GPT-4o 这些一线模型。通过 copilot-api 代理起来,对外暴露成 Anthropic 兼容接口,Claude Code 可以直接接上,使用体验和接官方 API 没有区别。

价格:高频使用下,平均每次请求最多 $0.04,一个月的使用成本稳定在 $10 左右。相比官方 API 按量计费,这是一个明显的价格洼地。

质量:Claude Sonnet 的模型质量无需怀疑。但 Copilot 里的 Claude 被 GitHub 做了一个限制:上下文窗口从官方的 1M 被压缩到 160K。对日常开发够用,但分析一个较大的代码库时,这个限制非常明显。

就这样用了一段时间,但我知道这个窗口迟早会关。Copilot 的低价来自平台补贴,不是推理成本真的消失了。GitHub 宣布改成按 token 计费的邮件来了,我的第一反应不是惊讶,是"果然"。补贴不是制度,补贴只是窗口。

这件事让我开始想一个更深的问题:我不能依赖任何单一的 Provider。不是因为它们不好,而是它们的定价随时可能变。我需要的不只是一个最好的入口,而是一套随时能切换的系统。

这就是 UniPlug 的起点。


四、将就与不将就的分界线

从 Copilot 出发,我陆续接了多个 Provider。每接一个,都在回答一个具体的问题。这些问题表面上是在比较产品,实际上是在摸索一个更根本的边界:哪些任务上可以将就,哪些任务上绝对不能。

小米 MiMo:一次越级尝试

接入 MiMo 的动机,比"试试国产模型行不行"要远一步。

当时我在想:国外模型贵、访问麻烦,能不能靠工程手段,让国内模型在编程任务上跑出接近国际水平的结果?我的思路是逆向 Claude Code 的工作流设计,然后基于 OpenCode 的开源代码改出一套专门为国内模型优化的编程 Agent。

我真的做出来了。改了 OpenCode 的部分代码,接上 MiMo,工作流跑起来了。

问题出在调优这步。编程 Agent 的质量,不只取决于模型本身,还取决于 prompt 的设计、工具调用的顺序、上下文管理的策略。我知道要在这些方向上优化,但我不知道具体怎么调——这是我技术能力的边界,越不过去。最后放弃了这条路,不是因为方向错,而是因为这件事需要的专业深度超出了我目前的能力范围。

结论:MiMo 接在 UniPlug 里作为一个选项,但不是主力。复杂编程任务上,差距明显。API 价格有竞争力,国内直连无障碍。

Ollama(本地模型):把对的任务给对的工具

Ollama 在我的用法里不是备用,是日常生产工具。

我在做内容相关的项目,需要向量检索和文章摘要。这类任务对模型的要求和编程任务完全不同——不需要复杂推理,只需要准确提取语义。本地跑的开源模型完全够用,成本是零。

对于向量化、摘要、简单分类这类任务,本地模型(我用的是 qwen3.5:4b)表现足够好,速度可以接受。一次性的显卡硬件成本,没有持续的 token 费用。

值得关注的是:Ollama 最近推出了云端订阅服务,提供自己的硬件给你跑开源模型,但计费方式不是按 token,而是按 GPU 使用时长。这对某些使用场景来说定价逻辑完全不同——这个方向我打算后续单独写一篇。

Claude Direct:你必须有一条基准线

接入 Claude Direct 的原因很直接:我想知道 Copilot 里的 Claude 到底有没有被"降智"。

Copilot 限制了上下文窗口,这是已知的。但我怀疑的是,除了上下文,模型本身有没有被动过——比如用了更小的蒸馏版本,或者在推理参数上做了调整。

只有接上真正未经修改的 Claude Pro,你才有判断其他渠道是否被"优化"过的基准线。

关于账号:直接买 Claude Pro 在中国很难,网上那些帮人买的和前面说的中转站属于同一类风险。我用过一次朋友帮忙买礼品卡的方式,两天被封,这条路的稳定性不高。Claude Direct 作为 UniPlug 里的一个选项存在,是备用,不是主力。

正版 Claude Pro 在长上下文任务上的表现明显更好,这和 1M vs 160K 的上下文窗口直接相关。

OpenAI / Codex:免费额度不用白不用

Codex 是 OpenAI 推出的编程 Agent 产品,每周有免费额度。

接入的逻辑很简单:有免费的,接上备着,遇到主力用不了的情况可以切过去。我个人没有系统性地测试 Codex 作为编程 Agent 的表现,这里只能如实说"接了,备着"。

Amazon Kiro:下一个补贴窗口

Copilot 改计费的消息让我开始提前布局。Kiro 是我找到的下一个补贴窗口。

AWS 新用户注册有 $100 的免费额度,完成引导任务再额外送 $100,这 $200 都可以用于 Kiro 订阅。这是 AWS 的用户获客成本,和 Copilot 被微软补贴的逻辑不同,但本质一样:平台在用钱换用户。

Kiro 后台接的是 Claude Sonnet,质量和 Copilot 里的版本基本相当,也有上下文限制。在 $200 额度用完之前,成本是零。这个窗口是有限期的,趁着还开着,先接上。

DeepSeek:重新测试之后的分工调整

DeepSeek v4 发布之后,我重新认真测试了一次。

在代码生成和调试这类任务上,v4 的表现比之前版本有明显提升。复杂架构设计上和 Claude Sonnet 的差距还在,但轻量编程任务的质量已经足够好。这是我客观测试之后的结论,不是品牌偏好。

价格是 DeepSeek 最大的优势。按 token 计费,价格比 Anthropic 官方 API 便宜很多,而且国内直连,无需任何网络工具。

我的用法:轻量任务用 DeepSeek,需要深度推理或复杂架构判断的任务用 Claude。这个分工在价格和质量之间找到了一个可行的平衡点。

CodeBuddy(腾讯):还在接入中

CodeBuddy 是腾讯推出的 AI 编程产品,接入 UniPlug 还没有完成。

吸引我的核心原因:它提供国外模型,而且真的能用,有保障。对于国内用户来说,"能稳定访问"这件事本身就有价值。价格方面我还没有详细测试,接入完成之后会更新。


五、UniPlug 具体是怎么工作的

七个 Provider 接在一起,最直接的问题是:切换麻不麻烦?

我对自己的要求是:切换不能打断正在进行的对话,不能要求我去改 Claude Code 的任何配置

UniPlug 运行在本机 4141 端口,你的 Claude Code 把请求发给它,它负责转发到当前激活的 Provider,把结果按 Anthropic/OpenAI 格式返回。Claude Code 对这层代理是无感的,它以为自己在和 Anthropic API 直接对话。

Claude Code → http://localhost:4141 → GitHub Copilot
                                    ↘ DeepSeek
                                    ↘ Amazon Kiro
                                    ↘ OpenAI
                                    ↘ Ollama
                                    ↘ Claude Direct
                                    ↘ 小米 MiMo

启动之后访问 http://localhost:4141/admin,所有配置都在这里。

Provider 卡片:每个 Provider 独立配置,点开可以填 API Key、切换激活状态、选择具体模型。不想用哪个,关掉就行,不影响其他的。

自动切换:Copilot 配额用完了自动切到 OpenAI,OpenAI 的 Key 全部耗尽了再切回 Copilot。切换在请求级别发生,当前对话不断——我经常事后看日志才发现"刚才切换了一次"。

写入系统环境变量:一键把 ANTHROPIC_BASE_URL 等变量写入系统,新开终端直接生效。以前每次打开新终端都要粘贴一长串命令才能启动 Claude Code,现在直接 claude 就行。


六、结论

我用这套方案到今天,日常主力是 Copilot + Claude Direct 交替,DeepSeek 处理轻量任务,Ollama 做向量检索和摘要。Copilot $10/月,这是目前最主要的支出,其他 Provider 在各自的免费或低价范围内使用。

这不是一个完美的解决方案,因为完美的解决方案还不存在。目前没有任何一个 Provider 能同时打破"质量好、价格低、稳定可用"这个不可能三角。UniPlug 是我的实验台,记录的是我到目前为止找到的最优解。

很多人在讨论"AI 会不会消灭个人开发者"。但我的实操经验告诉我另一个方向:个人开发者不会被 AI 消灭,他们会被 AI 武装。关键不是你能不能比模型强,而是你能不能组织起一套系统,让多个模型为你服务,同时不依赖其中任何一个。多 Provider 不是冗余,而是议价能力——你不再被某一个定价体系锁死。而在平台补贴一个接一个消失的过程中,能在不同 Provider 之间灵活切换的人,比押注单一平台的人更有韧性。

等哪天有了真正完美的解决方案,我可能就不需要 UniPlug 了。但在那之前,只要手里握着这层代理调度的架构,就永远保留了掀桌子换人的权利。

技术越差,越需要最好的模型。但更准确地说:技术越差,越需要一套能把好模型用在刀刃上的系统。这就是弱者最好的武器。


项目地址github.com/ryangui1983/uniplug

快速上手UniPlug 项目主页与安装指南

延伸阅读AI 补贴游戏快结束了:从 Copilot 涨价说起