Appearance
弱者的武器:技术越差,越需要最好的模型
真正的"最好",不是最贵的,是在刚够支撑下一次尝试的地方,把成本压到最低。
一、这不是经验,是一个成本模型
我以前以为,AI 编程工具的选择主要是价格问题。
后来发现不是。
真正贵的不是 API 账单,而是模型给了一个错误方向之后,我没有能力及时发现。
我是个野生开发者,大部分时间切前端,后端和运维靠个人兴趣在摸索。代码能写到"能用",但一遇到复杂的系统架构问题,我的直觉经常是错的。遇到报错,有时候能一眼看穿,有时候在代码里绕一天也出不来。收入也不高,不是那种可以随意刷信用卡包揽所有 AI 订阅的人。
高手把模型当助手。我很多时候把模型当第二套判断系统。
一个强程序员看到错误架构,会停下来、拆开、重做;我不会。我可能顺着它走两天,直到项目长出一堆互相牵扯的错误,才意识到一开始就走错了。我付的不是"更好答案"的钱,而是"避免走错路"的钱。
这就是 AI 编程里最反直觉的地方:技术越强,越能驾驭差一档的模型;技术越弱,对模型质量的要求越高。
这是一个看起来很拧巴但又完全合理的处境:越穷,越不能用便宜的工具。
所以我的需求很明确:用最好的模型,花尽量少的钱。这两个条件在中国同时满足,没那么容易。
二、三堵墙,两条死路
大多数人讨论 AI API,只看 token 价格。但对中国开发者来说,价格至少有三层。
账面价格:Anthropic、OpenAI 的官方 API 单价,这是最容易算的一层。
接入价格:你能不能支付?网络稳不稳定?账号会不会因为地区限制出问题?这些成本不写在价格表里,但会直接打断工作流。
错误价格:模型质量不够时,节省的 API 费用可能会变成多花几天调 bug、重构、返工的时间。对我来说,这是最贵的一层。
这三层加在一起就是三堵墙:
支付墙:国内信用卡大多数情况下无法支付。不是你不想付钱,是字面意义上刷不了。
网络墙:就算解决了支付,访问稳定性也是问题。高频使用场景下,不稳定的网络会直接打断工作流。
价格墙:就算以上两个都解决了,Anthropic 官方 API 按量计费的价格,对我这种使用量来说,每月算下来并不便宜。
看起来有两条路:
第一条,API 中转站。 国内有不少中转服务,帮你解决支付和网络问题。但这条路我走不下去,原因有两个。一是良莠不齐,便宜的来路不明,你不知道你的代码在流经谁的服务器;来路清白的价格接近官方,省不了多少。二是更根本的问题——你把依赖从官方转移到了一个陌生的中间人,今天它跑路了,明天它被查了,你没有任何控制力。
第二条,想办法买官方订阅。 我有过一次尝试:一个在海外的朋友通过礼品卡帮我买了 Claude Pro。访问了两天,账号被封。官方对地区的态度非常明确,这不是技术问题,是政策问题,和你用得多还是少无关。这条路也走不通。
然后我发现了 copilot-api 这个开源项目——一个被很多人忽略的缝隙。
三、Copilot:第一个真正可用的出口
GitHub Copilot 订阅 $10/月,后台接的是 Claude Sonnet、GPT-4o 这些一线模型。通过 copilot-api 代理起来,对外暴露成 Anthropic 兼容接口,Claude Code 可以直接接上,使用体验和接官方 API 没有区别。
价格:高频使用下,平均每次请求最多 $0.04,一个月的使用成本稳定在 $10 左右。相比官方 API 按量计费,这是一个明显的价格洼地。
质量:Claude Sonnet 的模型质量无需怀疑。但 Copilot 里的 Claude 被 GitHub 做了一个限制:上下文窗口从官方的 1M 被压缩到 160K。对日常开发够用,但分析一个较大的代码库时,这个限制非常明显。
就这样用了一段时间,但我知道这个窗口迟早会关。Copilot 的低价来自平台补贴,不是推理成本真的消失了。GitHub 宣布改成按 token 计费的邮件来了,我的第一反应不是惊讶,是"果然"。补贴不是制度,补贴只是窗口。
这件事让我开始想一个更深的问题:我不能依赖任何单一的 Provider。不是因为它们不好,而是它们的定价随时可能变。我需要的不只是一个最好的入口,而是一套随时能切换的系统。
这就是 UniPlug 的起点。
四、将就与不将就的分界线
从 Copilot 出发,我陆续接了多个 Provider。每接一个,都在回答一个具体的问题。这些问题表面上是在比较产品,实际上是在摸索一个更根本的边界:哪些任务上可以将就,哪些任务上绝对不能。
小米 MiMo:一次越级尝试
接入 MiMo 的动机,比"试试国产模型行不行"要远一步。
当时我在想:国外模型贵、访问麻烦,能不能靠工程手段,让国内模型在编程任务上跑出接近国际水平的结果?我的思路是逆向 Claude Code 的工作流设计,然后基于 OpenCode 的开源代码改出一套专门为国内模型优化的编程 Agent。
我真的做出来了。改了 OpenCode 的部分代码,接上 MiMo,工作流跑起来了。
问题出在调优这步。编程 Agent 的质量,不只取决于模型本身,还取决于 prompt 的设计、工具调用的顺序、上下文管理的策略。我知道要在这些方向上优化,但我不知道具体怎么调——这是我技术能力的边界,越不过去。最后放弃了这条路,不是因为方向错,而是因为这件事需要的专业深度超出了我目前的能力范围。
结论:MiMo 接在 UniPlug 里作为一个选项,但不是主力。复杂编程任务上,差距明显。API 价格有竞争力,国内直连无障碍。
Ollama(本地模型):把对的任务给对的工具
Ollama 在我的用法里不是备用,是日常生产工具。
我在做内容相关的项目,需要向量检索和文章摘要。这类任务对模型的要求和编程任务完全不同——不需要复杂推理,只需要准确提取语义。本地跑的开源模型完全够用,成本是零。
对于向量化、摘要、简单分类这类任务,本地模型(我用的是 qwen3.5:4b)表现足够好,速度可以接受。一次性的显卡硬件成本,没有持续的 token 费用。
值得关注的是:Ollama 最近推出了云端订阅服务,提供自己的硬件给你跑开源模型,但计费方式不是按 token,而是按 GPU 使用时长。这对某些使用场景来说定价逻辑完全不同——这个方向我打算后续单独写一篇。
Claude Direct:你必须有一条基准线
接入 Claude Direct 的原因很直接:我想知道 Copilot 里的 Claude 到底有没有被"降智"。
Copilot 限制了上下文窗口,这是已知的。但我怀疑的是,除了上下文,模型本身有没有被动过——比如用了更小的蒸馏版本,或者在推理参数上做了调整。
只有接上真正未经修改的 Claude Pro,你才有判断其他渠道是否被"优化"过的基准线。
关于账号:直接买 Claude Pro 在中国很难,网上那些帮人买的和前面说的中转站属于同一类风险。我用过一次朋友帮忙买礼品卡的方式,两天被封,这条路的稳定性不高。Claude Direct 作为 UniPlug 里的一个选项存在,是备用,不是主力。
正版 Claude Pro 在长上下文任务上的表现明显更好,这和 1M vs 160K 的上下文窗口直接相关。
OpenAI / Codex:免费额度不用白不用
Codex 是 OpenAI 推出的编程 Agent 产品,每周有免费额度。
接入的逻辑很简单:有免费的,接上备着,遇到主力用不了的情况可以切过去。我个人没有系统性地测试 Codex 作为编程 Agent 的表现,这里只能如实说"接了,备着"。
Amazon Kiro:下一个补贴窗口
Copilot 改计费的消息让我开始提前布局。Kiro 是我找到的下一个补贴窗口。
AWS 新用户注册有 $100 的免费额度,完成引导任务再额外送 $100,这 $200 都可以用于 Kiro 订阅。这是 AWS 的用户获客成本,和 Copilot 被微软补贴的逻辑不同,但本质一样:平台在用钱换用户。
Kiro 后台接的是 Claude Sonnet,质量和 Copilot 里的版本基本相当,也有上下文限制。在 $200 额度用完之前,成本是零。这个窗口是有限期的,趁着还开着,先接上。
DeepSeek:重新测试之后的分工调整
DeepSeek v4 发布之后,我重新认真测试了一次。
在代码生成和调试这类任务上,v4 的表现比之前版本有明显提升。复杂架构设计上和 Claude Sonnet 的差距还在,但轻量编程任务的质量已经足够好。这是我客观测试之后的结论,不是品牌偏好。
价格是 DeepSeek 最大的优势。按 token 计费,价格比 Anthropic 官方 API 便宜很多,而且国内直连,无需任何网络工具。
我的用法:轻量任务用 DeepSeek,需要深度推理或复杂架构判断的任务用 Claude。这个分工在价格和质量之间找到了一个可行的平衡点。
CodeBuddy(腾讯):还在接入中
CodeBuddy 是腾讯推出的 AI 编程产品,接入 UniPlug 还没有完成。
吸引我的核心原因:它提供国外模型,而且真的能用,有保障。对于国内用户来说,"能稳定访问"这件事本身就有价值。价格方面我还没有详细测试,接入完成之后会更新。
五、UniPlug 具体是怎么工作的
七个 Provider 接在一起,最直接的问题是:切换麻不麻烦?
我对自己的要求是:切换不能打断正在进行的对话,不能要求我去改 Claude Code 的任何配置。
UniPlug 运行在本机 4141 端口,你的 Claude Code 把请求发给它,它负责转发到当前激活的 Provider,把结果按 Anthropic/OpenAI 格式返回。Claude Code 对这层代理是无感的,它以为自己在和 Anthropic API 直接对话。
Claude Code → http://localhost:4141 → GitHub Copilot
↘ DeepSeek
↘ Amazon Kiro
↘ OpenAI
↘ Ollama
↘ Claude Direct
↘ 小米 MiMo启动之后访问 http://localhost:4141/admin,所有配置都在这里。
Provider 卡片:每个 Provider 独立配置,点开可以填 API Key、切换激活状态、选择具体模型。不想用哪个,关掉就行,不影响其他的。
自动切换:Copilot 配额用完了自动切到 OpenAI,OpenAI 的 Key 全部耗尽了再切回 Copilot。切换在请求级别发生,当前对话不断——我经常事后看日志才发现"刚才切换了一次"。
写入系统环境变量:一键把 ANTHROPIC_BASE_URL 等变量写入系统,新开终端直接生效。以前每次打开新终端都要粘贴一长串命令才能启动 Claude Code,现在直接 claude 就行。
六、结论
我用这套方案到今天,日常主力是 Copilot + Claude Direct 交替,DeepSeek 处理轻量任务,Ollama 做向量检索和摘要。Copilot $10/月,这是目前最主要的支出,其他 Provider 在各自的免费或低价范围内使用。
这不是一个完美的解决方案,因为完美的解决方案还不存在。目前没有任何一个 Provider 能同时打破"质量好、价格低、稳定可用"这个不可能三角。UniPlug 是我的实验台,记录的是我到目前为止找到的最优解。
很多人在讨论"AI 会不会消灭个人开发者"。但我的实操经验告诉我另一个方向:个人开发者不会被 AI 消灭,他们会被 AI 武装。关键不是你能不能比模型强,而是你能不能组织起一套系统,让多个模型为你服务,同时不依赖其中任何一个。多 Provider 不是冗余,而是议价能力——你不再被某一个定价体系锁死。而在平台补贴一个接一个消失的过程中,能在不同 Provider 之间灵活切换的人,比押注单一平台的人更有韧性。
等哪天有了真正完美的解决方案,我可能就不需要 UniPlug 了。但在那之前,只要手里握着这层代理调度的架构,就永远保留了掀桌子换人的权利。
技术越差,越需要最好的模型。但更准确地说:技术越差,越需要一套能把好模型用在刀刃上的系统。这就是弱者最好的武器。
项目地址:github.com/ryangui1983/uniplug
快速上手:UniPlug 项目主页与安装指南