Skip to content

Free Claude Code 是一个 MIT 开源的 Anthropic Messages API 代理,它拦截 Claude Code 的 API 调用,路由到 NVIDIA NIM、OpenRouter、DeepSeek、LM Studio、llama.cpp 或 Ollama 等后端,让你免费或低成本使用 Claude Code CLI、VS Code 扩展和 JetBrains ACP。

Free Claude Code 中文指南:免费使用 Claude Code 的完整方案

为什么需要这个代理?

Claude Code 官方按 Anthropic API 调用计费,日常重度使用成本不低。Free Claude Code 通过一个本地代理层,将 Claude Code 的 API 流量转发到你选择的后端——NVIDIA NIM 有免费 GPU 额度,OpenRouter 有免费模型池,Ollama 可以跑本地模型零成本。

关键能力一览:

  • Drop-in 代理:Claude Code 无需修改,只需改两个环境变量
  • 6 种后端:NVIDIA NIM(免费 GPU)、OpenRouter(免费模型池)、DeepSeek(低价中文强)、LM Studio / llama.cpp / Ollama(本地模型零成本)
  • Per-tier 路由:Opus 走 Kimi、Sonnet 走 DeepSeek R1、Haiku 走本地 GLM——每个模型层级可以独立配置后端
  • 请求优化:自动拦截配额探测、标题生成、建议模式等 Claude Code 的探测请求,本地直接响应,省 Token 省延迟
  • 可选聊天机器人:Discord / Telegram bot 封装,远程发消息触发 Claude Code 写代码
  • 可选语音转写:Whisper 本地或 NVIDIA NIM 云端转写语音笔记

快速导航

你想做什么对应文章
从零开始装一个能跑的代理快速上手教程
在 VS Code 或 JetBrains 里用IDE 配置指南
用 NVIDIA NIM 免费额度跑接入 NVIDIA NIM
用 OpenRouter 或 DeepSeek接入 OpenRouter / DeepSeek
本地模型零成本跑接入 Ollama / LM Studio
不同模型走不同后端多模型路由配置
Discord / Telegram 远程写代码聊天机器人配置
语音消息自动转写语音笔记转写
了解省 Token 的设计思路请求优化机制
想二次开发或贡献代码架构设计解析
遇到报错想排查常见问题排查

它是怎么工作的?

Claude Code CLI / VS Code / JetBrains
        |
        | Anthropic Messages API(标准协议)
        v
Free Claude Code 代理(:8082)
        |
        | Provider 请求适配 + 流式转换
        v
NIM / OpenRouter / DeepSeek / LM Studio / llama.cpp / Ollama

Claude Code 把 Free Claude Code 当成 Anthropic API 来通信,代理在内部把请求翻译成各 Provider 能理解的格式,再把响应流式转回 Anthropic SSE 格式。整个过程对 Claude Code 完全透明。

FAQ

Q: 免费用 Claude Code,功能会少吗? A: 工具调用(tool use)、扩展思考(thinking blocks)、流式传输这些核心功能都支持,但具体取决于你选的后端模型能力。本地小模型的工具调用准确率不如云端大模型。

Q: 这个项目安全吗? A: 代理本身是 MIT 开源,代码可审计。它不会把你的数据发到任何第三方,所有流量只在你的机器和你选的 Provider 之间流转。但 .env 里的 API Key 和 ANTHROPIC_AUTH_TOKEN 要妥善保管。

Q: 和 Claude Code 的 API 版本升级会冲突吗? A: 代理模拟的是 Anthropic Messages API 的稳定接口(/v1/messages/v1/models 等)。Claude Code 升级时如果 API 协议有变动,代理可能需要同步更新。关注项目的 GitHub Issues 可以第一时间获知兼容性。


本系列文章

快速上手

Provider 配置

进阶功能

架构与开发