Skip to content

Venice AI

Venice 是专注于隐私优先推理的 AI 平台,支持无内容限制的开源模型,同时提供对主流商业模型的匿名代理访问。默认情况下所有推理完全私有——不用于训练,不记录日志。

为什么在 OpenClaw 中选择 Venice

  • 私有推理:开源模型完全私有,零日志。
  • 无内容限制模型:需要时可用。
  • 匿名代理访问:通过 Venice 匿名通道使用 Opus / GPT / Gemini。
  • OpenAI 兼容的 /v1 端点,接入方便。

隐私模式

Venice 提供两种隐私级别——选择模型前务必了解:

模式说明适用模型
Private完全私有。提示词和响应绝不存储或记录,临时处理。Llama、Qwen、DeepSeek、Kimi、MiniMax、Venice 无限制版等
Anonymized通过 Venice 代理,剥除元数据后转发。底层提供商(OpenAI/Anthropic/Google/xAI)收到的是匿名请求。Claude、GPT、Gemini、Grok

功能特性

  • 隐私保护:可选"private"(完全私有)或"anonymized"(代理)模式
  • 无内容限制模型:支持无内容过滤的开源模型
  • 商业模型访问:通过 Venice 匿名代理使用 Claude、GPT、Gemini、Grok
  • OpenAI 兼容 API:标准 /v1 端点,易于集成
  • 流式输出:所有模型均支持 ✅
  • 函数调用:部分模型支持 ✅(查看模型能力说明)
  • 视觉理解:有视觉能力的模型支持 ✅
  • 无硬性限速:极端用量可能触发公平使用限制

配置步骤

1. 获取 API Key

  1. venice.ai 注册账号
  2. 进入 Settings → API Keys → Create new key
  3. 复制 API Key(格式:vapi_xxxxxxxxxxxx

2. 配置 OpenClaw

方式 A:环境变量

bash
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

方式 B:交互式向导(推荐)

bash
openclaw onboard --auth-choice venice-api-key

向导会:

  1. 提示输入 API Key(或使用已有的 VENICE_API_KEY
  2. 展示所有可用的 Venice 模型
  3. 让你选择默认模型
  4. 自动完成 provider 配置

方式 C:非交互式

bash
openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. 验证配置

bash
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

模型选择

配置完成后,OpenClaw 会显示所有可用的 Venice 模型。根据需求选择:

  • 默认模型venice/kimi-k2-5,私有推理 + 视觉能力兼顾。
  • 最强选项venice/claude-opus-4-6,通过 Venice 匿名通道使用最强模型。
  • 隐私优先:选择"private"模型,推理完全私有。
  • 能力优先:选择"anonymized"模型,通过代理使用 Claude/GPT/Gemini。

随时更改默认模型:

bash
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6

列出所有可用模型:

bash
openclaw models list | grep venice

使用 openclaw configure 配置

  1. 运行 openclaw configure
  2. 选择 Model/auth
  3. 选择 Venice AI

模型选用参考

使用场景推荐模型原因
日常对话(默认)kimi-k2-5私有推理 + 视觉能力兼顾
综合最强质量claude-opus-4-6Venice 匿名通道最强选项
隐私 + 编程qwen3-coder-480b-a35b-instruct私有编程模型,大上下文窗口
私有视觉kimi-k2-5视觉支持,保持 private 模式
快速低成本qwen3-4b轻量推理模型
复杂私有任务deepseek-v3.2强推理能力,但不支持 Venice 工具
无内容限制venice-uncensored无内容过滤

可用模型(共 41 款)

Private 模型(26 款)——完全私有,零日志

模型 ID名称上下文特性
kimi-k2-5Kimi K2.5256k默认,推理,视觉
kimi-k2-thinkingKimi K2 Thinking256k推理
llama-3.3-70bLlama 3.3 70B128k通用
llama-3.2-3bLlama 3.2 3B128k通用
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128k通用,工具调用已禁用
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128k推理
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128k通用
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256k编程
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256k编程
qwen3-5-35b-a3bQwen3.5 35B A3B256k推理,视觉
qwen3-next-80bQwen3 Next 80B256k通用
qwen3-vl-235b-a22bQwen3 VL 235B(视觉)256k视觉
qwen3-4bVenice Small(Qwen3 4B)32k快速,推理
deepseek-v3.2DeepSeek V3.2160k推理,工具调用已禁用
venice-uncensoredVenice Uncensored(Dolphin-Mistral)32k无内容限制,工具调用已禁用
mistral-31-24bVenice Medium(Mistral)128k视觉
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198k视觉
openai-gpt-oss-120bOpenAI GPT OSS 120B128k通用
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128k通用
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128k推理
zai-org-glm-4.6GLM 4.6198k通用
zai-org-glm-4.7GLM 4.7198k推理
zai-org-glm-4.7-flashGLM 4.7 Flash128k推理
zai-org-glm-5GLM 5198k推理
minimax-m21MiniMax M2.1198k推理
minimax-m25MiniMax M2.5198k推理

Anonymized 模型(15 款)——通过 Venice 代理

模型 ID名称上下文特性
claude-opus-4-6Claude Opus 4.6(via Venice)1M推理,视觉
claude-opus-4-5Claude Opus 4.5(via Venice)198k推理,视觉
claude-sonnet-4-6Claude Sonnet 4.6(via Venice)1M推理,视觉
claude-sonnet-4-5Claude Sonnet 4.5(via Venice)198k推理,视觉
openai-gpt-54GPT-5.4(via Venice)1M推理,视觉
openai-gpt-53-codexGPT-5.3 Codex(via Venice)400k推理,视觉,编程
openai-gpt-52GPT-5.2(via Venice)256k推理
openai-gpt-52-codexGPT-5.2 Codex(via Venice)256k推理,视觉,编程
openai-gpt-4o-2024-11-20GPT-4o(via Venice)128k视觉
openai-gpt-4o-mini-2024-07-18GPT-4o Mini(via Venice)128k视觉
gemini-3-1-pro-previewGemini 3.1 Pro(via Venice)1M推理,视觉
gemini-3-pro-previewGemini 3 Pro(via Venice)198k推理,视觉
gemini-3-flash-previewGemini 3 Flash(via Venice)256k推理,视觉
grok-41-fastGrok 4.1 Fast(via Venice)1M推理,视觉
grok-code-fast-1Grok Code Fast 1(via Venice)256k推理,编程

模型自动发现

设置 VENICE_API_KEY 后,OpenClaw 会自动从 Venice API 发现可用模型。如果 API 无法访问,则回退到内置静态目录。

/models 端点是公开的(列出模型无需鉴权),但推理请求需要有效的 API Key。

流式输出与工具支持

功能支持情况
流式输出所有模型均支持 ✅
函数调用大部分模型支持 ✅(查看 API 中的 supportsFunctionCalling
视觉/图像标注"Vision"的模型支持 ✅
JSON 模式通过 response_format 支持 ✅

定价

Venice 采用积分制。当前费率请查看 venice.ai/pricing

  • Private 模型:通常费用较低
  • Anonymized 模型:与直接 API 定价相近,额外收取少量 Venice 服务费

Venice vs 直接 API 对比

维度Venice(匿名代理)直接 API
隐私元数据已剥除,匿名与你的账号绑定
延迟+10~50ms(代理层)直连
功能大部分功能支持全功能
计费Venice 积分提供商直接计费

使用示例

bash
# 使用默认私有模型
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# 通过 Venice 匿名通道使用 Claude Opus
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# 使用无内容限制模型
openclaw agent --model venice/venice-uncensored --message "Draft options"

# 使用视觉模型处理图像
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# 使用编程专用模型
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

故障排查

API Key 未识别

bash
echo $VENICE_API_KEY
openclaw models list | grep venice

确认 Key 以 vapi_ 开头。

模型不可用

Venice 模型目录动态更新。运行 openclaw models list 查看当前可用模型,部分模型可能临时下线。

连接问题

Venice API 地址为 https://api.venice.ai/api/v1,请确保网络允许 HTTPS 连接。

配置文件示例

json5
{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

相关链接