Appearance
Venice AI
Venice 是专注于隐私优先推理的 AI 平台,支持无内容限制的开源模型,同时提供对主流商业模型的匿名代理访问。默认情况下所有推理完全私有——不用于训练,不记录日志。
为什么在 OpenClaw 中选择 Venice
- 私有推理:开源模型完全私有,零日志。
- 无内容限制模型:需要时可用。
- 匿名代理访问:通过 Venice 匿名通道使用 Opus / GPT / Gemini。
- OpenAI 兼容的
/v1端点,接入方便。
隐私模式
Venice 提供两种隐私级别——选择模型前务必了解:
| 模式 | 说明 | 适用模型 |
|---|---|---|
| Private | 完全私有。提示词和响应绝不存储或记录,临时处理。 | Llama、Qwen、DeepSeek、Kimi、MiniMax、Venice 无限制版等 |
| Anonymized | 通过 Venice 代理,剥除元数据后转发。底层提供商(OpenAI/Anthropic/Google/xAI)收到的是匿名请求。 | Claude、GPT、Gemini、Grok |
功能特性
- 隐私保护:可选"private"(完全私有)或"anonymized"(代理)模式
- 无内容限制模型:支持无内容过滤的开源模型
- 商业模型访问:通过 Venice 匿名代理使用 Claude、GPT、Gemini、Grok
- OpenAI 兼容 API:标准
/v1端点,易于集成 - 流式输出:所有模型均支持 ✅
- 函数调用:部分模型支持 ✅(查看模型能力说明)
- 视觉理解:有视觉能力的模型支持 ✅
- 无硬性限速:极端用量可能触发公平使用限制
配置步骤
1. 获取 API Key
- 在 venice.ai 注册账号
- 进入 Settings → API Keys → Create new key
- 复制 API Key(格式:
vapi_xxxxxxxxxxxx)
2. 配置 OpenClaw
方式 A:环境变量
bash
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"方式 B:交互式向导(推荐)
bash
openclaw onboard --auth-choice venice-api-key向导会:
- 提示输入 API Key(或使用已有的
VENICE_API_KEY) - 展示所有可用的 Venice 模型
- 让你选择默认模型
- 自动完成 provider 配置
方式 C:非交互式
bash
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"3. 验证配置
bash
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"模型选择
配置完成后,OpenClaw 会显示所有可用的 Venice 模型。根据需求选择:
- 默认模型:
venice/kimi-k2-5,私有推理 + 视觉能力兼顾。 - 最强选项:
venice/claude-opus-4-6,通过 Venice 匿名通道使用最强模型。 - 隐私优先:选择"private"模型,推理完全私有。
- 能力优先:选择"anonymized"模型,通过代理使用 Claude/GPT/Gemini。
随时更改默认模型:
bash
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6列出所有可用模型:
bash
openclaw models list | grep venice使用 openclaw configure 配置
- 运行
openclaw configure - 选择 Model/auth
- 选择 Venice AI
模型选用参考
| 使用场景 | 推荐模型 | 原因 |
|---|---|---|
| 日常对话(默认) | kimi-k2-5 | 私有推理 + 视觉能力兼顾 |
| 综合最强质量 | claude-opus-4-6 | Venice 匿名通道最强选项 |
| 隐私 + 编程 | qwen3-coder-480b-a35b-instruct | 私有编程模型,大上下文窗口 |
| 私有视觉 | kimi-k2-5 | 视觉支持,保持 private 模式 |
| 快速低成本 | qwen3-4b | 轻量推理模型 |
| 复杂私有任务 | deepseek-v3.2 | 强推理能力,但不支持 Venice 工具 |
| 无内容限制 | venice-uncensored | 无内容过滤 |
可用模型(共 41 款)
Private 模型(26 款)——完全私有,零日志
| 模型 ID | 名称 | 上下文 | 特性 |
|---|---|---|---|
kimi-k2-5 | Kimi K2.5 | 256k | 默认,推理,视觉 |
kimi-k2-thinking | Kimi K2 Thinking | 256k | 推理 |
llama-3.3-70b | Llama 3.3 70B | 128k | 通用 |
llama-3.2-3b | Llama 3.2 3B | 128k | 通用 |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 128k | 通用,工具调用已禁用 |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 128k | 推理 |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 128k | 通用 |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 256k | 编程 |
qwen3-coder-480b-a35b-instruct-turbo | Qwen3 Coder 480B Turbo | 256k | 编程 |
qwen3-5-35b-a3b | Qwen3.5 35B A3B | 256k | 推理,视觉 |
qwen3-next-80b | Qwen3 Next 80B | 256k | 通用 |
qwen3-vl-235b-a22b | Qwen3 VL 235B(视觉) | 256k | 视觉 |
qwen3-4b | Venice Small(Qwen3 4B) | 32k | 快速,推理 |
deepseek-v3.2 | DeepSeek V3.2 | 160k | 推理,工具调用已禁用 |
venice-uncensored | Venice Uncensored(Dolphin-Mistral) | 32k | 无内容限制,工具调用已禁用 |
mistral-31-24b | Venice Medium(Mistral) | 128k | 视觉 |
google-gemma-3-27b-it | Google Gemma 3 27B Instruct | 198k | 视觉 |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 128k | 通用 |
nvidia-nemotron-3-nano-30b-a3b | NVIDIA Nemotron 3 Nano 30B | 128k | 通用 |
olafangensan-glm-4.7-flash-heretic | GLM 4.7 Flash Heretic | 128k | 推理 |
zai-org-glm-4.6 | GLM 4.6 | 198k | 通用 |
zai-org-glm-4.7 | GLM 4.7 | 198k | 推理 |
zai-org-glm-4.7-flash | GLM 4.7 Flash | 128k | 推理 |
zai-org-glm-5 | GLM 5 | 198k | 推理 |
minimax-m21 | MiniMax M2.1 | 198k | 推理 |
minimax-m25 | MiniMax M2.5 | 198k | 推理 |
Anonymized 模型(15 款)——通过 Venice 代理
| 模型 ID | 名称 | 上下文 | 特性 |
|---|---|---|---|
claude-opus-4-6 | Claude Opus 4.6(via Venice) | 1M | 推理,视觉 |
claude-opus-4-5 | Claude Opus 4.5(via Venice) | 198k | 推理,视觉 |
claude-sonnet-4-6 | Claude Sonnet 4.6(via Venice) | 1M | 推理,视觉 |
claude-sonnet-4-5 | Claude Sonnet 4.5(via Venice) | 198k | 推理,视觉 |
openai-gpt-54 | GPT-5.4(via Venice) | 1M | 推理,视觉 |
openai-gpt-53-codex | GPT-5.3 Codex(via Venice) | 400k | 推理,视觉,编程 |
openai-gpt-52 | GPT-5.2(via Venice) | 256k | 推理 |
openai-gpt-52-codex | GPT-5.2 Codex(via Venice) | 256k | 推理,视觉,编程 |
openai-gpt-4o-2024-11-20 | GPT-4o(via Venice) | 128k | 视觉 |
openai-gpt-4o-mini-2024-07-18 | GPT-4o Mini(via Venice) | 128k | 视觉 |
gemini-3-1-pro-preview | Gemini 3.1 Pro(via Venice) | 1M | 推理,视觉 |
gemini-3-pro-preview | Gemini 3 Pro(via Venice) | 198k | 推理,视觉 |
gemini-3-flash-preview | Gemini 3 Flash(via Venice) | 256k | 推理,视觉 |
grok-41-fast | Grok 4.1 Fast(via Venice) | 1M | 推理,视觉 |
grok-code-fast-1 | Grok Code Fast 1(via Venice) | 256k | 推理,编程 |
模型自动发现
设置 VENICE_API_KEY 后,OpenClaw 会自动从 Venice API 发现可用模型。如果 API 无法访问,则回退到内置静态目录。
/models 端点是公开的(列出模型无需鉴权),但推理请求需要有效的 API Key。
流式输出与工具支持
| 功能 | 支持情况 |
|---|---|
| 流式输出 | 所有模型均支持 ✅ |
| 函数调用 | 大部分模型支持 ✅(查看 API 中的 supportsFunctionCalling) |
| 视觉/图像 | 标注"Vision"的模型支持 ✅ |
| JSON 模式 | 通过 response_format 支持 ✅ |
定价
Venice 采用积分制。当前费率请查看 venice.ai/pricing:
- Private 模型:通常费用较低
- Anonymized 模型:与直接 API 定价相近,额外收取少量 Venice 服务费
Venice vs 直接 API 对比
| 维度 | Venice(匿名代理) | 直接 API |
|---|---|---|
| 隐私 | 元数据已剥除,匿名 | 与你的账号绑定 |
| 延迟 | +10~50ms(代理层) | 直连 |
| 功能 | 大部分功能支持 | 全功能 |
| 计费 | Venice 积分 | 提供商直接计费 |
使用示例
bash
# 使用默认私有模型
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# 通过 Venice 匿名通道使用 Claude Opus
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# 使用无内容限制模型
openclaw agent --model venice/venice-uncensored --message "Draft options"
# 使用视觉模型处理图像
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# 使用编程专用模型
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"故障排查
API Key 未识别
bash
echo $VENICE_API_KEY
openclaw models list | grep venice确认 Key 以 vapi_ 开头。
模型不可用
Venice 模型目录动态更新。运行 openclaw models list 查看当前可用模型,部分模型可能临时下线。
连接问题
Venice API 地址为 https://api.venice.ai/api/v1,请确保网络允许 HTTPS 连接。
配置文件示例
json5
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}