Skip to content

Venice AI

Venice 是我们重点推荐的 Venice 设置,适用于隐私优先的推理,并可选择通过匿名访问专有模型。

Venice AI 提供注重隐私的 AI 推理,支持未审查模型,并可通过其匿名代理访问主要专有模型。所有推理默认都是私密的——不会使用你的数据进行训练,也不会记录日志。

  • 私密推理,适用于开源模型(不记录日志)。
  • 当你需要时可使用未审查模型
  • 当质量更重要时,可匿名访问专有模型(Opus/GPT/Gemini)。
  • 兼容 OpenAI 的 /v1 端点。

Venice 提供两个隐私级别 —— 理解这一点对于选择你的模型至关重要:

模式说明模型
私密完全私密。提示词/响应绝不会被存储或记录。临时性。Llama、Qwen、DeepSeek、Kimi、MiniMax、Venice Uncensored 等。
匿名通过 Venice 代理并剥离元数据。底层提供商(OpenAI、Anthropic、Google、xAI)看到的是匿名请求。Claude、GPT、Gemini、Grok
  • 注重隐私:可在 “private”(完全私密)和 “anonymized”(代理)模式之间选择
  • 未审查模型:访问不受内容限制的模型
  • 主流模型访问:通过 Venice 的匿名代理使用 Claude、GPT、Gemini 和 Grok
  • 兼容 OpenAI 的 API:标准 /v1 端点,易于集成
  • 流式传输:✅ 所有模型都支持
  • 函数调用:✅ 选定模型支持(请检查模型能力)
  • 视觉:✅ 具备视觉能力的模型支持
  • 无硬性速率限制:极端使用情况下可能会应用公平使用节流
  1. venice.ai 注册
  2. 前往 Settings → API Keys → Create new key
  3. 复制你的 API 密钥(格式:vapi_xxxxxxxxxxxx

选项 A:环境变量

Terminal window
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

选项 B:交互式设置(推荐)

Terminal window
openclaw onboard --auth-choice venice-api-key

这将会:

  1. 提示输入你的 API 密钥(或使用现有的 VENICE_API_KEY
  2. 显示所有可用的 Venice 模型
  3. 让你选择默认模型
  4. 自动配置该提供商

选项 C:非交互式

Terminal window
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
Terminal window
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

设置完成后,OpenClaw 会显示所有可用的 Venice 模型。请根据你的需要进行选择:

  • 默认模型venice/kimi-k2-5,适合强大的私密推理 + 视觉。
  • 高能力选项venice/claude-opus-4-6,适合最强的匿名 Venice 路径。
  • 隐私:选择 “private” 模型以获得完全私密的推理。
  • 能力:选择 “anonymized” 模型,以通过 Venice 的代理访问 Claude、GPT、Gemini。

你可以随时更改默认模型:

Terminal window
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6

列出所有可用模型:

Terminal window
openclaw models list | grep venice
  1. 运行 openclaw configure
  2. 选择 Model/auth
  3. 选择 Venice AI
使用场景推荐模型原因
通用聊天(默认)kimi-k2-5强大的私密推理 + 视觉
整体最佳质量claude-opus-4-6最强的匿名 Venice 选项
隐私 + 编码qwen3-coder-480b-a35b-instruct具有大上下文的私密编码模型
私密视觉kimi-k2-5无需离开私密模式即可支持视觉
快速 + 便宜qwen3-4b轻量级推理模型
复杂私密任务deepseek-v3.2推理能力强,但不支持 Venice 工具
未审查venice-uncensored无内容限制

私密模型(26 个)—— 完全私密,不记录日志

Section titled “私密模型(26 个)—— 完全私密,不记录日志”
模型 ID名称上下文功能
kimi-k2-5Kimi K2.5256k默认、推理、视觉
kimi-k2-thinkingKimi K2 Thinking256k推理
llama-3.3-70bLlama 3.3 70B128k通用
llama-3.2-3bLlama 3.2 3B128k通用
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128k通用,工具已禁用
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128k推理
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128k通用
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256k编码
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256k编码
qwen3-5-35b-a3bQwen3.5 35B A3B256k推理、视觉
qwen3-next-80bQwen3 Next 80B256k通用
qwen3-vl-235b-a22bQwen3 VL 235B(视觉)256k视觉
qwen3-4bVenice Small(Qwen3 4B)32k快速、推理
deepseek-v3.2DeepSeek V3.2160k推理,工具已禁用
venice-uncensoredVenice Uncensored(Dolphin-Mistral)32k未审查,工具已禁用
mistral-31-24bVenice Medium(Mistral)128k视觉
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198k视觉
openai-gpt-oss-120bOpenAI GPT OSS 120B128k通用
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128k通用
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128k推理
zai-org-glm-4.6GLM 4.6198k通用
zai-org-glm-4.7GLM 4.7198k推理
zai-org-glm-4.7-flashGLM 4.7 Flash128k推理
zai-org-glm-5GLM 5198k推理
minimax-m21MiniMax M2.1198k推理
minimax-m25MiniMax M2.5198k推理

匿名模型(15 个)—— 通过 Venice 代理

Section titled “匿名模型(15 个)—— 通过 Venice 代理”
模型 ID名称上下文功能
claude-opus-4-6Claude Opus 4.6(通过 Venice)1M推理、视觉
claude-opus-4-5Claude Opus 4.5(通过 Venice)198k推理、视觉
claude-sonnet-4-6Claude Sonnet 4.6(通过 Venice)1M推理、视觉
claude-sonnet-4-5Claude Sonnet 4.5(通过 Venice)198k推理、视觉
openai-gpt-54GPT-5.4(通过 Venice)1M推理、视觉
openai-gpt-53-codexGPT-5.3 Codex(通过 Venice)400k推理、视觉、编码
openai-gpt-52GPT-5.2(通过 Venice)256k推理
openai-gpt-52-codexGPT-5.2 Codex(通过 Venice)256k推理、视觉、编码
openai-gpt-4o-2024-11-20GPT-4o(通过 Venice)128k视觉
openai-gpt-4o-mini-2024-07-18GPT-4o Mini(通过 Venice)128k视觉
gemini-3-1-pro-previewGemini 3.1 Pro(通过 Venice)1M推理、视觉
gemini-3-pro-previewGemini 3 Pro(通过 Venice)198k推理、视觉
gemini-3-flash-previewGemini 3 Flash(通过 Venice)256k推理、视觉
grok-41-fastGrok 4.1 Fast(通过 Venice)1M推理、视觉
grok-code-fast-1Grok Code Fast 1(通过 Venice)256k推理、编码

当设置了 VENICE_API_KEY 时,OpenClaw 会自动从 Venice API 发现模型。如果 API 不可访问,则会回退到静态目录。

/models 端点是公开的(列出模型无需身份验证),但推理需要有效的 API 密钥。

功能支持情况
流式传输✅ 所有模型
函数调用✅ 大多数模型(请检查 API 中的 supportsFunctionCalling
视觉/图像✅ 标有 “Vision” 功能的模型
JSON 模式✅ 通过 response_format 支持

Venice 使用基于积分的系统。当前费率请查看 venice.ai/pricing

  • 私密模型:通常成本更低
  • 匿名模型:与直接 API 定价相近,外加少量 Venice 费用
方面Venice(匿名)直接 API
隐私元数据被剥离,匿名化关联到你的账户
延迟+10-50ms(代理)直接
功能支持大多数功能完整功能
计费Venice 积分提供商计费
Terminal window
# 使用默认私密模型
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# 通过 Venice 使用 Claude Opus(匿名)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# 使用未审查模型
openclaw agent --model venice/venice-uncensored --message "Draft options"
# 使用带图像的视觉模型
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# 使用编码模型
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
Terminal window
echo $VENICE_API_KEY
openclaw models list | grep venice

请确保该密钥以 vapi_ 开头。

Venice 模型目录会动态更新。运行 openclaw models list 以查看当前可用的模型。某些模型可能暂时离线。

Venice API 地址为 https://api.venice.ai/api/v1。请确保你的网络允许 HTTPS 连接。

{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}