Skip to content

OpenClaw 升级到 2026.4.11+ 后 LLM 请求失败:provider rejected request schema(vLLM/Ollama/Copilot)

问题

升级 OpenClaw 到 2026.4.11 或更高版本后,使用以下模型/提供商时出现错误:

LLM request failed: provider rejected the request schema or tool payload

受影响的提供商包括:

  • Azure AI Foundry(GPT 模型,开启 reasoning 时)
  • Ollama(qwen3-coder、qwen2 等)
  • Github Copilot
  • vLLM 自托管实例
  • 讯飞 spark-x
  • 自定义 OpenAI-compatible gateway(OmniRoute、OmniRoute 等)

在 2026.4.9 及更早版本正常工作。

根本原因:2026.4.11 版本在发送给提供商的请求体中新增了 storemax_completion_tokens 两个字段,这些字段被 vLLM 及部分 OpenAI-compatible 实现拒绝(返回 HTTP 400)。

解决方案

Azure AI Foundry 用户:禁用 reasoning

在配置中关闭 reasoning 功能,通常可以绕过该问题:

json5
{
  "providers": {
    "azure-foundry": {
      "reasoning": false
    }
  }
}

vLLM 用户:等待修复或回退版本

vLLM 拒绝未知字段属于严格验证行为,这是 OpenClaw 引入了 vLLM 不支持的字段。选项:

  1. 回退到 2026.4.9(已确认正常工作)
  2. 等待官方补丁(关注 GitHub #65603

诊断确认

检查请求是否确实包含不兼容字段:

bash
# 开启详细日志
openclaw gateway restart --log-level debug

# 查看实际发送的请求体
openclaw logs --follow | grep "request schema\|provider rejected"

部分版本修复情况

  • 2026.4.12:部分用户(Azure AI Foundry)恢复正常
  • 2026.4.15:仍有用户(Ollama gemma4:26b、Github Copilot)报告问题未完全修复
  • 如果升级到最新版仍有问题,建议在 GitHub issue 中附上具体模型和提供商信息