Appearance
OpenClaw 升级到 2026.4.11+ 后 LLM 请求失败:provider rejected request schema(vLLM/Ollama/Copilot)
问题
升级 OpenClaw 到 2026.4.11 或更高版本后,使用以下模型/提供商时出现错误:
LLM request failed: provider rejected the request schema or tool payload受影响的提供商包括:
- Azure AI Foundry(GPT 模型,开启 reasoning 时)
- Ollama(qwen3-coder、qwen2 等)
- Github Copilot
- vLLM 自托管实例
- 讯飞 spark-x
- 自定义 OpenAI-compatible gateway(OmniRoute、OmniRoute 等)
在 2026.4.9 及更早版本正常工作。
根本原因:2026.4.11 版本在发送给提供商的请求体中新增了 store 和 max_completion_tokens 两个字段,这些字段被 vLLM 及部分 OpenAI-compatible 实现拒绝(返回 HTTP 400)。
解决方案
Azure AI Foundry 用户:禁用 reasoning
在配置中关闭 reasoning 功能,通常可以绕过该问题:
json5
{
"providers": {
"azure-foundry": {
"reasoning": false
}
}
}vLLM 用户:等待修复或回退版本
vLLM 拒绝未知字段属于严格验证行为,这是 OpenClaw 引入了 vLLM 不支持的字段。选项:
- 回退到 2026.4.9(已确认正常工作)
- 等待官方补丁(关注 GitHub #65603)
诊断确认
检查请求是否确实包含不兼容字段:
bash
# 开启详细日志
openclaw gateway restart --log-level debug
# 查看实际发送的请求体
openclaw logs --follow | grep "request schema\|provider rejected"部分版本修复情况
- 2026.4.12:部分用户(Azure AI Foundry)恢复正常
- 2026.4.15:仍有用户(Ollama gemma4:26b、Github Copilot)报告问题未完全修复
- 如果升级到最新版仍有问题,建议在 GitHub issue 中附上具体模型和提供商信息