克劳德工具连接问题 | AI生成和翻译

Home 2026.04

问题
为何 /home/lzw/projects/llama.cpp/models/DeepSeek-R1-0528-Qwen3-8B-Q4_K_M.gguf 能在 OpenClaw(AI 代理)中运行,但我却收到“Connect your tools to Claude… This isn’t working right now”的错误提示?

回答

不是模型问题。你的本地 GGUF 模型能在 OpenClaw 中工作,但该错误源于 Claude 工具集成,而非 llama.cpp 或模型本身。

你看到的是:

“Connect your tools to Claude… This isn’t working right now. Try again later.”

这通常在 OpenClaw 切换到 Claude 代理模式,但工具服务器 / MCP 桥接未连接时发生。

因此:


为何 OpenClaw 能与本地模型协同工作

当你运行:

/model llama-server/DeepSeek-R1-0528-Qwen3-8B-Q4_K_M.gguf

时,OpenClaw:

因此一切正常。


为何 Claude 模式会失败

当 OpenClaw 切换到 Claude 工具模式 时,它期望:

若其中一项失败 → 你将看到:

Connect your tools to Claude
This isn't working right now

这是一个工具连接错误,而非推理错误。


最常见原因

1. Claude 工具桥接未启动

你需要类似以下命令:

openclaw tools start

openclaw mcp start

(具体取决于你的版本)


2. 意外使用了 Claude 代理

你可能处于:

Agent: Claude

模式,而非:

Agent: Local

请切换回本地模式:

/model llama-server/DeepSeek-R1-0528-Qwen3-8B-Q4_K_M.gguf

3. 工具提供方离线

Claude 工具使用:

若 OpenClaw 无法连接它们 → 报错。


为何 OpenClaw 仍能运行本地模型

因为 OpenClaw 架构如下:

代理层
   ↓
模型层(本地 gguf)
   ↓
工具层(可选)

你的模型运行正常, 但 Claude 代理需要工具, 因此在推理前就已失败。


快速修复

使用纯本地代理:

/agent local

然后:

/model llama-server/DeepSeek-R1-0528-Qwen3-8B-Q4_K_M.gguf

这将完全绕过 Claude 工具。


另一修复方法

完全重启 OpenClaw:

pkill -f openclaw
openclaw dev

然后重新加载模型。


总结

你的模型运行正常 ✅
Claude 工具未连接 ❌
OpenClaw 本地模式不受影响 ✅

因此,问题是 Claude 工具集成,而非:

这是预期行为。

如果你粘贴:

我可以准确定位是哪一层发生了故障。


Back Donate