ClawdBot快速入门:详细教程解决devices approve授权问题

张开发
2026/4/12 14:50:32 15 分钟阅读

分享文章

ClawdBot快速入门:详细教程解决devices approve授权问题
ClawdBot快速入门详细教程解决devices approve授权问题1. ClawdBot简介你的本地AI助手ClawdBot是一个可以在个人设备上运行的个人AI助手它使用vLLM提供后端模型能力。与依赖云端服务的AI助手不同ClawdBot完全在本地运行确保你的数据和隐私安全。这个工具特别适合那些需要保护隐私的用户希望在本地运行AI模型的开发者想要定制化AI助手功能的技术爱好者2. 环境准备与快速部署2.1 系统要求在开始之前请确保你的系统满足以下要求操作系统Linux (推荐Ubuntu 22.04)、macOS或Windows(WSL2)内存至少8GB存储空间至少10GB可用空间Docker已安装并运行2.2 快速安装步骤首先创建一个工作目录mkdir -p ~/clawdbot cd ~/clawdbot创建docker-compose.yml文件version: 3.8 services: clawdbot: image: clawdbot/clawdbot:latest ports: - 7860:7860 - 18780:18780 volumes: - ~/.clawdbot:/app/.clawdbot - ./workspace:/app/workspace restart: unless-stopped启动服务docker compose up -d3. 解决devices approve授权问题3.1 理解授权机制ClawdBot默认启用了设备授权机制这是为了保护你的AI助手不被未经授权的设备访问。当你第一次访问ClawdBot的Web界面时系统会生成一个待批准的设备请求。3.2 授权操作步骤首先访问Web界面这一步很重要http://localhost:7860查看待批准的设备列表clawdbot devices list批准设备替换为你的实际设备IDclawdbot devices approve [device-id]3.3 常见问题解决如果遇到授权问题可以尝试以下方法确保你已经访问过Web界面检查配置文件路径是否正确默认在~/.clawdbot/clawdbot.json确认是在宿主机终端执行命令而不是在容器内4. 模型配置与验证4.1 修改模型配置ClawdBot默认使用vLLM后端你可以通过修改配置文件来调整模型设置编辑配置文件nano ~/.clawdbot/clawdbot.json修改models部分models: { mode: merge, providers: { vllm: { baseUrl: http://localhost:8000/v1, apiKey: sk-local, api: openai-responses, models: [ { id: Qwen3-4B-Instruct-2507, name: Qwen3-4B-Instruct-2507 } ] } } }4.2 验证模型状态检查模型是否加载成功clawdbot models list预期输出应该包含类似这样的信息vllm/Qwen3-4B-Instruct-2507 text 195k yes yes default5. 使用ClawdBot Web界面成功解决授权问题后你可以通过Web界面与ClawdBot交互访问http://localhost:7860主要功能区域左侧导航栏包含聊天、配置等功能入口中间区域对话界面右侧区域可能包含附加功能或设置6. 高级配置选项6.1 自定义模型如果你想使用其他模型可以修改配置文件中的models部分。确保vLLM后端支持你选择的模型。6.2 工作区设置ClawdBot使用/app/workspace作为工作目录你可以通过挂载不同的目录来改变这一设置。7. 总结与下一步通过本教程你已经成功部署了ClawdBot解决了devices approve授权问题配置了基础模型访问了Web界面下一步你可以探索更多模型配置选项尝试集成其他功能学习如何优化性能获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章