OpenClaw人人养虾:Ollama(本地模型)

张开发
2026/4/6 15:43:19 15 分钟阅读

分享文章

OpenClaw人人养虾:Ollama(本地模型)
Ollama 是一款开源的本地模型运行工具可以在你的电脑上一键运行各种开源大模型。数据完全在本地处理无需网络连接非常适合注重隐私或离线使用的场景。安装 OllamamacOS / Linuxcurl -fsSL https://ollama.com/install.sh | shWindows前往 Ollama 官网 下载 Windows 安装包并运行。验证安装ollama --version拉取模型安装 Ollama 后需要先下载拉取模型# 推荐通义千问 2.5中文表现优秀 ollama pull qwen2.5:14b # DeepSeek V3强大的开源推理模型 ollama pull deepseek-v3 # Llama 3Meta 开源模型 ollama pull llama3:8b # 查看已下载的模型 ollama list配置 OpenClaw// ~/.openclaw/config.json { models: { providers: { ollama: { baseUrl: http://localhost:11434 } } } }认证配置Ollama 默认无需认证openclaw models auth login --provider ollama openclaw models default set ollama/qwen2.5:14b推荐模型以下是适合中文用户的本地模型推荐模型拉取命令说明Qwen 2.5 7Bollama pull qwen2.5:7b中文能力优秀资源需求低Qwen 2.5 14Bollama pull qwen2.5:14b中文最佳平衡选择Qwen 2.5 32Bollama pull qwen2.5:32b中文深度理解DeepSeek V3ollama pull deepseek-v3推理能力强Llama 3 8Bollama pull llama3:8b通用能力好Llama 3 70Bollama pull llama3:70b接近 GPT-4 水平CodeLlama 13Bollama pull codellama:13b编程专用硬件要求模型参数量最低显存VRAM推荐显存最低内存RAM3B2 GB4 GB8 GB7B4 GB8 GB16 GB14B8 GB12 GB24 GB32B16 GB24 GB32 GB70B36 GB48 GB64 GB说明如果没有独立显卡Ollama 会自动使用 CPU 推理速度较慢Apple SiliconM1/M2/M3/M4的统一内存可同时用于显存和内存量化版本如q4_0可以降低显存需求但会略微影响质量性能优化GPU 加速确保已安装对应的 GPU 驱动# NVIDIA GPU - 确认 CUDA 可用 nvidia-smi # AMD GPU - 确认 ROCm 可用 rocm-smi调整并发数# 设置 Ollama 并发数 export OLLAMA_NUM_PARALLEL2 # 设置模型在内存中的保持时间 export OLLAMA_KEEP_ALIVE30m使用量化模型对于显存有限的设备选择量化版本# 4-bit 量化版本显存需求约为原始模型的 1/4 ollama pull qwen2.5:14b-q4_0故障排查Ollama 服务未启动# 启动 Ollama 服务 ollama serve # 或检查服务状态 curl http://localhost:11434/api/tags模型加载失败检查磁盘空间是否充足确认模型已成功下载ollama list尝试重新拉取模型ollama pull model推理速度慢确认 GPU 驱动已正确安装尝试使用更小的模型或量化版本关闭其他占用 GPU 资源的程序无法连接 OpenClaw确认 Ollama 正在运行curl http://localhost:11434检查 OpenClaw 配置中的baseUrl是否正确如果 Ollama 在远程机器上修改baseUrl为对应地址《DeepSeek高效数据分析从数据清洗到行业案例》聚焦DeepSeek在数据分析领域的高效应用是系统讲解其从数据处理到可视化全流程的实用指南。作者结合多年职场实战经验不仅深入拆解DeepSeek数据分析的核心功能——涵盖数据采集、清洗、预处理、探索分析、建模回归、聚类、时间序列等及模型评估更通过金融量化数据分析、电商平台数据分析等真实行业案例搭配报告撰写技巧提供独到见解与落地建议。助力职场人在激烈竞争中凭借先进技能突破瓶颈实现职业进阶开启发展新篇。

更多文章