我的AI助手跑在自家电脑上:保姆级教程,用Dify和Ollama在Win10/Win11打造专属“ChatGPT”

张开发
2026/4/13 19:09:14 15 分钟阅读

分享文章

我的AI助手跑在自家电脑上:保姆级教程,用Dify和Ollama在Win10/Win11打造专属“ChatGPT”
在Windows上打造你的专属AI助手Dify与Ollama实战指南你是否厌倦了每次使用AI都要打开网页担心隐私泄露或者受限于API调用次数现在你可以把这些烦恼统统抛在脑后。本文将带你一步步在Windows电脑上搭建一个完全私有的AI助手系统就像拥有一个随时待命的ChatGPT但更安全、更个性化。想象一下这样的场景深夜灵感迸发时不用等待网页加载就能获得创作建议处理敏感文件时数据完全不会离开你的电脑甚至可以根据你的习惯定制专属工作流比如自动整理会议记录或生成个性化内容。这一切只需要利用Dify和Ollama这两款工具就能实现。Ollama负责提供强大的语言模型大脑而Dify则是一个直观的控制面板让你无需编写复杂代码就能创建各种AI应用。1. 准备工作搭建基础环境在开始之前我们需要确保你的Windows系统已经准备好运行AI模型。虽然这听起来可能有些技术性但跟着步骤走你会发现其实并不复杂。首先我们需要安装Docker Desktop。Docker是一个容器化平台它能帮助我们轻松部署和管理各种服务。安装过程非常简单访问Docker官网下载Windows版本安装包双击安装包按照向导完成安装安装完成后重启系统启动Docker Desktop接受服务协议提示如果启动时遇到WSL相关错误可以手动下载并安装WSL 2 Linux内核更新包来解决。接下来是安装Ollama这是一个专门用于本地运行大型语言模型的工具。它的安装同样直观访问Ollama官网下载Windows版本安装程序双击安装包按照提示完成安装安装完成后Ollama服务会自动启动验证安装是否成功可以打开命令提示符输入ollama -v如果显示版本信息说明安装成功。2. 选择合适的AI模型并部署现在我们来到了最令人兴奋的部分——选择并部署你的AI大脑。Ollama支持多种开源大语言模型你需要根据电脑配置选择适合的版本。以下是常见模型参数与硬件需求的对照表模型参数所需显存适用场景1.5B4GB轻度任务、低资源设备7B/8B8GB大多数应用场景推荐14B16GB高性能需求32B24GB专业级应用对于大多数用户7B参数的模型在性能和资源消耗之间提供了最佳平衡。例如我们可以选择qwen2.5:7b模型ollama pull qwen2.5:7b下载完成后启动模型服务ollama run qwen2.5:7b现在你的电脑已经拥有了一个强大的语言模型大脑你可以直接在命令行与它交互测试基本功能。3. 部署Dify打造友好的用户界面虽然Ollama提供了模型能力但直接通过命令行交互并不够友好。这就是Dify发挥作用的地方——它将为你提供一个类似ChatGPT的网页界面还能创建工作流。首先我们需要获取Dify的源代码。有两种方式可选从GitHub克隆需要安装Gitgit clone https://github.com/langgenius/dify.git直接下载ZIP包访问Dify的GitHub页面点击Code按钮选择Download ZIP解压到本地目录接下来配置Docker环境进入解压后的Dify目录下的docker文件夹将.env.example文件重命名为.env可选用文本编辑器打开.env文件修改服务端口号EXPOSE_NGINX_PORT8089在docker目录中打开命令提示符启动Dify服务docker compose up -d启动完成后打开浏览器访问http://localhost如果修改了端口号请访问http://localhost:8089按照提示创建管理员账户并完成初始化设置。4. 连接Dify与Ollama让系统完整运行现在我们有了Ollama提供的模型能力也有了Dify提供的友好界面最后一步是将两者连接起来。登录Dify控制台点击右上角头像进入设置选择模型供应商点击添加模型供应商。在市场中找到或搜索Ollama点击安装。安装完成后点击添加模型填写以下信息模型类型选择LLM模型名称输入你在Ollama中下载的模型名称如qwen2.5:7b基础URLhttp://host.docker.internal:11434模型上下文长度4096最大Token上限4096点击保存系统会验证连接是否成功。如果一切顺利你现在就可以在Dify中使用本地运行的AI模型了5. 创建你的第一个AI工作流有了基础系统后让我们尝试创建一个实用的工作流。比如我们可以设计一个自动会议纪要整理工具。在Dify中点击创建工作流然后添加一个文本输入节点用于接收原始会议记录连接一个LLM处理节点选择我们配置的Ollama模型在LLM节点中设置提示词例如请将以下会议记录整理为结构化摘要包括决策点、行动项和责任人添加一个文本输出节点显示处理结果保存工作流后你就可以随时使用这个工具快速整理会议记录了。类似的你还可以创建内容生成器、数据分析工具等各种实用AI应用。6. 性能优化与日常使用技巧为了让你的AI助手运行得更顺畅这里有一些实用建议资源管理当不使用AI时可以通过命令ollama stop暂停模型服务释放资源多模型切换Ollama支持同时安装多个模型使用时只需指定不同模型名称端口冲突解决如果遇到端口占用问题可以修改.env文件中的端口设置定期更新关注Ollama和Dify的更新获取新功能和性能改进在实际使用中我发现最方便的是将常用工作流设置为快捷方式这样一键就能调用特定功能。例如我为每周报告撰写创建了一个专用工作流节省了大量重复性工作的时间。

更多文章