SillyTavern 向量存储配置踩坑记:从卡死到本地部署 Ollama 跑通

张开发
2026/4/18 1:11:14 15 分钟阅读

分享文章

SillyTavern 向量存储配置踩坑记:从卡死到本地部署 Ollama 跑通
一、为什么需要向量存储我猜你一定是受够了AI角色聊着聊着就“失忆”的困扰也受够了各种没法落地的复杂方案才会开始捣鼓SillyTavern的向量存储。市面上确实很难找到一份清晰、完整的教程大多含糊不清我甚至在CSDN上都很难看到有价值的讨论。很多方案治标不治本我自己就是被坑过来的想用官方的“数据银行”发现根本找不到问小助手得到的方案一个比一个不靠谱最后老老实实选了最笨也最稳的本地部署。所以我把这段从一头雾水到最终跑通的完整过程记录下来希望能给你一份真正能用得上的参考让你少走些弯路。二、迷雾中的探索为什么官方方案和小助手都救不了你刚开始搜索时会发现一些看似全面的技术博客但它们往往止步于理论读完还是不知道怎么配置。按着官方教程一步步走结果在“数据银行”的入口处就卡住了。新版里“数据银行”成了“聊天附件”界面完全不同教程瞬间失效。当你发现这条路走不通转而向各种AI小助手求助时得到的方案更是五花八门方案A让你去“数据银行”配置但这入口在新版里根本不存在纯属误导。方案B建议用“OpenAI兼容API”一步搞定但对只想本地化部署的人来说这意味着又要去折腾云端服务。方案C把锅甩给版本让你换Transformers源。这正是我走过的死胡同——**卡在0%进度**。命令行黑窗里网络错误不断这个方案注定失败。几番折腾AI小助手在Windows下的不稳定表现让我彻底放弃了这条路。三、终极选择最稳的本地部署Ollama担纲主角就在想放弃的时候搜到了一些关于Ollama的讨论。它在本地部署和稳定性上的口碑让它成了最后的希望。1. 安装Ollama访问Ollama官网下载Windows安装包一路Next完成安装。https://ollama.com/download2. 下载中文嵌入模型模型是整个系统的大脑选择了shaw/dmeta-embedding-zh。这是个专门为中文优化的轻量级模型在性能和资源占用上找到了绝佳平衡。WinR cmd打开命令行运行以下命令ollama pull shaw/dmeta-embedding-zh用此命令看到镜像就算成功3. 酒馆配置打开 SillyTavern 进行关键配置API 连接在API连接面板点击新增一个连接。类型选择 文本补全API 地址填写http://localhost:11434。如果看到右侧出现绿色勾就说明连接成功了。开启向量存储点击顶部扩展图标积木方块进入“向量存储”。在“向量化源”下拉框中选择 Ollama然后在下方的“向量化模型”中选择刚配置好的模型。设置存储容量memoryCacheCapacity值越大能缓存的消息越多。我把它改成了500mb。4. 向量化聊天记录在“聊天向量化设置”里确保勾选 “已启用聊天消息”最后点击 “向量化所有消息”。看到进度条从 0% 开始跳动直到 100%心才终于落地。几分钟后一切完成。

更多文章