Obsidian 插件篇 -Copilot 搭建本地知识库大模型
本篇文章主要介绍如何使用 Obsidian+Ollama+Copilot 搭建本地知识库大模型,细节部分可以参考提及的链接。原文见于:Obsidian插件篇-Copilot搭建本地知识库大模型 。
为什么搭建
想搭建自己的本地大模型知识库,希望 AI 助手能够成为我的知识助手。
配置需求
配置参数如下的笔记本,运行起来 ali 7b 模型生成速度太慢。
- 处理器:11th Gen Intel(R) Core(TM) i5-1135G7
- 机带 RAM:16.0 GB (15.7 GB 可用)
配置参数如下的台式机,运行起来 ali 7b 模型速度可以。
- CPU:i5 13600KF 4060ti
满血版的 Deepseek 家用硬件配置部署不起来,7b、8b 版本还不如使用网页版算了。
大模型搭建步骤
- 下载 Ollama
- 下载大模型
- Copilot 插件配置一下
步骤参考
- Ollama 本地运行的 LLM 模型
- Windows(Win10、Win11)本地部署开源大模型保姆级教程_本地部署大模型-CSDN博客
- 本地部署大模型?Ollama 部署和实战,看这篇就够了_ollama部署-CSDN博客
结论
- 电脑配置不行给出回答会很慢,效果并不理想。
- 即使电脑配置可以,基于知识库的问答效果依然不尽人意。建议再等等,等等党永不言败。