Obsidian插件篇-Copilot搭建本地知识库大模型


Obsidian 插件篇 -Copilot 搭建本地知识库大模型

本篇文章主要介绍如何使用 Obsidian+Ollama+Copilot 搭建本地知识库大模型,细节部分可以参考提及的链接。原文见于:Obsidian插件篇-Copilot搭建本地知识库大模型

为什么搭建

想搭建自己的本地大模型知识库,希望 AI 助手能够成为我的知识助手。

配置需求

配置参数如下的笔记本,运行起来 ali 7b 模型生成速度太慢。

  • 处理器:11th Gen Intel(R) Core(TM) i5-1135G7
  • 机带 RAM:16.0 GB (15.7 GB 可用)

配置参数如下的台式机,运行起来 ali 7b 模型速度可以。

  • CPU:i5 13600KF 4060ti

满血版的 Deepseek 家用硬件配置部署不起来,7b、8b 版本还不如使用网页版算了。

大模型搭建步骤

  • 下载 Ollama
  • 下载大模型
  • Copilot 插件配置一下

步骤参考

结论

  • 电脑配置不行给出回答会很慢,效果并不理想。
  • 即使电脑配置可以,基于知识库的问答效果依然不尽人意。建议再等等,等等党永不言败。

文章作者: huan
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 huan !
  目录