Deepseek大模型本地部署+本地知识库的构建

本地化部署大模型,像是一场对技术主权的温柔革命——它让算力回归本地,让智能扎根于每一台终端的土壤。而构建本地知识库,则是为机器注入专属的灵魂:当通用大模型邂逅垂直领域的知识根系,冰冷的参数开始生长出有温度的理解力。
本文将聚焦国产深度求索(Deepseek)大模型的本地化部署和本地知识库的构建。
这场实践的意义,远不止于技术参数的堆砌。它关乎每一个开发者对“智能自主权”的觉醒,当我们能够亲手驯服大模型的力量,当知识库成为可自由编辑的“第二大脑”,或许人类与AI的关系,才能真正从“仰望”走向“对话”。
DeepSeek-R1

1.安装环境


本次安装基于Linux操作系统centos发行版。

2.安装步骤


ollama 和 Dify 的安装没有先后顺序

2.1安装ollama


打开ollama的官网,如下界面

图片[1]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

复制图中的命令,在Linux中运行,大概率会卡住(如果正常安装则不用看后续的ollama安装),出现下图这种情况:

图片[2]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

如果卡住则换一种方式进行安装,同样是ollama的官网,点击下图红框部分

图片[3]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

然后根据安装提示依次运行相应代码,下载时有时很慢,慢慢等吧。

安装前最好建一个目录

mkdir /opt/ollama && cd /opt/ollama

下载ollama的安装包并进行解压

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz<br>sudo tar -C /usr -xzf ollama-linux-amd64.tgz

启动ollama的服务

ollama serve

查看ollama的版本

ollama -v


安装ollama成功后,输入ollama -v 会有相应的版本。

2.2 通过ollama安装大模型(根据自己硬件配置选择合适的),

本次实验选择deepseek-r1:1.5b

ollama run deepseek-r1:1.5b


下载完运行成功后如下图

图片[4]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

2.3 下载dify


本次安装采用docker compose安装,如未下载docker请先安装docker

创建dify目录并进入

mkdir /opt/dify && cd /opt/dify

克隆 Dify 源代码至本地环境,如未安装git先安装git

git clone https://github.com/langgenius/dify.git

进入 Dify 源代码的 Docker 目录

cd dify/docker

复制环境配置文件

cp .env.example .env

启动 Docker 容器

docker compose up -d


最后检查是否所有容器都正常运行:

docker compose ps


在这个输出中,你应该可以看到包括 3 个业务服务 api / worker / web,以及 6 个基础组件 weaviate / db / redis / nginx / ssrf_proxy / sandbox 。

图片[5]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

3.访问dify


在浏览器访问自己的机器IP,默认80端口。 出现登录页面,

图片[6]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

3.1设置自己的本地大模型


登录进去后,点击右上角个人账号,点击设置,如下图

图片[7]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

找到ollama添加自己的本地大模型

图片[8]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋
图片[9]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

3.2 注意:

  1. 模型名称一定要和ollama中的名称对应(通过 ollama list 命令查看所有下载的本地模型),不可自己编造。
  2. 基础URL要加上http://请求头。

设置无误后报错如下,拒绝链接,访问本地IP:11434显示拒绝访问。

图片[10]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

通过netstat查看端口占用(该命令需要安装net-tools工具),发现11434端口只在回环地址上监听,用本地浏览器无法访问,如下图所示,

图片[11]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

修改ollama service文件

vim /etc/systemd/system/ollama.service


在service模块下增加:Environment=”OLLAMA_HOST=0.0.0.0:11434″,加完后如下图所示

图片[12]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

修改完后,执行如下命令:

systemctl daemon-reload
systemctl restart ollama


然后再重新在浏览器访问本机IP:11434,发现还是无法访问,发现防火墙未关闭,关闭防火墙后访问成功。

图片[13]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

此时我们再回到dify设置界面进行设置 ,设置成功,在模型列表中可以看到我们刚刚添加的本地模型

图片[14]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

3.3 创建聊天助手

图片[15]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

随便起个名字然后测试,能正常使用。

图片[16]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

4.创建本地知识库


本地知识库的构建可以使用Embedding 模型,也可以不使用Embedding 模型,只用dify自带的切片功能;这里我以使用Embedding 模型为例。

4.1. Embedding 模型的下载


Embedding 模型有多种,这里以其中一个为例,打开ollama官网的models页面:

图片[17]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

通过ollama下载第一个模型:

ollama pull shaw/dmeta-embedding-zh


下载完成后按照3.1步骤进行添加即可,添加后可显示如下

图片[18]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

4.2 创建知识库

图片[19]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

上传自己要上传的文件,然后下一步,可以看到我们的 Embedding 模型

图片[20]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

等待创建完成后回到工作室页面,添加上下文,找到我们刚刚创建的知识库添加即可

图片[21]-Deepseek大模型本地部署+本地知识库的构建-龙之小站资源屋

————————————————

原文链接:https://blog.csdn.net/weixin_57254695/article/details/145523700

© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片快捷回复

    暂无评论内容