如何使用DeepSeek R1搭建本地知识库
一、基础部署方案(Ollama + Chatbox)
1.环境准备
- 下载 Ollama 客户端,默认安装路径为 C 盘
- 安装完成后,在终端执行 ollama list 确认环境正常
2.模型部署
- 从 Ollama 官网获取 DeepSeek R1 模型指令(如
ollama run deepseek-r1
),执行后自动下载模型文件至本地 - 验证部署:终端输入 ollama list 显示已安装模型版本
3.知识库工具链搭建
- 下载 Chatbox 客户端并安装,选择离线模式运行
- 通过 Chatbox 上传本地文件(支持 PDF、Word、图片等格式),系统自动解析为向量数据库
4.功能验证
- 在 Chatbox 输入框切换至 DeepSeek R1 模型
- 测试问答:输入与知识库内容相关的问题,观察模型是否基于本地数据生成答案
二、高阶方案(Docker + RAGFlow)
0.先决条件
- CPU ≥ 4 核 (x86);
- RAM ≥ 16 GB;
- 磁盘 ≥ 50 GB;
- Docker ≥ 24.0.0 和 Docker Compose ≥ v2.26.1。
1.容器化环境部署
- 安装 Docker 并配置国内镜像加速:先下载安装Docker,然后打开
Setting-->Docker Engine
,将下面的配置粘贴进去{ "builder": { "gc": { "defaultKeepStorage": "20GB", "enabled": true } }, "debug": true, "experimental": false, "insecure-registries": [ "registry.docker-cn.com", "docker.mirrors.ustc.edu.cn" ], "registry-mirrors": [ "https://docker.registry.cyou", "https://docker-cf.registry.cyou", "https://dockercf.jsdelivr.fyi", "https://docker.jsdelivr.fyi", "https://dockertest.jsdelivr.fyi", "https://mirror.aliyuncs.com", "https://dockerproxy.com", "https://mirror.baidubce.com", "https://docker.m.daocloud.io", "https://docker.nju.edu.cn", "https://docker.mirrors.sjtug.sjtu.edu.cn", "https://docker.mirrors.ustc.edu.cn", "https://mirror.iscas.ac.cn", "https://docker.rainbond.cc", "https://do.nark.eu.org", "https://dc.j8.work", "https://dockerproxy.com", "https://gst6rzl9.mirror.aliyuncs.com", "https://registry.docker-cn.com", "http://hub-mirror.c.163.com", "http://mirrors.ustc.edu.cn/", "https://mirrors.tuna.tsinghua.edu.cn/", "http://mirrors.sohu.com/" ] }
- 拉取 RAGFlow 项目
git clone https://github.com/infiniflow/ragflow.git cd ragflow/docker git checkout -f v0.17.0 // 这个v0.17.0可以根据最新版替换
- 修改.env文件,默认是slim模型,不包含嵌入模型,需要启用不带slim的配置,使ragflow包含嵌入模型,因为知识库必须使用嵌入模型
# RAGFLOW_IMAGE=infiniflow/ragflow:v0.17.0-slim RAGFLOW_IMAGE=infiniflow/ragflow:v0.17.0
- 服务器启动成功后再次确认服务器状态:
docker logs -f ragflow-server
2.知识库引擎启动
- 进入项目目录运行
docker-compose up -d
,启动 RAGFlow 服务 - 访问
localhost
进入管理界面,需要先注册账号才可以登录管理界面
3.使用ollamase本地化部署DeepSeek R1
4.添加本地模型
添加本地模型:点击右上角的头像,在设置页面点击“模型供应商”,在列表中找到Ollama,点击其下方的添加模型
。
- 模型类型
chat:语言(会话、聊天)模型。
embedding:嵌入模型,用于将文本向量化。
rerank:重排模型,用于对检索结果进行再次排序,在ragflow中创建助理时,默认使用矢量余弦相似性进行这一处理,除非指定了rerank模型。
image2text:图片转文本模型。 - 模型配置
- 模型名称:必须与ollama中的名称一致,如想将deepseek-r1:7b添加为本地模型,就需要将其完整名称复制到文本框中。
- 最大token数:根据需要填写,不超过8192,建议1024。
- 基础Url填写:http://host.docker.internal:11434。
因为ragflow是基于docker运行,但是ollama是直接安装在宿主机的,因此基础Url填写:http://host.docker.internal:11434
5.配置系统模型
在模型供应商中,点击右上角的系统模型设置
。
聊天模型:deepseek-r1:14b
嵌入模型:BAAI/bge-large-zh-v1.5
Rerank模型:BAAI/bge-reranker-v2-m3
6. 添加知识库
4.API 集成
- 通过 RAGFlow 提供的 REST API 接口,将知识库能力嵌入现有业务系统
- 支持设置访问权限、日志监控等企业级功能