This is beauty

如何使用DeepSeek R1搭建本地知识库

一、‌基础部署方案(Ollama + Chatbox)‌‌

1.环境准备‌

  • 下载 Ollama 客户端,默认安装路径为 C 盘‌
  • 安装完成后,在终端执行 ollama list 确认环境正常

2.模型部署‌

  • 从 Ollama 官网获取 DeepSeek R1 模型指令(如 ollama run deepseek-r1 ),执行后自动下载模型文件至本地‌
  • 验证部署:终端输入 ollama list 显示已安装模型版本

3.知识库工具链搭建‌

  • 下载 Chatbox 客户端并安装,选择离线模式运行
  • 通过 Chatbox 上传本地文件(支持 PDF、Word、图片等格式),系统自动解析为向量数据库‌

4.功能验证‌

  • 在 Chatbox 输入框切换至 DeepSeek R1 模型
  • 测试问答:输入与知识库内容相关的问题,观察模型是否基于本地数据生成答案‌

二、‌高阶方案(Docker + RAGFlow)‌‌

0.先决条件

  • CPU ≥ 4 核 (x86);
  • RAM ≥ 16 GB;
  • 磁盘 ≥ 50 GB;
  • Docker ≥ 24.0.0 和 Docker Compose ≥ v2.26.1。

1.容器化环境部署‌

  • 安装 Docker 并配置国内镜像加速:先下载安装Docker,然后打开 Setting-->Docker Engine,将下面的配置粘贴进去
    {
    "builder": {
      "gc": {
        "defaultKeepStorage": "20GB",
        "enabled": true
      }
    },
    "debug": true,
    "experimental": false,
    "insecure-registries": [
      "registry.docker-cn.com",
      "docker.mirrors.ustc.edu.cn"
    ],
    "registry-mirrors": [
      "https://docker.registry.cyou",
      "https://docker-cf.registry.cyou",
      "https://dockercf.jsdelivr.fyi",
      "https://docker.jsdelivr.fyi",
      "https://dockertest.jsdelivr.fyi",
      "https://mirror.aliyuncs.com",
      "https://dockerproxy.com",
      "https://mirror.baidubce.com",
      "https://docker.m.daocloud.io",
      "https://docker.nju.edu.cn",
      "https://docker.mirrors.sjtug.sjtu.edu.cn",
      "https://docker.mirrors.ustc.edu.cn",
      "https://mirror.iscas.ac.cn",
      "https://docker.rainbond.cc",
      "https://do.nark.eu.org",
      "https://dc.j8.work",
      "https://dockerproxy.com",
      "https://gst6rzl9.mirror.aliyuncs.com",
      "https://registry.docker-cn.com",
      "http://hub-mirror.c.163.com",
      "http://mirrors.ustc.edu.cn/",
      "https://mirrors.tuna.tsinghua.edu.cn/",
      "http://mirrors.sohu.com/"
    ]
    }
    
  • 拉取 RAGFlow 项目
    git clone https://github.com/infiniflow/ragflow.git
    cd ragflow/docker
    git checkout -f v0.17.0 // 这个v0.17.0可以根据最新版替换
    
  • 修改.env文件,默认是slim模型,不包含嵌入模型,需要启用不带slim的配置,使ragflow包含嵌入模型,因为知识库必须使用嵌入模型
    # RAGFLOW_IMAGE=infiniflow/ragflow:v0.17.0-slim
    RAGFLOW_IMAGE=infiniflow/ragflow:v0.17.0
    
  • 服务器启动成功后再次确认服务器状态:docker logs -f ragflow-server

2.知识库引擎启动‌

  • 进入项目目录运行 docker-compose up -d,启动 RAGFlow 服务
  • 访问 localhost 进入管理界面,需要先注册账号才可以登录管理界面

3.使用ollamase本地化部署DeepSeek R1

4.添加本地模型

添加本地模型:点击右上角的头像,在设置页面点击“模型供应商”,在列表中找到Ollama,点击其下方的添加模型

  • 模型类型

    chat:语言(会话、聊天)模型。
    embedding:嵌入模型,用于将文本向量化。
    rerank:重排模型,用于对检索结果进行再次排序,在ragflow中创建助理时,默认使用矢量余弦相似性进行这一处理,除非指定了rerank模型。
    image2text:图片转文本模型。

  • 模型配置
  • 模型名称:必须与ollama中的名称一致,如想将deepseek-r1:7b添加为本地模型,就需要将其完整名称复制到文本框中。
  • 最大token数:根据需要填写,不超过8192,建议1024。
  • 基础Url填写:http://host.docker.internal:11434。
    因为ragflow是基于docker运行,但是ollama是直接安装在宿主机的,因此基础Url填写:http://host.docker.internal:11434

5.配置系统模型

在模型供应商中,点击右上角的系统模型设置

聊天模型:deepseek-r1:14b
嵌入模型:BAAI/bge-large-zh-v1.5
Rerank模型:BAAI/bge-reranker-v2-m3

6. 添加知识库

参考

4.API 集成‌

  • 通过 RAGFlow 提供的 REST API 接口,将知识库能力嵌入现有业务系统
  • 支持设置访问权限、日志监控等企业级功能‌
分享