主页 > 软件开发  > 

Deepseek+RAGFLOW部署教程

Deepseek+RAGFLOW部署教程
本篇教程为Deepseek+RAGFLOW详细部署

本篇主要基于linux服务器部署ragflow+deepseek,其他操作系统稍有差异但是大体一样。 ——————————————————————————————————

前言说明:

Ubantu22系统部署RAGFLOW,在之前的博文中记录过,有需要的可以点击查看linux服务器部署ragflow+ollama

Ubantu系统离线部署ollama可参考博文基于linux服务器Ubantu20.04的离线Ollama安装(手动安装成功)

请注意区分ollama版本,最新的最好,至少要满足拉取需要模型的要求 ————————————————————————————————

一、先决条件

CPU ≥ 4核; RAM ≥ 16 GB; 磁盘 ≥ 50 GB; Docker ≥ 24.0.0 & Docker Compose ≥ v2.26.1。 如果尚未在本地计算机(Windows、Mac或Linux)上安装Docker,请参阅安装Docker引擎。 —————————————————————— 我的服务器系统 Ubuntu 22.04.5 LTS,16核CPU,32G内存,200G硬盘。 ——————————————————————

二、启动RAGFLOW服务器 1、确保 vm.max_map_count ≥ 262144:

vm.max_map_count.此值设置进程可能拥有的内存映射区域的最大数量。它的默认值是65530。虽然大多数应用程序需要少于一千个映射,但减少此值可能会导致异常行为,当进程达到限制时,系统会抛出内存不足错误。

RAGFlow v0.10.0使用Elasticsearch进行多次调用。正确设置vm.max_map_count的值对于Elasticsearch组件的正常运行至关重要。 具体操作

检查vm.max_map_count的值

sysctl vm.max_map_count

重置vm.max_map_count>=262144

sudo sysctl -w vm.max_map_count=262144

永久设置,写入/etc/sysctl.conf 配置文件中 利用winSCP打开/etc/sysctl.conf配置文件,将下面这句脚本写入配置文件最下端

vm.max_map_count=262144

注意:道理明白,不管用什么方式打开sysctl.conf配置文件,写入即可。

2、克隆RAGFLOW存储库 git clone github /infiniflow/ragflow.git

—————————————————— 访问不了github ,参考另篇博文解决 ——————————————————

3、构建预构建的Docker映像并启动服务器

运行以下命令会自动下载开发版本RAGFlow Docker映像。

cd ragflow/docker chmod +x ./entrypoint.sh docker compose -f docker-compose.yml up -d

注意:镜像文件大约9GB,下载过程可能需要一些时间,请耐心等待。 ———————————————— 注意:这里拉取时间大概2个半小时(基于我的服务器性能,大家可参考) 如果拉取完成,部分容器启动错误,查看日志进行求助gpt,实在解决不了的话,可以选择所有东西(从docker部署开始)推倒重来一次,有了前面的操作经验,重新部署速度还行,问题也可得到解决,亲测有效。

2025-2-26 晚上 国内可用镜像源: docker.1ms.run ————————————————

4、确认服务器状态

服务器启动成功后,通过以下命令查看服务器日志,确认服务器是否正常运行:

docker logs -f ragflow-server

到此,基于 Ubuntu 22.04.5 LTS 、docker启动的ragflow部署完成。

三、Ollama上面拉取deepseek r1大模型

(1)打开ollama官网,点击models

(2)选择deepseek-r1,根据需要选择参数级别,复制对应的命令 ————————————————————— 此处我选择的是deepseek-r1 7b的大模型 —————————————————————

(3)验证ollama是否正常运行,然后粘贴命令拉取大模型 web浏览器输入【服务器IP+ollama端口11434】回车出现:Ollama is running则说明正常运行。 粘贴以下命令拉取deepseek-r1大模型

ollama run deepseek-r1:7b

拉取成功如下图所示:

四、在RAGFLOW中利用ollama添加deepseek-r1大模型

1.打开浏览器输入

http://localhost:80

注册登录账号 登录后出现以下界面 配置ollama大模型,点击右上角头像,再点击模型提供商

如何选择url? —————————————————————————— 规则如下: (1)Ollama和RAGFlow在同一台机器上运行,基本URL:

http://localhost:11434

(2)Ollama和RAGFlow在同一台机器上运行,并且Ollama或者RAGFLOW在Docker中,基本URL:

http://host.docker.internal:11434

(3)Ollama在与RAGFlow不同的机器上运行,基本URL:

http://<IP_OF_OLLAMA_MACHINE>:11434

注意大家根据自己实际情况填写!

———————————————————————————

添加成功如下如所示

聊天中正常使用如下所示

五、RAGFLOW建立知识库,创建聊天(可更新)

到此,Deepseek+RAGFLOW部署教程结束!

标签:

Deepseek+RAGFLOW部署教程由讯客互联软件开发栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“Deepseek+RAGFLOW部署教程