MaxKB+Ollama+DeepSeek本地部署
- 电脑硬件
- 2025-09-05 07:30:01

本地部署AI大模型
通过ollama部署本地AI大模型,Ollama是管理和部署大模型的一个工具,它可以帮助我们在本地更加方便并快速的部署和使用各种大模型
下面是我通过虚拟机CentOS7.9.2009版本进行演示
1、安装和配置Ollama 1.1 下载Ollama安装包Ollama同时支持macOS、Linux和Windows操作系统
官网:Download Ollama on Linux
教程:快速入门 - Ollama 中文文档
Git官网:ollama/docs/linux.md at main · ollama/ollama · GitHub
1.1.1 Linux操作系统命令行安装 curl -fsSL ollama /install.sh | sh # 如果安装不成功,可以开启VPN代理 export https_proxy=http://宿主机IP:port 1.1.2 Linux操作系统离线安装 # 安装前要注意查看自己的CPU是什么架构的 uname -m # 使用curl下载 curl -L ollama /download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz # 如果curl下载不了,可能要先VPN翻墙,可以通过宿主机的VPN实现翻墙 export https_proxy=http://宿主机的IP:port curl -L ollama /download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz # 直接使用借助宿主机进行下载安装包,这是amd架构即x86 ollama /download/ollama-linux-amd64.tgz # arm架构 ollama /download/ollama-linux-arm64.tgz # 解压 sudo tar -C /usr/local/ollama -xzf ollama-linux-amd64.tgz 1.2 将ollama服务使用systemctl进行管理 cat << EOF | tee /usr/lib/systemd/system/ollama.service [Unit] Description=Ollama Service After=network.target [Service] Environment=OLLAMA_HOST=0.0.0.0:11434 ExecStart=/usr/local/ollama/bin/ollama serve Restart=on-failure User=root Group=root [Install] WantedBy=multi-user.target EOF # 使用systemctl管理ollama服务 systemctl enable --now ollama systemctl status ollama 1.3 Ollama语法可以从官网教程看到一些Ollama的用法,使用浏览器输入http://ip:11434,可以从浏览器中看到Ollama is running字样
ollama server:启动ollama服务,当然我现在已经使用systemctl管理
ollama list:查看下载的大模型
ollama pull llama3.2:下载AI大模型llama3.2
ollama rull llama3.2:下载AI大模型并运行
ollama rm llama3.2:删除大模型
ollama stop llama3.2:停止llama大模型
ollama ps:列出当前已加载的模型
/exit or /bye:退出模型对话框
配置大模型下载的路径:export OLLAMA_MODELS=/models
2、安装和配置UI界面我这里使用docker直接去安装图形化UI界面,我已两个流行的AI web界面为例
2.1 MaxKB基于大语言模型和RAG的知识库问答系统,操作系统支持:Ubuntu 22.04 / CentOS 7.6 64 位系统,所以要其他操作系统要借助Docker进行安装
官网:MaxKB - 基于大模型和 RAG 的知识库问答系统 - 官网
# Linux 操作系统 docker run -d --name=maxkb --restart=always -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages cr2.fit2cloud /1panel/maxkb # Windows 操作系统 docker run -d --name=maxkb --restart=always -p 8080:8080 -v C:/maxkb:/var/lib/postgresql/data -v C:/python-packages:/opt/maxkb/app/sandbox/python-packages cr2.fit2cloud /1panel/maxkb这个过程需要的时间相对较长,需要耐心等待
访问
通过浏览器http://ip:8080进行访问
用户名:admin,密码:MaxKB@123..
2.2 Open Web UI官网:GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
# 如果ollama部署到当前虚拟机中 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main # 如果ollama部署到其他要制定ollama网址 docker run -d -p 3000:8080 -e OLLAMA_BASE_URL= example -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 3、使其可以在公网上访问要实现该功能,可以借助内网穿透工具,可以使用ngrok工具,当然也可以使用frp(部署可能比较复杂,需要借助有公网IP的服务器),可以在我笔记中的notepad/linux_file/config_language/frp_configure.md文件中看到
MaxKB+Ollama+DeepSeek本地部署由讯客互联电脑硬件栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“MaxKB+Ollama+DeepSeek本地部署”