主页 > 创业  > 

轻松搭建本地大语言模型(二)Open-WebUI安装与使用

轻松搭建本地大语言模型(二)Open-WebUI安装与使用

文章目录 前置条件目标一、安装 Open-WebUI使用 Docker 部署 二、使用 Open-WebUI(一)访问Open-WebUI(二)注册账号(三)模型选择(四)交互 四、常见问题(一)容器无法访问宿主机(二)服务未启动 参考文章 Open-WebUI 是一个功能强大的开源工具,旨在为用户提供一个简洁且功能丰富的界面来管理和使用大语言模型(LLM)。它支持与 Ollama 等后端服务集成,方便用户通过 Web 界面进行模型交互。本文将详细介绍 Open-WebUI 的安装方法和基本使用技巧。

前置条件 电脑上装有docker环境

可以参考这个文章 .runoob /docker/windows-docker-install.html

目标 启动Open-WebUI连接本地Ollama启动的大模型 一、安装 Open-WebUI 使用 Docker 部署

如果Ollama在当前机器上,可以使用以下命令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果Ollama在其他服务器上,请使用此命令:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL= example -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main OLLAMA_BASE_URL:ollama连接地址 二、使用 Open-WebUI (一)访问Open-WebUI

打开浏览器,访问 http://localhost:3000。

(二)注册账号

(三)模型选择

这里可以切换ollama中已有的模型

(四)交互

左上角选择完想要的模型后,即可与之对话

至此,即可在本地浏览器使用界面与大模型进行对话

四、常见问题 (一)容器无法访问宿主机

如果你在部署时遇到容器无法访问宿主机的问题,确保使用了 --add-host=host.docker.internal:host-gateway 参数。

(二)服务未启动

如果服务未正常启动,检查 Docker 日志以获取更多信息:

docker logs -f open-webui 参考文章

github /open-webui/open-webui

标签:

轻松搭建本地大语言模型(二)Open-WebUI安装与使用由讯客互联创业栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“轻松搭建本地大语言模型(二)Open-WebUI安装与使用