快速搭建OLLAMA+DeepSeek模型并对接CherryStudio
- 游戏开发
- 2025-09-05 05:48:03

快速搭建 OLLAMA + DeepSeek 模型并对接 Cherry Studio
本文将指导您在基于 GPU 的 Ubuntu 服务器上快速搭建 OLLAMA,部署 DeepSeek 模型,并接入 Cherry Studio 进行使用。
环境说明 GPU 服务器: GeForce RTX 2080 Ti, 16 核, 64G 内存系统: Ubuntu 24.04.1 UEFI 64bit系统盘: 150 GBOLLAMA 版本: 0.5.11DeepSeek 模型: deepseek-r1:7b, deepseek-r1:1.5bCherry Studio 版本: 0.9.24
步骤 1: 安装 OLLAMA
1.下载并安装 OLLAMA
#Download and extract the package: curl -L ollama /download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz sudo tar -C /usr -xzf ollama-linux-amd64.tgz2.创建模型存储目录
sudo mkdir -p /data/ollama/models sudo chown -R $USER:$USER /data/ollama/models3.创建 Systemd 服务文件
sudo tee /etc/systemd/system/ollama.service <<EOF [Unit] Description=OLLAMA Service After=network-online.target [Service] ExecStart=/usr/bin/ollama serve User=root Group=root Restart=always Environment="OLLAMA_MODELS=/data/ollama/models" Environment="OLLAMA_HOST=0.0.0.0:11434" [Install] WantedBy=multi-user.target EOF4.启动 OLLAMA 服务
sudo systemctl daemon-reload sudo systemctl enable ollama sudo systemctl start ollama步骤 2: 加载 DeePSeek 模型
加载 DeePSeek 模型
ollama pull deepseek-r1:7b ollama pull deepseek-r1:1.5b验证模型
ollama list步骤 3: 对接 Cherry Studio
安装 Cherry Studio
下载并安装 Cherry Studio 0.9.24 版本。配置模型
打开 Cherry Studio,进入 模型管理 页面。输入 OLLAMA 服务地址:http://192.168.100.2:11434。选择 deepseek-r1:7b 或 deepseek-r1:1.5b 模型。开始使用
返回 Cherry Studio 主界面,即可与模型进行交互。总结
通过以上步骤,您已成功在 GPU 服务器上部署 OLLAMA,加载 DeePSeek 模型,并接入 Cherry Studio。
快速搭建OLLAMA+DeepSeek模型并对接CherryStudio由讯客互联游戏开发栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“快速搭建OLLAMA+DeepSeek模型并对接CherryStudio”