主页 > 软件开发  > 

自己安装一台DeepSeek的服务器

自己安装一台DeepSeek的服务器
找一台还可以的Linux服务器,登录后执行: curl -fsSL ollama /install.sh | sh 等待安装完成:

执行命令,根据服务器能力安装不同版本的AI模型: ollama run llama3.2

下一步就开始对话吧:

llama3.2一点都不行呀

退出对话 Use Ctrl + d or /bye to exit.  DeepSeek会有很多版本,大家都可以尝试: 版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间) ollama run deepseek-r1:1.5b 版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要 4.7GB空余空间) ollama run deepseek-r1:7b 版本:8b,(需要4.9GB空余空间) ollama run deepseek-r1:8b 版本:14b,(需要9GB空余空间) ollama run deepseek-r1:14b 版本:32b,(需要20GB空余空间) ollama run deepseek-r1:32b 版本:70b,(需要43GB空余空间) ollama run deepseek-r1:70b 版本:671b,(需要404GB空余空间) ollama run deepseek-r1:671b

安装 deepseek-r1:7b,服务器空间算力够,就安装更大的版本:

 

操作ollama服务器命令 systemctl restart ollama systemctl start ollama systemctl stop ollama systemctl status ollama 查看已安装的ollama列表 ollama list 配置外网可以访问: 关闭防火墙 systemctl stop firewalld systemctl disable firewalld  设置ollama配置文件 vim /etc/systemd/system/ollama.service [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/local/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 Environment=“PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin” Environment=“OLLAMA_HOST=0.0.0.0:9999” [Install] WantedBy=default.target

新增 Environment=“OLLAMA_HOST=0.0.0.0:9999”  其中端口可以随便更改,默认11434

重新启动 ollama 服务器

见    操作ollama服务器命令

验证9999端口是否可用 端口验证 netstat -tuln | grep 9999

如上图即可

curl验证

curl http://192.168.1.63:9999

失败:curl: (7) Failed connect to 192.168.1.63:9999; Connection refused

成功:Ollama is running

telnet验证

telnet 192.168.1.63 9999

标签:

自己安装一台DeepSeek的服务器由讯客互联软件开发栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“自己安装一台DeepSeek的服务器