自己安装一台DeepSeek的服务器
- 软件开发
- 2025-08-29 07:54:02

找一台还可以的Linux服务器,登录后执行: curl -fsSL ollama /install.sh | sh 等待安装完成: 执行命令,根据服务器能力安装不同版本的AI模型: ollama run llama3.2 下一步就开始对话吧:
llama3.2一点都不行呀
退出对话 Use Ctrl + d or /bye to exit. DeepSeek会有很多版本,大家都可以尝试: 版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间) ollama run deepseek-r1:1.5b 版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要 4.7GB空余空间) ollama run deepseek-r1:7b 版本:8b,(需要4.9GB空余空间) ollama run deepseek-r1:8b 版本:14b,(需要9GB空余空间) ollama run deepseek-r1:14b 版本:32b,(需要20GB空余空间) ollama run deepseek-r1:32b 版本:70b,(需要43GB空余空间) ollama run deepseek-r1:70b 版本:671b,(需要404GB空余空间) ollama run deepseek-r1:671b安装 deepseek-r1:7b,服务器空间算力够,就安装更大的版本:
操作ollama服务器命令 systemctl restart ollama systemctl start ollama systemctl stop ollama systemctl status ollama 查看已安装的ollama列表 ollama list 配置外网可以访问: 关闭防火墙 systemctl stop firewalld systemctl disable firewalld 设置ollama配置文件 vim /etc/systemd/system/ollama.service [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/local/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 Environment=“PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin” Environment=“OLLAMA_HOST=0.0.0.0:9999” [Install] WantedBy=default.target
新增 Environment=“OLLAMA_HOST=0.0.0.0:9999” 其中端口可以随便更改,默认11434
重新启动 ollama 服务器见 操作ollama服务器命令
验证9999端口是否可用 端口验证 netstat -tuln | grep 9999如上图即可
curl验证curl http://192.168.1.63:9999
失败:curl: (7) Failed connect to 192.168.1.63:9999; Connection refused
成功:Ollama is running
telnet验证telnet 192.168.1.63 9999
自己安装一台DeepSeek的服务器由讯客互联软件开发栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“自己安装一台DeepSeek的服务器”