Docker部署ollama+DeepSeek
- 开源代码
- 2025-08-27 17:39:01

拉取并运行 Ollama Docker 镜像
使用以下命令从 Docker Hub 拉取 Ollama 镜像并运行容器:
docker run -d -p 11434:11434 --name ollama ollama/ollama -d:以守护进程模式运行容器,即让容器在后台运行。-p 11434:11434:将容器内部的 11434 端口映射到宿主机的 11434 端口,这样你就可以通过宿主机的 11434 端口访问 Ollama 服务。--name ollama:为容器指定一个名称,方便后续管理。ollama/ollama:指定要运行的 Docker 镜像。 下载 DeepSeek 模型Ollama 支持加载多种模型,包括 DeepSeek。你可以使用以下命令下载 DeepSeek 模型:
docker exec ollama ollama pull deepseek-coder:33b-instruct更具自己的配置选择模型版本: 点击查看对应版本
使用 DeepSeek 模型进行推理你可以使用 Ollama 的 API 或命令行工具与加载的 DeepSeek 模型进行交互。
docker exec ollama ollama run deepseek-coder:33b-instruct "写一个简单的 Python 函数,用于计算两个数的和。"到此已经部署完成!!
Docker部署ollama+DeepSeek由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“Docker部署ollama+DeepSeek”