多模态基础模型第二篇-deepseek-r1部署
- 开源代码
- 2025-09-08 08:36:01

分别使用本地windows和云端linux进行部署,测试不同硬件资源的模型推理性能:
windos部署:直接打开Download Ollama on Linux 下载,然后本地启动服务,
linux部署:curl -fsSL ollama.ai/install.sh | sh
接着启动ollama pull deepseek-r1:7b,然后就可以使用了,
window本地占用:
速度还是比较快,基本上7-8token每秒,但是我测试了一下kimi的官网,每秒50个token随随便便。。。感觉也还行吧
多模态基础模型第二篇-deepseek-r1部署由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“多模态基础模型第二篇-deepseek-r1部署”