主页 > 开源代码  > 

多模态基础模型第二篇-deepseek-r1部署

多模态基础模型第二篇-deepseek-r1部署

分别使用本地windows和云端linux进行部署,测试不同硬件资源的模型推理性能:

windos部署:直接打开Download Ollama on Linux 下载,然后本地启动服务,

linux部署:curl -fsSL ollama.ai/install.sh | sh

接着启动ollama pull deepseek-r1:7b,然后就可以使用了,

window本地占用:

速度还是比较快,基本上7-8token每秒,但是我测试了一下kimi的官网,每秒50个token随随便便。。。感觉也还行吧

标签:

多模态基础模型第二篇-deepseek-r1部署由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“多模态基础模型第二篇-deepseek-r1部署