主页 > 其他  > 

在Windows本地部署DeepSeek-R1模型全指南——基于Ollama的轻量化实现

在Windows本地部署DeepSeek-R1模型全指南——基于Ollama的轻量化实现

文章目录 一、准备工作二、安装Ollama三、下载部署deepseek-R1模型四、 使用cherry studio可视化会话及模型管理

一、准备工作

硬件要求:

内存:建议≥16GB(7b模型最低需求,实测16G可行)存储空间:预留≥15GB(模型文件约4.7GB,需考虑缓存占用)显卡:NVIDIA显卡(非必需,但GPU加速可提升性能)

软件环境:

Windows 10/11系统稳定网络环境(避免下载中断) 二、安装Ollama 安装包下载地址: ollama / 双击安装即可,默认安装在C盘。如果你想自定义安装目录,可以在CMD中执行: OllamaSetup.exe /DIR="D:\software\Ollama"

3.完成安装后,任务栏托盘可见Ollama图标。也可在浏览器输入http://localhost:11434/,若显示“Ollama is running”也可说明安装成功。 3. 修改默认模型存储位置(如不想自定义,可跳过此步骤)。 (1)退出Ollama(右键任务栏图标→Quit Ollama) (2)新建系统环境变量: 变量名:OLLAMA_MODELS 变量值:自定义路径(如D:\software\Models) (3)迁移已有模型:将原目录C:\Users<用户名>.ollama\models内容复制到新路径

三、下载部署deepseek-R1模型

以DeepSeek-R1:7b为例。

打开网站: ollama /library/deepseek-r1,选择你要下载的模型,并复制对应的命令。

管理员身份打开CMD/PowerShell,执行命令: ollama run deepseek-r1:7b

3. 验证。 下载成功后,会有5行100%的进度条,请注意核对是否有遗漏。 下载完成后,可以在命令行输入你的问题,如果输出思考内容及答案,说明模型部署成功。例如:

至此,你已经成功在本机部署了,如果你觉得使用“黑框框”进行会话太简陋了,可继续阅读下文。 ——————

四、 使用cherry studio可视化会话及模型管理 下载cherry studio。地址: cherry-ai /双击安装即可,自定义安装目录。打开cherry studio,并将刚才下载的DeepSeek-R1:7b添加到cherry studio。 测试模型。
标签:

在Windows本地部署DeepSeek-R1模型全指南——基于Ollama的轻量化实现由讯客互联其他栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“在Windows本地部署DeepSeek-R1模型全指南——基于Ollama的轻量化实现