主页 > 开源代码  > 

ollama本地部署deepseek离线模型安装一套从安装到UI运行

ollama本地部署deepseek离线模型安装一套从安装到UI运行
一、安装本地ollama 1、下载ollama

(1)百度网盘windows版本

通过网盘分享的文件:OllamaSetup.exe 链接: pan.baidu /s/15ca6WAzrc4wWph5H9BEOzw

提取码: 283u

(2)进入官网:Ollama

2、选择你的系统

等待下载完成就可以了。

注:这里有些同学的网络可能下载不了。用上面我百度网盘里面的安装包。

3、选择安装路径

(1) 来到下载好的exe文件目录里

(2) 进入控制面板

(3) 在控制面版执行一下命令

D:\RuanJian\ollama 为你的安装目录

OllamaSetup.exe /DIR=D:\RuanJian\ollama

4、查看效验安装是否成功

随便在一个地方win+R -> cmd

输入 ollama -v

显示版本号表示安装成功!

二、下载模型 1、修改模型默认路径

(1)进入环境变量面板

(2)配置软件执行目录,添加软件安装目录

(3)配置模型存放位置

OLLAMA_MODELS

变量值就是存放模型的位置

创建好后一直保存确定就行

2、下载线上模型

deepseek-r1

3、拷贝本地模型(用已经下好的模型)

如果你兄弟姐妹已经下载好了模型,而你的网络不加或者不想自己下载。

可以去把他的模型拿过来用!

(1)默认模型存放位置:

(2)将文件夹models全部拷贝出来

(3)粘贴到你配置的模型存放位置

4、效验模型是否下载完成 ollama list

三、UI页面

这里针对有条件的同学

在Chrome 应用商店下载 page assist

固定好后直接点击就可以进入UI页面

四、恭喜你已经安装成功!赶紧用起来吧!
标签:

ollama本地部署deepseek离线模型安装一套从安装到UI运行由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“ollama本地部署deepseek离线模型安装一套从安装到UI运行