DeepSeek的本地化部署
- 开源代码
- 2025-09-02 08:45:02

一、资源选择和准备
DeepSeek 作为国产开源大模型,近期因在线服务压力过大,本地部署需求激增。本教程将结合全网优质资源,手把手教你完成从环境配置到交互界面搭建的全流程,即使是零基础用户也能轻松掌握。
1.1 为什么要部署本地 DeepSeek?在本地部署 DeepSeek 有以下几个优势:
隐私性高:数据都在本地运行,无需上传到云端,避免数据泄露风险。稳定性强:不受网络波动影响,模型运行更加稳定。可定制性强:可以根据需求调整模型参数,满足个性化需求。 1.2 DeepSeek 不同版本模型硬件要求 1.3 测试机配置内存
显卡
二、安装和调试 2.1 下载并安装Ollama访问官网: ollama / 下载
安装,双击OllamaSetup.exe文件,安装即可
2.2 检验ollama是否安装成功 2.3 通过 Ollama 拉取 DeepSeek 模型这里我选择是的1.5b,整个模型大小1.1 GB。 ollama /library/deepseek-r1:1.5b
1.5B:适用于轻量级任务,如边缘设备(如智能手表、物联网设备)上的简单交互、小型智能问答系统等。目前开源的最小版本。671B:主要用于大规模云端推理,适合科研分析、数据挖掘等需要处理海量数据的复杂任务。目前开源的最强版本。更多版本可以在这里查看: ollama /library/deepseek-r1 。命令行输入:ollama run deepseek-r1:1.5b 拉取DeepSeek模型
安装完成窗口截图
三、使用教程示例完成上面步骤之后,我们就可以愉快的与Deep Seek对话了,如输入:程序员如何避免35岁焦虑?
3.1 应用原生窗口原生窗口是terminal形式的,使用起来并不友好。
3.2 安装WebUI窗口使用命令提示符与DeepSeek对话并不友好,为了更好的体验,我们可以安装WebUI
这里使用的是浏览器插件:Page Assit启动ollama服务后,输入快捷键【ctrl + shift+L】快捷键即可打开WebUI页面。
刚安装Page Assit 插件, 需要进行一下如下设置:语言配置
使用示例,选择deepseek-r1:1.5b模型
四、应用场景 4.1 DeepSeek-R1-1.5B 能干啥?别看 DeepSeek-R1-1.5B 体积小,它可一点都不“弱”。它非常适合用在一些轻量级的任务上,比如:
智能客服:在小型企业或者个人项目中,它可以快速回答客户的一些常见问题,提高服务效率。语言学习:你可以用它来练习语言表达,比如输入一个中文句子,让它生成英文翻译。创意写作:如果你是个作家或者文案策划,它可以帮你快速生成一些创意片段或者文案初稿 4.2 DeepSeek-R1-1.5B的优缺点相比较网页版,本地部署不用担心服务器问题,不过坏处是,网页版可以选择深度思考,准确性更高,而且还能够联网搜索,功能更强大。不过本地部署的自由度更高,用户可以对模型推理过程进行调整,能够实现更丰富的功能。 如果你只是想体验一下,本地部署玩一玩是可以的,如果你想要准确的结果,对调试、硬件不是很了解的话,还是选择网页版吧。
五、参考文档 blogs /xiezhr/p/18712410 blog.csdn.net/qq_20890935/article/details/145563763 news.qq /rain/a/20250217A09Z0W00DeepSeek的本地化部署由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“DeepSeek的本地化部署”
下一篇
git:恢复纯版本库