Docker部署Dify:轻松集成Ollama和DeepSeek
- IT业界
- 2025-09-02 09:21:02

1 Ollama的安装及使用 1.1 什么是Ollama?
Ollama 是一个用于本地部署和运行大型语言模型的框架。 Ollama 的作用包括:
本地模型运行:Ollama 允许在本地机器上运行大型语言模型(如 LLaMA、DeepSeek 等),无需依赖云端服务。隐私保护:所有数据处理都在本地进行,避免数据泄露风险。低延迟:本地运行模型可以减少网络延迟,提高响应速度。模型管理:Ollama 提供了简单的命令行工具,用于下载、加载和管理模型,方便在 Dify 中快速切换和实验不同模型。API 支持:Ollama 提供 API 接口,Dify 可以通过这些接口与本地模型交互,完成文本生成、问答等任务。 1.2 安装Ollama 进入官网Ollama官网链接点击Download下载选择适配你系统的安装包点击install下载在命令行输入ollama,出现相关文字即安装验证成功 1.3 使用Ollama查看已下载的模型ollama list
下载以及运行模型ollama run <模型名称>
删除模型`ollama rm <模型名称>
执行模型效果图
可以在Ollama官网中查看支持的模型以及相关下载命令
2 DeepSeek的认识前一章节已经通过Ollama安装好了deepseek模型,这里对deepseek做个简单介绍
DeepSeek 是一个开源的大型语言模型(LLM),专注于中文场景的优化,旨在为中文用户提供高效、高质量的自然语言处理能力
应用场景: 文本生成:生成高质量的中文文章、故事、新闻等内容。 问答系统:构建智能问答机器人,回答用户提出的问题。 机器翻译:支持中英互译以及其他语言的翻译任务。 文本摘要:从长文本中提取关键信息,生成简洁的摘要。 情感分析:分析文本的情感倾向,适用于评论分析、舆情监控等场景。 代码生成:支持生成代码片段,帮助开发者提高编程效率。
R1相对V3模型开放了思维链功能,并允许进行模型蒸馏
3 Docker的安装与使用 3.1 Docker的认识 Docker是一种用于构建、发布及运行应用程序的开源项目,他通过容器化技术简化了应用程序的部署和管理Docker解决了产品多版本迭代之后,不同环境之间的兼容问题;Docker的出现使我们开发的软件可以“带环境安装”,即安装的时候,可以把原始环境一模一样的复制过来,在自己的机器上可以运行,在别人的机器上也可以运行 3.2 Docker的安装开启Hyper-V:Hyper-V 是微软自家的虚拟化技术,和vmware,virtualbox一样,都是主流的虚拟机工具。Hyper-V 优势在于它 与 Windows 操作系统紧密集成,不需要额外安装第三方虚拟化软件
进入Docker官网下载Docker desktop
按照步骤安装Docker desktop
命令行输入docker -v,验证安装
汉化Docker desktop,汉化github地址,选择对应版本,按照指示进行汉化,如何查看版本号如图所示。
设置镜像加速地址,在设置里的Docker引擎中添加如下文本后,点击Apply&Restart "registry-mirrors": [ " uvrekl8r.mirror.aliyuncs ", " docker.registry.cyou", " docker-cf.registry.cyou", " dockercf.jsdelivr.fyi", " docker.jsdelivr.fyi", " dockertest.jsdelivr.fyi", " mirror.aliyuncs ", " dockerproxy ", " mirror.baidubce ", " docker.m.daocloud.io", " docker.nju.edu ", " docker.mirrors.sjtug.sjtu.edu ", " docker.mirrors.ustc.edu ", " mirror.iscas.ac ", " docker.rainbond.cc" ]
4 Docker部署Dify 4.1 Dify的认识Dify 是一个开源的 LLM(大型语言模型)应用开发平台,旨在帮助开发者快速构建基于大型语言模型的应用程序。它的核心功能包括:
可视化工作流设计:通过图形化界面,用户可以轻松设计和管理基于 LLM 的应用流程。模型集成:支持集成多种大型语言模型(如 OpenAI、Hugging Face、Ollama 等),用户可以根据需求选择合适的模型。数据处理与标注:提供数据管理工具,支持数据导入、标注和预处理。API 生成与部署:自动生成 API 接口,方便开发者将 LLM 应用集成到其他系统中。多模型协作:支持多个模型的协同工作,例如将 DeepSeek 和 Ollama 结合使用,完成更复杂的任务。在 Docker 中使用 Dify,可以快速搭建一个本地开发环境,方便实验和部署 LLM 应用。 4.2 安装Dify下载Dify,Dify链接
进入docker-compose.yaml所在文件夹的终端中,运行命令:docker compose up -d
安装成功后,在 Docker Desktop 中应该能看到以 docker 命名的文件夹,即为安装成功。
4.3 配置Dify打开浏览器,访问 http://127.0.0.1/,你会看到Dify的设置页面
创建管理员账户:设置用户名、邮箱和密码
配置模型 3.1 首先点击设置 3.2点击模型供应商 3.3 选择Ollama,模型名称选择你安装的大语言模型,基础URL默认是http://host.docker.internal:11434/
此时一切完成,可以开始创建你的第一个应用了
Docker部署Dify:轻松集成Ollama和DeepSeek由讯客互联IT业界栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“Docker部署Dify:轻松集成Ollama和DeepSeek”