轻松搭建本地大语言模型(一)Ollama安装与使用
- IT业界
- 2025-08-30 05:45:02

Ollama 是一款开源的本地大语言模型运行框架,支持在 Windows、macOS 和 Linux 系统上运行,能够帮助用户轻松下载和使用各种大语言模型(例如deepseek、llama、qwen)。本文将详细介绍 Ollama 的安装步骤,帮助你快速搭建本地模型环境。
目标 在本地启动ollama通过ollama下载大模型(deepseek、llama、qwen等)通过命令行与大模型进行交互 一、安装Ollama (一)Windows 系统安装 下载安装包访问 Ollama 官方网站 ollama /download,下载 Windows 安装包。
安装包通常为 .exe 格式,下载完成后双击运行安装程序。
安装路径默认为 C:\Program Files\Ollama。
验证安装安装完成后,打开 PowerShell 或命令提示符,输入以下命令验证安装是否成功:
ollama -v如果显示版本号(如 ollama version is 0.5.11),则表示安装成功。
(二)macOS 系统安装 一键安装打开终端,运行以下命令进行安装:
curl ollama.ai/install.sh | sh安装完成后,运行 ollama -v 验证安装是否成功。
三、启动 Ollama 服务安装完成后,需要启动 Ollama 服务,才能正常使用模型:
启动服务在终端或命令提示符中运行以下命令:
ollama serve如果服务启动成功,将显示服务已启动的提示。
验证服务 打开浏览器,访问 http://localhost:11434,如果页面正常显示,则表示服务启动成功。 四、下载并启动本地大模型 选择大模型在该网站选择要启动的大模型 ollama /library
例如,启动deepseek-r1:1.5b模型
ollama run deepseek-r1:1.5b执行成功后即可对话
至此,已经在本地成功启动大模型,可以通过命令行与大模型进行交互。
后面就可以通过open-webui、dify等可视化界面对接ai。
五、模型管理 (一)查看已下载模型运行以下命令查看已下载的模型:
ollama list (二)删除模型如果需要删除某个模型,可以运行以下命令:
ollama rm model_name (三)拉取模型Ollama 提供了丰富的模型库,可以通过以下命令拉取模型:
ollama pull model_name例如,拉取 deepseek-r1:7b模型:
ollama pull deepseek-r1:7b其他的一些命令可以使用ollama help提示
六、总结Ollama 提供了简单易用的安装方式,支持多种操作系统,能够帮助用户快速搭建本地大语言模型环境。通过本文的教程,你已经可以轻松安装并使用 Ollama,接下来可以尝试运行不同的模型,探索更多功能。
轻松搭建本地大语言模型(一)Ollama安装与使用由讯客互联IT业界栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“轻松搭建本地大语言模型(一)Ollama安装与使用”
上一篇
【阮一峰】6.对象
下一篇
vllm专题(一):安装-GPU