DeepSeek本地接口调用(Ollama)
- 创业
- 2025-09-11 10:18:01

前言
上篇博文,我们通过Ollama搭建了本地的DeepSeek模型,本文主要是方便开发人员,如何通过代码或工具,通过API接口调用本地deepSeek模型
前文:DeepSeek-R1本地搭建_deepseek 本地部署-CSDN博客
注:本文不仅仅适用DeepSeek, 通过Ollama安装的模型,都适用
一:Ollama接口上文中,我们采用ollama来搭建deepSeek r1模型,所有调用本地deepSeek模型,可以使用ollama开放的API来操作。
ollama默认开放端口:11434
ollama接口文档地址: github /ollama/ollama/blob/main/docs/api.md
里面包含各种接口,包括如下:(访问文档,点击自行选择)
注意:文档是英文,看不懂用浏览器翻一下
二:调用案例(创建聊天)API文档地址:(参考) github /ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion github /ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion
接口地址:http://localhost:11434/api/chat
请求方式:POST
请求类型:JSON
请求内容:
{ "model": "deepseek-r1:1.5b", "messages": [ { "role": "user", "content": "你好?" } ] }注:这里model代码你的模型,content是你要聊天的内容,role指代角色,还要其他参数,请参考官方文档。
POSTMAN访问如下:
三:调用案例(生成请求)API文档地址:(参考) github /ollama/ollama/blob/main/docs/api.md#generate-a-completion github /ollama/ollama/blob/main/docs/api.md#generate-a-completion
接口地址:http://localhost:11434/api/generate
请求方式:POST
请求类型:JSON
请求内容:
{ "model": "deepseek-r1:1.5b", "prompt": "你好", "stream": false }注:如果stream设置为false,响应将是单个 JSON 对象
返回结果:
{ "model": "deepseek-r1:1.5b", "created_at": "2025-03-04T08:40:06.4879238Z", "response": "<think>\n\n</think>\n\n你好!很高兴见到你,有什么我可以帮忙的吗?", "done": true, "done_reason": "stop", "total_duration": 951604700, "load_duration": 23765300, "prompt_eval_count": 4, "prompt_eval_duration": 57000000, "eval_count": 17, "eval_duration": 870000000 }POSTMAN:
四:其他API请参考官方文档:
github /ollama/ollama/blob/main/docs/api.md
DeepSeek本地接口调用(Ollama)由讯客互联创业栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“DeepSeek本地接口调用(Ollama)”
下一篇
MySQL-表