主页 > 创业  > 

DeepSeek本地接口调用(Ollama)

DeepSeek本地接口调用(Ollama)
前言

        上篇博文,我们通过Ollama搭建了本地的DeepSeek模型,本文主要是方便开发人员,如何通过代码或工具,通过API接口调用本地deepSeek模型

前文:DeepSeek-R1本地搭建_deepseek 本地部署-CSDN博客

注:本文不仅仅适用DeepSeek, 通过Ollama安装的模型,都适用

一:Ollama接口

        上文中,我们采用ollama来搭建deepSeek r1模型,所有调用本地deepSeek模型,可以使用ollama开放的API来操作。

        

        ollama默认开放端口:11434        

        ollama接口文档地址: github /ollama/ollama/blob/main/docs/api.md

里面包含各种接口,包括如下:(访问文档,点击自行选择)

注意:文档是英文,看不懂用浏览器翻一下

​ 

二:调用案例(创建聊天)

API文档地址:(参考) github /ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion github /ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion

接口地址:http://localhost:11434/api/chat

请求方式:POST

请求类型:JSON

请求内容:

{ "model": "deepseek-r1:1.5b", "messages": [ { "role": "user", "content": "你好?" } ] }

注:这里model代码你的模型,content是你要聊天的内容,role指代角色,还要其他参数,请参考官方文档。

POSTMAN访问如下: ​

三:调用案例(生成请求)

API文档地址:(参考) github /ollama/ollama/blob/main/docs/api.md#generate-a-completion github /ollama/ollama/blob/main/docs/api.md#generate-a-completion

接口地址:http://localhost:11434/api/generate

请求方式:POST

请求类型:JSON

请求内容:

{ "model": "deepseek-r1:1.5b", "prompt": "你好", "stream": false }

注:如果stream设置为false,响应将是单个 JSON 对象

返回结果:

{ "model": "deepseek-r1:1.5b", "created_at": "2025-03-04T08:40:06.4879238Z", "response": "<think>\n\n</think>\n\n你好!很高兴见到你,有什么我可以帮忙的吗?", "done": true, "done_reason": "stop", "total_duration": 951604700, "load_duration": 23765300, "prompt_eval_count": 4, "prompt_eval_duration": 57000000, "eval_count": 17, "eval_duration": 870000000 }

POSTMAN:

四:其他API

请参考官方文档:

github /ollama/ollama/blob/main/docs/api.md

标签:

DeepSeek本地接口调用(Ollama)由讯客互联创业栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“DeepSeek本地接口调用(Ollama)