主页 > 软件开发  > 

自己动手实现一个简单的LinuxAIAgent

自己动手实现一个简单的LinuxAIAgent

大模型带我们来到了自然语言人机交互的时代

1、安装本地大模型进行推理

下载地址: ollama /download 部署本地deepseek

ollama run deepseek-r1:7b 2、制定Linux操作接口指令规范

需要ai推理生成的json格式:

[ { "host": "10.1.1.10", "OS": "CentOS7.9", "user": "root", "ssh_port": 22, "command": "df -h" } ]

提示词:

有如下json中的主机,请结合用户需求和OS类型给出准确的command命令替换“command”键值: [ { "host": "10.1.1.10", "OS": "CentOS7.9", "user": "root", "ssh_port": 22, "command": "df -h" } ] 其他key未说明情况下为默认,请根据用户需求返回json,仅回复json文本。

在page assist中测试提示词 命令最好是使用提示词都规范下:

3、编写大模型对话工具 #!/usr/bin/python3 #coding: utf-8 import json import requests model = "llama3" def chat(messages): r = requests.post( "http://localhost:11434/api/chat", json={"model": model, "messages": messages, "stream": True}, ) r.raise_for_status() output = "" for line in r.iter_lines(): body = json.loads(line) if "error" in body: raise Exception(body["error"]) if body.get("done") is False: message = body.get("message", "") content = message.get("content", "") output += content print(content, end="", flush=True) if body.get("done", False): message["content"] = output return message def main(): messages = [] while True: user_input = input("Enter a prompt: ") if not user_input: exit() print() messages.append({"role": "user", "content": user_input}) message = chat(messages) messages.append(message) print("\n\n") if __name__ == "__main__": main() 4、运行AI Agent查看效果

未完待续

标签:

自己动手实现一个简单的LinuxAIAgent由讯客互联软件开发栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“自己动手实现一个简单的LinuxAIAgent