WPS的AI助手进化跟踪(灵犀+插件)
- 创业
- 2025-09-07 06:00:01

Ver
V0.0 250216: 如何给WPS安装插件用以支持其他大模型LLM
V0.1 250217: WPS的灵犀AI现在是DeepSeek R1(可能是全参数671B)
前言WPS也有内置的AI,叫灵犀,之前应是自已的LLM模型,只能说是属于“能用,有好过无”,所以我一直在找能否在WPS上用上其他的LLM大语言模型,比如目前最火的DeepSeek,结论是:安装OfficeAI助手,就能在WPS上用上其他的LLM了。 2025-2-17号,发现WPS灵犀AI的底座LLM已明确显示是DS R1了。
IndexOfficeAI助手 - 免费办公智能AI助手, AI写作
OfficeAI助手插件(主要是下载、安装、设置) 1、下载、安装(自动安装VC库时有点慢)OfficeAI助手 - 免费办公智能AI助手, AI写作 (在这里下载)
软件版本: v0.3.15
软件大小: 32MB
软件授权: 免费
支持语言: 中文/英文
更新时间: 2025-2-14
系统平台: Windows/Office/WPS
2、设置WPS信任第三方COM加载项才能在WPS中使用默认情况下wps会阻止加载第三方插件,解决方法:
运行WPS,打开或新建任意文档;左上找到文件菜单->选项,在选项页面中找到信任中心 :勾上”受信任的加载项”(如没找到下图的选项,请将wps更新一下)点“确定“保存对应设置,重开一般会显示。如还是未显示,重装一下插件。重启WPS后出现"OfficeAI"在WPS右侧需要用微信扫码后使用 3、设置使用的LLM大模型(1)LLM默认是豆包的lite-32K(默认支持:豆包、百度、ChatGLM、通义)
从综合应用来说,这里推荐使用豆包的:doubao-pro-32K,Doubao-pro-32K 是一款兼顾性能与成本的中长文本处理模型,32K属于中等偏长的上下文长度,平衡了性能与成本。若需更高性价比或超长上下文支持,可结合 Doubao-lite 或 Doubao-pro-128k 使用。
注:这里的32K的解释 指模型的上下文窗口(context window)为32,000 tokens(支持 32K 上下文窗口(约 3.2 万汉字),适合处理长文本推理和交互)。这一指标决定了模型单次处理文本的长度上限。32K的上下文能力允许模型处理更长的对话、文档或代码(例如分析长文章、撰写报告、调试复杂代码等),适合需要长文本记忆的场景。下表是一个直观的模型类型映射到场景的说明:
模型类型特点适用场景Doubao-lite响应速度更快,成本更低(输入 0.3 元/百万 tokens)实时交互、简单任务Doubao-pro-128k支持 128K 上下文(约 12.8 万汉字),适合超长文本分析法律文档、论文研读Doubao-vision多模态模型,擅长图文理解图像描述、视觉问答(2)使用DeepSeek
下面是我使用官网的KEY,模型用的是R1。
4、使用OfficeAI助手简介 | OfficeAI助手 (在线使用手册)
附录1:灵犀的底座模型的介绍(DS R) 附录2:deepseek-chat和deepseek-reasoner的区别和使用场景deepseek-chat 和 deepseek-reasoner 是 Deepseek 平台提供的两种不同功能的模型,其区别和使用场景如下:
1. 核心区别 模型功能定位技术特点deepseek-chat通用对话与交互面向自然语言对话场景,擅长生成流畅、连贯的文本回复,支持多轮对话和日常交流。deepseek-reasoner逻辑推理与复杂问题解决针对需要深度分析、逻辑推理的任务(如数学计算、代码调试、决策支持等),强调结构化思考和精准输出。
2. 使用场景对比 deepseek-chat
适用场景:
客服机器人(自动回复、用户咨询)。
日常闲聊、情感交流。
内容生成(如文案撰写、故事创作)。
简单信息查询(天气、新闻摘要等)。
示例任务:
用户问:“推荐一部好看的电影。”
生成营销文案:“为新产品写一段吸引人的广告语。”
deepseek-reasoner适用场景:
数学/物理问题求解(如方程推导、几何证明)。
代码分析与调试(解释代码逻辑、修复错误)。
科学计算与数据分析(如统计推断、数据建模)。
复杂决策支持(基于规则或数据的策略建议)。
示例任务:
用户问:“如何用 Python 实现快速排序算法?”
解决数学题:“已知三角形三边长为 3、4、5,求其面积。”
3. 选择建议
选择 deepseek-chat: 若任务以开放性对话、文本生成为主,无需深度逻辑分析,优先使用此模型。其响应更自然,适合交互性强的场景。
选择 deepseek-reasoner: 若任务涉及结构化问题、数学/编程挑战或需要分步推理,则选择此模型。它更注重精准性和逻辑严谨性。
4. 技术配置差异
API_KEY 区分:两者的 API 密钥不同(如 deepseek-chat vs. i8e4eba839936),可能对应不同的服务端接口或计费策略。
依赖组件:本地部署时可能需要安装不同的依赖库(如 reasoner 需数学计算库支持)。
总结
对话优先选 Chat,推理优先选 Reasoner。
若任务边界模糊(如既有对话又需推理),可尝试结合两者,或参考 Deepseek 官方文档的混合调用方案。
建议通过实际测试验证模型效果,或咨询平台技术支持以获取更详细的性能对比数据。
WPS的AI助手进化跟踪(灵犀+插件)由讯客互联创业栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“WPS的AI助手进化跟踪(灵犀+插件)”