主页 > 创业  > 

WPS的AI助手进化跟踪(灵犀+插件)

WPS的AI助手进化跟踪(灵犀+插件)
Ver

V0.0 250216: 如何给WPS安装插件用以支持其他大模型LLM

V0.1 250217: WPS的灵犀AI现在是DeepSeek R1(可能是全参数671B)

前言

    WPS也有内置的AI,叫灵犀,之前应是自已的LLM模型,只能说是属于“能用,有好过无”,所以我一直在找能否在WPS上用上其他的LLM大语言模型,比如目前最火的DeepSeek,结论是:安装OfficeAI助手,就能在WPS上用上其他的LLM了。     2025-2-17号,发现WPS灵犀AI的底座LLM已明确显示是DS R1了。

Index

OfficeAI助手 - 免费办公智能AI助手, AI写作

OfficeAI助手插件(主要是下载、安装、设置) 1、下载、安装(自动安装VC库时有点慢)

OfficeAI助手 - 免费办公智能AI助手, AI写作   (在这里下载)

软件版本: v0.3.15

软件大小: 32MB

软件授权: 免费

支持语言: 中文/英文

更新时间: 2025-2-14

系统平台: Windows/Office/WPS

2、设置WPS信任第三方COM加载项才能在WPS中使用

默认情况下wps会阻止加载第三方插件,解决方法:

运行WPS,打开或新建任意文档;左上找到文件菜单->选项,在选项页面中找到信任中心 :勾上”受信任的加载项”(如没找到下图的选项,请将wps更新一下)点“确定“保存对应设置,重开一般会显示。如还是未显示,重装一下插件。重启WPS后出现"OfficeAI"在WPS右侧需要用微信扫码后使用 3、设置使用的LLM大模型

(1)LLM默认是豆包的lite-32K(默认支持:豆包、百度、ChatGLM、通义)

     从综合应用来说,这里推荐使用豆包的:doubao-pro-32K,Doubao-pro-32K 是一款兼顾性能与成本的中长文本处理模型,32K属于中等偏长的上下文长度,平衡了性能与成本。若需更高性价比或超长上下文支持,可结合 Doubao-lite 或 Doubao-pro-128k 使用。

注:这里的32K的解释     指模型的上下文窗口(context window)为32,000 tokens(支持 32K 上下文窗口(约 3.2 万汉字),适合处理长文本推理和交互)。这一指标决定了模型单次处理文本的长度上限。32K的上下文能力允许模型处理更长的对话、文档或代码(例如分析长文章、撰写报告、调试复杂代码等),适合需要长文本记忆的场景。下表是一个直观的模型类型映射到场景的说明:

模型类型特点适用场景Doubao-lite响应速度更快,成本更低(输入 0.3 元/百万 tokens)实时交互、简单任务Doubao-pro-128k支持 128K 上下文(约 12.8 万汉字),适合超长文本分析法律文档、论文研读Doubao-vision多模态模型,擅长图文理解图像描述、视觉问答

(2)使用DeepSeek

下面是我使用官网的KEY,模型用的是R1。

4、使用

OfficeAI助手简介 | OfficeAI助手  (在线使用手册)

附录1:灵犀的底座模型的介绍(DS R)

附录2:deepseek-chat和deepseek-reasoner的区别和使用场景

    deepseek-chat 和 deepseek-reasoner 是 Deepseek 平台提供的两种不同功能的模型,其区别和使用场景如下:


1. 核心区别 模型功能定位技术特点deepseek-chat通用对话与交互面向自然语言对话场景,擅长生成流畅、连贯的文本回复,支持多轮对话和日常交流。deepseek-reasoner逻辑推理与复杂问题解决针对需要深度分析、逻辑推理的任务(如数学计算、代码调试、决策支持等),强调结构化思考和精准输出。
2. 使用场景对比 deepseek-chat

适用场景:

客服机器人(自动回复、用户咨询)。

日常闲聊、情感交流。

内容生成(如文案撰写、故事创作)。

简单信息查询(天气、新闻摘要等)。

示例任务:

用户问:“推荐一部好看的电影。”

生成营销文案:“为新产品写一段吸引人的广告语。”

deepseek-reasoner

适用场景:

数学/物理问题求解(如方程推导、几何证明)。

代码分析与调试(解释代码逻辑、修复错误)。

科学计算与数据分析(如统计推断、数据建模)。

复杂决策支持(基于规则或数据的策略建议)。

示例任务:

用户问:“如何用 Python 实现快速排序算法?”

解决数学题:“已知三角形三边长为 3、4、5,求其面积。”


3. 选择建议

选择 deepseek-chat: 若任务以开放性对话、文本生成为主,无需深度逻辑分析,优先使用此模型。其响应更自然,适合交互性强的场景。

选择 deepseek-reasoner: 若任务涉及结构化问题、数学/编程挑战或需要分步推理,则选择此模型。它更注重精准性和逻辑严谨性。


4. 技术配置差异

API_KEY 区分:两者的 API 密钥不同(如 deepseek-chat vs. i8e4eba839936),可能对应不同的服务端接口或计费策略。

依赖组件:本地部署时可能需要安装不同的依赖库(如 reasoner 需数学计算库支持)。


总结

对话优先选 Chat,推理优先选 Reasoner。

若任务边界模糊(如既有对话又需推理),可尝试结合两者,或参考 Deepseek 官方文档的混合调用方案。

建议通过实际测试验证模型效果,或咨询平台技术支持以获取更详细的性能对比数据。

标签:

WPS的AI助手进化跟踪(灵犀+插件)由讯客互联创业栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“WPS的AI助手进化跟踪(灵犀+插件)