202

   1

WCP.v5.1.3免费版,LLM两个问题
作者: 匿名 于 2025年03月04日 发布在分类 /常见问题 /wcps /wcp

版本

如:WCP.v5.1.3

问题描述

用的均为免费版本,当前LLM方面有两个问题:

1、现有的WCP是一步步升级起来的,升级至5.1.3版本后,在开启了LLM后,出现:当前问题可能包含不适当的内容,请换一个问题,根据知识里的方式重新建立了知识索引和语义索引,仍然还是这个问题。LLM功能无法使用。

2、重新部署了一个5.2.5的最新版本,随便上传了几条知识后,开启了LLM,这次是可以用了,我配置的是ALiYun的LLM模型,但在问问题时,从检索到筛选到阅读3到4篇知识,整个过程非常的缓慢,大概需要五分钟左右,才能够出结果,这样正常吗?对硬件有什么要求?有没有可以调优的地方?使用知识图谱功能也是一样的慢,但感觉是和硬件环境有关系的?也请给出相关配置建议,谢谢!

 备选答案

匿名用户 2025-03-04 17:02

问题1:“当前问题可能包含不适当的内容,请换一个问题”,一般为模型配置错误。可以查看控制台日志错误提示来进一步解决问题。

问题2:5分钟的延迟不正常,如果用deepseek,因为它的联想功能确实会慢一些但是不会有5分钟那么慢,可以尝试qwen模型会快一些,wcp需要的最低配置为4核8G

实际的模型问答速度可以参考这个视频:https://www.bilibili.com/video/BV1xU9iYsEGy/

wcp知识库系统-京ICP备15024440号-1 -V 5.2.0 -wcp