[Message]
用的均为免费版本,当前LLM方面有两个问题:
1、现有的WCP是一步步升级起来的,升级至5.1.3版本后,在开启了LLM后,出现:当前问题可能包含不适当的内容,请换一个问题,根据知识里的方式重新建立了知识索引和语义索引,仍然还是这个问题。LLM功能无法使用。
2、重新部署了一个5.2.5的最新版本,随便上传了几条知识后,开启了LLM,这次是可以用了,我配置的是ALiYun的LLM模型,但在问问题时,从检索到筛选到阅读3到4篇知识,整个过程非常的缓慢,大概需要五分钟左右,才能够出结果,这样正常吗?对硬件有什么要求?有没有可以调优的地方?使用知识图谱功能也是一样的慢,但感觉是和硬件环境有关系的?也请给出相关配置建议,谢谢!