麦克雷 Mavom.cn

标题: ollama配置向量化超出上下文长度,我已经在软件把长度拉满了 [打印本页]

作者: Kevan    时间: 昨天 13:40
标题: ollama配置向量化超出上下文长度,我已经在软件把长度拉满了
求助大佬们,怎么解决?

(, 下载次数: 0)
作者: Kevan    时间: 昨天 13:40
(, 下载次数: 0)
(, 下载次数: 0)
(, 下载次数: 0)
(, 下载次数: 0)
(, 下载次数: 0)
(, 下载次数: 0)
(, 下载次数: 0)

(, 下载次数: 0)
(, 下载次数: 0)
作者: Charleser    时间: 昨天 13:41
你向量化用的什么模型?
一般向量化的话,直接去用硅基流动的Qwen/Qwen3-Embedding-8B模型就好了
作者: Kevan    时间: 昨天 13:41
(, 下载次数: 0)
@Owl_Time
大佬,用自带的这个可以用硅基流动的api向量化吗还是说得插件?
作者: Kevan    时间: 昨天 13:42
(, 下载次数: 0)

(, 下载次数: 0)
作者: Charleser    时间: 昨天 13:43
在插头里跟我一样选文本补全选好向量化模型后点右上角的保存。然后插头切换平常聊天的聊天补全。
然后插件的“向量化设置”里像我这样选择好vLLM,填入模型名字

(, 下载次数: 0)

(, 下载次数: 0)




欢迎光临 麦克雷 Mavom.cn (https://mavom.cn/) Powered by Discuz! X3.5