From 9b695c3db6b7a0e15afdb763d06feece5edb9bc6 Mon Sep 17 00:00:00 2001 From: zstar <65890619+zstar1003@users.noreply.github.com> Date: Sat, 17 May 2025 21:10:17 +0800 Subject: [PATCH] =?UTF-8?q?docs:=20=E6=9B=B4=E6=96=B0FAQ=E5=92=8C=E5=BC=80?= =?UTF-8?q?=E5=8F=91=E8=AE=A1=E5=88=92=E6=96=87=E6=A1=A3?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- docs/faq.md | 40 +++------------------------------------- docs/index.html | 4 ++-- docs/plan.md | 20 +++++++++++--------- 3 files changed, 16 insertions(+), 48 deletions(-) diff --git a/docs/faq.md b/docs/faq.md index 11f8386..306e740 100644 --- a/docs/faq.md +++ b/docs/faq.md @@ -21,7 +21,7 @@ ## 问题 4:支持解析的文档类型? -**回答:** 目前支持的文档类型包括:PDF、PPT、Word三种文件类型,后续会逐步支持更多类型。 +**回答:** 常见的文档类型均可支持,包括:pdf、word、ppt、excel、txt、md、html、jpg、png、bmp。 ## 问题 5:embedding模型的向量维度非1024,导致后台解析出错。 @@ -31,42 +31,8 @@ **回答:** 鉴于 Ragflow 也不维护arm平台的镜像,RagflowPlus 也无计划推出和维护arm平台的镜像。 -## 问题 7:不想用vllm,只想用ollama快速部署,如何设置? +## 问题 7:可以用ollama部署模型吗? -**回答:** 注释掉`docker-compose`相关文件的`vllm-bge`、和`vllm-deepseek`即可,再进行启动。 - ---- - -# 以下是v0.2.1版本已知存在的问题: - -## 问题 1:后台团队管理菜单中,成员>10人时,添加成员时显示不完全。 - -**回答:** 已排查到问题原因,下版本会修复。 - -## 问题 2:后台成员添加时,创建时间显示异常。 - -**回答:** 已排查出该时区问题,下版本会修复。 - -## 问题 3:embedding模型使用在线API,在后台解析模型测试中,无法正常连接。 - -**回答:** 当前仅适配本地添加的embedding模型,在线API需要额外进行适配,后续计划先适配使用较多的硅基流动平台。 - -## 问题 4:前台保存知识库配置时,提示出错。 - -**回答:** 下版本将进一步优化前台的交互。 - -## 问题 5:聊天界面上传文件时,文件直接被插入到知识库,模型没有读取。 - -**回答:** 下版本将重构上传文件的交互逻辑。 - -## 问题 6:前台知识库界面进行检索时,出现异常。 - -**回答:** 下版本将修复该问题。 - -## 问题 7:内网环境下,服务器docker部署,远程访问时,偶尔出现连接问题。 - -**回答:** 该问题有待进一步排查。 - ---- +**回答:** 可以,兼容ollama及在线api(硅基流动平台)。 *如有更多问题,欢迎在 GitHub 上提交 Issue。* \ No newline at end of file diff --git a/docs/index.html b/docs/index.html index 1a92597..3678258 100644 --- a/docs/index.html +++ b/docs/index.html @@ -170,8 +170,8 @@
如果有需求或问题反馈,可加入交流群进行讨论
扫码加入交流群2群
+群超200人,需要进群扫码备注“进群”