diff --git a/README.md b/README.md index 31b5578..9e42a23 100644 --- a/README.md +++ b/README.md @@ -44,6 +44,18 @@ Ragflow-Plus 是一个基于 Ragflow 的二次开发项目,目的是解决实 > [!NOTE] > 视频中采用了vllm作为演示示例,vllm默认拉取使用的模型是float16精度,导致众多用户因显存不足无法正常使用,因此将vllm容器进行注释,除非对vllm比较了解,否则建议使用ollama进行配置。 +ollama 配置方式: + +以配置`bge-m3`模型为例: + +下载模型: +```c +ollama pull bge-m3:latest +``` + +前台添加时,模型名称设为`bge-m3`,模型地址设为`http://host.docker.internal:11434` + + ## 📥使用方式 #### 1. 使用Docker Compose运行 diff --git a/docs/faq.md b/docs/faq.md index 306e740..75c98bd 100644 --- a/docs/faq.md +++ b/docs/faq.md @@ -35,4 +35,16 @@ **回答:** 可以,兼容ollama及在线api(硅基流动平台)。 +--- + +# 以下是v0.3.0版本已知存在的问题: + +## 问题 1:文件管理菜单中,添加文件,文件的上传时间晚8个小时。 + +**回答:** 时区问题,之后会修复。 + +## 问题 2:设置为gpu解析时,提示缺少模型文件:paddleocr_torch/ch_PP-OCRv4_rec_server_doc_infer.pth is not existed。 + +**回答:** 本地跑一下mineru的gpu解析,把相应的模型文件拷贝进容器即可。 + *如有更多问题,欢迎在 GitHub 上提交 Issue。* \ No newline at end of file diff --git a/docs/images/group.jpg b/docs/images/group.jpg index e9ad098..93b8888 100644 Binary files a/docs/images/group.jpg and b/docs/images/group.jpg differ