docs: 添加ollama配置说明和v0.3.0已知问题

This commit is contained in:
zstar 2025-05-18 10:30:23 +08:00
parent 9b695c3db6
commit 725bde4449
3 changed files with 24 additions and 0 deletions

View File

@ -44,6 +44,18 @@ Ragflow-Plus 是一个基于 Ragflow 的二次开发项目,目的是解决实
> [!NOTE]
> 视频中采用了vllm作为演示示例vllm默认拉取使用的模型是float16精度导致众多用户因显存不足无法正常使用因此将vllm容器进行注释除非对vllm比较了解否则建议使用ollama进行配置。
ollama 配置方式:
以配置`bge-m3`模型为例:
下载模型:
```c
ollama pull bge-m3:latest
```
前台添加时,模型名称设为`bge-m3`,模型地址设为`http://host.docker.internal:11434`
## 📥使用方式
#### 1. 使用Docker Compose运行

View File

@ -35,4 +35,16 @@
**回答:** 可以兼容ollama及在线api(硅基流动平台)。
---
# 以下是v0.3.0版本已知存在的问题:
## 问题 1文件管理菜单中添加文件文件的上传时间晚8个小时。
**回答:** 时区问题,之后会修复。
## 问题 2设置为gpu解析时提示缺少模型文件paddleocr_torch/ch_PP-OCRv4_rec_server_doc_infer.pth is not existed。
**回答:** 本地跑一下mineru的gpu解析把相应的模型文件拷贝进容器即可。
*如有更多问题,欢迎在 GitHub 上提交 Issue。*

Binary file not shown.

Before

Width:  |  Height:  |  Size: 228 KiB

After

Width:  |  Height:  |  Size: 62 KiB