docs: 添加ollama配置说明和v0.3.0已知问题
This commit is contained in:
parent
9b695c3db6
commit
725bde4449
12
README.md
12
README.md
|
@ -44,6 +44,18 @@ Ragflow-Plus 是一个基于 Ragflow 的二次开发项目,目的是解决实
|
|||
> [!NOTE]
|
||||
> 视频中采用了vllm作为演示示例,vllm默认拉取使用的模型是float16精度,导致众多用户因显存不足无法正常使用,因此将vllm容器进行注释,除非对vllm比较了解,否则建议使用ollama进行配置。
|
||||
|
||||
ollama 配置方式:
|
||||
|
||||
以配置`bge-m3`模型为例:
|
||||
|
||||
下载模型:
|
||||
```c
|
||||
ollama pull bge-m3:latest
|
||||
```
|
||||
|
||||
前台添加时,模型名称设为`bge-m3`,模型地址设为`http://host.docker.internal:11434`
|
||||
|
||||
|
||||
## 📥使用方式
|
||||
|
||||
#### 1. 使用Docker Compose运行
|
||||
|
|
12
docs/faq.md
12
docs/faq.md
|
@ -35,4 +35,16 @@
|
|||
|
||||
**回答:** 可以,兼容ollama及在线api(硅基流动平台)。
|
||||
|
||||
---
|
||||
|
||||
# 以下是v0.3.0版本已知存在的问题:
|
||||
|
||||
## 问题 1:文件管理菜单中,添加文件,文件的上传时间晚8个小时。
|
||||
|
||||
**回答:** 时区问题,之后会修复。
|
||||
|
||||
## 问题 2:设置为gpu解析时,提示缺少模型文件:paddleocr_torch/ch_PP-OCRv4_rec_server_doc_infer.pth is not existed。
|
||||
|
||||
**回答:** 本地跑一下mineru的gpu解析,把相应的模型文件拷贝进容器即可。
|
||||
|
||||
*如有更多问题,欢迎在 GitHub 上提交 Issue。*
|
Binary file not shown.
Before Width: | Height: | Size: 228 KiB After Width: | Height: | Size: 62 KiB |
Loading…
Reference in New Issue