RAGflow/docs/question
zstar 4262a2f829 docs(question): 添加关于后台知识库连接测试的问题和解答 2025-06-23 17:03:38 +08:00
..
README.md docs(question): 添加关于后台知识库连接测试的问题和解答 2025-06-23 17:03:38 +08:00

README.md

常见问题 (FAQ)

问题 1如何部署 RagflowPlus

回答: 您可以通过 Docker Compose 或源码进行部署。

  • Docker Compose (推荐):
    • GPU 版本: docker compose -f docker/docker-compose_gpu.yml up -d
    • CPU 版本: docker compose -f docker/docker-compose.yml up -d
  • 源码运行: 请参考“快速开始”部分。

对于后台MinerU解析默认仍采用CPU如需更换为GPU版本需保证预留显存在8GB以上并在 docker/magic-pdf.json 文件中修改 device-modecuda

问题 2RagflowPlus 能和 Ragflow 同时使用吗?

回答: RagflowPlus 采用了独立的前后台系统,数据和 Ragflow 互通,但不建议和 Ragflow 同时使用。如需同时使用,可通过修改端口/切换启动方式来实现,但需承担部分接口不一致导致的风险。

问题 3后台解析时报错存储桶不存在:f62a03f61fdd11f0b1301a12a4193bf3。

回答: 此问题是由于解析的文件是由 Ragflow 原本的文件系统上传的RagflowPlus 重构了文件上传的相关接口,因此解析新文件时,建议通过 RagflowPlus 的后台管理系统进行上传。

问题 4支持解析的文档类型

回答: 常见的文档类型均可支持包括pdf、word、ppt、excel、txt、md、html、jpg、png、bmp。

问题 5embedding模型的向量维度非1024导致后台解析出错。

回答: 建议使用bge-m3模型进行解析该模型的向量维度为1024。解析模型不建议频繁更换否则容易影响检索匹配。

问题 6docker镜像支持arm平台吗

回答: 鉴于 Ragflow 也不维护arm平台的镜像RagflowPlus 也无计划推出和维护arm平台的镜像。

问题 7可以用ollama部署模型吗

回答: 可以兼容ollama及在线api(硅基流动平台)。

问题 8端口冲突报错如何解决

(HTTP code 500) server error - Ports are not available: exposing port TCP 0.0.0.0:5455 -> 0.0.0.0:0: listen tcp 0.0.0.0:5455: bind: An attempt was made to access a socket in a way forbidden by its access permissions.s

回答: 该问题原因是 Windows 网络地址转换服务WinNAT该服务为 Hyper-V、WSL2 或 Docker 等虚拟化技术提供网络地址转换(NAT)功能 。WinNAT 在运行时会随机保留一部分 TCP/UDP 端口供虚拟网络使用。这些保留端口可能与应用所需端口冲突。

通过以下命令,可以停止服务,释放这些保留端口,允许用户临时使用它们。

net stop winnat
netsh int ipv4 add excludedportrange protocol=tcp startport=5455 numberofports=1
net start winnat

问题 9MinerU GPU 加速似乎只调用了第一张显卡,如何指定其它显卡?

回答: MinerU 1.x 本身无法指定具体所用显卡且不支持多显卡部署可通过以下方式去限定后端容器所能利用的显卡id。

修改docker\docker-compose_gpu.yml

deploy:
  resources:
    reservations:
      devices:
        - driver: nvidia
          capabilities: [gpu]
          device_ids: ["2"]  # 使用索引号指定id为2的显卡

问题 10日志出现警告RedisDB.queue_info rag_flow_svr_queue got exception:no such key

回答: Ragflow原生解析器心跳触发的问题不影响正常使用可忽略官方回答可参考https://github.com/infiniflow/ragflow/issues/6700

问题 11为什么添加ollama时无法联通

回答: ollama需要预先设置为对所有网络接口开放

修改配置文件:

vim /etc/systemd/system/ollama.service

[Service] 下添加:

Environment="OLLAMA_HOST=0.0.0.0"

重新载入配置文件重启ollama。

systemctl daemon-reload
systemctl restart ollama

问题 12在后台知识库连接测试中显示 text-embedding-v3无法连通

回答: 出现此情况原因是使用 ragflow 创建的初始用户(创建时间最早的用户),默认自带了通义千问的模型配置,可登陆此用户,在模型管理中移除通义千问的模型配置,并添加新的嵌入模型配置,后台会自动读取最新添加的模型配置信息。

嵌入模型仅支持 bge-m3 模型联网API仅支持硅基流动平台可免费调用该嵌入模型https://cloud.siliconflow.cn/i/bjDoFhPf


如有更多问题,欢迎在 GitHub 上提交 Issue。