RAGflow/docs/faq.md

3.1 KiB
Raw Blame History

常见问题 (FAQ)

问题 1如何部署 RagflowPlus

回答: 您可以通过 Docker Compose 或源码进行部署。

  • Docker Compose (推荐):
    • GPU 版本: docker compose -f docker/docker-compose_gpu.yml up -d
    • CPU 版本: docker compose -f docker/docker-compose.yml up -d
  • 源码运行: 请参考“快速开始”部分。

对于后台MinerU解析默认仍采用CPU如需更换为GPU版本需保证预留显存在8GB以上并在 docker/magic-pdf.json 文件中修改 device-modecuda

问题 2RagflowPlus 能和 Ragflow 同时使用吗?

回答: RagflowPlus 采用了独立的前后台系统,数据和 Ragflow 互通,但不建议和 Ragflow 同时使用。如需同时使用,可通过修改端口/切换启动方式来实现,但需承担部分接口不一致导致的风险。

问题 3后台解析时报错存储桶不存在:f62a03f61fdd11f0b1301a12a4193bf3。

回答: 此问题是由于解析的文件是由 Ragflow 原本的文件系统上传的RagflowPlus 重构了文件上传的相关接口,因此解析新文件时,建议通过 RagflowPlus 的后台管理系统进行上传。

问题 4支持解析的文档类型

回答: 目前支持的文档类型包括PDF、PPT、Word三种文件类型后续会逐步支持更多类型。

问题 5embedding模型的向量维度非1024导致后台解析出错。

回答: 建议使用bge-m3模型进行解析该模型的向量维度为1024。解析模型不建议频繁更换否则容易影响检索匹配。

问题 6docker镜像支持arm平台吗

回答: 鉴于 Ragflow 也不维护arm平台的镜像RagflowPlus 也无计划推出和维护arm平台的镜像。

问题 7不想用vllm只想用ollama快速部署如何设置

回答: 注释掉docker-compose相关文件的vllm-bge、和vllm-deepseek即可,再进行启动。


以下是v0.2.1版本已知存在的问题:

问题 1后台团队管理菜单中成员>10人时添加成员时显示不完全。

回答: 已排查到问题原因,下版本会修复。

问题 2后台成员添加时创建时间显示异常。

回答: 已排查出该时区问题,下版本会修复。

问题 3embedding模型使用在线API在后台解析模型测试中无法正常连接。

回答: 当前仅适配本地添加的embedding模型在线API需要额外进行适配后续计划先适配使用较多的硅基流动平台。

问题 4前台保存知识库配置时提示出错。

回答: 下版本将进一步优化前台的交互。

问题 5聊天界面上传文件时文件直接被插入到知识库模型没有读取。

回答: 下版本将重构上传文件的交互逻辑。

问题 6前台知识库界面进行检索时出现异常。

回答: 下版本将修复该问题。

问题 7内网环境下服务器docker部署远程访问时偶尔出现连接问题。

回答: 该问题有待进一步排查。


如有更多问题,欢迎在 GitHub 上提交 Issue。