Step 1
MinerU 文档识别
对 PDF 文档进行智能解析,提取文本、公式、表格、图片等元素,输出结构化 Markdown 或 JSON 格式,为后续知识入库做标准化预处理。
解决方案
从文档解析、知识入库、语义检索到智能生成,构建企业级可落地的知识问答链路,实现更准确、更可控、更高质量的 AI 回答。
方案采用 MinerU + Dify + 向量数据库 + GPUStack 模型服务的组合架构,实现企业知识的标准化处理与高质量问答生成。核心思想是先通过 Embedding 和 Rerank 做精准检索,再让 LLM 在高相关上下文中作答,从根本上减少幻觉和噪声。
Step 1
对 PDF 文档进行智能解析,提取文本、公式、表格、图片等元素,输出结构化 Markdown 或 JSON 格式,为后续知识入库做标准化预处理。
Step 2
上传识别后的干净文档,执行分块处理与向量化,向量写入 Qdrant 或 Milvus,构建可检索、可维护的企业知识库。
Step 3
用户提交查询后,Dify 工作流自动启动问答流程,编排召回、排序、生成等环节,进入可观测的智能问答执行链路。
Step 4
Embedding 模型第一次介入:把用户问题转换为向量,在知识库中召回候选文档片段,建立语义相关的初筛结果集。
Step 5
Rerank 模型第二次介入:对召回片段重新打分排序,过滤低相关噪声,保留最相关上下文,提高最终回答的命中率。
Step 6
LLM 最后介入:接收用户问题与精排后的高相关文档片段,进行理解、归纳与生成,输出结构清晰、可用性高的最终答案。
Step 7
工作流将最终回答返回到业务系统或问答前端,支持统一会话管理、审计追踪和持续优化。
Embedding + Rerank 的价值在于先帮 LLM 做噪声过滤与精准投喂,让 LLM 获取更少但更准的上下文,从而显著提升回答质量与稳定性。
支持文档治理、模型部署、流程编排、系统对接与长期运维优化。