行业 SaaS 与管控平台
Dify (Community Edition)
厂商/来源:
LangGenius
核心功能:
企业的“私有 GPT 工厂”。让集成商能帮甲方搭建本地知识库、AI 客服、文档总结工具,且数据不出内网。
| 适用场景 | 企业内部知识库(RAG)、公文自动撰写助手、工厂操作规程问答机器人 |
| 架构支持 | Docker (推荐) Middleware:它本身不跑模型,而是调用 Ollama/vLLM 或 OpenAI 接口。 |
| 硬件门槛 | Dify 本体:很轻,2核 4G 即可 推理后端 (Ollama):显卡是刚需。如果要跑通义千问 7B,至少需要 16GB 显存 (如 NVIDIA 4060Ti 16G)。 |
| 核心价值 | RAG (检索增强生成):这是目前最火的功能。你把甲方的几万份 PDF 操作手册上传到 Dify,它自动切片、向量化。工人问“机床报错 E01 怎么办”,AI 检索手册后回答。 |
| 商业情报 | [去云化交付]:很多政企客户严禁使用 ChatGPT 或文心一言云端版。Dify + Ollama + 本地显卡服务器,是目前唯一合规的交付方案。 |
| 避坑指南 | [向量库与模型幻觉] 1. PDF 解析烂:Dify 内置的 PDF 解析器对复杂的表格、双栏排版处理很差。对策:建议先用 Python 脚本 (如 pdfplumber) 将 PDF 转为 Markdown 格式再上传,检索准确率提升 50%。 2. 数据库依赖:Dify 依赖 PostgreSQL (pgvector) 和 Redis。如果 Docker 容器意外重启,pgvector 插件可能会报错。务必挂载持久化存储。 |
| 推荐搭配 | [NVIDIA 显卡服务器] [Ollama] [企业 PDF 文档库] |