热门推荐
立即入驻

【2025最新】Dify部署和工作流教程,国内直连OpenAI、Claude等配置Dify使用教程

综合资讯2天前更新 admin
6 0
【2025最新】Dify部署和工作流教程,国内直连OpenAI、Claude等配置Dify使用教程

Dify 是一款开源的大语言模型(LLM)应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。

由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的工作流,并同时提供了一套易用的界面和 API。这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求上。

 

目录

Toggle

  • 一、为什么使用 Dify?
  • 二、你能用 Dify 做什么
  • 三、准备工作(最小环境 & 工具)
  • 四、快速入门 — 本地(Docker Compose)部署(最短命令)
  • 五、核心概念与流程(快速理解)
  • 六、把模型接入到 Dify(示例:接入 OpenAI国际直连/AI中转国内直连)
    • 使用官方OpenAI API(国际直连)
    • 使用神马中转API(国内直连)
      • 1.使用OpenAI模型
      • 2. 使用其他模型
  • 七、构建知识库 (RAG) — UI 与 API 示例
    • 用 UI (最快)
    • 用 API(适合自动化 / 批量)
  • 八、在 Workflow / Agent 里使用知识检索(典型流程)
  • 九、发布应用并通过 API 调用(示例)
  • 十、进阶:自定义插件 / 新模型 / 工具
  • 十一、常见问题与排错技巧(实用)
  • 十二、完整示例:从零创建一个 RAG 问答机器人(快速脚本)

一、为什么使用 Dify?

你或许可以把 LangChain 这类的开发库(Library)想象为有着锤子、钉子的工具箱。与之相比,Dify 提供了更接近生产需要的完整方案,Dify 好比是一套脚手架,并且经过了精良的工程设计和软件测试。

重要的是,Dify 是开源的,它由一个专业的全职团队和社区共同打造。你可以基于任何模型自部署类似 Assistants API 和 GPTs 的能力,在灵活和安全的基础上,同时保持对数据的完全控制。


二、你能用 Dify 做什么

  • 快速搭建问答机器人(基于企业文档的 RAG)

  • 构建会调用工具(搜索、调用 API、生成图片等)的 Agent(自动化任务)

  • 在可视化画布上用“节点 + 触发 + 条件”编排复杂流程(Workflow)

  • 通过 REST API 将这些能力嵌入现有业务系统(后端代理调用)

    (上面功能点与细节可在官方产品文档与代码库查看)。

【2025最新】Dify部署和工作流教程,国内直连OpenAI、Claude等配置Dify使用教程

三、准备工作(最小环境 & 工具)

  • 最低硬件(参考仓库说明):CPU ≥ 2 core,RAM ≥ 4 GiB(用于快速试验)。生产部署请按负载规划。

  • 软件:Docker、Docker Compose(本教程以 Docker Compose 快速启动为例);如果要生产部署可使用 Helm / Kubernetes。


四、快速入门 — 本地(Docker Compose)部署(最短命令)

# 克隆仓库并启动(在支持 Docker 的机器上)
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env # 编辑 .env(填写管理员邮箱、数据库/MinIO/模型供应商的凭证等)
docker compose up -d
# 启动后到 http://localhost/install 进行初始化

上述为官方 quick start 的核心命令;具体 .env 字段和更高级部署(K8s/Helm/Terraform/AWS/CDK)见官方文档与仓库说明。

注意

  • .env.example 里会列出诸如数据库、存储(MinIO)、SMTP、初始管理员账号等变量,生产环境请使用安全凭证并放到安全 Vault。


五、核心概念与流程(快速理解)

  • Model Provider(模型供应商):Dify 支持大量供应商(OpenAI、Anthropic、Azure OpenAI、Gemini、Hugging Face、Mistral、Replicate、Ollama、LocalAI 等),可以把外部模型或自部署模型接入到平台并供应用调用。

  • Knowledge(知识库 / RAG):把文档/PDF/网页/数据库转成可检索的向量/片段,查询时先检索相关片段再交给 LLM 生成,减少“幻觉”。

  • Workflow / Agent:Workflow 是显式的节点流程(可视化编排),Agent 则是“策略驱动”的智能体(例如 Function Calling / ReAct),可动态选择并调用工具。

  • LLMOps / 监控:Dify 提供日志、metric 与标注能力,便于持续优化 prompts、模型与数据。


  • 六、把模型接入到 Dify(示例:接入 OpenAI国际直连/AI中转国内直连)

    使用官方OpenAI API(国际直连)

    这是最标准、最直接的配置方法,适合能够直接访问OpenAI API的用户:

  • 获取OpenAI API密钥:

    • 访问 OpenAI API Keys 页面
    • 创建新的API密钥(Secret Key)
    • 复制生成的密钥字符串
  • 在Dify中配置OpenAI:

    • 登录Dify平台
    • 进入设置 > 模型供应商
    • 点击添加供应商,选择OpenAI
    • 填入之前复制的API密钥
    • 点击保存完成配置
  • 验证配置:

    • 在模型供应商列表中,OpenAI旁边的状态指示器应显示为绿色
    • 点击测试按钮,确认连接正常
  • 使用神马中转API(国内直连)

    1.使用OpenAI模型

     

    点击右上角自己的头像,点击设置

     

    【2025最新】Dify部署和工作流教程,国内直连OpenAI、Claude等配置Dify使用教程

     

    点击模型供应商,选择OpenAI的设置

     

    【2025最新】Dify部署和工作流教程,国内直连OpenAI、Claude等配置Dify使用教程

     

    输入神马中转API 后台-使用API-API Keys 生成的API KEY,输入API Base:https://api.whatai.cc/v1/chat/completions,点击保存即可

     

    不同的版本尝试填入不同的API地址:

    https://api.whatai.cc

    https://api.whatai.cc/v1

    https://api.whatai.cc/v1/chat/completions

     

    【2025最新】Dify部署和工作流教程,国内直连OpenAI、Claude等配置Dify使用教程

    2. 使用其他模型


    下拉找到OpenAI-API-compatible,选择添加模型

     

    【2025最新】Dify部署和工作流教程,国内直连OpenAI、Claude等配置Dify使用教程

     

    模型名称填写你想要使用的模型,准确的名称可以通过 模型价格页面 查看

    输入神马中转AI 后台-使用API-API Keys 生成的API KEY,输入API Base:https://api.whatai.cc/v1/chat/completions,点击保存即可

    不同的版本尝试填入不同的API地址:

    https://api.whatai.cc

    https://api.whatai.cc/v1

    https://api.whatai.cc/v1/chat/completions

     

    【2025最新】Dify部署和工作流教程,国内直连OpenAI、Claude等配置Dify使用教程

     


    七、构建知识库 (RAG) — UI 与 API 示例

    用 UI (最快)

    • Dashboard -> Knowledge -> 创建知识库 -> 上传文件 / 粘贴文本 -> 选择索引策略(例如 high_quality / economical 等) -> 触发索引。

    用 API(适合自动化 / 批量)

    示例:通过文本创建文档(curl):

    curl –location –request POST ‘https://api.dify.ai/v1/datasets/{dataset_id}/document/create_by_text’
    –header ‘Authorization: Bearer {api_key}’
    –header ‘Content-Type: application/json’
    –data-raw ‘{“name”: “company_faq”,”text”: “这是一个关于产品的常见问题集合…”,”indexing_technique”: “high_quality”,”process_rule”: {“mode”: “automatic”}}’

    上传文件示例(curl):(先上传文件或直接用 create_by_file)

    curl –location –request POST ‘https://api.dify.ai/v1/datasets/{dataset_id}/document/create_by_file’
    –header ‘Authorization: Bearer {api_key}’
    –form ‘data=”{“indexing_technique”:”high_quality”,”process_rule”:{“mode”:”custom”}}”;type=text/plain’
    –form ‘file=@”/path/to/file.pdf”‘

    (更多 API 列表、分段/元数据管理、查询接口参见知识库 API 文档页面)


    八、在 Workflow / Agent 里使用知识检索(典型流程)

  • 在 Workflow 画布放置 知识检索(Knowledge Retrieval) 节点,配置要检索的知识库与检索参数(top-k、元数据过滤等)。

  • 将知识检索节点的输出作为 LLM 节点的上下文输入(LLM 节点接收到用户 query + 检索到的片段)。

  • 如果需要自动化任务(如:查询网站、调用计算工具、生成图片等),使用 Agent 节点 并为其配置 Agent 策略(Function Calling / ReAct)与所需的 Tools(工具)。Dify 提供大量内置工具(搜索、图片生成、计算、外部 API 等),也支持导入 OpenAPI/Plugin 格式的自定义工具。


  • 九、发布应用并通过 API 调用(示例)

    获取 API Key 与发布:在应用 -> 访问 API 页面生成访问凭据(注意安全。API Key 请只放后端使用,不要写在前端)。

    示例:调用聊天接口(curl)

    curl –location –request POST ‘https://api.dify.ai/v1/chat-messages’
    –header ‘Authorization: Bearer ENTER-YOUR-SECRET-KEY’
    –header ‘Content-Type: application/json’
    –data-raw ‘{
    “inputs”: {},
    “query”: “请帮我总结一下我上传的产品文档里关于退款政策的要点。”,
    “response_mode”: “streaming”,
    “conversation_id”: “your-conv-id”,
    “user”: “user-123”
    }’

    Python 示例(requests)

    import requests
    url = “https://api.dify.ai/v1/chat-messages”
    headers = {“Authorization”: “Bearer YOUR_API_KEY”, “Content-Type”: “application/json”}
    data = {
    “inputs”: {},
    “query”: “请列出产品 A 的主要功能”,
    “response_mode”: “sync”
    }
    r = requests.post(url, headers=headers, json=data)
    print(r.status_code, r.json())

    官方 API 文档有更多 endpoint(completion-messages、chat-messages、工作流调用、文件上传等)与示例。


    十、进阶:自定义插件 / 新模型 / 工具

    • 自定义工具(OpenAPI / OpenAI plugin):在 Tools -> 自定义,创建可供 Agent 调用的外部服务(例如内部 CRM API)。

    • 新增模型供应商 / 插件:使用 Dify 的插件脚手架可以开发 model/provider 插件(需要 Python 环境,参见插件开发文档)。这允许把厂内自研推理服务接入 Dify。


    十一、常见问题与排错技巧(实用)

    • 启动后无法访问 /install:检查 Docker container 是否运行,查看 docker compose ps,并查看容器日志 docker compose logs -f

    • API 请求示例缺少 base URL 导致 404/错误:文档中的部分 curl 片段可能只给出相对路径,调用前请加上完整的 Base URL(例如 http://localhost/v1/…https://api.dify.ai/v1/…)。有开发者因此报过相关问题。

    • App unavailable / 400:确保 App 已正确初始化、配置了模型供应商并启用了相应功能;在社区 issue 有类似错误的排查建议。


    十二、完整示例:从零创建一个 RAG 问答机器人(快速脚本)

  • 部署 Dify(参考第 4 节)。

  • 在 Dashboard -> Knowledge -> 新建知识库(或用 API 创建 POST /v1/datasets)。

  • 用 API 上传文档(示例见第 7 节的 create_by_file)。

  • 在 Workflow 画布:加入 知识检索节点(指向上面的知识库)→ LLM 节点(选择已配置的模型)→ 将检索结果拼接进 prompt。

  • 本地测试并调整 prompt 与检索 top-k,确认正确后发布应用并生成 API key。

  • © 版权声明

    相关文章

    暂无评论

    none
    暂无评论...