器→工具, 开源项目

开源大模型应用开发平台 Dify

钱魏Way · · 45 次浏览

Dify 平台概述

Dify 是什么?

Dify 是一个开源的 LLMOps(大语言模型运维)平台,旨在帮助开发者与企业通过可视化、低代码的方式,快速构建、部署和管理基于大语言的生成式 AI 应用。其名称来源于 “Define” 和 “Modify” 的组合,寓意“为你定义并持续改进 AI 应用”。

Dify 于 2023 年 5 月首次开源发布,在两年内实现了快速增长,GitHub Star 数量突破 11 万,已成为全球最活跃的 AI 开源项目之一,支持从个人开发到企业级应用的全流程需求。

  • 它是什么:一个 LLMOps 平台。Dify 的核心定位是 LLMOps(大语言模型运维)平台。你可以将其理解为专门用于构建、部署和运营大模型应用的“操作系统”或“集成开发环境”(IDE)。它的目标是管理从创意到线上运营的全生命周期,涵盖开发、部署、监控和持续改进 。
  • 它不是什么:不是一个大模型。Dify 本身不提供或生产大语言模型。相反,它像一个“模型调度中心”,可以无缝接入各种开源或商业模型(如 GPT、Claude、Llama、通义千问等),让你基于业务需求灵活选择和切换,而无需修改应用代码 。其核心价值在于通过可视化和低代码的方式,将复杂的技术组件(如RAG、Agent、工作流)封装成易用的模块,极大降低了AI应用的开发展槛,能将开发周期从平均12周缩短至3-4周 。

核心功能与特性

可视化应用编排

  • 拖拽式工作流:用户可通过界面化方式设计 AI 任务流程,如对话生成、文本摘要、知识检索等,无需编写底层代码。
  • Prompt 可视化调试:内置提示词编辑器,支持变量注入与多模型效果对比,大幅降低 Prompt 工程门槛。

强大的 RAG 引擎

  • 支持多格式文档(PDF、PPT、Word 等)自动解析与向量化索引,结合 混合检索技术(语义向量 + 关键词检索),提升知识库查询准确率。
  • 支持动态更新知识库,减少模型生成“幻觉”现象,适用于企业知识管理、智能客服等场景。

多模型支持与灵活集成

  • 兼容主流商用与开源模型,包括 OpenAI、Claude、DeepSeek、Llama、通义千问等,并允许私有化模型接入。
  • 提供统一 API 接口,支持模型自动回退与负载均衡,保障服务稳定性。

AI Agent 与工作流

  • 支持基于目标导向的智能体(Agent)构建,可调用工具(如搜索、代码执行)完成复杂任务。
  • 工作流模式提供可控性高的自动化流程,适用于合同审核、数据报告生成等企业场景。

企业级运维与可观测性

  • 提供完整的 LLMOps 工具链,包括 API 调用监控、Token 消耗分析、交互日志标注等功能。
  • 支持私有化部署与数据加密,满足金融、医疗等行业对安全合规的要求。

技术架构亮点

Dify 采用分层架构设计,兼顾灵活性与性能:

  • 应用层:基于 React + TypeScript 的 Web 控制台,支持可视化编排。
  • 服务层:使用 Python + Flask 提供 RESTful API,Celery 处理异步任务(如文档解析)。
  • 数据层:依赖 PostgreSQL(元数据)、向量数据库(如 Weaviate/Qdrant)与 Redis(缓存)。
  • 扩展性:支持 Docker Compose 或 Kubernetes 部署,可独立扩展计算节点以应对高并发。

典型应用场景

场景 说明 案例
企业知识库助手 基于 RAG 快速构建内部知识问答系统,降低员工查询成本 企业 SOP、技术文档查询
智能客服系统 替代传统规则机器人,支持多轮对话与精准回复 工单处理效率提升 80%
代码助手与自动化开发 结合代码库实现补全、调试支持 开发者个性化编程助手
商业智能分析 通过 NL2SQL 将自然语言转换为数据库查询 自动生成业务报告

安装与部署方式

快速体验

使用 Docker Compose 一键部署:

git clone https://github.com/langgenius/dify.git
cd dify/docker
docker-compose up -d

访问 http://localhost即可初始化管理员账号。

生产环境部署

支持 Kubernetes 集群部署,可通过环境变量配置数据库、模型密钥等,并集成云存储(如 AWS S3)保障数据持久化。

优势与竞争力

低门槛与高效率:相比传统开发模式,可将 AI 应用交付周期从数月缩短至几周。

开源驱动生态:活跃的社区贡献者超 700 人,持续迭代 RAG、Agent 等核心模块。

企业级可靠性:与亚马逊云科技等厂商合作,提供高可用架构,支撑每秒 500+ 请求的高并发场景。

Dify 核心:RAG 和 Agent

Dify 的核心魅力在于它将复杂的 AI 技术封装成易于使用的工具,其中 RAGAgent 是实现这一目标的两大支柱。下面这个表格能让你对它们有一个快速而清晰的整体认识。

特性维度 RAG(检索增强生成) Agent(智能体)
核心定位 为模型注入外部知识,解决“幻觉”和知识陈旧问题 赋予模型行动能力,通过规划与工具调用解决复杂任务
技术焦点 知识检索的准确性与效率 任务规划工具调用的自动化
关键价值 答案准确、可追溯,基于事实 处理流程自动化、智能化,超越纯对话

3

典型工作流 查询 → 检索相关知识 → 增强提示词 → 生成回答 接收目标 → 规划步骤 → 调用工具 → 执行并返回结果
适用场景 企业知识库问答、技术支持、基于文档的查询 智能客服、数据分析、自动化流程、多步骤任务

深入理解RAG

简单来说,RAG就像是给大模型(LLM)装上了一个“外接大脑”,让它能够突破自身训练数据的限制,根据外部知识库提供准确、及时且可追溯的回答。

工作流程阶段 核心任务 关键技术与考量
1. 数据准备与索引(离线) 将外部知识库处理成可供快速检索的格式。 文档清洗、文本分割(Chunking)、向量化(Embedding)、存入向量数据库。
2. 检索(Retrieval) 从知识库中查找与用户问题最相关的信息片段。 常用向量检索(理解语义),也可结合关键词检索(精确匹配)形成混合检索,并使用重排序(Rerank) 优化结果。
3. 增强(Augmentation) 将检索到的信息与用户问题整合成一个高质量的提示(Prompt)。 提示词工程,明确要求模型基于给定上下文回答,并定义回答格式和边界情况处理。
4. 生成(Generation) 大模型根据增强后的提示生成最终答案。 模型根据提供的上下文信息生成准确、流畅的回答,并可引用来源。

RAG的工作原理详解

RAG的工作机制可以比作一位严谨的研究员:当遇到一个问题时,他不会凭空臆想,而是先去查阅大量的文献资料,然后综合这些资料给出有据可循的答案。

  • 检索:当用户提出问题时,RAG系统利用嵌入模型将问题转换为一个高维向量(一组数字),这个向量捕捉了问题的语义信息。随后,系统在向量数据库中通过计算相似度,快速找到与问题向量最接近的文本片段(例如,Top-K个最相关的段落)。
  • 增强:检索到的相关信息片段不会直接作为答案,而是作为“参考资料”或“上下文”,与用户的原始问题一起被精心构造成一个新的提示词(Prompt),然后输入给大语言模型。例如,提示词模板可能是:“请严格根据以下信息回答问题:[检索到的上下文]。问题是:[用户问题]”。
  • 生成:大语言模型基于这个包含了权威上下文的增强提示词来生成答案。这使得模型能够提供与上下文高度一致、并且能够追溯信息来源的回复,有效规避了“幻觉”问题。

RAG与其他技术路线的对比

理解RAG的独特价值,可以通过与其他主流技术方案的对比来加深认识。

对比维度 RAG 模型微调 传统预训练模型
核心目标 动态整合外部知识 优化模型在特定任务上的性能 依赖训练期学到的静态知识
知识更新 便捷快速,只需更新知识库 成本高、周期长,需重新训练 几乎不可能,必须重新训练
可解释性 ,答案可追溯至原文片段 低,模型决策过程如“黑盒” 低,容易产生“幻觉”
适用场景 问答、知识库、需事实准确性的场景 风格迁移、特定任务优化 开放域创意生成、通用对话

RAG的核心优势与挑战

核心优势

  • 解决“幻觉”问题:通过提供事实依据,让模型回答有据可查,显著提升准确性。
  • 知识实时更新:大模型的训练数据是静态的,知识有截止日期。而RAG只需更新外部知识库(如上传最新公司财报、行业报告),就能让模型获取最新信息,无需重新训练,成本极低。
  • 处理长尾/专业问题:对于训练数据中罕见或没有的专业领域问题,RAG可以通过检索专属知识库来给出专业回答。
  • 数据安全与隐私:企业可以利用RAG构建基于内部文档的助手,敏感数据无需上传至公有模型,只需保存在私有的知识库中即可。

面临的挑战

  • 高度依赖检索质量:如果检索不到相关信息,或者检索到的信息不相关、不准确,模型的生成结果必然不佳。所谓“垃圾进,垃圾出”。
  • 上下文长度限制:大模型有输入令牌(Token)数量的限制。当检索到的相关内容过多时,需要进行智能的筛选和压缩。
  • 系统延迟:检索和生成两个步骤会增加系统的响应时间,在高并发场景下需要进行性能优化。

在Dify中实践RAG

在Dify这类LLMOps平台中,构建RAG应用变得非常直观:

  • 创建知识库:上传你的文档(PDF、Word、TXT等),Dify会自动完成文本提取、分割、向量化并存入向量数据库(如Milvus)。
  • 配置检索策略:在Dify中,你可以灵活选择检索方式(向量检索全文检索混合检索),并调整相似度阈值、Top K等参数以优化检索精度。
  • 构建应用:创建一个文本生成或对话型应用,在提示词编排中关联你创建的知识库,并编写高质量的提示词,指导模型如何利用检索到的上下文。
  • 测试与优化:通过Dify提供的“召回测试”功能验证检索效果,并根据测试结果不断调整分段策略、检索参数和提示词,持续提升回答质量。

掌握Agent的核心

核心概念:Dify Agent 是什么?

在 Dify 平台中,Agent 不是一个简单的聊天机器人,而是一个能够自主决策、规划并执行复杂任务的智能实体。你可以将它想象成嵌入在你应用中的一个“大脑”,它能够利用大语言模型的推理能力,自主设定目标、拆解复杂任务、调用各种工具(如搜索引擎、数据库、API),并最终完成目标。

与简单的一问一答式应用相比,Agent 的核心特征在于其自主性(能独立决策)、反应性(能对环境变化做出响应)、主动性(能主动采取行动达成目标)和社会性(能与用户或其他系统交互)。

Agent 的两种核心“思维模式”

Dify 提供了两种主流的 Agent 策略模式,你可以根据任务特性和所选模型的能力进行选择。下表清晰地对比了它们的特点。

对比维度 Function Calling(函数调用)模式 ReAct(推理+行动)模式
核心逻辑 将用户指令直接映射到预定义的工具/函数上,精准调用。 “思考→行动→观察”循环迭代,逐步解决问题。
工作流程 用户输入 → LLM识别意图并选择工具/提取参数 → 执行工具 → 返回结果。 接收任务 → 思考下一步计划 → 行动(调用工具)→ 观察结果 → 继续思考…直至任务完成。
优势 精确高效、输出结构化、易于集成外部API。 灵活性高可解释性强(思考过程可见)、擅长处理复杂开放性任务。
适用场景 目标明确、流程相对固定的任务,如:查询天气、查询订单状态、调用特定API。 需要多步推理和探索的任务,如:研究分析、复杂问题解答、信息综合。
依赖 高度依赖LLM的原生函数调用能力 依赖LLM的复杂推理能力

在 Dify 中构建一个 Agent 的实践步骤

在 Dify 的可视化界面中构建 Agent 直观且高效,主要包含以下几个步骤:

  • 创建应用与选择模式:创建一个新应用,并选择启用 Agent 模式
  • 选择推理模型:选择一个能力强的大模型(如 GPT-4、Claude 等)作为 Agent 的“引擎”。模型的推理能力直接决定 Agent 的性能上限。
  • 编写清晰的指令:在“说明”部分,详细定义 Agent 的角色、目标任务、工作流程和行为约束。这是引导 Agent 行为的关键,对于 ReAct 模式尤为重要。
  • 配置工具:为 Agent “装备”它所需的各种能力。Dify 提供了丰富的内置工具(如联网搜索、代码解释器)和支持 OpenAPI 规范的自定义工具,方便你接入企业内部系统(如 CRM、数据库)。
  • 关联知识库(可选但重要):通过关联知识库,可以为 Agent 注入专有知识,使其回答更专业、更准确。这实际上是 RAG 技术与 Agent 的强强联合
  • 选择策略与调试:根据模型支持情况和任务需求,在 Function Calling 或 ReAct 策略中选择其一。之后,在 Dify 提供的调试界面中进行充分测试和预览,确保其行为符合预期。
  • 发布与集成:完成后,可以将 Agent 发布为 WebApp 直接使用,或通过统一的 API 集成到你现有的业务系统中。

Agent 与 RAG 的协同:解决实际问题的强大组合

在实际应用中,Agent 和 RAG 往往协同工作,形成“记忆”与“手脚”的完美结合。

  • RAG 负责“精准回答:当用户询问产品规格、政策法规等具体问题时,Agent 可驱动 RAG 从知识库中检索准确信息来生成答案。
  • Agent 负责“处理事务:当用户提出复杂请求,如“帮我分析上一季度的财报并总结主要风险点”,Agent 会规划步骤:先通过 RAG 检索财报文档,再调用数据分析工具进行解读,最后整合信息生成报告。

这种协同效应使得构建的 AI 应用既能基于事实,又能自动化处理复杂流程。

从理论到实践:推荐的学习路径

为了帮助你真正掌握 Dify Agent,我建议你遵循以下路径:

  • 基础体验:在 Dify 官网的云服务上注册账号,尝试用 Function Calling 模式创建一个简单的天气查询或联网搜索 Agent,熟悉基本流程。
  • 深入探索:尝试构建一个使用 ReAct 模式的研究助手,让它能够通过多次搜索和总结来回答一个开放性问题。观察其“思考-行动”的完整循环。
  • 项目实战:设计一个综合性的个人项目,例如“智能旅行规划助手”。这个 Agent 需要:关联旅游攻略知识库(RAG)、调用航班/酒店查询接口(工具)、为用户生成个性化的行程计划(规划)。这是对你综合能力的绝佳考验。

进阶功能与复杂场景

第一部分:工作流设计与编排——从“对话”到“自动化流程”

工作流是 Dify 将复杂 AI 任务流程化的核心工具。它将一个任务拆解为多个可重复、可控制的步骤(节点),并通过可视化的方式串联起来。

核心概念:为什么需要工作流?

与简单的“提问-回答”模式相比,工作流提供了:

  • 可控性与可解释性:每个步骤的输入输出都清晰可见,你可以精确控制 AI 的行为,知道答案是如何产生的。
  • 稳定性:通过预设的流程,减少 AI 的随机性,确保关键任务每次都能按既定逻辑执行。
  • 复杂任务处理能力:能够完成需要多步骤推理、条件判断、调用外部工具等简单对话无法处理的复杂任务。

动手实践:构建一个「智能内容审核」工作流

让我们通过一个实际案例来学习。这个工作流将自动对用户提交的内容进行审核,判断其类型(如技术问题、普通聊天、违规内容)并采取不同行动。

第一步:节点学习(认识你的“乐高积木”)

  • 开始节点:
    • 作用:定义工作流的输入变量。这相当于工作流的“接口”。
    • 实践:在「开始节点」中,创建一个变量,如 user_input,代表用户提交的内容。
  • LLM 节点(用于分类):
    • 作用:调用大模型进行处理,如文本分类、摘要、提取等。
    • 实践:添加一个 LLM 节点,将其连接到「开始节点」。在提示词中,要求模型对 {{user_input}}进行分类。
  • 示例提示词:
请对以下用户输入进行严格分类:
用户输入:`{{user_input}}`
分类选项:
"technical_question": 如果输入是关于软件开发、编程、技术架构的问题。
"general_chat": 如果输入是问候、闲聊或非技术性讨论。
"inappropriate_content": 如果输入包含辱骂、暴力、色情等违规内容。
只输出分类结果,不要输出其他任何内容。
  • 条件判断节点:
    • 作用:实现 IF-ELSE 逻辑分支,根据上游节点的输出决定流程走向。
    • 实践:添加「条件判断节点」,将其连接到「分类 LLM 节点」的输出。设置条件规则:
      • 条件1:如果 分类结果等于 “technical_question”
      • 条件2:如果 分类结果等于 “general_chat”
      • 条件3:如果 分类结果等于 “inappropriate_content”(或使用默认分支)
    • 知识库检索节点:
      • 作用:从指定的知识库中检索与查询相关的内容。
      • 实践:为“技术问题”分支添加一个「知识库检索节点」。将其查询内容设置为 {{user_input}},并关联你已有的技术文档知识库。
    • LLM 节点(用于生成回答):
      • 作用:生成最终给用户的回答。
      • 实践:
        • 在“技术问题”分支后,添加一个 LLM 节点,并将其上下文变量关联到「知识库检索节点」。在提示词中要求模型基于检索到的知识回答问题。
        • 在“普通聊天”分支后,添加另一个 LLM 节点,编写一个友好的聊天提示词。
        • 在“违规内容”分支后,可以直接连接到一个预定义回复(如使用“文本处理”节点),告知用户内容违规。
      • 答案节点:
        • 作用:定义工作流的最终输出。所有分支最终都应汇聚到此节点。
        • 实践:将上述三个分支的最终结果都连接到「答案节点」,它将把对应分支生成的文本作为结果返回给用户。

第二步:流程设计与整合

你的完整工作流逻辑应如下所示:用户输入-> 内容分类(LLM节点)-> 条件判断(IF)->

  • [IF technical_question]-> 检索技术文档(知识库节点)-> 生成技术回答(LLM节点)-> 答案
  • [IF general_chat]-> 生成闲聊回复(LLM节点)-> 答案
  • [IF inappropriate_content]-> 返回固定违规提示(文本节点)-> 答案

学习目标检查:完成这个实践后,你将能真正将业务逻辑(“如果是A情况,就做B处理;如果是C情况,就做D处理”)转化为一个可执行、可复用的自动化工作流。

第二部分:模型优化与提示词工程——从“能用”到“好用”

构建了工作流骨架后,我们需要优化每个环节的血肉,确保其高效、准确、经济。

多模型测试与选型

  • 核心思想:没有“最好”的模型,只有“最适合”当前任务和预算的模型。
  • 在Dify中的实践:
    • 在你工作流中的任何一个「LLM 节点」中,点击模型选择区域。
    • 你可以轻松地在不同厂商、不同版本的模型间切换(例如,OpenAI 的 GPT-4、GPT-3.5-Turbo;Anthropic 的 Claude-3系列;或开源的 Llama、Qwen 模型)。
    • 方法:保持提示词和输入变量完全一致,分别选择 GPT-4 和 Claude-3-Sonnet 运行你的工作流,对比生成的分类结果或回答质量、速度及成本(Token 消耗)。
    • 结论:对于分类这种相对简单的任务,可能 GPT-3.5 或轻量版 Claude-3 Haiku 就已足够,成本更低。而对于需要深度推理的答案生成,GPT-4 或 Claude-3 Opus 可能效果更佳。

提示词迭代与优化

  • 核心思想:提示词是与模型沟通的“编程语言”,需要精确、无歧义。
  • 进阶技巧:
    • 结构化与角色设定:为模型赋予一个明确的角色,并结构化你的指令。
    • 优化前:“总结这篇文章。”
    • 优化后:
你是一位资深编辑,请严格按照以下要求总结文本:
# 文本:
{{article_text}}
# 要求:
1.	用不超过200字概括核心观点。
2.	提取3个关键词。
3.	指出文本的立场(支持、反对或中立)。
  • 善用变量:使用 {{variable}}实现动态内容注入,这是工作流灵活性的关键。变量可以来自「开始节点」、上游任何节点的输出、或知识库检索结果。
  • 提供示例(Few-Shot):对于复杂或容易出错的任务,在提示词中提供1-2个输入输出的示例,能极大地引导模型生成符合要求的格式和内容。
  • 迭代过程:在Dify的节点调试界面,不断修改提示词->运行测试->观察输出->再修改,直到模型表现稳定符合预期。

生产部署与运维管理

第一部分:应用发布与集成——让应用触达用户

当你的应用在 Dify 中开发调试完成后,下一步就是将其发布出去。Dify 提供了多种灵活的集成方式,以适应不同的业务场景。

WebApp:最快上线的独立网页

  • 是什么:Dify 会为你的应用自动生成一个独立的、可访问的网页。
  • 如何操作:在应用界面点击“发布”,选择“WebApp”。你可以:
    • 自定义:更改网页标题、图标、欢迎语等,使其符合你的品牌。
    • 设置访问权限
      • 公开:任何拥有链接的人均可访问。
      • 密码保护:需要输入密码才能访问。
      • 私有(仅限特定版本):仅限通过 API 集成的场景使用。
    • 适用场景:快速演示、内部工具分享、无需复杂集成的对外服务(如一个简单的客服机器人页面)。

API 集成:赋能现有业务系统

  • 是什么:获取标准的 API 接口和密钥,将你的 AI 应用能力像“积木”一样嵌入到你自己的网站、小程序、移动应用或后端系统中。
  • 如何操作:在“发布”界面选择“API 访问”。
    • 获取凭证:系统会提供一个 API Endpoint(接口地址)和一个 API Key(密钥),用于身份验证。
    • 调用方式:使用标准的 HTTP POST 请求调用接口,请求体中包含用户输入的 query和其他参数。Dify 提供了详细的 API 文档和代码示例。
  • 适用场景:这是最常见的企业级集成方式。例如,将智能客服机器人集成到公司官网;将内容生成工具集成到内部内容管理系统中。

嵌入插件:无缝嵌入网站

  • 是什么:生成一段 JavaScript 代码,将其插入到你的网站 HTML 中,即可在网站右下角或自定义位置出现一个聊天机器人悬浮窗。
  • 如何操作:在“发布”界面选择“嵌入”。
    • 复制代码:Dify 会生成一段脚本代码。
    • 粘贴到网站:将代码粘贴到你网站所有页面的 </body>标签之前。
  • 适用场景:为现有网站快速添加客服或导览机器人,无需前端开发工作。

第二部分:可观测性——洞察应用表现,驱动持续优化

这是 LLMOps 平台的核心价值所在。它让你能清晰地看到应用在生产环境中的真实运行情况,而不再是一个“黑盒”。

日志分析:深入每一次对话

  • 位置:「日志与注解」模块。
  • 你能看到什么:
    • 基础信息:用户 ID、会话时间、耗时、总 Token 消耗及成本。
    • 完整交互记录:这是最关键的部分。你可以完整查看:
      • 用户输入:用户的原始问题。
      • 最终提示词:实际发送给大模型的、包含了所有上下文和变量的完整 Prompt。这对于调试为什么 AI 会给出奇怪回答至关重要。
      • 模型返回:AI 的原始回复。
    • 价值:当用户反馈回答不佳时,你可以通过日志精准定位问题——是检索的知识不对?是提示词指令不清晰?还是模型本身的问题?

数据标注与迭代:让应用越用越聪明

  • 操作:在日志列表中,你可以对每一条对话进行 “好评” (Thumbs Up) 或“差评” (Thumbs Down) 标注。
  • 深远价值:
    • 短期反馈:标注可以帮助你快速发现高频问题,从而手动优化提示词或工作流。
    • 长期资产:这些带有标注的数据(尤其是“差评”及其对应的正确回答范例)可以导出为数据集,用于后续对模型进行微调,从根本上提升应用在特定任务上的表现。这就是基于人类反馈的强化学习 的实践基础。

监控统计:掌控全局与成本

  • 位置:「统计」或「监控」模块。
  • 你能看到什么:
    • 用量趋势图:每日/每周的对话次数、用户活跃度等。
    • Token 消耗与成本分析:不同时间段的 Token 使用情况,清晰展示成本分布。
    • 平均响应时长:监控应用性能,发现瓶颈。
  • 价值:用于业务分析、成本预算和控制、性能优化。

第三部分:安全与权限——保障团队协作与数据安全

当应用进入生产阶段并需要多人维护时,安全和权限管理就变得尤为重要。

团队协作:分工明确,高效协同

  • 位置:「设置」->「团队成员」。
  • 功能:你可以邀请团队成员加入你的 Dify 工作空间,并为他们分配不同的角色权限:
    • 所有者/管理员:拥有所有权限。
    • 开发者:可以创建、编辑、发布应用,但通常不能进行账单和团队管理。
    • 运营者:主要查看日志、进行数据标注和监控,但不能修改应用配置。
  • 价值:实现了开发、运营、管理等角色的权限分离,符合企业安全规范。

API 访问控制:安全管理密钥

  • 位置:在“API 访问”设置界面。
  • 功能:
    • 密钥轮转:你可以随时“重新生成”API Key,使旧的密钥立即失效。这是当密钥可能泄露时的标准安全操作。
    • 权限管理:你可以创建多个 API Key,并为每个 Key 分配不同的应用访问权限,例如为不同的外部系统分配不同的 Key,便于管理和监控。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注