Dify 平台概述
Dify 是什么?
Dify 是一个开源的 LLMOps(大语言模型运维)平台,旨在帮助开发者与企业通过可视化、低代码的方式,快速构建、部署和管理基于大语言的生成式 AI 应用。其名称来源于 “Define” 和 “Modify” 的组合,寓意“为你定义并持续改进 AI 应用”。

Dify 于 2023 年 5 月首次开源发布,在两年内实现了快速增长,GitHub Star 数量突破 11 万,已成为全球最活跃的 AI 开源项目之一,支持从个人开发到企业级应用的全流程需求。
- 它是什么:一个 LLMOps 平台。Dify 的核心定位是 LLMOps(大语言模型运维)平台。你可以将其理解为专门用于构建、部署和运营大模型应用的“操作系统”或“集成开发环境”(IDE)。它的目标是管理从创意到线上运营的全生命周期,涵盖开发、部署、监控和持续改进 。
- 它不是什么:不是一个大模型。Dify 本身不提供或生产大语言模型。相反,它像一个“模型调度中心”,可以无缝接入各种开源或商业模型(如 GPT、Claude、Llama、通义千问等),让你基于业务需求灵活选择和切换,而无需修改应用代码 。其核心价值在于通过可视化和低代码的方式,将复杂的技术组件(如RAG、Agent、工作流)封装成易用的模块,极大降低了AI应用的开发展槛,能将开发周期从平均12周缩短至3-4周 。
核心功能与特性
可视化应用编排
- 拖拽式工作流:用户可通过界面化方式设计 AI 任务流程,如对话生成、文本摘要、知识检索等,无需编写底层代码。
- Prompt 可视化调试:内置提示词编辑器,支持变量注入与多模型效果对比,大幅降低 Prompt 工程门槛。
强大的 RAG 引擎
- 支持多格式文档(PDF、PPT、Word 等)自动解析与向量化索引,结合 混合检索技术(语义向量 + 关键词检索),提升知识库查询准确率。
- 支持动态更新知识库,减少模型生成“幻觉”现象,适用于企业知识管理、智能客服等场景。
多模型支持与灵活集成
- 兼容主流商用与开源模型,包括 OpenAI、Claude、DeepSeek、Llama、通义千问等,并允许私有化模型接入。
- 提供统一 API 接口,支持模型自动回退与负载均衡,保障服务稳定性。
AI Agent 与工作流
- 支持基于目标导向的智能体(Agent)构建,可调用工具(如搜索、代码执行)完成复杂任务。
- 工作流模式提供可控性高的自动化流程,适用于合同审核、数据报告生成等企业场景。
企业级运维与可观测性
- 提供完整的 LLMOps 工具链,包括 API 调用监控、Token 消耗分析、交互日志标注等功能。
- 支持私有化部署与数据加密,满足金融、医疗等行业对安全合规的要求。
技术架构亮点
Dify 采用分层架构设计,兼顾灵活性与性能:
- 应用层:基于 React + TypeScript 的 Web 控制台,支持可视化编排。
- 服务层:使用 Python + Flask 提供 RESTful API,Celery 处理异步任务(如文档解析)。
- 数据层:依赖 PostgreSQL(元数据)、向量数据库(如 Weaviate/Qdrant)与 Redis(缓存)。
- 扩展性:支持 Docker Compose 或 Kubernetes 部署,可独立扩展计算节点以应对高并发。
典型应用场景
| 场景 | 说明 | 案例 |
| 企业知识库助手 | 基于 RAG 快速构建内部知识问答系统,降低员工查询成本 | 企业 SOP、技术文档查询 |
| 智能客服系统 | 替代传统规则机器人,支持多轮对话与精准回复 | 工单处理效率提升 80% |
| 代码助手与自动化开发 | 结合代码库实现补全、调试支持 | 开发者个性化编程助手 |
| 商业智能分析 | 通过 NL2SQL 将自然语言转换为数据库查询 | 自动生成业务报告 |
安装与部署方式
快速体验
使用 Docker Compose 一键部署:
git clone https://github.com/langgenius/dify.git cd dify/docker docker-compose up -d
访问 http://localhost即可初始化管理员账号。
生产环境部署
支持 Kubernetes 集群部署,可通过环境变量配置数据库、模型密钥等,并集成云存储(如 AWS S3)保障数据持久化。
优势与竞争力
低门槛与高效率:相比传统开发模式,可将 AI 应用交付周期从数月缩短至几周。
开源驱动生态:活跃的社区贡献者超 700 人,持续迭代 RAG、Agent 等核心模块。
企业级可靠性:与亚马逊云科技等厂商合作,提供高可用架构,支撑每秒 500+ 请求的高并发场景。
Dify 核心:RAG 和 Agent
Dify 的核心魅力在于它将复杂的 AI 技术封装成易于使用的工具,其中 RAG 和 Agent 是实现这一目标的两大支柱。下面这个表格能让你对它们有一个快速而清晰的整体认识。
| 特性维度 | RAG(检索增强生成) | Agent(智能体) |
| 核心定位 | 为模型注入外部知识,解决“幻觉”和知识陈旧问题 | 赋予模型行动能力,通过规划与工具调用解决复杂任务 |
| 技术焦点 | 知识检索的准确性与效率 | 任务规划与工具调用的自动化 |
| 关键价值 | 答案准确、可追溯,基于事实 | 处理流程自动化、智能化,超越纯对话
3 |
| 典型工作流 | 查询 → 检索相关知识 → 增强提示词 → 生成回答 | 接收目标 → 规划步骤 → 调用工具 → 执行并返回结果 |
| 适用场景 | 企业知识库问答、技术支持、基于文档的查询 | 智能客服、数据分析、自动化流程、多步骤任务 |
深入理解RAG
简单来说,RAG就像是给大模型(LLM)装上了一个“外接大脑”,让它能够突破自身训练数据的限制,根据外部知识库提供准确、及时且可追溯的回答。
| 工作流程阶段 | 核心任务 | 关键技术与考量 |
| 1. 数据准备与索引(离线) | 将外部知识库处理成可供快速检索的格式。 | 文档清洗、文本分割(Chunking)、向量化(Embedding)、存入向量数据库。 |
| 2. 检索(Retrieval) | 从知识库中查找与用户问题最相关的信息片段。 | 常用向量检索(理解语义),也可结合关键词检索(精确匹配)形成混合检索,并使用重排序(Rerank) 优化结果。 |
| 3. 增强(Augmentation) | 将检索到的信息与用户问题整合成一个高质量的提示(Prompt)。 | 提示词工程,明确要求模型基于给定上下文回答,并定义回答格式和边界情况处理。 |
| 4. 生成(Generation) | 大模型根据增强后的提示生成最终答案。 | 模型根据提供的上下文信息生成准确、流畅的回答,并可引用来源。 |
RAG的工作原理详解
RAG的工作机制可以比作一位严谨的研究员:当遇到一个问题时,他不会凭空臆想,而是先去查阅大量的文献资料,然后综合这些资料给出有据可循的答案。
- 检索:当用户提出问题时,RAG系统利用嵌入模型将问题转换为一个高维向量(一组数字),这个向量捕捉了问题的语义信息。随后,系统在向量数据库中通过计算相似度,快速找到与问题向量最接近的文本片段(例如,Top-K个最相关的段落)。
- 增强:检索到的相关信息片段不会直接作为答案,而是作为“参考资料”或“上下文”,与用户的原始问题一起被精心构造成一个新的提示词(Prompt),然后输入给大语言模型。例如,提示词模板可能是:“请严格根据以下信息回答问题:[检索到的上下文]。问题是:[用户问题]”。
- 生成:大语言模型基于这个包含了权威上下文的增强提示词来生成答案。这使得模型能够提供与上下文高度一致、并且能够追溯信息来源的回复,有效规避了“幻觉”问题。
RAG与其他技术路线的对比
理解RAG的独特价值,可以通过与其他主流技术方案的对比来加深认识。
| 对比维度 | RAG | 模型微调 | 传统预训练模型 |
| 核心目标 | 动态整合外部知识 | 优化模型在特定任务上的性能 | 依赖训练期学到的静态知识 |
| 知识更新 | 便捷快速,只需更新知识库 | 成本高、周期长,需重新训练 | 几乎不可能,必须重新训练 |
| 可解释性 | 高,答案可追溯至原文片段 | 低,模型决策过程如“黑盒” | 低,容易产生“幻觉” |
| 适用场景 | 问答、知识库、需事实准确性的场景 | 风格迁移、特定任务优化 | 开放域创意生成、通用对话 |
RAG的核心优势与挑战
核心优势
- 解决“幻觉”问题:通过提供事实依据,让模型回答有据可查,显著提升准确性。
- 知识实时更新:大模型的训练数据是静态的,知识有截止日期。而RAG只需更新外部知识库(如上传最新公司财报、行业报告),就能让模型获取最新信息,无需重新训练,成本极低。
- 处理长尾/专业问题:对于训练数据中罕见或没有的专业领域问题,RAG可以通过检索专属知识库来给出专业回答。
- 数据安全与隐私:企业可以利用RAG构建基于内部文档的助手,敏感数据无需上传至公有模型,只需保存在私有的知识库中即可。
面临的挑战
- 高度依赖检索质量:如果检索不到相关信息,或者检索到的信息不相关、不准确,模型的生成结果必然不佳。所谓“垃圾进,垃圾出”。
- 上下文长度限制:大模型有输入令牌(Token)数量的限制。当检索到的相关内容过多时,需要进行智能的筛选和压缩。
- 系统延迟:检索和生成两个步骤会增加系统的响应时间,在高并发场景下需要进行性能优化。
在Dify中实践RAG
在Dify这类LLMOps平台中,构建RAG应用变得非常直观:
- 创建知识库:上传你的文档(PDF、Word、TXT等),Dify会自动完成文本提取、分割、向量化并存入向量数据库(如Milvus)。
- 配置检索策略:在Dify中,你可以灵活选择检索方式(向量检索、全文检索或混合检索),并调整相似度阈值、Top K等参数以优化检索精度。
- 构建应用:创建一个文本生成或对话型应用,在提示词编排中关联你创建的知识库,并编写高质量的提示词,指导模型如何利用检索到的上下文。
- 测试与优化:通过Dify提供的“召回测试”功能验证检索效果,并根据测试结果不断调整分段策略、检索参数和提示词,持续提升回答质量。
掌握Agent的核心
核心概念:Dify Agent 是什么?
在 Dify 平台中,Agent 不是一个简单的聊天机器人,而是一个能够自主决策、规划并执行复杂任务的智能实体。你可以将它想象成嵌入在你应用中的一个“大脑”,它能够利用大语言模型的推理能力,自主设定目标、拆解复杂任务、调用各种工具(如搜索引擎、数据库、API),并最终完成目标。
与简单的一问一答式应用相比,Agent 的核心特征在于其自主性(能独立决策)、反应性(能对环境变化做出响应)、主动性(能主动采取行动达成目标)和社会性(能与用户或其他系统交互)。
Agent 的两种核心“思维模式”
Dify 提供了两种主流的 Agent 策略模式,你可以根据任务特性和所选模型的能力进行选择。下表清晰地对比了它们的特点。
| 对比维度 | Function Calling(函数调用)模式 | ReAct(推理+行动)模式 |
| 核心逻辑 | 将用户指令直接映射到预定义的工具/函数上,精准调用。 | “思考→行动→观察”循环迭代,逐步解决问题。 |
| 工作流程 | 用户输入 → LLM识别意图并选择工具/提取参数 → 执行工具 → 返回结果。 | 接收任务 → 思考下一步计划 → 行动(调用工具)→ 观察结果 → 继续思考…直至任务完成。 |
| 优势 | 精确高效、输出结构化、易于集成外部API。 | 灵活性高、可解释性强(思考过程可见)、擅长处理复杂开放性任务。 |
| 适用场景 | 目标明确、流程相对固定的任务,如:查询天气、查询订单状态、调用特定API。 | 需要多步推理和探索的任务,如:研究分析、复杂问题解答、信息综合。 |
| 依赖 | 高度依赖LLM的原生函数调用能力。 | 依赖LLM的复杂推理能力。 |
在 Dify 中构建一个 Agent 的实践步骤
在 Dify 的可视化界面中构建 Agent 直观且高效,主要包含以下几个步骤:
- 创建应用与选择模式:创建一个新应用,并选择启用 Agent 模式。
- 选择推理模型:选择一个能力强的大模型(如 GPT-4、Claude 等)作为 Agent 的“引擎”。模型的推理能力直接决定 Agent 的性能上限。
- 编写清晰的指令:在“说明”部分,详细定义 Agent 的角色、目标任务、工作流程和行为约束。这是引导 Agent 行为的关键,对于 ReAct 模式尤为重要。
- 配置工具:为 Agent “装备”它所需的各种能力。Dify 提供了丰富的内置工具(如联网搜索、代码解释器)和支持 OpenAPI 规范的自定义工具,方便你接入企业内部系统(如 CRM、数据库)。
- 关联知识库(可选但重要):通过关联知识库,可以为 Agent 注入专有知识,使其回答更专业、更准确。这实际上是 RAG 技术与 Agent 的强强联合。
- 选择策略与调试:根据模型支持情况和任务需求,在 Function Calling 或 ReAct 策略中选择其一。之后,在 Dify 提供的调试界面中进行充分测试和预览,确保其行为符合预期。
- 发布与集成:完成后,可以将 Agent 发布为 WebApp 直接使用,或通过统一的 API 集成到你现有的业务系统中。
Agent 与 RAG 的协同:解决实际问题的强大组合
在实际应用中,Agent 和 RAG 往往协同工作,形成“记忆”与“手脚”的完美结合。
- RAG 负责“精准回答”:当用户询问产品规格、政策法规等具体问题时,Agent 可驱动 RAG 从知识库中检索准确信息来生成答案。
- Agent 负责“处理事务”:当用户提出复杂请求,如“帮我分析上一季度的财报并总结主要风险点”,Agent 会规划步骤:先通过 RAG 检索财报文档,再调用数据分析工具进行解读,最后整合信息生成报告。
这种协同效应使得构建的 AI 应用既能基于事实,又能自动化处理复杂流程。
从理论到实践:推荐的学习路径
为了帮助你真正掌握 Dify Agent,我建议你遵循以下路径:
- 基础体验:在 Dify 官网的云服务上注册账号,尝试用 Function Calling 模式创建一个简单的天气查询或联网搜索 Agent,熟悉基本流程。
- 深入探索:尝试构建一个使用 ReAct 模式的研究助手,让它能够通过多次搜索和总结来回答一个开放性问题。观察其“思考-行动”的完整循环。
- 项目实战:设计一个综合性的个人项目,例如“智能旅行规划助手”。这个 Agent 需要:关联旅游攻略知识库(RAG)、调用航班/酒店查询接口(工具)、为用户生成个性化的行程计划(规划)。这是对你综合能力的绝佳考验。
进阶功能与复杂场景
第一部分:工作流设计与编排——从“对话”到“自动化流程”
工作流是 Dify 将复杂 AI 任务流程化的核心工具。它将一个任务拆解为多个可重复、可控制的步骤(节点),并通过可视化的方式串联起来。
核心概念:为什么需要工作流?
与简单的“提问-回答”模式相比,工作流提供了:
- 可控性与可解释性:每个步骤的输入输出都清晰可见,你可以精确控制 AI 的行为,知道答案是如何产生的。
- 稳定性:通过预设的流程,减少 AI 的随机性,确保关键任务每次都能按既定逻辑执行。
- 复杂任务处理能力:能够完成需要多步骤推理、条件判断、调用外部工具等简单对话无法处理的复杂任务。
动手实践:构建一个「智能内容审核」工作流
让我们通过一个实际案例来学习。这个工作流将自动对用户提交的内容进行审核,判断其类型(如技术问题、普通聊天、违规内容)并采取不同行动。
第一步:节点学习(认识你的“乐高积木”)
- 开始节点:
- 作用:定义工作流的输入变量。这相当于工作流的“接口”。
- 实践:在「开始节点」中,创建一个变量,如 user_input,代表用户提交的内容。
- LLM 节点(用于分类):
- 作用:调用大模型进行处理,如文本分类、摘要、提取等。
- 实践:添加一个 LLM 节点,将其连接到「开始节点」。在提示词中,要求模型对 {{user_input}}进行分类。
- 示例提示词:
请对以下用户输入进行严格分类:
用户输入:`{{user_input}}`
分类选项:
"technical_question": 如果输入是关于软件开发、编程、技术架构的问题。
"general_chat": 如果输入是问候、闲聊或非技术性讨论。
"inappropriate_content": 如果输入包含辱骂、暴力、色情等违规内容。
只输出分类结果,不要输出其他任何内容。
- 条件判断节点:
- 作用:实现 IF-ELSE 逻辑分支,根据上游节点的输出决定流程走向。
- 实践:添加「条件判断节点」,将其连接到「分类 LLM 节点」的输出。设置条件规则:
- 条件1:如果 分类结果等于 “technical_question”
- 条件2:如果 分类结果等于 “general_chat”
- 条件3:如果 分类结果等于 “inappropriate_content”(或使用默认分支)
- 知识库检索节点:
- 作用:从指定的知识库中检索与查询相关的内容。
- 实践:为“技术问题”分支添加一个「知识库检索节点」。将其查询内容设置为 {{user_input}},并关联你已有的技术文档知识库。
- LLM 节点(用于生成回答):
- 作用:生成最终给用户的回答。
- 实践:
- 在“技术问题”分支后,添加一个 LLM 节点,并将其上下文变量关联到「知识库检索节点」。在提示词中要求模型基于检索到的知识回答问题。
- 在“普通聊天”分支后,添加另一个 LLM 节点,编写一个友好的聊天提示词。
- 在“违规内容”分支后,可以直接连接到一个预定义回复(如使用“文本处理”节点),告知用户内容违规。
- 答案节点:
- 作用:定义工作流的最终输出。所有分支最终都应汇聚到此节点。
- 实践:将上述三个分支的最终结果都连接到「答案节点」,它将把对应分支生成的文本作为结果返回给用户。
第二步:流程设计与整合
你的完整工作流逻辑应如下所示:用户输入-> 内容分类(LLM节点)-> 条件判断(IF)->
- [IF technical_question]-> 检索技术文档(知识库节点)-> 生成技术回答(LLM节点)-> 答案
- [IF general_chat]-> 生成闲聊回复(LLM节点)-> 答案
- [IF inappropriate_content]-> 返回固定违规提示(文本节点)-> 答案
学习目标检查:完成这个实践后,你将能真正将业务逻辑(“如果是A情况,就做B处理;如果是C情况,就做D处理”)转化为一个可执行、可复用的自动化工作流。
第二部分:模型优化与提示词工程——从“能用”到“好用”
构建了工作流骨架后,我们需要优化每个环节的血肉,确保其高效、准确、经济。
多模型测试与选型
- 核心思想:没有“最好”的模型,只有“最适合”当前任务和预算的模型。
- 在Dify中的实践:
- 在你工作流中的任何一个「LLM 节点」中,点击模型选择区域。
- 你可以轻松地在不同厂商、不同版本的模型间切换(例如,OpenAI 的 GPT-4、GPT-3.5-Turbo;Anthropic 的 Claude-3系列;或开源的 Llama、Qwen 模型)。
- 方法:保持提示词和输入变量完全一致,分别选择 GPT-4 和 Claude-3-Sonnet 运行你的工作流,对比生成的分类结果或回答质量、速度及成本(Token 消耗)。
- 结论:对于分类这种相对简单的任务,可能 GPT-3.5 或轻量版 Claude-3 Haiku 就已足够,成本更低。而对于需要深度推理的答案生成,GPT-4 或 Claude-3 Opus 可能效果更佳。
提示词迭代与优化
- 核心思想:提示词是与模型沟通的“编程语言”,需要精确、无歧义。
- 进阶技巧:
- 结构化与角色设定:为模型赋予一个明确的角色,并结构化你的指令。
- 优化前:“总结这篇文章。”
- 优化后:
你是一位资深编辑,请严格按照以下要求总结文本:
# 文本:
{{article_text}}
# 要求:
1. 用不超过200字概括核心观点。
2. 提取3个关键词。
3. 指出文本的立场(支持、反对或中立)。
- 善用变量:使用 {{variable}}实现动态内容注入,这是工作流灵活性的关键。变量可以来自「开始节点」、上游任何节点的输出、或知识库检索结果。
- 提供示例(Few-Shot):对于复杂或容易出错的任务,在提示词中提供1-2个输入输出的示例,能极大地引导模型生成符合要求的格式和内容。
- 迭代过程:在Dify的节点调试界面,不断修改提示词->运行测试->观察输出->再修改,直到模型表现稳定符合预期。
生产部署与运维管理
第一部分:应用发布与集成——让应用触达用户
当你的应用在 Dify 中开发调试完成后,下一步就是将其发布出去。Dify 提供了多种灵活的集成方式,以适应不同的业务场景。
WebApp:最快上线的独立网页
- 是什么:Dify 会为你的应用自动生成一个独立的、可访问的网页。
- 如何操作:在应用界面点击“发布”,选择“WebApp”。你可以:
- 自定义:更改网页标题、图标、欢迎语等,使其符合你的品牌。
- 设置访问权限:
- 公开:任何拥有链接的人均可访问。
- 密码保护:需要输入密码才能访问。
- 私有(仅限特定版本):仅限通过 API 集成的场景使用。
- 适用场景:快速演示、内部工具分享、无需复杂集成的对外服务(如一个简单的客服机器人页面)。
API 集成:赋能现有业务系统
- 是什么:获取标准的 API 接口和密钥,将你的 AI 应用能力像“积木”一样嵌入到你自己的网站、小程序、移动应用或后端系统中。
- 如何操作:在“发布”界面选择“API 访问”。
- 获取凭证:系统会提供一个 API Endpoint(接口地址)和一个 API Key(密钥),用于身份验证。
- 调用方式:使用标准的 HTTP POST 请求调用接口,请求体中包含用户输入的 query和其他参数。Dify 提供了详细的 API 文档和代码示例。
- 适用场景:这是最常见的企业级集成方式。例如,将智能客服机器人集成到公司官网;将内容生成工具集成到内部内容管理系统中。
嵌入插件:无缝嵌入网站
- 是什么:生成一段 JavaScript 代码,将其插入到你的网站 HTML 中,即可在网站右下角或自定义位置出现一个聊天机器人悬浮窗。
- 如何操作:在“发布”界面选择“嵌入”。
- 复制代码:Dify 会生成一段脚本代码。
- 粘贴到网站:将代码粘贴到你网站所有页面的 </body>标签之前。
- 适用场景:为现有网站快速添加客服或导览机器人,无需前端开发工作。
第二部分:可观测性——洞察应用表现,驱动持续优化
这是 LLMOps 平台的核心价值所在。它让你能清晰地看到应用在生产环境中的真实运行情况,而不再是一个“黑盒”。
日志分析:深入每一次对话
- 位置:「日志与注解」模块。
- 你能看到什么:
- 基础信息:用户 ID、会话时间、耗时、总 Token 消耗及成本。
- 完整交互记录:这是最关键的部分。你可以完整查看:
- 用户输入:用户的原始问题。
- 最终提示词:实际发送给大模型的、包含了所有上下文和变量的完整 Prompt。这对于调试为什么 AI 会给出奇怪回答至关重要。
- 模型返回:AI 的原始回复。
- 价值:当用户反馈回答不佳时,你可以通过日志精准定位问题——是检索的知识不对?是提示词指令不清晰?还是模型本身的问题?
数据标注与迭代:让应用越用越聪明
- 操作:在日志列表中,你可以对每一条对话进行 “好评” (Thumbs Up) 或“差评” (Thumbs Down) 标注。
- 深远价值:
- 短期反馈:标注可以帮助你快速发现高频问题,从而手动优化提示词或工作流。
- 长期资产:这些带有标注的数据(尤其是“差评”及其对应的正确回答范例)可以导出为数据集,用于后续对模型进行微调,从根本上提升应用在特定任务上的表现。这就是基于人类反馈的强化学习 的实践基础。
监控统计:掌控全局与成本
- 位置:「统计」或「监控」模块。
- 你能看到什么:
- 用量趋势图:每日/每周的对话次数、用户活跃度等。
- Token 消耗与成本分析:不同时间段的 Token 使用情况,清晰展示成本分布。
- 平均响应时长:监控应用性能,发现瓶颈。
- 价值:用于业务分析、成本预算和控制、性能优化。
第三部分:安全与权限——保障团队协作与数据安全
当应用进入生产阶段并需要多人维护时,安全和权限管理就变得尤为重要。
团队协作:分工明确,高效协同
- 位置:「设置」->「团队成员」。
- 功能:你可以邀请团队成员加入你的 Dify 工作空间,并为他们分配不同的角色权限:
- 所有者/管理员:拥有所有权限。
- 开发者:可以创建、编辑、发布应用,但通常不能进行账单和团队管理。
- 运营者:主要查看日志、进行数据标注和监控,但不能修改应用配置。
- 价值:实现了开发、运营、管理等角色的权限分离,符合企业安全规范。
API 访问控制:安全管理密钥
- 位置:在“API 访问”设置界面。
- 功能:
- 密钥轮转:你可以随时“重新生成”API Key,使旧的密钥立即失效。这是当密钥可能泄露时的标准安全操作。
- 权限管理:你可以创建多个 API Key,并为每个 Key 分配不同的应用访问权限,例如为不同的外部系统分配不同的 Key,便于管理和监控。



