适用于:所有 API 管理层级
可以将 OpenAI 兼容的语言模型终结点作为 API 导入 API 管理实例。 例如,你可能想要管理自承载的 LLM,或者托管在 Azure AI 服务以外的推理提供程序上的 LLM。 使用 API 管理中的 AI 网关策略和其他功能来简化集成,提高可观测性,并增强对模型终结点的控制。
详细了解如何在 API 管理中管理 AI API:
语言模型 API 类型
API 管理支持此方案的两种类型的语言模型 API。 选择适合模型部署的选项。 该选项确定客户端如何调用 API,以及 API 管理实例如何将请求路由到 AI 服务。
OpenAI 兼容 - 与 OpenAI API 兼容的语言模型终结点。 示例包括某些由推理提供商公开的模型,例如Hugging Face Text Generation Inference (TGI)。
API 管理配置与 OpenAI 兼容的聊天完成终结点。
直通 - 与 OpenAI API 不兼容的其他语言模型终结点。 示例包括 Amazon Bedrock 或其他提供商中部署的模型。
API 管理为常见的 HTTP 谓词配置通配符操作。 客户端可以将路径追加到通配符作,API 管理会将请求传递给后端。
先决条件
- 现有的 API 管理实例。 创建一个(如果尚未创建)。
- 使用 API 终结点进行自承载或非 Azure 提供的语言模型部署。
使用门户导入语言模型 API
将语言模型 API 导入至 API 管理系统中。
在 Azure 门户,导航到 API 管理实例。
在左侧菜单中的 API 下,选择 API>+ 添加 API。
在 “定义新 API”下,选择 “语言模型 API”。
在 “配置 API ”选项卡上:
- 输入 API 的显示名称和(可选)说明。
- 输入 LLM API 终结点的 URL 。
- (可选)选择要与 API 关联的一个或多个 产品 。
- 在 Path 中,追加 API 管理实例用于访问 LLM API 终结点的路径。
- 在 “类型”中,选择 “创建 OpenAI API ”或 “创建传递 API”。 有关详细信息,请参阅 语言模型 API 类型 。
- 在 Access 密钥中,输入用于访问 LLM API 的授权标头名称和 API 密钥(如果需要)。
- 选择“下一步”。
在 “管理令牌使用 ”选项卡上,可以选择输入设置或接受定义以下策略的默认设置,以帮助监视和管理 API:
在 “应用语义缓存 ”选项卡上,可以选择输入设置或接受定义策略的默认值,以帮助优化性能并减少 API 的延迟:
在 AI 内容安全性上,可以选择输入设置或接受默认设置以配置 Azure AI 内容安全服务以阻止包含不安全内容的提示:
选择“审核”。
验证设置后,选择“创建”。
测试 LLM API
若要确保 LLM API 按预期工作,请在 API 管理控制台中对其进行测试。
选择上一步中创建的 API。
选择“测试”选项卡。
选择与模型部署兼容的操作。 该页将显示查询参数和标头的字段。
根据需要输入参数和标头。 根据操作,可能需要配置或更新 请求正文。
注释
在测试控制台中,API 管理自动填充 Ocp-Apim-Subscription-Key 标头,并配置内置全访问订阅的订阅密钥。 此密钥允许访问 API 管理实例中的每个 API。 可选择性地通过选择 HTTP 请求旁的“眼睛”图标来显示 Ocp-Apim-Subscription-Key 标头。
选择发送。
当测试成功时,后端会使用成功的 HTTP 响应代码和某些数据进行响应。 追加到响应中是令牌使用情况数据,可帮助你监视和管理语言模型令牌消耗。