你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

探索 Azure AI Foundry 模型

Azure AI Foundry 模型是一站式目标,用于发现、评估和部署功能强大的 AI 模型,无论你是构建自定义警察、构建代理、增强现有应用程序还是探索新的 AI 功能。

使用 Foundry 模型,可以:

  • 探索来自 Microsoft、OpenAI、DeepSeek、Hugging Face、Meta 等的丰富尖端模型目录。
  • 使用实际任务和你自己的数据并排比较和评估模型。
  • 借助内置的微调、可观测性和负责任 AI 工具,可以自信地完成部署。
  • 选择路径 - 自带模型、使用托管模型或与 Azure 服务无缝集成。
  • 无论你是开发人员、数据科学家还是企业架构师,Foundry 模型都为你提供了灵活性和控制,以构建可安全、负责任且快速缩放的 AI 解决方案。

Azure AI Foundry 提供全面的 AI 模型目录。 有 1900 多个模型,包括基础模型、推理模型、小型语言模型、多模式模型、域特定模型、行业模型等。

我们的目录分为两个主要类别:

了解这些类别之间的区别有助于根据具体的要求和战略目标选择正确的模型。

由 Azure 直接销售的模型

这些模型由Microsoft产品条款下的Microsoft托管和销售。 这些模型经过严格的评估,并深入集成到 Azure 的 AI 生态系统中。 这些模型来自各种顶级提供商,它们提供增强的集成、优化的性能和直接Microsoft支持,包括企业级服务级别协议(SLA)。

Azure 直接销售的模型的特征:

  • 来自Microsoft的官方第一方支持
  • 与 Azure 服务和基础结构的高级集成
  • 广泛的性能基准测试和验证
  • 遵守Microsoft负责任的 AI 标准
  • 企业级可伸缩性、可靠性和安全性

这些模型还具有可互换的预配吞吐量的好处,这意味着可以在这些模型中的任何一个灵活使用配额和预留。

来自合作伙伴和社区的模型

这些模型构成了绝大多数 Azure AI Foundry 模型。 这些模型由受信任的第三方组织、合作伙伴、研究实验室和社区参与者提供。 这些模型提供专用和多样化的 AI 功能,涵盖各种方案、行业和创新。

来自合作伙伴和社区的模型的特征:

  • 由外部合作伙伴和社区参与者开发和支持
  • 多样化的专业模型,满足特定或广泛用途
  • 通常由提供程序自行验证,并由 Azure 提供集成指南。
  • 社区驱动的创新和尖端模型的快速可用性
  • 标准 Azure AI 集成,支持和维护由相应提供商管理

模型可部署为托管计算或标准(即用即付)部署选项。 模型提供程序选择模型可部署的方式。

在直接模型与合作伙伴和社区模型之间进行选择

从 Azure AI Foundry 模型中选择模型时,请考虑以下事项:

  • 用例和要求:Azure 直接销售的模型非常适合需要深度 Azure 集成、有保证的支持和企业 SLA 的方案。 合作伙伴和社区的模型在专业用例和创新主导的方案中表现出色。
  • 支持预期:Azure 直接销售的模型附带可靠的Microsoft支持和维护。 这些模型由各自的提供商支持,其服务水平协议(SLA)和支持结构各不相同。
  • 创新和专业化:合作伙伴和社区的模型提供快速访问专业创新和利基功能,通常由领先的研究实验室和新兴 AI 提供商开发。

模型集合

模型目录将模型组织到不同的集合中,包括:

  • Azure 上独家提供的 Azure OpenAI 模型:通过与 Foundry 模型中的 Azure OpenAI 集成提供旗舰 Azure OpenAI 模型。 Microsoft根据 Azure OpenAI 的产品条款和 SLA 支持这些模型及其使用。

  • 来自 Hugging Face 中心的开放模型:来自 Hugging Face 中心的数百个模型,用于在托管计算中进行实时推理。 此集合中列出的模型由 Hugging Face 创建和维护。 如需帮助,请使用 Hugging Face 论坛Hugging Face 支持。 在使用 Azure AI Foundry 部署开放模型中了解详细信息。

可以使用此表单来请求将模型添加到模型目录。

模型目录功能的概述

Azure AI Foundry 门户中的模型目录是用于发现和使用各种模型的中心,这些模型可用于构建生成式 AI 应用程序。 模型目录中展示了来自多个模型提供商(例如 Azure OpenAI、Mistral、Meta、Cohere、NVIDIA 和 Hugging Face)的数百个模型,其中包括微软训练的模型。 来自 Microsoft 以外的提供商的模型是非 Microsoft 产品,如 Microsoft 产品条款中所定义的,并受模型随附的条款的约束。

可以通过关键字搜索和筛选器搜索和发现满足需求的模型。 模型目录还提供模型性能排行榜和所选模型的基准指标。 可以通过选择 “浏览排行榜 ”和 “比较模型”来访问它们。 还可以从“模型卡基准”选项卡访问基准数据。

模型目录筛选器上,你会发现:

  • 集合:可以根据模型提供程序集合筛选模型。
  • 行业:可以筛选基于行业特定数据集训练的模型。
  • 功能:可以筛选唯一的模型功能,例如推理和工具调用。
  • 部署选项:可以筛选支持特定部署选项的模型。
    • 标准:此选项允许按 API 调用付费。
    • 预配:最适合用于对大量一致数据进行实时评分
    • Batch:最适合成本优化的批处理作业,而不是延迟。 不为批量部署提供操场支持。
    • 托管计算:此选项允许在 Azure 虚拟机上部署模型。 你需要支付托管和推理费用。
  • 推理任务:可以根据推理任务类型筛选模型。
  • 微调任务:可以根据微调任务类型筛选模型。
  • 许可证:可以根据许可证类型筛选模型。

模型卡上,你会发现:

  • 速览:用于快速查看有关模型的关键信息。
  • 详细信息:此页面包含有关模型的详细信息,包括说明、版本信息、支持的数据类型等。
  • 基准:可以在其中找到所选模型的性能基准指标。
  • 现有部署:如果已部署模型,可以在“现有部署”选项卡下找到该项。
  • 许可证:你将找到与模型许可相关的法律信息。
  • Artifacts:此选项卡仅针对开放式模型显示。 可以查看模型资产并通过用户界面下载它们。

模型部署:托管计算和标准部署

除了部署到 Azure OpenAI 之外,模型目录还提供两种不同的方法来部署要使用的模型:托管计算和标准部署。

每个模型的可用部署选项和功能各不相同,如下表中所述。 详细了解如何使用部署选项进行数据处理

模型部署选项的功能

特点 托管计算 标准部署
部署体验和计费 模型权重部署到具有托管计算的专用虚拟机。 托管计算可以有一个或多个部署,因此可以作为 REST API 进行推理。 将根据部署使用的虚拟机核心小时数计费。 对模型的访问通过预配 API 来访问模型的部署进行。 使用该 API 可以访问 Microsoft 托管和管理的推理模型。 你需要为 API 的输入和输出(通常为标记形式)付费。 在部署之前会提供定价信息。
API 身份验证 密钥和 Microsoft Entra 身份验证。 仅密钥。
Content Safety 使用 Azure AI 内容安全服务 API。 Azure AI 内容安全筛选器可与推理 API 集成。 Azure AI 内容安全筛选器将单独计费。
网络隔离 为 Azure AI Foundry 中心配置托管网络 托管计算将遵循中心的公用网络访问 (PNA) 标志设置。 有关详细信息,请参阅本文稍后的通过标准部署部署的模型的网络隔离部分。

适用于受支持部署选项的可用模型

有关 Azure OpenAI 模型,请参阅 Azure OpenAI

若要查看标准部署或托管计算支持的模型列表,请转到 Azure AI Foundry 中模型目录的主页。 使用 部署选项 筛选器选择 标准部署托管计算

显示如何按目录中的托管计算模型进行筛选的屏幕截图。

显示模型即服务和托管计算服务周期的示意图。

模型生命周期:弃用和停用

AI 模型发展很快,当同一模型系列中具有更新功能的新版本或新模型可用时,较旧的模型可能会在 AI Foundry 模型目录中停用。 为了能够顺利转换到较新的模型版本,某些模型为用户提供了启用自动更新的选项。 若要详细了解不同模型的模型生命周期、即将推出的模型停用日期和建议的替换模型及版本,请参阅:

托管计算

将模型部署为托管计算的功能基于 Azure 机器学习的平台功能构建,能够在大型语言模型 (LLM) 操作的整个生命周期内无缝集成模型目录中的广泛模型集合。

显示大型语言模型操作的生命周期的示意图。

可部署为托管计算的模型的可用性

这些模型通过 Azure 机器学习注册表提供。 这些注册表允许使用机器学习优先的方法来托管和分发 Azure 机器学习资产。 这些资产包括模型权重、用于运行模型的容器运行时、用于评估和微调模型的管道,以及基准和示例的数据集。

这些注册表基于高度可缩放和企业就绪的基础结构构建,该基础结构可以:

  • 向具有内置异地复制的所有 Azure 区域提供低延迟访问模型工件。

  • 支持企业安全要求,例如使用 Azure Policy 限制访问模型,以及使用托管虚拟网络保护部署。

使用托管计算部署用于推理的模型

可用于部署到托管计算的模型可以部署到 Azure 机器学习托管计算进行实时推理。 部署到托管计算时,需要在 Azure 订阅中为特定产品提供虚拟机配额,以便能够以最佳方式运行模型。 某些模型允许部署到临时共享的配额以进行模型测试

了解有关部署模型的详细信息:

使用托管计算构建生成式 AI 应用

Azure 机器学习中的提示流功能为原型制作提供了极佳体验。 可以借助开放模型 LLM 工具在提示流中使用通过托管计算部署的模型。 还可以将常用 LLM 工具(例如 LangChain)中由托管计算公开的 REST API 与 Azure 机器学习扩展结合使用。

部署为托管计算的模型的内容安全

Azure AI 内容安全服务可与托管计算配合使用,以筛查各种类别的有害内容,例如色情内容、暴力、仇恨和自残。 你还可以使用该服务来筛查高级威胁,例如越狱风险检测和受保护材料文本检测。

可以参考此笔记本来了解与适用于 Llama 2 的 Azure AI 内容安全的集成。 或者,可以在提示流中使用内容安全(文本)工具将模型的响应传递给 Azure AI 内容安全进行筛查。 你需要为这种用法单独付费,如 Azure AI 内容安全定价中所述。

标准部署计费

可以使用标准计费方式在模型目录中部署某些模型。 此部署方法也称为 标准部署,提供了一种方法,以 API 的形式使用模型,而无需在订阅中托管它们。 模型托管在 Microsoft 管理的基础结构中,这使得对模型提供商模型的基于 API 的访问成为可能。 基于 API 的访问可以大幅降低访问模型的成本并简化预配体验。

作为标准部署可用的模型由模型提供程序提供,但它们托管在Microsoft托管的 Azure 基础结构中,并通过 API 进行访问。 模型提供商将为其模型定义许可条款并规定价格。 Azure 机器学习服务:

  • 管理宿主基础结构。
  • 提供推理 API。
  • 充当数据处理器,用于处理通过 MaaS 部署的模型提交的提示和输出的内容。

有关数据隐私的文章中详细了解 MaaS 的数据处理。

显示模型发布者服务周期的示意图。

注释

云解决方案提供商(CSP)订阅无法购买标准部署模型。

账单管理

通过 MaaS 部署的模型的发现、订阅和消耗体验位于 Azure AI Foundry 门户和 Azure 机器学习工作室中。 用户接受使用模型时所要遵守的许可条款。 在部署期间将提供所用模型的定价信息。

非 Microsoft 提供商提供的模型将根据 Microsoft 商业市场使用条款通过 Azure 市场计费。

Microsoft 提供的模型将作为第一方消费服务通过 Azure 计量器计费。 如产品条款中所述,可以使用 Azure 计量器购买第一方消费服务,但它们不受 Azure 服务条款的约束。 使用这些模型须遵守提供的许可条款。

微调模型

某些模型也支持微调。 对于这些模型,可以利用托管计算(预览版)或标准部署进行微调,以便使用您提供的数据对模型进行定制。 有关详细信息,请参阅微调概述

包含部署为标准部署的模型的 RAG

在 Azure AI Foundry 门户中,可以使用矢量索引和检索增强生成 (RAG)。 可以使用可以通过标准部署部署的模型来基于自定义数据生成嵌入和推理。 然后,这些嵌入和推理可以生成特定于用例的答案。 有关详细信息,请参阅在 Azure AI Foundry 门户中生成和使用矢量索引

产品/服务和模型的区域可用性

仅当用户的 Azure 订阅属于模型提供商提供该产品/服务的国家/地区的某个计费帐户时,才可使用按令牌付费的计费模式。 如果该产品/服务在相关区域中提供,则用户必须在可部署或微调该模型(如果适用)的 Azure 区域拥有一个项目资源。 请参阅 模型在标准部署中的区域可用性 | Azure AI Foundry 有关详细信息。

通过标准部署部署的模型的内容安全性

对于通过标准部署部署部署的语言模型,Azure AI 实现 Azure AI 内容安全 文本审查筛选器的默认配置,用于检测有害内容,例如仇恨、自我伤害、性内容和暴力内容。 若要了解有关内容筛选的详细信息,请参阅 Azure 直接销售模型的防护措施与控制

小窍门

内容筛选不适用于通过标准部署部署的某些模型类型。 这些模型类型包括嵌入模型和时序模型。

当服务处理提示生成内容时,内容筛选会同步进行。 你可能需要根据 Azure AI 内容安全定价为这种用法单独付费。 可通过以下方式为单个无服务器终结点禁用内容筛选:

  • 首次部署语言模型时
  • 以后,可以通过选择部署详细信息页面上的内容筛选切换开关来禁用

假设你决定使用 Foundry 模型 API 以外的 API 来处理通过标准部署部署的模型。 在这种情况下,除非使用 Azure AI 内容安全单独实现内容筛选,否则不会启用内容筛选。

若要开始使用 Azure AI 内容安全,请参阅快速入门:分析文本内容。 如果不在使用标准部署方式部署的模型时进行内容筛选,用户将面临更高的接触有害内容的风险。

通过标准部署部署的模型的网络隔离

模型部署为标准部署时,其终结点将遵循包含部署所在的项目的 Azure AI Foundry 中心的公用网络访问标志设置。 为了帮助保护标准部署,请在 Azure AI Foundry 中心禁用公共网络访问标志。 可以使用中心的专用终结点来帮助保护从客户端到终结点的入站通信。

要设置 Azure AI Foundry 中心的公用网络访问标志,请:

  • 转到 Azure 门户
  • 搜索中心所属的资源组,并从为此资源组列出的资源中选择你的 Azure AI Foundry 中心。
  • 在中心概述页面上的左侧窗格中,转到“设置”“网络”>
  • 在“公共访问”选项卡上,可以配置公用网络访问标志的设置。
  • 保存更改。 你所做的更改最多可能需要五分钟才能传播。

局限性

  • 如果在 2024 年 7 月 11 日之前您的 Azure AI Foundry 中心已创建了一个专用终结点,那么在此中心中添加到项目中的标准部署将不会遵循这个中心的网络配置。 相反,你需要为中心创建新的专用终结点并在项目中创建新的标准部署,以便新部署可以遵循中心的网络配置。

  • 如果在 2024 年 7 月 11 日之前创建了具有 MaaS 部署的 Azure AI Foundry 中心,并且在此中心上启用专用终结点,则现有的标准部署不会遵循中心的网络配置。 若要使中心中的标准部署遵循中心的网络配置,需要再次创建部署。

  • 目前, Azure OpenAI On Your Data 支持不适用于专用中心的标准部署,因为专用中心禁用了公用网络访问标志。

  • 任何网络配置更改(例如启用或禁用公用网络访问标志)最多可能需要五分钟才能传播。