你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

使用托管计算微调模型(预览版)

重要

本文中标记了“(预览版)”的项目目前为公共预览版。 此预览版未提供服务级别协议,不建议将其用于生产工作负载。 某些功能可能不受支持或者受限。 有关详细信息,请参阅 Microsoft Azure 预览版补充使用条款

本文介绍如何使用托管计算在 Azure AI Foundry 门户中微调模型。 微调涉及将预先训练的模型适应新的相关任务或域。 使用托管计算进行微调时,可以使用计算资源来调整训练参数(例如学习速率、批大小和训练时期数量),以优化模型针对特定任务的性能。

将微调后的预先训练模型用于相关任务,其效率比生成新模型更高,因为微调基于预先训练模型的现有知识,并且减少了训练所需的时间和数据。

为了提高模型性能,可以考虑使用训练数据微调基础模型。 你可以使用 Azure AI Foundry 门户中的微调设置轻松微调基础模型。

先决条件

注释

必须对此功能使用 基于中心的项目 。 不支持 Foundry 项目 。 请参阅 如何知道我拥有哪种类型的项目?创建基于中心的项目

  • Azure 基于角色的访问控制 (Azure RBAC) 用于授予对 Azure AI Foundry 门户中的操作的访问权限。 要执行本文中的步骤,必须为用户帐户分配 Azure 订阅的所有者参与者角色。 有关权限详细信息,请参阅 Azure AI Foundry 门户中基于角色的访问控制

使用托管计算微调基础模型

小窍门

由于可以在 Azure AI Foundry 门户中 自定义左窗格 ,因此你可能会看到与这些步骤中显示的项不同。 如果未看到要查找的内容,请选择 ... 左窗格底部的更多内容。

  1. 登录到 Azure AI Foundry

  2. 如果你尚未进入项目,请选择它。

  3. 在左侧窗格中选择“微调”

    1. 选择“微调模型”,并添加要微调的模型。 本文使用 Phi-3-mini-4k-instruct 进行说明。
    2. 选择“下一步”以查看可用的微调选项。 某些基础模型仅支持“托管计算”选项。
  4. 或者,可以从项目的左侧栏中选择“模型目录”,并找到要微调的基础模型的模型卡。

    1. 在模型卡上选择“微调”以查看可用的微调选项。 某些基础模型仅支持“托管计算”选项。

    屏幕截图:Azure AI Foundry 中适用于基础模型的微调选项。

  5. 选择“托管计算”以使用个人计算资源。 此操作将打开窗口的“基本设置”页,用于指定微调设置。

配置微调设置

在本部分中,你将完成使用托管计算为模型配置微调的相关步骤。

  1. 在“基本设置”页上为要微调的模型命名,然后选择“下一步”以转到“计算”页。

  2. 选择要用于微调模型的 Azure 机器学习计算群集。 微调在 GPU 计算上运行。 确保为要使用的计算 SKU 提供足够的计算配额。

    屏幕截图:用于微调的计算设置。

  3. 选择“下一步”以转到“训练数据”页。 在此页面上,“任务类型”已预选为“聊天补全”

  4. 提供用于微调模型的训练数据。 可以选择上传采用 JSONL、CSV 或 TSV 格式的本地文件,也可以从项目中选择现有的已注册数据集。

  5. 选择“下一步”以转到“验证数据”页。 保留“训练数据的自动拆分”选项,以保留训练数据的自动拆分以供验证。 或者,你可以通过上传本地文件(采用 JSONL、CSV 或 TSV 格式)或从项目中选择现有的已注册数据集来提供不同的验证数据集。

  6. 选择“下一步”以转到“任务参数”页。 优化超参数对于在实际应用程序中优化大型语言模型 (LLM) 至关重要。 它可以实现性能改善和资源使用效率的提升。 你可以选择保持默认设置,或自定义诸如纪元或学习速率等参数。

  7. 选择“下一步”转到“审阅”页,并检查所有设置是否良好。

  8. 选择“提交”以提交微调作业。 作业完成后,可以查看已微调模型的评估指标。 然后,你可以将此模型部署到终结点以进行推理。