重要
この記事で "(プレビュー)" と付記されている項目は、現在、パブリック プレビュー段階です。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳細については、「 Microsoft Azure プレビューの追加使用条件」を参照してください。
この記事では、Azure AI Foundry ポータルで Azure OpenAI モデルのデプロイを作成する方法について説明します。
Azure AI Foundry Models の Azure OpenAI には、さまざまな機能と価格ポイントを備えたさまざまなモデル セットが用意されています。 Azure AI Foundry ポータルで Azure OpenAI モデルをデプロイする場合は、プロンプト フローまたは別のツールを使用してデプロイを実行できます。 モデルの可用性はリージョンごとに異なります。 各モデルの詳細については、 Azure OpenAI モデルを参照してください。
Azure AI Foundry プレイグラウンドで Azure OpenAI モデルを変更し、操作するには、まず基本の Azure OpenAI モデルを自分のプロジェクトにデプロイする必要があります。 モデルがデプロイされ、プロジェクトで利用できるようになったら、その REST API エンドポイントをそのまま使用するか、独自のデータやその他のコンポーネント (埋め込みやインデックスなど) でさらにカスタマイズできます。
[前提条件]
有効な支払い方法を持つ Azure サブスクリプション。 無料または試用版の Azure サブスクリプションは機能しません。 Azure サブスクリプションを持っていない場合は、始めるために有料の Azure アカウントを作成してください。
モデル カタログから Azure OpenAI モデルをデプロイする
Azure AI Foundry ポータル gpt-4o-mini
からリアルタイム エンドポイントに などの Azure OpenAI モデルをデプロイするには、次の手順に従います。
- Azure AI Foundry にサインインします。
- プロジェクトに入っていない場合は、プロジェクトを選択してください。
- 左側のウィンドウから [モデル カタログ ] を選択します。
[コレクション] フィルターで、[Azure OpenAI] を選択します。
Azure OpenAI コレクションから
gpt-4o-mini
などのモデルを選択します。[デプロイ] を選択してデプロイ ウィンドウを開きます。
モデルをデプロイするリソースを選択します。 リソースがない場合、作成します。
デプロイの名前を指定し、要件に応じて他の既定の設定を変更します。
[デプロイ] を選択します。
デプロイの詳細ページが表示されます。 [プレイグラウンドで開く] を選択します。
[コードの表示] を選択すると、デプロイされたモデルをアプリケーションで使用するためのコード サンプルが取得されます。
プロジェクトから Azure OpenAI モデルをデプロイする
または、Azure AI Foundry ポータルでプロジェクトから開始して、デプロイを始めることもできます。
ヒント
Azure AI Foundry ポータルで 左側のウィンドウをカスタマイズ できるため、これらの手順に示されている項目とは異なる項目が表示される場合があります。 探しているものが表示されない場合は、左側のペインの下部にある… もっと見るを選択してください。
- Azure AI Foundry ポータルでプロジェクトに移動します。
- プロジェクトの左側のサイド バーから、[マイ アセット]、> の順に移動します。
- [+ モデルのデプロイ]、> の順に選択します。
- [コレクション] フィルターで、[Azure OpenAI] を選択します。
- Azure OpenAI コレクションから
gpt-4o-mini
などのモデルを選択します。 - [確認] を選択してデプロイ ウィンドウを開きます。
- デプロイの名前を指定し、要件に応じて他の既定の設定を変更します。
- [デプロイ] を選択します。
- デプロイの詳細ページが表示されます。 [プレイグラウンドで開く] を選択します。
- [コードの表示] を選択すると、デプロイされたモデルをアプリケーションで使用するためのコード サンプルが取得されます。
Azure OpenAI モデルの推論
デプロイされたモデルに対して推論を実行するには、プレイグラウンドまたはコード サンプルを使用します。 プレイグラウンドは、モデルをリアルタイムで操作できる Web ベースのインターフェイスです。 プレイグラウンドを使用して、さまざまなプロンプトでモデルをテストし、モデルの応答を確認できます。
アプリケーションでデプロイされたモデルを使用する方法のその他の例については、次の Azure OpenAI クイックスタートを参照してください。
モデルのリージョンの可用性とクォータ制限
Azure OpenAI のモデルでは、モデルの既定のクォータはモデルとリージョンによって異なります。 特定のモデルは、一部のリージョンでのみ使用できます。 可用性とクォータの制限の詳細については、 Azure OpenAI のクォータと制限に関するページを参照してください。
モデルのデプロイと推論のクォータ
Azure OpenAI のモデルの場合、デプロイと推論では、リージョンごと、モデル単位でサブスクリプションに割り当てられたクォータが 1 分あたりのトークン数 (TPM) 単位で消費されます。 Azure AI Foundry にサインアップすると、利用可能なモデルのほとんどの既定のクォータを受け取ります。 次に、デプロイの作成時に TPM を各デプロイに割り当てます。これにより、そのモデルの使用可能なクォータから、割り当てた量が引かれます。 クォータ制限に達するまで、デプロイを作成して TPM を割り当て続けることができます。
クォータ制限に達したら、そのモデルの新しいデプロイを作成する唯一の方法は次のとおりです。
- クォータの引き上げフォームを送信して、追加のクォータをリクエストする。
- Azure OpenAI Portal で他のモデル デプロイに割り当てられたクォータを調整して、新しいデプロイのためのトークンを解放する。
クォータの詳細については、 Azure AI Foundry クォータ と Azure OpenAI クォータの管理に関するページを参照してください。
関連コンテンツ
- Azure AI Foundry でできることについて、詳細を確認します
- Azure AI の FAQ の記事で、よくあるご質問とその回答を確認します