適用対象: すべての API Management レベル
Azure AI Foundry にデプロイされた AI モデル エンドポイントを API として API Management インスタンスにインポートできます。 API Management で AI ゲートウェイ ポリシーやその他の機能を使用して、統合を簡素化し、監視性を向上させ、モデル エンドポイントの制御を強化します。
API Management での AI API の管理の詳細については、以下を参照してください。
クライアント互換性オプション
API Management では、AI API の 2 つのクライアント互換性オプションがサポートされています。 モデルのデプロイに適したオプションを選択します。 このオプションは、クライアントが API を呼び出す方法と、API Management インスタンスが AI サービスに要求をルーティングする方法を決定します。
Azure AI - Azure AIモデル推論 API を介して公開される Azure AI Foundry のモデル エンドポイントを管理します。
クライアントは、
/models
などの/my-model/models/chat/completions
エンドポイントで展開を呼び出します。 デプロイ名は要求本文で渡されます。 Azure AI モデル推論 API で公開されているモデルと Azure OpenAI Service にデプロイされたモデルを柔軟に切り替える場合は、このオプションを使用します。Azure OpenAI サービス - Azure OpenAI サービス にデプロイされたモデル エンドポイントを管理します。
クライアントは、
/openai
などの/openai/deployments/my-deployment/chat/completions
エンドポイントで展開を呼び出します。 デプロイ名は要求パスで渡されます。 AI サービスに Azure OpenAI サービス モデルのデプロイのみが含まれている場合は、このオプションを使用します。
[前提条件]
- 既存の API Management インスタンスがある。 まだない場合は、作成してください。
- 1 つ以上のモデルがデプロイされたサブスクリプション内の Azure AI サービス。 たとえば、Azure AI Foundry または Azure OpenAI Service にデプロイされたモデルが挙げられます。
ポータルを使用して AI Foundry API をインポートする
次の手順を使用して、AI API を API Management にインポートします。
API をインポートすると、API Management によって自動的に次の構成が行われます。
- 各 API の REST API エンドポイントの操作
- AI サービスのデプロイにアクセスするために必要なアクセス許可を持つシステム割り当て ID。
- API 要求を AI サービス エンドポイントに送信する バックエンド リソースと セット バックエンド サービス ポリシー。
- インスタンスのシステム割り当てマネージド ID を使用したバックエンドへの認証。
- (必要に応じて)API の監視と管理に役立つポリシー。
AI Foundry API を API Management にインポートするには:
Azure portal で、API Management インスタンスに移動します。
左側のメニューの [API] で、[API]>[+ API の追加] を選択します。
[ Azure リソースから作成] で、[ Azure AI Foundry] を選択します。
[ AI サービスの選択 ] タブで、次の操作を行います。
- AI サービスを検索する サブスクリプション を選択します。 サービス内のモデル デプロイに関する情報を取得するには、サービス名の横にある デプロイ リンクを選択します。
- AI サービスを選択します。
- [次へ] を選択します。
- AI サービスを検索する サブスクリプション を選択します。 サービス内のモデル デプロイに関する情報を取得するには、サービス名の横にある デプロイ リンクを選択します。
[ API の構成 ] タブで、次の手順を実行します。
API の表示名と、必要に応じて説明を入力します。
[基本パス] に、API Management インスタンスがデプロイ エンドポイントへのアクセスに使用するパスを入力します。
必要に応じて、API に関連付ける 1 つ以上の 製品 を選択します。
[クライアントの互換性] で、サポートするクライアントの種類に基づいて、次のいずれかを選択します。 詳細については、「 クライアント互換性オプション 」を参照してください。
- Azure OpenAI - クライアントが Azure OpenAI サービス モデルのデプロイにのみアクセスする必要がある場合は、このオプションを選択します。
- Azure AI - クライアントが Azure AI Foundry の他のモデルにアクセスする必要がある場合は、このオプションを選択します。
[次へ] を選択します。
[ トークン消費の管理 ] タブで、必要に応じて設定を入力するか、API の監視と管理に役立つ次のポリシーを定義する既定値を受け入れます。
[ セマンティック キャッシュの適用 ] タブで、必要に応じて設定を入力するか、API のパフォーマンスの最適化と待機時間の短縮に役立つポリシーを定義する既定値を受け入れます。
AI コンテンツ の安全性で、必要に応じて設定を入力するか、既定値を受け入れて、安全でないコンテンツを含むプロンプトをブロックするように Azure AI Content Safety サービスを構成します。
[レビュー] を選択します。
設定が検証されたら、[作成] を選択します。
AI API をテストする
AI API が期待どおりに動作していることを確認するには、API Management テスト コンソールでテストします。
前の手順で作成した API を選びます。
[テスト] タブを選びます。
モデルのデプロイと互換性のある操作を選択します。 ページにパラメーターとヘッダーのフィールドが表示されます。
必要に応じてパラメーターとヘッダーを入力します。 操作によっては、 要求本文の構成または更新が必要になる場合があります。
注
テスト コンソールでは、API Management によって Ocp-Apim-Subscription-Key ヘッダーが自動的に設定され、組み込みの オール アクセス サブスクリプションのサブスクリプション キーが構成されます。 このキーを使用すると、API Management インスタンス内のすべての API にアクセスできます。 必要に応じて、 HTTP 要求の横にある "目" のアイコンを選択して、 Ocp-Apim-Subscription-Key ヘッダーを表示します。
[Send] を選択します。
テストが成功すると、バックエンドは成功した HTTP 応答コードと一部のデータで応答します。 応答に追加されるのは、言語モデルのトークン消費を監視および管理するのに役立つトークン使用状況データです。
関連コンテンツ
- API のインポートの制限事項
- OpenAPI 仕様のインポート
- SOAP API のインポート
- SOAP API をインポートして REST に変換する
- App Service API をインポートする
- コンテナー アプリ API をインポートする
- Websocket API のインポート
- GraphQL API のインポート
- GraphQL スキーマをインポートし、フィールド リゾルバーを設定する
- 関数アプリ API をインポートする
- ロジック アプリ API をインポートする
- Service Fabric サービスをインポートする
- Azure AI Foundry API をインポートする
- Azure OpenAI API をインポートする
- LLM API をインポートする
- OData API をインポートする
- SAP OData メタデータをインポートする
- gRPC API をインポートする
- API の編集