次の方法で共有


Foundry モデルを使用する

Azure AI Foundry にモデルをデプロイしたら、Azure AI Foundry API を使用してその機能を使用できます。 Azure AI Foundry モデルでモデルを使用するには、2 つの異なるエンドポイントと API があります。

推論エンドポイントをモデル化する

モデル推論エンドポイント (通常は https://<resource-name>.services.ai.azure.com/models 形式) を使用すると、同じ認証とスキーマを持つ単一のエンドポイントを使用して、リソースにデプロイされたモデルの推論を生成できます。 このエンドポイントは、Foundry Models のすべてのモデルがサポートする Azure AI モデル推論 API に従います。 次のモダリティがサポートされています。

  • テキスト埋め込み
  • 画像埋め込み
  • チャット入力候補

経路選択

推論エンドポイントは、要求の内部の name パラメーターをデプロイの名前と照合することで、要求を特定のデプロイにルーティングします。 つまり、"デプロイは、特定の構成下で特定のモデルのエイリアスとして機能する" ということです。 この柔軟性により、特定のモデルをサービスで複数回デプロイできますが、必要に応じて異なる構成でデプロイできます。

ペイロード要求内のパラメーター 'model' にそのような名前が示されている、Meta-llama-3.2-8b-instruct モデルのルーティングのしくみを示す図。

たとえば、Mistral-large という名前のデプロイを作成した場合、そのようなデプロイを次のようにして呼び出すことができます。

pip のように、パッケージ マネージャーを使用してパッケージ azure-ai-inference をインストールします。

pip install azure-ai-inference

その後、パッケージを使用してモデルを使用できます。 次の例では、チャット入力候補を使用してクライアントを作成する方法を示します。

import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential

client = ChatCompletionsClient(
    endpoint="https://<resource>.services.ai.azure.com/models",
    credential=AzureKeyCredential(os.environ["AZURE_INFERENCE_CREDENTIAL"]),
)

サンプルを確認し、API リファレンス ドキュメントを参照して、作業を開始してください。

from azure.ai.inference.models import SystemMessage, UserMessage

response = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
    ],
    model="mistral-large"
)

print(response.choices[0].message.content)

ヒント

デプロイのルーティングでは、大文字と小文字は区別されません。

Azure OpenAI 推論エンドポイント

Azure AI Foundry では、Azure OpenAI API もサポートされています。 この API は、OpenAI モデルのすべての機能を公開し、アシスタント、スレッド、ファイル、バッチ推論などの追加機能をサポートします。 非 OpenAI モデルは、互換性のある機能にも使用できます。

Azure OpenAI エンドポイント (通常、フォーム https://<resource-name>.openai.azure.com) はデプロイ レベルで動作し、それぞれに関連付けられた独自の URL を持ちます。 ただし、同じ認証メカニズムを使用してこれらを実行できます。 詳細については、Azure OpenAI API のリファレンス ページを参照してください

Azure OpenAI デプロイにどのように各デプロイの 1 つの URL が含まれているのかを示す図。

各デプロイには、Azure OpenAI のベース URL とルート /deployments/<model-deployment-name> を連結した URL があります。

pip のように、パッケージ マネージャーを使用してパッケージ openai をインストールします。

pip install openai --upgrade

その後、パッケージを使用してモデルを使用できます。 次の例では、チャット入力候補を使用してクライアントを作成する方法を示します。

import os
from openai import AzureOpenAI
    
client = AzureOpenAI(
    azure_endpoint = "https://<resource>.services.ai.azure.com"
    api_key=os.getenv("AZURE_INFERENCE_CREDENTIAL"),  
    api_version="2024-10-21",
)
response = client.chat.completions.create(
    model="deepseek-v3-0324", # Replace with your model dpeloyment name.
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain Riemann's conjecture in 1 paragraph"}
    ]
)

print(response.model_dump_json(indent=2)

次のステップ