次の方法で共有


クイック スタート: Azure AI Foundry の概要

このクイック スタートでは、 Azure AI Foundry SDK を使用してローカル開発環境を設定する手順について説明します。 プロンプトを記述し、それをアプリ コードの一部として実行し、実行されている LLM 呼び出しをトレースし、LLM の出力に対して基本的な評価を実行します。

ヒント

この記事の残りの部分では、 ハブ ベースのプロジェクトを使用する方法について説明します。 代わりに Foundry プロジェクト を使用する場合は、この記事の上部にある Foundry プロジェクトを選択します。

[前提条件]

  • Azure サブスクリプション。 Azure サブスクリプションをお持ちでない場合は、開始する前に無料アカウントを作成してください。
  • ハブ ベースのプロジェクト。 Azure AI Foundry を初めて使用していて、ハブ ベースのプロジェクトがない場合は、この記事の上部にある Foundry プロジェクト を選択して、代わりに Foundry プロジェクトを使用します。

開発環境を設定する

  1. 開発環境のセットアップ

  2. 次のパッケージをインストールしてください。

    pip install azure-ai-projects azure-ai-inference azure-identity 
    

モデルをデプロイする

ヒント

Azure AI Foundry ポータルで 左側のウィンドウをカスタマイズ できるため、これらの手順に示されている項目とは異なる項目が表示される場合があります。 探しているものが表示されない場合は、左側のペインの下部にある… もっと見るを選択してください。

  1. Azure AI Foundry にサインインします。

  2. ハブ ベースのプロジェクトを選択します。 ハブ ベースのプロジェクトがない場合は、この記事の上部にある Foundry プロジェクト を選択して、代わりに Foundry プロジェクトを使用します。

  3. 左側のウィンドウから [モデル カタログ ] を選択します。

  4. モデルの一覧から gpt-4o-mini モデルを選択します。 検索バーを使用して見つけることができます。

  5. モデルの詳細ページで、[デプロイ] を選択します。

    モデルをデプロイするためのボタンがあるモデル詳細ページのスクリーンショット。

  6. [デプロイ名] は既定値のままにします。 [デプロイ] を選択します。

  7. モデルがデプロイされたら、[プレイグラウンドで開く] を選択してモデルをテストします。

チャット アプリをビルドする

chat.py という名前のファイルを作成します。 次のコードをコピーしてそれに貼り付けます。

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

接続文字列を挿入する

コードから Azure AI Foundry Models で Azure OpenAI を呼び出すには、プロジェクト接続文字列が必要です。

Azure AI Foundry プレイグラウンドのクイックスタートで作成した Azure AI Foundry プロジェクト内で接続文字列を見つけます。 プロジェクトを開いて、[概要] ページで接続文字列を見つけます。

プロジェクトの概要ページと接続文字列の場所を示すスクリーンショット。

接続文字列をコピーし、<your-connection-string-goes-here> ファイル内の を置き換えます。

チャット スクリプトを実行する

スクリプトを実行して、モデルからの応答を確認します。

python chat.py

ユーザーによる入力とプロンプト テンプレートからプロンプトを生成する

このスクリプトでは、ハードコーディングされた入力および出力メッセージが使用されます。 実際のアプリでは、クライアント アプリケーションから入力を受け取り、モデルへの内部命令を含むシステム メッセージを生成し、すべてのメッセージで LLM を呼び出します。

クライアント アプリケーションから入力を受け取り、プロンプト テンプレートを使用してシステム メッセージを生成するようにスクリプトを変更しましょう。

  1. 応答を出力するスクリプトの最後の行を削除します。

  2. 次に、メッセージとコンテキストを受け取り、プロンプト テンプレートを使用してシステム メッセージを生成し、モデルを呼び出す get_chat_response 関数を定義します。 既存の chat.py ファイルに次のコードを追加します。

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    プロンプト テンプレートでは mustache 形式が使用されます。

    get_chat_response 関数は、FastAPI または Flask アプリへのルートとして簡単に追加でき、フロントエンド Web アプリケーションからこの関数を呼び出すことができます。

  3. 次に、フロントエンド アプリケーションからこの関数への情報の受け渡しをシミュレートします。 chat.py ファイルの末尾に次のコードを追加します。 メッセージに自分の名前を入れたりして、自由に遊んでみてください。

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

修正したスクリプトを実行して、この新しい入力を使用してモデルからの応答を確認します。

python chat.py

次のステップ

このクイック スタートでは、 Azure AI Foundry を使用して次の操作を行います。

  • プロジェクトを作成する
  • モデルをデプロイする
  • チャット補完を実行する
  • エージェントを作成して実行する
  • エージェントにファイルをアップロードする

Azure AI Foundry SDK は、Python、Java、JavaScript、C# などの複数の言語で利用できます。 このクイック スタートでは、これらの各言語の手順について説明します。

ヒント

この記事の残りの部分では、 Foundry プロジェクトの使用方法を示します。 代わりに ハブ ベースのプロジェクト を使用する場合は、この記事の上部にあるハブ ベースのプロジェクトを選択します。

[前提条件]

  • Azure サブスクリプション。 Azure サブスクリプションをお持ちでない場合は、開始する前に無料アカウントを作成してください。
  • プロジェクトを使用するために必要な適切なアクセス制御を受け取るために、サブスクリプションの 所有者 である必要があります。

重要

この記事で "(プレビュー)" と付記されている項目は、現在、パブリック プレビュー段階です。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳細については、「 Microsoft Azure プレビューの追加使用条件」を参照してください。

プロジェクトとモデルから始める

  1. Azure AI Foundry ポータルにサインインします。

  2. ホーム ページで、 gpt-4o モデルを検索して選択します。

    Azure AI Foundry ポータルでエージェントの構築を開始する方法を示すスクリーンショット。

  3. モデルの詳細ページで、[ このモデルを使用する] を選択します。

  4. プロジェクトに使用する名前を入力し、[ 作成] を選択します。

  5. リソースが作成されると、チャットプレイグラウンドに入ります。

環境を設定する

Azure AI Foundry ポータルを使用するためにインストールする必要はありません。

チャット補完を実行する

チャットの完了は、AI アプリケーションの基本的な構成要素です。 チャットの完了を使用すると、メッセージの一覧を送信し、モデルから応答を取得できます。

  1. チャットプレイグラウンドで、プロンプトに入力し、[ 送信 ] ボタンを選択します。
  2. モデルは、[応答] ウィンドウで 応答 を返します。

エージェントとのチャット

エージェントには、ツールを使用して強力な機能があります。 エージェントとチャットすることから始めます。

エージェントを試す準備ができたら、既定のエージェントが自動的に作成されます。 このエージェントとチャットするには:

  1. 左側のウィンドウで、[ プレイグラウンド] を選択します。
  2. [エージェント] プレイグラウンド カードで、[Let's go] を選択します。
  3. 「あなたは便利なライティング アシスタントです」などの手順を追加します。
  4. 「花に関する詩を書いてください」など、エージェントとチャットを始めます。

エージェントにファイルを追加する

次に、知識の取得を可能にするファイル検索ツールを追加しましょう。

  1. エージェントの [セットアップ] ウィンドウで、必要に応じて下にスクロールして ナレッジを見つけます。
  2. [] を選択し、[] を追加します。
  3. [ ファイル] を選択して 、product_info_1.md ファイルをアップロードします。
  4. [ファイルの追加] で [ローカル ファイルの選択] を選択します。
  5. [ アップロードして保存] を選択します
  6. "You are a helpful assistant and can search information from uploaded files" (あなたは役に立つアシスタントであり、アップロードされたファイルから情報を検索できます) などのエージェントの指示を変更します。
  7. 何か質問をしてください。たとえば、「こんにちは、Contosoの製品について何を知っていますか?」
  8. さらにファイルを追加するには、AgentVectorStore で ... を選択し、[ 管理] を選択します。

リソースをクリーンアップする

不要になった場合は、プロジェクトに関連付けられているリソース グループを削除します。

Azure AI Foundry ポータルで、右上隅にあるプロジェクト名を選択します。 次に、リソース グループのリンクを選択して、Azure portal で開きます。 リソース グループを選択し、[削除] を選択 します。 リソース グループを削除することを確認します。

Azure AI Foundry クライアント ライブラリの概要