次の方法で共有


作業の開始: コードなしで LLM にクエリを実行し、AI エージェントのプロトタイプを作成する

この 5 分間のコードなしのチュートリアルでは、Azure Databricks での生成 AI について説明します。 AI プレイグラウンドを使用して、次の操作を行います。

  • 大規模な言語モデル (LLM) のクエリを実行し、結果を並べて比較する
  • ツールを呼び出す AI エージェントのプロトタイプを作成する
  • エージェントをコードにエクスポートする
  • 省略可能: 検索拡張生成 (RAG) を使用して質問に回答するチャットボットをプロトタイプ化する

開始する前に

ワークスペースが次の内容にアクセスできることを確認します。

手順 1: AI プレイグラウンドを使用して LLM にクエリを実行する

AI Playground を使用して、チャット インターフェイス内の LLM に対してクエリを実行します。

  1. ワークスペースで、[ プレイグラウンド] を選択します。
  2. 「RAG とは」などの質問を入力します。

応答を並べて比較する新しい LLM を追加します。

  1. 右上の [ + ] を選択して、比較用のモデルを追加します。
  2. 新しいウィンドウで、ドロップダウン セレクターを使用して別のモデルを選択します。
  3. [ 同期 ] チェックボックスをオンにしてクエリを同期します。
  4. "複合 AI システムとは" などの新しいプロンプトを試して、2 つの応答を並べて表示します。

AI プレイグラウンド さまざまな LLM をテストして比較し続けて、AI エージェントの構築に使用する最適な LLM を決定するのに役立ちます。

手順 2: ツールを呼び出す AI エージェントのプロトタイプを作成する

ツールを使用すると、LLM は言語を生成する以上のことを行うことができます。 ツールでは、外部データのクエリ、コードの実行、その他のアクションを実行できます。 AI Playground では、ツール呼び出し元エージェントのプロトタイプを作成するためのコードなしのオプションが提供されます。

  1. Playground で、ツール有効というラベルが付けられたモデルを選択します。

    ツールを呼び出すLLMを選択する

  2. [ツール>+ ツールの追加] を選択し、組み込みの Unity カタログ関数 (system.ai.python_exec) を選択します。

    この関数を使用すると、エージェントで任意の Python コードを実行できます。

    ホストされている関数ツールを選択する

  3. Python コードの生成または実行に関する質問をします。 プロンプトのフレージングでさまざまなバリエーションを試すことができます。 複数のツールを追加すると、LLM によって適切なツールが選択され、応答が生成されます。

    ホストされた関数ツールを使用して LLM のプロトタイプを作成する

手順 3: エージェントをコードにエクスポートする

AI Playground でエージェントをテストした後、[ エクスポート] を選択して、Python ノートブックにエージェントをエクスポートします。

Python ノートブックには、エージェントを定義し、それをモデル サービス エンドポイントにデプロイするコードが含まれています。

省略可能: RAG の質問に回答するボットのプロトタイプを作成する

ワークスペースにベクター検索インデックスが設定されている場合は、質問に回答するボットをプロトタイプ化できます。 この種類のエージェントは、ベクター検索インデックス内のドキュメントを使用して、それらのドキュメントに基づいて質問に回答します。

  1. [ ツール>+ 追加ツール] をクリックします。 次に、ベクター検索インデックスを選択します。

    ベクター検索ツールを選択する

  2. ドキュメントに関連する質問をしてください。 エージェントはベクター インデックスを使用して関連情報を検索し、その回答で使用されているドキュメントを引用します。

    ベクター検索ツールを使用して LLM のプロトタイプを作成する

ベクター検索インデックスを設定するには、「ベクター検索インデックスを作成する」を参照してください。

次のステップ