次の方法で共有


Databricks で Gen AI アプリを構築する

このページでは、生成 AI アプリの構築、デプロイ、管理など、Azure Databricks で生成 AI アプリを開発するために使用できるツールの概要を示します。

Gen AIモデルのサービス提供と問い合わせ

OpenAI や Anthropic などの LLM プロバイダーから厳選された一連の Gen AI モデルを提供し、セキュリティで保護されたスケーラブルな API を通じて利用できるようにします。

特徴 説明
基盤モデル Meta LlamaAnthropic ClaudeOpenAI GPT などのオープン ソースモデルやサードパーティモデルを含む、Gen AI モデルを提供します。

エンタープライズ レベルの AI エージェントを構築する

ツール呼び出しエージェント、取得拡張世代アプリ、マルチエージェント システムなど、独自のエージェントを構築してデプロイします。

特徴 説明
AI プレイグラウンド (コードなし) コードなしの環境での AI エージェントのプロトタイプ作成とテスト。 デプロイ用のコードを生成する前に、エージェントの動作とツールの統合をすばやく試してください。
Mosaic AI エージェント フレームワーク Python でエージェントを作成、デプロイ、評価します。 LangChain、LangGraph、純粋な Python コード エージェントなど、任意のオーサリング ライブラリで記述されたエージェントをサポートします。 ガバナンス用の Unity カタログと追跡用の MLflow をサポートします。
エージェントブリックス シンプルなコードなしのインターフェイスを使用して、ドメイン固有の AI エージェント システムを構築して最適化します。 Agent Bricks によって実装が効率化される一方で、データとメトリックに焦点を当てます。

エージェントの評価、デバッグ、最適化

評価ツールとトレース ツールを使用して、エージェントのパフォーマンスを追跡し、フィードバックを収集し、品質の向上を推進します。

特徴 説明
エージェントの評価 エージェントの評価と MLflow を使用して、品質、コスト、待機時間を測定します。 組み込みのレビュー アプリを通じて利害関係者や主題の専門家からのフィードバックを収集し、LLM のジャッジを使用して品質の問題を特定して解決します。
MLflow トラッキング エンド ツー エンドの可観測性を実現するには、MLflow トレースを使用します。 エージェントが実行するすべてのステップをログに記録することで、開発および運用環境でのエージェントの動作のデバッグ、監視、監査を簡単に行うことができます。

AI エージェントの実用化

スケーラブルなエンドポイント、可観測性、ガバナンスが組み込まれた運用環境でエージェントをデプロイおよび管理します。

課題 説明
エージェントのログ記録と登録 ユニティカタログでガバナンスとライフサイクル管理のために、エージェントコード、構成および成果物をログ記録する。
エージェントをデプロイする 管理されたスケーラブルなエンドポイントとしてエージェントをデプロイします。
エージェントの監視 オフライン評価とオンライン監視では、同じ評価構成 (LLM ジャッジとカスタム メトリック) を使用します。