このページでは、生成 AI アプリの構築、デプロイ、管理など、Azure Databricks で生成 AI アプリを開発するために使用できるツールの概要を示します。
Gen AIモデルのサービス提供と問い合わせ
OpenAI や Anthropic などの LLM プロバイダーから厳選された一連の Gen AI モデルを提供し、セキュリティで保護されたスケーラブルな API を通じて利用できるようにします。
特徴 | 説明 |
---|---|
基盤モデル | Meta Llama、Anthropic Claude、OpenAI GPT などのオープン ソースモデルやサードパーティモデルを含む、Gen AI モデルを提供します。 |
エンタープライズ レベルの AI エージェントを構築する
ツール呼び出しエージェント、取得拡張世代アプリ、マルチエージェント システムなど、独自のエージェントを構築してデプロイします。
特徴 | 説明 |
---|---|
AI プレイグラウンド (コードなし) | コードなしの環境での AI エージェントのプロトタイプ作成とテスト。 デプロイ用のコードを生成する前に、エージェントの動作とツールの統合をすばやく試してください。 |
Mosaic AI エージェント フレームワーク | Python でエージェントを作成、デプロイ、評価します。 LangChain、LangGraph、純粋な Python コード エージェントなど、任意のオーサリング ライブラリで記述されたエージェントをサポートします。 ガバナンス用の Unity カタログと追跡用の MLflow をサポートします。 |
エージェントブリックス | シンプルなコードなしのインターフェイスを使用して、ドメイン固有の AI エージェント システムを構築して最適化します。 Agent Bricks によって実装が効率化される一方で、データとメトリックに焦点を当てます。 |
エージェントの評価、デバッグ、最適化
評価ツールとトレース ツールを使用して、エージェントのパフォーマンスを追跡し、フィードバックを収集し、品質の向上を推進します。
特徴 | 説明 |
---|---|
エージェントの評価 | エージェントの評価と MLflow を使用して、品質、コスト、待機時間を測定します。 組み込みのレビュー アプリを通じて利害関係者や主題の専門家からのフィードバックを収集し、LLM のジャッジを使用して品質の問題を特定して解決します。 |
MLflow トラッキング | エンド ツー エンドの可観測性を実現するには、MLflow トレースを使用します。 エージェントが実行するすべてのステップをログに記録することで、開発および運用環境でのエージェントの動作のデバッグ、監視、監査を簡単に行うことができます。 |
AI エージェントの実用化
スケーラブルなエンドポイント、可観測性、ガバナンスが組み込まれた運用環境でエージェントをデプロイおよび管理します。
課題 | 説明 |
---|---|
エージェントのログ記録と登録 | ユニティカタログでガバナンスとライフサイクル管理のために、エージェントコード、構成および成果物をログ記録する。 |
エージェントをデプロイする | 管理されたスケーラブルなエンドポイントとしてエージェントをデプロイします。 |
エージェントの監視 | オフライン評価とオンライン監視では、同じ評価構成 (LLM ジャッジとカスタム メトリック) を使用します。 |