この記事では、 Databricks Foundation Model API でサポートされている最新のオープン モデルについて説明します。
注
これらの モデルとサポートされている 機能領域のリージョンの可用性については、「Mosaic AI Model Serving でサポートされている基盤モデル」を参照してください。
Databricks ワークスペースで使用可能なトークンごとの支払いエンドポイントを使用して、これらのモデルにクエリ要求を送信できます。 使用するモデル エンドポイントの名前については、基本モデルの使用に関するページとトークン単位の支払いがサポートされているモデルの表を参照してください。
Foundation Model API では、トークンごとの支払いモードでのモデルのサポートに加えて、プロビジョニング済みスループット モードも提供されます。 Databricks では、運用環境のワークロードに対してプロビジョニングされたスループットが推奨されます。 このモードでは、トークンごとの支払いモードでサポートされる微調整済みおよびカスタムの事前トレーニング済みモデルを含む、モデル アーキテクチャ ファミリのすべてのモデル (DBRX モデルなど) がサポートされます。 サポートされているアーキテクチャの一覧については、プロビジョニング済みスループット基盤モデル API を参照してください。
これらのサポートされているモデルは、AI Playgroundを使用して操作できます。
メタ ラマ 4 マーベリック
重要
該当するモデル開発者のライセンスと条件については、Llama 4 Community License および Acceptable Use Policy を参照してください。
Llama 4 Maverick は、Meta によって構築およびトレーニングされた最先端の大規模言語モデルです。 Llama モデル ファミリの中で、コンピューティング効率のためにエキスパート アーキテクチャの組み合わせが使用された最初のモデル です。 Llama 4 Maverick は複数の言語をサポートしており、正確な画像とテキストの理解のユース ケース用に最適化されています。 現在、Llama 4 Maverick の Databricks のサポートは、テキスト理解のユース ケースに限定されています。 Llama 4 Maverick の詳細をご覧ください。
他の大規模な言語モデルと同様に、Llama 4 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。
メタラマ3.3 70B指示
重要
2024 年 12 月 11 日より、Meta-Llama-3.3-70B-Instruct は、Foundation Model API のトークンごとの支払いエンドポイントでの Meta-Llama-3.1-70B-Instruct のサポートを置き換えます。
LLama 3.3 Community License および Acceptable Use Policy の 該当するモデル開発者ライセンスと条項 を参照してください。
Meta-Llama-3.3-70B-Instruct は、Meta によって構築およびトレーニングされた 128,000 個のトークンのコンテキストを持つ最先端の大規模言語モデルです。 このモデルは複数の言語をサポートし、対話のユース ケースに最適化されています。 Meta Llama 3.3の詳細を確認してください。
他の大規模な言語モデルと同様に、Llama-3 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。
メタラマ3.1 405B指示
重要
Foundation Model API でのこのモデルの使用は、パブリック プレビュー にあります。 このモデルの使用時にエンドポイントの障害や安定化エラーが発生した場合は、Databricks アカウント チームにお問い合わせください。
Llama 3.1 コミュニティ ライセンスと受け入れ可能な使用ポリシーについては、 該当するモデル開発者 ライセンスと条項を参照してください。
Meta-Llama-3.1-405B-Instruct は、Meta によって構築およびトレーニングされた、公開されている最先端の大規模言語モデルであり、AzureML モデル カタログを使用して Azure Machine Learning によって配布されます。 このモデルを使用すると、高度なマルチステップ推論や高品質の合成データ生成 など、新しい機能のロックを解除できます。 このモデルは品質の点でGPT-4-Turboと競争している。
Meta-Llama-3.1-70B-Instruct と同様に、このモデルには 128,000 個のトークンのコンテキストがあり、10 の言語でサポートされています。 これは、役立ちと安全性に関する人間の好みに合わせ、対話のユース ケース用に最適化されています。 Meta Llama 3.1 モデルの詳細については、を参照してください。
他の大規模な言語モデルと同様に、Llama-3.1 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。
メタラマ3.1 8B指示
重要
LLama 3.1 Community License および Acceptable Use Policy の 該当するモデル開発者ライセンスと条項 を参照してください。
Meta-Llama-3.1-8B-Instruct は、Meta によって構築およびトレーニングされた 128,000 個のトークンのコンテキストを持つ最先端の大規模言語モデルです。 このモデルは複数の言語をサポートし、対話のユース ケースに最適化されています。 Meta Llama 3.1 の詳細をご覧ください。
他の大規模な言語モデルと同様に、Llama-3 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。
アントロピック クロード ソネット 4
重要
お客様は、Anthropic の 許容される使用ポリシーの条項に準拠していることを確認する責任を負います。 Databricks のマスター クラウド サービス契約も参照してください。
Claude Sonnet 4 は、Anthropic によって構築およびトレーニングされた最先端のハイブリッド推論モデルです。 このモデルには、ほぼ瞬時の応答と、タスクの複雑さに基づくより深い推論のための拡張思考の 2 つのモードが用意されています。 Claude Sonnet 4 は、コード開発、大規模なコンテンツ分析、エージェント アプリケーション開発などのさまざまなタスクに最適化されています。
他の大規模な言語モデルと同様に、Claude Sonnet 4 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。
このエンドポイントは、Databricks セキュリティ境界内の AWS の Databricks Inc. によってホストされます。
アントロピック・クロード・オプス 4
重要
お客様は、Anthropic の 許容される使用ポリシーの条項に準拠していることを確認する責任を負います。 Databricks のマスター クラウド サービス契約も参照してください。
Claude Opus 4 は、Anthropic によって構築およびトレーニングされた最先端のハイブリッド推論モデルです。 このモデルには、ほぼ瞬時の応答と、タスクの複雑さに基づくより深い推論のための拡張思考の 2 つのモードが用意されています。 Claude Opus 4 は、高度なコード生成、エージェント オーケストレーション、ソース間調査、コンテンツの作成、コンテキストリテンション期間を使用した要約など、さまざまなタスクに最適化されています。
他の大規模な言語モデルと同様に、Claude Opus 4 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。
このエンドポイントは、Databricks セキュリティ境界内の AWS の Databricks Inc. によってホストされます。
Anthropic Claude 3.7 ソネット
重要
お客様は、Anthropic の 許容される使用ポリシーの条項に準拠していることを確認する責任を負います。 Databricks のマスター クラウド サービス契約も参照してください。
Claude 3.7 Sonnet は、Anthropic によって構築およびトレーニングされた最先端のハイブリッド推論モデルです。 これは、タスクの複雑さに基づいて推論に迅速に対応または推論を拡張できる大規模言語モデルと推論モデルです。 拡張思考モードでは、Claude 3.7 Sonnet の推論手順がユーザーに表示されます。 Claude 3.7 Sonnet は、コード生成、数学的推論、命令フォローなどのさまざまなタスク用に最適化されています。
他の大規模な言語モデルと同様に、Claude 3.7 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。
このエンドポイントは、Databricks セキュリティ境界内の AWS の Databricks Inc. によってホストされます。
GTE Large (英語版)
重要
GTE Large (英語版) は、Apache 2.0 License の下で提供され、その対象となります (Copyright (c) The Apache Software Foundation, All rights reserved.)。 お客様は、該当するモデル ライセンスへのコンプライアンスを確保する責任を負います。
一般テキスト埋め込み (GTE) は、任意のテキストを 1024 次元埋め込みベクターと 8192 トークンの埋め込みウィンドウにマップできるテキスト埋め込みモデルです。 これらのベクターは、LLM のベクター インデックスや、取得、分類、質問への回答、クラスタリング、セマンティック検索などのタスクに使用できます。 このエンドポイントは、モデルの英語版を提供し、正規化された埋め込みを生成しません。
埋め込みモデルは、取得拡張生成 (RAG) のユース ケースに LLM と組み合わせて使用する場合に特に効果的です。 GTE を使用すると、LLM のコンテキストで使用できるドキュメントの大きなチャンクで関連するテキスト スニペットを検索できます。
BGE Large (英語版)
BAAI General Embedding (BGE) は、任意のテキストを 1024 次元埋め込みベクターと 512 トークンの埋め込みウィンドウにマップできるテキスト埋め込みモデルです。 これらのベクターは、LLM のベクター インデックスや、取得、分類、質問への回答、クラスタリング、セマンティック検索などのタスクに使用できます。 このエンドポイントは、モデルの英語版を提供し、正規化された埋め込みを生成します。
埋め込みモデルは、取得拡張生成 (RAG) のユース ケースに LLM と組み合わせて使用する場合に特に効果的です。 BGE を使用すると、LLM のコンテキストで使用できるドキュメントの大きなチャンクで関連するテキスト スニペットを検索できます。
RAG アプリケーションでは、命令パラメーターを含めることで、取得システムのパフォーマンスを向上させることができます。 BGE の作成者は、クエリ埋め込みの命令 "Represent this sentence for searching relevant passages:"
を試すことをお勧めしますが、パフォーマンスへの影響はドメインに依存します。