次の方法で共有


Azure Synapse を使用した分析のエンド ツー エンド

Azure Synapse Analytics
Azure Cosmos DB
Azure Data Factory
Azure Databricks
Azure Event Hubs

この記事で説明するソリューションでは、さまざまな Azure サービスを組み合わせて、さまざまなソース (構造化、半構造化、非構造化、ストリーミング) のデータと分析情報の取り込み、格納、処理、エンリッチ、提供を行います。

アーキテクチャ

Azure データ サービスを使用した最新のデータ プラットフォームのアーキテクチャ図。

このアーキテクチャの Visio ファイル をダウンロードします

注意

  • このアーキテクチャの対象となるサービスは、大規模な Azure サービス ファミリのサブセットにすぎません。 この設計に含まれていない他のサービスや機能を使用しても、同様の結果を得ることができます。
  • 分析ユース ケースに固有のビジネス要件によっては、この設計では考慮されていないさまざまなサービスや機能を使用することが必要になる場合もあります。

データフロー

このアーキテクチャの対象となる分析のユース ケースは、ダイアグラムの左側にあるさまざまなデータ ソースによって示されています。 このソリューションでは、データは次のようにボトムアップで送られます。

注意

以降のセクションでは、データのライフサイクルのさまざまなステージを通じて Azure Data Lake をデータのホームとして使用します。 Azure Data Lake は、次のようなさまざまなレイヤーとコンテナーで構成されます。

  • 生レイヤーは、ソース システムからのデータのランディング領域です。 名前が示すように、このレイヤー内のデータは生の、フィルター処理もクリーンもされていないフォームです。
  • ライフサイクルの次のステージでは、データがエンリッチ レイヤーに移動します。このレイヤーでは、データがクリーンされ、フィルター処理され、場合によっては変換されます。
  • その後データはキュレーション レイヤーに移動します。このレイヤーでは、コンシューマー対応のデータが保守されます。

Azure Data Lake のレイヤーとコンテナーとその 使用方法の完全なレビューについては、Data Lake ゾーンとコンテナーのドキュメントを参照してください。

Azure データ サービス、Azure Cosmos DB を使ったクラウド ネイティブな HTAP と Dataverse

プロセス
  1. Azure Synapse Link for Azure Cosmos DBAzure Synapse Link for Dataverse を使用すると、Azure Synapse ワークスペースから利用できる分析エンジン ( SQL Server レス プールと Spark プール) を使用して、運用およびビジネス アプリケーション データに対してほぼリアルタイムの分析を実行できます。

  2. Azure Synapse Link for Azure Cosmos DB を使用する場合は、 SQL Server レス クエリ または Spark プール ノートブックを使用します。 Azure Cosmos DB 分析ストアにアクセスし、ほぼリアルタイムの運用データのデータセットと、データ レイクまたはデータ ウェアハウスからのデータを組み合わせることができます。

  3. Azure Synapse Link for Dataverse を使用する場合は、 SQL Server レス クエリ または Spark プール ノートブックを使用します。 選択した Dataverse テーブルにアクセスし、凖リアルタイムのビジネス アプリケーション データのデータセットを、データ レイクまたはデータ ウェアハウスからのデータと結合することができます。

ストア
  1. SQL Server レス クエリから得られたデータセットは、データ レイクに保持できます。 Spark ノートブックを使用している場合は、結果のデータセットをデータ レイクまたはデータ ウェアハウス (SQL プール) に保持できます。
Serve(サービス)
  1. データの視覚化と探索のために、Azure Synapse SQL プールまたは Data Lake から Power BI データセット に関連するデータを読み込みます。 Power BI モデル は、ビジネス データとリレーションシップの分析を簡略化するセマンティック モデルを実装します。 ビジネス アナリストは 、Power BI レポートとダッシュボードを使用してデータを分析し、ビジネス分析情報を導き出します。

  2. また、 Azure Data Share を使用して、他の部署や外部の信頼できるパートナーとデータを安全に共有することもできます。 データ コンシューマーは、使用するデータ形式と、共有データセットを処理するために最適なコンピューティング エンジンを自由に選択できます。

  3. Synapse ワークスペースに格納されている構造化データと非構造化データを使用して 、ナレッジ マイニング ソリューション を構築し、AI を使用して、Office ドキュメント、PDF、画像、オーディオ、フォーム、Web ページなど、さまざまなドキュメントの種類や形式にわたる重要なビジネス分析情報を明らかにすることもできます。

リレーショナル データベース

取り込み
  1. Azure Synapse パイプラインを使用して、オンプレミスとクラウドの両方で、さまざまなデータベースからデータをプルします。 パイプラインは、定義済みのスケジュールに基づいて、またはイベントに対する応答としてトリガーできます。あるいは、REST API を介して明示的に呼び出すこともできます。
ストア
  1. 生データ レイク レイヤー内で、作成するレイヤー、各レイヤーで使用するフォルダー構造、分析シナリオごとに使用するファイル形式に関するベスト プラクティスに従って、 データ レイクを整理 します。

  2. Azure Synapse パイプラインから、データのコピー アクティビティを使用して、リレーショナル データベースからコピーしたデータを Azure Data Lake Store Gen 2 データ レイクの生レイヤーにステージングします。 データは区切りテキスト形式で保存することも、Parquet ファイルとして圧縮して保存することもできます。

プロセス
  1. データ フローSQL サーバーレス クエリ、または Spark ノートブックのいずれかを使用して、未加工レイヤー、エンリッチされたレイヤー、およびデータ レイク内のキュレーションされたレイヤーにデータセットを検証、変換、移動します。

    1. データ変換の一環として、標準の T-SQL または Spark ノートブックを 使用して、SQL プール からマシン トレーニング モデルを呼び出すことができます。 これらの ML モデルを使用して、データセットをエンリッチし、さらにビジネスの分析情報を生成することができます。 これらの機械学習モデルは、 Azure AI サービス または Azure ML のカスタム ML モデルから使用できます。
Serve(サービス)
  1. データ レイクキュレーション レイヤーから直接最終的なデータセットを提供することも、データのコピー アクティビティを使用して、高速インジェストのために COPY コマンド を使用して最終的なデータセットを SQL プール テーブルに取り込むことができます。

  2. データを視覚化するために、Azure Synapse SQL プールまたはデータ レイクから Power BI データセット に関連するデータを読み込みます。 Power BI モデル は、ビジネス データとリレーションシップの分析を簡略化するセマンティック モデルを実装します。 ビジネス アナリストは 、Power BI レポートとダッシュボードを使用してデータを分析し、ビジネス分析情報を導き出します。

  3. また、 Azure Data Share を使用して、他の部署や外部の信頼できるパートナーとデータを安全に共有することもできます。 データ コンシューマーは、使用するデータ形式と、共有データセットを処理するために最適なコンピューティング エンジンを自由に選択できます。

  4. Synapse ワークスペースに格納されている構造化データと非構造化データを使用して 、ナレッジ マイニング ソリューション を構築し、AI を使用して、Office ドキュメント、PDF、画像、オーディオ、フォーム、Web ページなど、さまざまなドキュメントの種類や形式にわたる重要なビジネス分析情報を明らかにすることもできます。

半構造化データ ソース

取り込み
  1. Azure Synapse パイプラインを使用して、オンプレミスとクラウドの両方で、さまざまな半構造化データ ソースからデータをプルします。 次に例を示します。

    • CSV ファイルや JSON ファイルを含むファイル ベースのソースからデータを取り込む。
    • Azure Cosmos DB や MongoDB などの SQL 以外のデータベースに接続する。
    • パイプラインのデータ ソースとして機能する SaaS アプリケーションによって提供される REST API を呼び出す。
ストア
  1. 生データ レイク レイヤー内で、作成するレイヤー、各レイヤーで使用するフォルダー構造、分析シナリオごとに使用するファイル形式に関するベスト プラクティスに従って、 データ レイクを整理 します。

  2. Azure Synapse パイプラインから、データのコピー アクティビティを使用して、半構造化データ ソースから Azure Data Lake Store Gen 2 データ レイクの生レイヤーにコピーされたデータをステージングします。 データ ソースから取得した元の形式を保持したままデータを保存します。

プロセス
  1. バッチ/マイクロバッチ パイプラインの場合は、 データ フローSQL サーバーレス クエリ 、または Spark ノートブック を使用して、データセットを検証、変換、データ レイク内のキュレーションされたレイヤーに移動します。 SQL Server レス クエリでは、基になる CSVParquet、または JSON ファイルが外部テーブルとして公開されるため、T-SQL を使用してクエリを実行できます。

    1. データ変換の一環として、標準の T-SQL または Spark ノートブックを 使用して、SQL プール から機械学習モデルを呼び出すことができます。 これらの ML モデルを使用して、データセットをエンリッチし、さらにビジネスの分析情報を生成することができます。 これらの機械学習モデルは、 Azure AI サービス または Azure ML のカスタム ML モデルから使用できます。
  2. ほぼリアルタイムのテレメトリと時系列分析のシナリオでは、 Data Explorer プール を使用して、複数のデータ ソース間でログと IoT イベント データを簡単に 取り込み、統合し、関連付けます。 Data Explorer プールを使用すると、 Kusto クエリ (KQL) を使用して 、時系列分析地理空間クラスタリング、機械学習エンリッチメントを実行できます。

Serve(サービス)
  1. データ レイクキュレーション レイヤーから直接最終的なデータセットを提供することも、データのコピー アクティビティを使用して、高速インジェストのために COPY コマンド を使用して最終的なデータセットを SQL プール テーブルに取り込むことができます。

  2. データを視覚化するために、Azure Synapse SQL プールデータ エクスプローラー プール、または データ レイク から Power BI データセット に関連するデータを読み込みます。 Power BI モデル は、ビジネス データとリレーションシップの分析を簡略化するセマンティック モデルを実装します。 ビジネス アナリストは 、Power BI レポートとダッシュボードを使用してデータを分析し、ビジネス分析情報を導き出します。

  3. また、 Azure Data Share を使用して、他の部署や外部の信頼できるパートナーとデータを安全に共有することもできます。 データ コンシューマーは、使用するデータ形式と、共有データセットを処理するために最適なコンピューティング エンジンを自由に選択できます。

  4. Synapse ワークスペースに格納されている構造化データと非構造化データを使用して 、ナレッジ マイニング ソリューション を構築し、AI を使用して、Office ドキュメント、PDF、画像、オーディオ、フォーム、Web ページなど、さまざまなドキュメントの種類や形式にわたる重要なビジネス分析情報を明らかにすることもできます。

非構造化データ ソース

取り込み
  1. Azure Synapse パイプラインを使用して、オンプレミスとクラウドの両方で、さまざまな非構造化データ ソースからデータをプルします。 次に例を示します。

    • ソース ファイルを含むファイル ベースのソースから、ビデオ、画像、音声、またはフリー テキストを取り込みます。
    • パイプラインのデータ ソースとして機能する SaaS アプリケーションによって提供される REST API を呼び出す。
ストア
  1. 生データ レイク レイヤー内で、作成するレイヤー、各レイヤーで使用するフォルダー構造、各分析シナリオで使用するファイル形式に関するベスト プラクティスに従って、 データ レイクを整理 します。

  2. Azure Synapse パイプラインから、データのコピー アクティビティを使用して、非構造化データ ソースからコピーしたデータを Azure Data Lake Store Gen 2 データ レイクの生レイヤーにステージングします。 データ ソースから取得した元の形式を保持したままデータを保存します。

プロセス
  1. Spark ノートブックを使用して、Raw レイヤー、エンリッチされたレイヤー、およびデータ レイク内のキュレーションされたレイヤーにデータセットを検証、変換、強化、移動します。

    1. データ変換の一環として、標準の T-SQL または Spark ノートブックを 使用して、SQL プール から機械学習モデルを呼び出すことができます。 これらの ML モデルを使用して、データセットをエンリッチし、さらにビジネスの分析情報を生成することができます。 これらの機械学習モデルは、 Azure AI サービス または Azure ML のカスタム ML モデルから使用できます。
Serve(サービス)
  1. データ レイクキュレーション レイヤーから直接最終的なデータセットを提供することも、データのコピー アクティビティを使用して、高速インジェストのために COPY コマンド を使用して最終的なデータセットをデータ ウェアハウス テーブルに取り込むことができます。

  2. データを視覚化するために、Azure Synapse SQL プールまたはデータ レイクから Power BI データセット に関連するデータを読み込みます。 Power BI モデル は、ビジネス データとリレーションシップの分析を簡略化するセマンティック モデルを実装します。

  3. ビジネス アナリストは 、Power BI レポートとダッシュボードを使用してデータを分析し、ビジネス分析情報を導き出します。

  4. また、 Azure Data Share を使用して、他の部署や外部の信頼できるパートナーとデータを安全に共有することもできます。 データ コンシューマーは、使用するデータ形式と、共有データセットを処理するために最適なコンピューティング エンジンを自由に選択できます。

  5. Synapse ワークスペースに格納されている構造化データと非構造化データを使用して 、ナレッジ マイニング ソリューション を構築し、AI を使用して、Office ドキュメント、PDF、画像、オーディオ、フォーム、Web ページなど、さまざまなドキュメントの種類や形式にわたる重要なビジネス分析情報を明らかにすることもできます。

ストリーム

取り込み
  1. Azure Event Hubs または Azure IoT Hubs を使用して、クライアント アプリケーションまたは IoT デバイスによって生成されたデータ ストリームを取り込みます。 その後、Event Hubs または IoT Hub によって、受信した一連のイベントを保持するストリーミング データが取り込まれ、保存されます。 そうすると、コンシューマーは Event Hubs または IoT Hub エンドポイントに接続し、処理するメッセージを取得できます。
ストア
  1. 生データ レイク レイヤー内で、作成するレイヤー、各レイヤーで使用するフォルダー構造、分析シナリオごとに使用するファイル形式に関するベスト プラクティスに従って、 データ レイクを整理 します。

  2. イベントのコピーを Azure Data Lake Store Gen 2 データ レイクの Raw レイヤーに保存するように Event Hubs Capture または IoT Hub ストレージ エンドポイントを構成します。 この機能は 、ラムダ アーキテクチャ パターン の "コールド パス" を実装し、上で説明した半構造化データ ソースのパターンに従って 、SQL Server レス クエリ または Spark ノートブック を使用して、データ レイクに保存されたストリーム データに関する履歴および傾向分析を実行できます。

プロセス
  1. リアルタイムの分析情報を得るために、 Stream Analytics ジョブ を使用して ラムダ アーキテクチャ パターン の "ホット パス" を実装し、転送中のストリーム データから分析情報を導き出します。 Event Hubs または IoT Hub から送信されるデータ ストリームに対して少なくとも 1 つの入力を定義します。1 つは入力データ ストリームを処理するクエリ、1 つはクエリ結果の送信先となる Power BI 出力です。

    1. Stream Analytics を使用したデータ処理の一部として、機械学習モデルを呼び出してストリーム データ セットをエンリッチし、生成された予測に基づいてビジネス上の意思決定を促進できます。 これらの機械学習モデルは、Azure AI サービスから、または Azure Machine Learningカスタム ML モデルから使用できます。
  2. 他の Stream Analytics ジョブ出力を使用して、処理されたイベントを Azure Synapse SQL プール または Data Explorer プール に送信して、さらに分析のユース ケースを実現します。

  3. ほぼリアルタイムのテレメトリと時系列分析のシナリオでは、 Data Explorer プール を使用して 、Event Hubs または IoT Hubs から IoT イベントを直接簡単に取り込みます。 Data Explorer プールを使用すると、 Kusto クエリ (KQL) を使用して 、時系列分析地理空間クラスタリング、機械学習エンリッチメントを実行できます。

Serve(サービス)
  1. ビジネス アナリストは、 Power BI のリアルタイム データセットとダッシュボード 機能を使用して、Stream Analytics クエリによって生成された変化の速い分析情報を視覚化します。

  2. また、 Azure Data Share を使用して、他の部署や外部の信頼できるパートナーとデータを安全に共有することもできます。 データ コンシューマーは、使用するデータ形式と、共有データセットを処理するために最適なコンピューティング エンジンを自由に選択できます。

  3. Synapse ワークスペースに格納されている構造化データと非構造化データを使用して 、ナレッジ マイニング ソリューション を構築し、AI を使用して、Office ドキュメント、PDF、画像、オーディオ、フォーム、Web ページなど、さまざまなドキュメントの種類と形式にわたる重要なビジネス分析情報を明らかにすることもできます。

コンポーネント

アーキテクチャでは次の Azure サービスが使用されています。

代替

  • 上述のアーキテクチャでは、Azure Synapse パイプラインがデータ パイプライン オーケストレーションを担当します。 Azure Data Factory パイプラインには、この記事で説明したのと同じ機能も用意されています。

  • Azure Databricks は、構造化データと非構造化データをデータ レイク上で直接処理するために使用されるコンピューティング エンジンとしても使用できます。

  • 上記のアーキテクチャでは、Azure Stream Analytics はストリーミング データの処理を担当するサービスです。 Azure Synapse Spark プールと Azure Databricks を使用してノートブックを実行することにより、同じ役割を果たすこともできます。

  • Azure HDInsight Kafka クラスターを使用してストリーミング データを取り込み、大規模なストリーミング ワークロードに必要な適切なレベルのパフォーマンスとスケーラビリティを提供することもできます。

  • Azure Functions を使用して 、Azure Synapse パイプラインから Azure AI サービスまたは Azure Machine Learning カスタム ML モデルを呼び出すこともできます。

  • このアーキテクチャのテクノロジが選ばれたのは、それぞれが、組織内で最も一般的なデータの課題に対処する上で必要な機能を提供しているためです。 これらのサービスはスケーラビリティと可用性の要件を満たしながら、コスト管理にも役立ちます。 このアーキテクチャの対象となるサービスは、大規模な Azure サービス ファミリのサブセットにすぎません。 同様の結果を得るには、この設計の対象になっていない他のサービスや機能を使用します。

  • お客様の分析ユース ケースに固有のビジネス要件によっては、この設計では考慮されていないさまざまなサービスや機能を使用することが必要になる場合もあります。

  • 他の代替手段の比較については、以下をご覧ください。

シナリオの詳細

このサンプル シナリオでは、Azure Synapse Analytics を Azure Data Services の広範なファミリと使用して、組織で最も一般的なデータの課題を処理できる最新のデータ プラットフォームを構築する方法を示します。

考えられるユース ケース

このアプローチは、以下の目的に使うこともできます。

  • 構造化データ用のデータ ウェアハウスと半構造化データと非構造化データ用のデータ レイクで構成されるデータ 製品 アーキテクチャを確立します。 一元化された環境用に 1 つのデータ製品をデプロイするか、Data Mesh などの分散環境用に複数のデータ製品をデプロイするかを選択できます。 データ管理とデータ ランディング ゾーンの詳細を参照してください。
  • ビッグ データ処理テクノロジを使用して、リレーショナル データ ソースを他の非構造化データセットと統合する。
  • セマンティック モデリングと強力な視覚化ツールを使用してデータ分析を簡単にする。
  • 組織内または信頼された外部パートナーとの間でデータセットを共有する。
  • ナレッジ マイニング ソリューションを実装して、画像、PDF、ドキュメントなどに隠されている貴重なビジネス情報を抽出します。

推奨事項

検出とガバナンス

データ ガバナンスは、大規模なエンタープライズ環境に共通の課題です。 ビジネス アナリストは、ビジネス上の問題を解決するのに役立つデータ資産を発見し、理解できる必要があります。 他方、最高データ責任者は、ビジネス データのプライバシーとセキュリティに関する分析情報を必要としています。

Microsoft Purview

  1. Microsoft Purview を使用して、データ資産、データ分類、および機密度に関するデータ検出と分析情報を得ることができます。これは、組織全体のデータランドスケープをカバーします。

  2. Microsoft Purview は、ユーザーがデータセットの意味と組織全体での使用方法のセマンティクスを理解するために必要な特定のビジネス用語を使用して 、ビジネス用語集 を維持するのに役立ちます。

  3. すべてのデータ ソースを登録してコレクションに整理できます。コレクションは、メタデータのセキュリティ境界としても機能します。

  4. 定期的なスキャンを設定して、組織内のデータ資産に関する関連メタデータを自動的にカタログ化および更新します。 Microsoft Purview では、Azure Data Factory または Azure Synapse パイプラインからの情報に基づいて 、データ系列 情報を自動的に追加することもできます。

  5. データ分類データ秘密度 ラベルは、通常のスキャン中に事前構成済みまたは通関規則に基づいて、データ資産に自動的に追加できます。

  6. データ ガバナンスの専門家は、Microsoft Purview によって生成されたレポートと 分析情報 を使用して、データランドスケープ全体を制御し、セキュリティとプライバシーの問題から組織を保護できます。

プラットフォーム サービス

Azure ソリューションの品質を向上させるには、Azure Well-Architected Framework のアーキテクチャ エクセレンスの 5 つの柱である、コストの最適化、オペレーショナル エクセレンス、パフォーマンス効率、信頼性、セキュリティの 5 つの柱で定義されている推奨事項とガイドラインに従ってください。

これらの推奨事項に従うにあたり、以下のサービスを設計の一部として検討する必要があります。

  1. Microsoft Entra ID: ID サービス、シングル サインオン、および Azure ワークロード全体の多要素認証。
  2. Microsoft Cost Management: Azure ワークロードに対する財務ガバナンス。
  3. Azure Key Vault: セキュリティで保護された資格情報と証明書の管理。 たとえば、 Azure Synapse PipelinesAzure Synapse Spark プールAzure ML では、データ ストアに安全にアクセスするために使用される資格情報と証明書を Azure Key Vault から取得できます。
  4. Azure Monitor: Azure リソースのテレメトリ情報を収集、分析、操作して、問題を事前に特定し、パフォーマンスと信頼性を最大化します。
  5. Microsoft Defender for Cloud: Azure ワークロードのセキュリティ体制を強化し、監視します。
  6. Azure DevOpsGitHub: DevOps プラクティスを実装して、Azure Synapse と Azure ML のワークロード開発およびデプロイ パイプラインに自動化とコンプライアンスを適用します。
  7. Azure Policy: リソースの整合性、規制コンプライアンス、セキュリティ、コスト、管理のための組織の標準とガバナンスを実装します。

考慮事項

これらの考慮事項では、Azure Well-Architected Framework の柱を実装します。これは、ワークロードの品質を向上させるために使用できる一連の基本原則です。 詳細については、「 Well-Architected Framework」を参照してください。

コストの最適化

コストの最適化では、不要な経費を削減し、運用効率を向上させる方法に重点を置いています。 詳細については、「 コストの最適化」のデザイン レビュー チェックリストを参照してください。

一般に、 Azure 料金計算ツール を使用してコストを見積もります。 アーキテクチャに含まれる各サービスの最適な価格レベルと全体的なコストの合計は、処理および格納されるデータの量と、期待される許容可能なパフォーマンス レベルによって異なります。 各サービスの価格の詳細については、以下のガイドを参照してください。

  • Azure Synapse Analytics サーバーレス アーキテクチャを使用すると、コンピューティング レベルとストレージ レベルを個別にスケーリングできます。 コンピューティング リソースは使用量に基づいて課金されるため、オンデマンドでそれらのリソースをスケーリングまたは一時停止できます。 ストレージ リソースはテラバイト単位で課金されるため、データを取り込んだ分だけコストが増加します。

  • Azure Data Lake Gen 2 は、格納されたデータの量と、データの読み取りと書き込みのトランザクション数に基づいて課金されます。

  • Azure Event HubsAzure IoT Hubs は、メッセージ ストリームの処理に必要なコンピューティング リソースの量に基づいて課金されます。

  • Azure Machine Learning の料金は、機械学習モデルのトレーニングとデプロイに使用されるコンピューティング リソースの量から発生します。

  • AI サービス は、サービス API に対して行った呼び出しの数に基づいて課金されます。

  • Microsoft Purview は、カタログ内のデータ資産の数と、それらをスキャンするために必要なコンピューティング能力の量に基づいて価格が設定されます。

  • Azure Stream Analytics は、ストリーム クエリの処理に必要なコンピューティング能力に基づいて課金されます。

  • Power BI には、要件ごとに異なる製品オプションがあります。 Power BI Embedded には、アプリケーション内に Power BI 機能を埋め込むための Azure ベースのオプションが用意されています。 Power BI Embedded インスタンスは上記の料金サンプルに含まれています。

  • Azure Cosmos DB は、データベースに必要なストレージとコンピューティング リソースの量に基づいて価格が設定されます。

同様のアーキテクチャは、ワークロードの開発とテストを行うことができる運用前環境にも実装できます。 コスト効果の高い運用前環境を実現するため、お客様のワークロードに固有の要件と各サービスの機能をご検討ください。

このシナリオのデプロイ

この記事には、このアーキテクチャで説明されているサービスのデプロイを自動化する方法を示す、GitHub で使用できるコンパニオン リポジトリがあります。 Azure Synapse デプロイ ガイドで Azure Analytics のエンド ツー エンドに従って、このアーキテクチャをサブスクリプションにデプロイします。 このデプロイ ガイドには、詳細な手順と複数のデプロイ オプションがあります。

共同作成者

この記事は、Microsoft によって更新および保守されています。 当初の寄稿者は以下のとおりです。

プリンシパル作成者:

  • Fabio Braga |プリンシパル MTC テクニカル アーキテクト

パブリックでない LinkedIn プロファイルを表示するには、LinkedIn にサインインします。

次のステップ