次の方法で共有


ストリーミングテーブルを作成する

create_streaming_table()関数を使用して、ストリーミング操作によって出力されるレコードのターゲットテーブルを作成します。これには、create_auto_cdc_flow()create_auto_cdc_from_snapshot_flow()、および@append_flowによって出力されたレコードが含まれます。

create_target_table() 関数と create_streaming_live_table() 関数は非推奨です。 Databricks では、create_streaming_table() 関数を使用するように既存のコードを更新することをお勧めします。

構文

import dlt

dlt.create_streaming_table(
  name = "<table-name>",
  comment = "<comment>",
  spark_conf={"<key>" : "<value", "<key" : "<value>"},
  table_properties={"<key>" : "<value>", "<key>" : "<value>"},
  path="<storage-___location-path>",
  partition_cols=["<partition-column>", "<partition-column>"],
  cluster_by = ["<clustering-column>", "<clustering-column>"],
  schema="schema-definition",
  expect_all = {"<key>" : "<value", "<key" : "<value>"},
  expect_all_or_drop = {"<key>" : "<value", "<key" : "<value>"},
  expect_all_or_fail = {"<key>" : "<value", "<key" : "<value>"},
  row_filter = "row-filter-clause"
)

パラメーター

パラメーター タイプ 説明
name str 必須。 テーブル名。
comment str テーブルの説明です。
spark_conf dict このクエリを実行するための Spark 構成の一覧
table_properties dict dictテーブル プロパティ群
path str テーブル データの格納場所。 設定されていない場合は、テーブルを含むスキーマのマネージド ストレージの場所を使用します。
partition_cols list テーブルのパーティション分割に使用する 1 つ以上の列の一覧。
cluster_by list リキッド クラスタリングをテーブルに対して有効化し、クラスタリング キーとして使用する列を定義します。 表に液体クラスタリングを使用するを参照してください。
schema str または StructType テーブルのスキーマ定義。 スキーマは、SQL DDL 文字列としてまたは Python StructType を使用して定義できます。
expect_allexpect_all_or_dropexpect_all_or_fail dict テーブルのデータ品質制約。 同じ動作を提供し、期待されるデコレーター関数と同じ構文を使用しますが、パラメーターとして実装されます。 「期待値」を参照してください。
row_filter str (パブリック プレビュー) テーブル用の行フィルター句。 「行フィルターと列マスクを使用してテーブルを発行する」を参照してください。