适用于:Databricks SQL
Databricks Runtime 12.2 及更高版本
错误条件是描述性的、可读字符串,它们所描述的错误是唯一的。
可以使用错误条件以编程方式处理应用程序中的错误,而无需分析错误消息。
这是 Azure Databricks 返回的常见命名错误条件的列表。
Databricks Runtime 和 Databricks SQL
默认值不支持添加
无法执行 <statementType>
命令,因为在使用表提供程序“DEFAULT
”向以前存在的目标数据源添加新列时不支持 <dataSource>
值。
聚合函数_包含不确定表达式
非确定性表达式 <sqlExpr>
不应出现在聚合函数的参数中。
聚合内存不足
没有足够的内存用于聚合
AI功能HTTP解析转换错误
强制转换为指定的 returnType:“<dataType>
”时未能解析模型输出,响应 JSON 为:“<responseString>
”。 请更新 returnType 以匹配响应 JSON 表示的类型的内容,然后再次重试查询。
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR(HTTP 功能解析列错误)
实际模型输出具有多个列“<responseString>
”。 但是,指定的返回类型[“<dataType>
”]只有一列。 请更新 returnType 以包含与模型输出相同的列数,然后再次重试查询。
AI功能HTTP请求错误 (AI_FUNCTION_HTTP_REQUEST_ERROR)
对函数 <funcName>
发出 HTTP 请求时出错:<errorMessage>
AI功能_HTTP响应无效
函数 <funcName>
的 HTTP 响应无效:<errorMessage>
AI_函数_最大词数无效
最大字词数必须是非负整数,但获得 <maxWords>
。
AI功能无效模型参数
提供的模型参数 (<modelParameters>
) 在提供端点“AI_QUERY
”的 <endpointName>
函数中无效。
有关更多详细信息,请参阅 AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI功能无效响应格式类型
AI 函数:“<functionName>
”要求 <format>
参数具有有效的 responseFormat
字符串,但发现的响应格式是:“<invalidResponseFormat>
”。 异常:<errorMessage>
AI_函数_JSON_解析错误
分析函数 <funcName>
的 JSON 响应时出错:<errorMessage>
AI_功能_模型_架构_解析_错误
未能分析服务终结点“<endpointName>
”的架构:<errorMessage>
,响应 JSON 为:“<responseJson>
”。
在 returnType
函数中手动设置 AI_QUERY
参数以替代架构解析。
AI功能不支持错误
当前环境中不支持函数 <funcName>
。 它仅在 Databricks SQL Pro 和无服务器中可用。
AI功能不支持请求
无法评估 SQL 函数“<functionName>
”,因为提供的 <invalidValue>
参数具有“<invalidDataType>
”,但仅支持以下类型:<supportedDataTypes>
。 请更新函数调用以提供字符串类型的参数,然后再次重试查询。
AI功能不支持的响应格式
找到不支持的响应格式。
有关更多详细信息,请参阅 AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_函数_不支持_返回_类型
AI 函数:“<functionName>
”不支持将以下类型作为返回类型:“<typeName>
”。 返回类型必须是由 Catalyst 理解并受 AI 函数支持的有效 SQL 类型。 当前支持的类型包括:<supportedValues>
AI_无效参数值错误
参数“<argValue>
”不支持提供的值“<argName>
”。 支持的值包括:<supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT (AI查询端点不支持结构化输出)
对于结构化输出支持,预期服务终结点任务类型为“聊天”,但发现终结点“<taskType>
”为“<endpointName>
”。
人工智能查询返回类型与列类型不匹配
参数 returnType 不支持提供的“<sqlExpr>
”。
查询参数冲突错误 - AI搜索
为 vector_search
SQL 函数检测到的冲突参数:<conflictParamNames>
。<hint>
AI搜索嵌入列类型不支持错误
不支持嵌入列类型为 vector_search
的 <embeddingColumnType>
SQL 函数。
AI搜索空查询参数错误
vector_search
SQL 函数缺少查询输入参数,请指定至少一个来自:<parameterNames>
。
AI_SEARCH_HYBRID_QUERY_PARAM_参数弃用错误
参数 query
到 vector_search
的 SQL 函数不支持用于 hybrid
矢量搜索。 请改用 query_text
。
AI_SEARCH_混合文本未找到_错误
vector_search
SQL 函数中找不到用于 hybrid
矢量搜索的查询文本。 请提供 query_text
。
AI 搜索索引类型不支持错误
不支持索引类型 vector_search
的 <indexType>
SQL 函数。
人工智能搜索缺失嵌入输入错误
必须为索引 query_vector
指定 <indexName>
,因为它与嵌入模型终结点无关。
AI搜索查询类型转换编码错误
在请求编码期间,未能具体化从 spark 类型 vector_search
到 scala-native 对象的 <dataType>
SQL 函数查询,并出现错误:<errorMessage>
。
AI搜索查询类型不支持错误
不支持查询类型为 vector_search
的 SQL 函数 <unexpectedQueryType>
。 请从以下选项中指定一个:<supportedQueryTypes>
。
AI搜索不支持的结果数量错误
不支持 num_results 大于 vector_search
的 <maxLimit>
SQL 函数。 指定的限制为 <requestedLimit>
。 请尝试再次使用num_results <= <maxLimit>
。
AI_主要驱动参数超出范围
ai_top_drivers
参数<param>
必须介于<lo>
和 <hi>
.
AI_TOP_DRIVERS_不支持的_汇总类型
ai_top_drivers
不支持 <aggName>
聚合。 选择以下支持的聚合之一: <allowed>
AI_主要驱动_不支持的维度类型
ai_top_drivers
不支持数值、映射或结构维度列。 列 <colName>
具有类型 <dataType>
。 移除这个维度或将其转换为支持的类型。
Unsupported Label Type for AI Top Drivers (if a description is needed in a specific context)
ai_top_drivers
要求标签列类型为布尔值。 列 <colName>
具有类型 <dataType>
。 更改标签列或将其转换成受支持的类型。
AI_顶级驱动程序_不支持的指标类型
ai_top_drivers
要求指标列类型为数值。 列 <colName>
具有类型 <dataType>
。 更改指标列或将其强制转换为受支持的类型。
所有参数必须命名
使用名称参数化查询需要命名所有参数。 参数缺少名称 <exprs>
。
所有分区列不允许
不能将所有列作为分区列使用。
修改的计划不存在
在没有现有计划或触发器的情况下,无法更改表上的 <scheduleType>
。 在尝试更改表格之前,请先向其添加日程或触发器。
更改表列描述符重复
ALTER TABLE <type>
列 <columnName>
多次指定了描述符“<optionName>
”,这是无效的。
嵌套CTE中的模糊别名
嵌套 CTE 中的名称 <name>
不明确。
请将 <config>
设置为“CORRECTED
”,以便内部 CTE 中定义的名称优先。 如果将其设置为“LEGACY
”,则外部 CTE 定义将优先。
请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine”。
列或字段不明确
列或字段 <name>
不明确且具有 <n>
个匹配项。
模糊列引用 (AMBIGUOUS_COLUMN_REFERENCE)
列 <name>
不明确。 这是因为你已将多个数据帧联接在一起,其中一些数据帧是相同的。
此列指向其中一个数据帧,但 Spark 无法确定哪一个。
请在联接数据帧之前,通过 DataFrame.alias
将数据帧命名为不同的别名,
然后使用限定名称(例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
)指定该列。
模糊约束
对约束 <constraint>
的引用不明确。
不明确的侧向列别名
横向列别名 <name>
不明确且具有 <n>
个匹配项。
模糊引用
引用 <name>
不明确,可以是:<referenceNames>
。
模糊字段引用
对字段 <field>
的引用不明确。 它在架构中出现了 <count>
次。
不支持分析约束
不支持 ANALYZE CONSTRAINTS
。
ANSI配置无法禁用
不能在此产品中禁用 ANSI SQL 配置 <config>
。
AQE线程中断
AQE 线程中断,可能是由于用户取消查询。
参数_非常数
函数 <functionName>
在需要常量参数的位置 <parameterName>
处包含参数 <pos>
。 请单独计算参数 <sqlExpr>
,并将结果作为常量传递。
ARITHMETIC_OVERFLOW
<message>
。
<alternative>
如有必要,请将 <config>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 ARITHMETIC_OVERFLOW
类型不匹配错误_ARROW_TYPE_MISMATCH
由于<operation>
,架构无效:预期为<outputTypes>
,但得到<actualDataTypes>
。
工件已存在
工件 <normalizedRemoteRelativePath>
已存在。 请为新工件选择其他名称,因为它不能被覆盖。
赋值参数个数不匹配
分配或别名的列数或变量数:<numTarget>
与源表达式的数目:<numExpr>
不匹配。
AS_OF_JOIN
as-of join 无效。
有关更多详细信息,请参阅 AS_OF_JOIN
AVRO_无法写入空字段
无法为定义为非 null Avro 数据类型<name>
的字段<dataType>
写入 null 值。
若要允许此字段的 null 值,请使用 avroSchema
选项将其 avro 架构指定为包含“null”的联合类型。
不支持AVRO默认值
启用rescuedDataColumn
时不支持使用默认值。 可以通过将 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
设置为 false 来删除此检查,但默认值将不适用,并且仍将使用 null 值。
AVRO_INCOMPATIBLE_READ_TYPE (读取类型不兼容)
无法将 Avro <avroPath>
转换为 SQL <sqlPath>
,因为原始编码的数据类型为 <avroType>
,但是你尝试将字段读取为 <sqlType>
,这会导致错误的答案。
若要允许读取此字段,请启用 SQL 配置:“spark.sql.legacy.avro.allowIncompatibleSchema”。
AVRO未加载,SQL功能不可用
无法调用 <functionName>
SQL 函数,因为未加载 Avro 数据源。
请使用加载的“spark-avro”包重启作业或会话,例如在命令行上使用 --packages 参数,然后再次重试查询或命令。
不支持AVRO位置字段匹配
启用 rescuedDataColumn
或 failOnUnknownFields
时,不支持使用位置字段匹配。 删除这些选项以继续。
批处理元数据未找到 (BATCH_METADATA_NOT_FOUND)
找不到批次 <batchMetadataFile>
。
BigQuery选项是互斥的
必须要么使用“GoogleServiceAccountKeyJson”参数,要么同时使用“projectId”、“OAuthServiceAcctEmail”和“OAuthPvtKey”,来指定 BigQuery 连接凭据
二进制算术溢出
<value1> <symbol> <value2>
导致了溢出。 使用 <functionName>
忽略溢出问题并返回 NULL
。
内置目录
<operation>
不支持内置目录。
在流数据集上调用不支持
无法在流式数据集/数据帧上调用方法 <methodName>
。
无法修改排序规则桶列
ALTER TABLE (ALTER|CHANGE) COLUMN
无法更改存储桶列的类型/子类型的排序规则,但在表 <columnName>
中找到存储桶列 <tableName>
。
无法更改分区列
分区列不支持 ALTER TABLE (ALTER|CHANGE) COLUMN
,但在表 <columnName>
中找到分区列 <tableName>
。
无法分配事件时间列(CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK)
需要定义水印以重新分配事件时间列。 未能在流式处理查询中找到水印定义。
无法转换数据类型
无法将 <sourceType>
强制转换为 <targetType>
。
无法将 Protobuf 字段类型转换为 SQL 类型
无法将 Protobuf <protobufColumn>
转换为 SQL <sqlColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
无法将 Protobuf 消息类型转换为 SQL 类型
无法将 Protobuf <protobufType>
转换为 SQL 类型 <toType>
。
无法将SQL类型转换为Protobuf字段类型
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
无法将 SQL 值转换为 PROTOBUF 枚举类型
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为 <data>
不在枚举的定义值中:<enumString>
。
无法复制状态
无法将目录状态(如当前数据库和临时视图)从 Unity 目录复制到旧目录。
无法创建数据源表
未能创建数据源表 <tableName>
:
有关更多详细信息,请参阅 CANNOT_CREATE_DATA_SOURCE_TABLE
无法解码网址
提供的 URL 无法解码:<url>
。 请确保 URL 格式正确,然后重试。
无法删除系统所有的
无法删除系统拥有的 <resourceType>
。
无法删除不明确的约束
无法删除名称 <constraintName>
由 CHECK
约束共享的约束
和 PRIMARY KEY
或 FOREIGN KEY
约束。 可以删除 PRIMARY KEY
或
按查询的 FOREIGN KEY
约束:
ALTER TABLE
..
DROP PRIMARY KEY
或
ALTER TABLE
..
DROP FOREIGN KEY
..
无法建立连接
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请检查工作区的网络设置,并确保它对主机不存在出站限制。 此外,请检查主机是否不会阻止来自部署工作区 Spark 群集的网络的入站连接。 ** 详细的错误消息:<causeErrorMessage>
。
无法建立无服务器连接
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果认为信息正确,请允许从 Internet 到主机的入站流量,因为使用的是无服务器计算。 如果网络策略不允许入站 Internet 流量,请使用非无服务器计算服务,或者您可以咨询 Databricks 代表以了解无服务器专用网络。 ** 详细的错误消息:<causeErrorMessage>
。
无法在转换中调用
数据集转换和作只能由驱动程序调用,而不能在其他数据集转换中调用;例如, dataset1.map(x => dataset2.values.count() * x)
由于值转换和计数作不能在 dataset1.map 转换内部执行,因此无效。 有关详细信息,请参阅 SPARK
-28702。
无法加载函数类
注册函数 <className>
时无法加载类 <functionName>
,请确保它在类路径上。
无法加载PROTOBUF类
无法加载名称为 <protobufClassName>
的 Protobuf 类。
<explanation>
。
无法加载状态存储
加载状态时发生错误。
有关更多详细信息,请参阅 CANNOT_LOAD_STATE_STORE
无法合并不兼容的数据类型
未能合并不兼容的数据类型 <left>
和 <right>
。 请检查要合并的列的数据类型,并确保它们兼容。 如有必要,请在尝试合并之前考虑将列转换为兼容的数据类型。
无法合并模式
合并架构失败:
初始架构:
<left>
无法与初始架构合并的架构:
<right>
。
无法修改配置
无法修改 Spark 配置的值:<key>
。
另请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements”。
无法解析小数
无法分析十进制数。 请确保输入是具有可选小数点或逗号分隔符的有效数字。
无法解析间隔
无法分析 <intervalString>
。 请确保提供的值采用有效的格式来定义间隔。 可以参考文档以获取正确的格式。 如果问题仍然存在,请仔细检查输入值是否不为 null 或为空,然后重试。
无法解析JSON字段
无法将 JSON 标记类型 <fieldName>
的字段名称 <fieldValue>
和值 <jsonType>
分析为目标 Spark 数据类型 <dataType>
。
不能解析PROTOBUF描述符
将描述符字节分析为 Protobuf FileDescriptorSet 时出错。
无法解析时间
无法将输入字符串 <input>
分析为 TIME 值,因为它与日期时间格式 <format>
不匹配。
无法解析时间戳
<message>
。 使用 <func>
来容忍无效的输入字符串并改为返回 NULL
。
初始化期间无法查询表
在初始化期间无法查询 MV/ST。
有关更多详细信息,请参阅 CANNOT_QUERY_TABLE_DURING_INITIALIZATION
无法读取归档文件
无法读取路径 <path>
的文件,因为它已存档。 请调整查询筛选器以排除存档的文件。
无法读取文件
无法读取路径 <format>
处的文件 <path>
。
有关更多详细信息,请参阅 CANNOT_READ_FILE
无法从安全提供者读取敏感密钥
无法从安全提供程序读取敏感密钥“<key>
”。
无法识别HIVE_TYPE
无法识别 hive 类型字符串:<fieldType>
,列:<fieldName>
。 Spark SQL 无法识别字段的指定数据类型。 请检查指定字段的数据类型,并确保它是有效的 Spark SQL 数据类型。 有关有效数据类型及其格式的列表,请参阅 Spark SQL 文档。 如果数据类型正确,请确保使用的是受支持的 Spark SQL 版本。
无法在HMS中引用UC
无法在 Hive 元存储对象中引用 Unity Catalog <objType>
。
无法移除保留属性
无法删除保留属性:<property>
。
无法跨目录重命名
不允许跨目录重命名 <type>
。
无法跨架构重命名
不允许跨架构重命名 <type>
。
无法解析数据框列
无法解析数据帧列 <name>
。 这可能是因为非法引用,如 df1.select(df2.col("a"))
。
无法解析星展开
无法解析 <targetString>
.* 给定的输入列 <columns>
。 请检查指定的表或结构是否存在,并且可在输入列中访问。
无法恢复路径的权限
无法将创建的路径 <path>
上的权限设置回 <permission>
。
无法跨统一通信和华为移动服务进行浅克隆
无法在 Unity Catalog 和 Hive 元存储之间对表进行浅克隆。
无法进行浅层克隆嵌套
无法浅克隆已是浅克隆的表 <table>
。
无法将非UC托管表作为源或目标进行浅克隆
仅 MANAGED
表类型支持浅克隆。 表 <table>
不是 MANAGED
表。
无法更新字段
无法更新 <table>
字段 <fieldName>
类型:
有关更多详细信息,请参阅 CANNOT_UPDATE_FIELD
无法进行数据类型向上转换
无法将 <expression>
从 <sourceType>
强制转换为 <targetType>
。
<details>
无法使用KRYO
无法加载 Kryo 序列化编解码器。 无法在 Spark Connect 客户端中使用 Kryo 序列化。 使用 Java 序列化、提供自定义编解码器或使用 Spark 经典版。
无法验证连接
不支持验证 <jdbcDialectName>
连接。 请联系 Databricks 支持团队获取替代解决方案,或将“spark.databricks.testConnectionBeforeCreation”设置为“false”,以跳过创建连接对象前的连接测试。
无法写入状态存储
为提供程序 <providerClass>
写入状态存储文件时出错。
有关更多详细信息,请参阅 CANNOT_WRITE_STATE_STORE
转化无效输入
<expression>
类型的值 <sourceType>
无法强制转换为 <targetType>
,因为其格式错误。 根据语法更正值,或更改其目标类型。 改为使用 try_cast
来容许格式错误的输入并返回 NULL
。
有关更多详细信息,请参阅 CAST_INVALID_INPUT
转换溢出
由于溢出,类型 <value>
的值 <sourceType>
无法强制转换为 <targetType>
。 使用 try_cast
容许溢出,并返回 NULL
。
表插入中的类型溢出
由于溢出,无法将 <sourceType>
类型的值分配给 <targetType>
类型列或变量 <columnName>
。 请对输入值使用 try_cast
来容忍溢出并改为返回 NULL
。
目录未找到
找不到编号为 <catalogName>
的目录。 请考虑将 SQL 配置 <config>
设置为目录插件。
不允许创建属于目录的表格
不允许使用 <feature>
表功能创建 Delta 表。 请联系 Databricks 支持部门。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
找不到检查点块 <rddBlockId>
!
可能是最初为此分区设置检查点的执行程序不再处于活动状态,或者未保留原始 RDD。
如果此问题仍然存在,则可以考虑改用 rdd.checkpoint()
,这比本地检查点慢,但容错能力更高。
循环类引用
类中不能有循环引用,但收到了类 <t>
的循环引用。
类未覆盖预期的方法
<className>
必须替代 <method1>
或 <method2>
。
类不受地图对象支持
MapObjects
不支持类 <cls>
作为生成的集合。
无法支持洁净室命令
不支持清洁室命令
洁净室_无效_共享数据对象名称
引用清洁室内 <type>
的名称无效。 按照 [catalog].[schema].[<type>
] 的格式,在清洁室内使用 <type>
的名称。
如果不确定要使用的名称,则可以运行“SHOW ALL IN CLEANROOM
[clean_room]”,并使用“name”列中的值。
克隆历史无效选项
使用历史记录进行克隆时指定了无效选项: <invalidOption>
。
有效语法:CREATE
(或 REPLACE) TABLE
... 深 CLONE
... WITH HISTORY
.
克隆_不支持_历史记录
不支持带历史记录的克隆。
云文件源文件未找到
已收到文件 <filePath>
的文件通知,但该文件不再存在。 请确保在处理文件之前不会删除这些文件。 若要继续处理流,可以将 Spark SQL 配置 <config>
设置为 true。
云服务提供商错误
云提供商错误:<message>
聚类列不匹配
指定的聚类分析与现有表 <tableName>
不匹配。
指定的聚类分析列:[<specifiedClusteringString>
]。
现有聚类分析列:[<existingClusteringString>
]。
不支持集群
“<operation>
”不支持聚类分析。
自动聚类功能未启用
请联系 Databricks 代表来启用群集自动功能。
自动聚类需要启用聚类特性
请启用 clusteringTable.enableClusteringTableFeature 以使用 CLUSTER BY
AUTO。
自动聚类需预测优化
CLUSTER BY
AUTO 要求启用预测优化。
不支持的表类型错误:自动分区
仅 UC 托管表支持 CLUSTER BY
AUTO。
CODEC_NOT_AVAILABLE 编解码器不可用
编解码器 <codecName>
不可用。
有关更多详细信息,请参阅 CODEC_NOT_AVAILABLE
编解码器简称未找到 (CODEC_SHORT_NAME_NOT_FOUND)
找不到编解码器 <codecName>
的短名称。
排序无效名称
值 <collationName>
不表示正确的排序规则名称。 建议的有效排序规则名称:[<proposals>
]。
排序无效提供程序
值 <provider>
不表示正确的排序规则提供程序。 支持的提供程序包括:[<supportedProviders>
]。
排序不匹配
无法确定要用于字符串函数和运算符的排序规则。
有关更多详细信息,请参阅 COLLATION_MISMATCH
集合大小超出限制
无法使用超过数组大小限制 <numberOfElements>
的 <maxRoundedArrayLength>
元素创建数组,
有关更多详细信息,请参阅 COLLECTION_SIZE_LIMIT_EXCEEDED
列别名不允许
<op>
中不允许使用列别名。
列已存在
列 <columnName>
已存在。 选择其他名称或重命名现有列。
列数组元素类型不匹配
字段 <pos>
中的某些值与列数组类型不兼容。 预期的类型 <type>
。
COLUMN_MASKS_ABAC_MISMATCH
无法解析列掩码 <tableName>
,因为从策略继承的列掩码与显式定义的列掩码之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。
COLUMN_MASKS_检查约束不支持
不支持对具有列掩码策略的表 CHECK
创建 <tableName>
约束。
COLUMN_MASKS_使用列名重复
<statementType>
语句尝试将列掩码策略分配给 USING COLUMNS
列表中包含两个或多个其他引用列的列,该列的名称与 <columnName>
相同,无效。
COLUMN_MASKS功能不支持_FEATURE_NOT_SUPPORTED
不支持 <tableName>
的列掩码策略:
有关更多详细信息,请参阅 COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_不兼容模式更改
无法从表 <statementType> <columnName>
执行 <tableName>
,因为它已在列 <maskedColumn>
的列掩码策略中引用。 表所有者必须先删除或更改此策略,然后才能继续。
COLUMN_MASKS_合并不支持的来源
MERGE INTO
操作不支持源表 <tableName>
中的列掩码策略。
COLUMN_MASKS_不支持合并的目标
MERGE INTO
操作不支持在有列掩码策略的情况下写入表 <tableName>
。
COLUMN_MASKS_多部分目标列名称
此语句尝试将列掩码策略分配给具有多个名称部分的列 <columnName>
,这无效。
COLUMN_MASKS_多部分使用列名
此语句尝试将列掩码策略分配给某一列,而 USING COLUMNS
列表中包含的名称 <columnName>
具有多个名称部分,这是无效的。
COLUMN_MASKS_未启用
不支持定义列掩码
COLUMN_MASKS_要求_UNITY_CATALOG
仅在 Unity Catalog 中支持列掩码策略。
COLUMN_MASKS_显示分区不支持
SHOW PARTITIONS
具有列掩码的表不支持 <format>
命令。
COLUMN_MASKS_表克隆源不支持
不支持使用列掩码策略从表 <mode>
进行 <tableName>
克隆。
COLUMN_MASKS_表克隆目标不支持
不支持使用列掩码策略 <mode>
克隆到表 <tableName>
。
COLUMN_MASKS_不支持的常量作为参数
不支持将常量用作列掩码策略中的参数。 请更新 SQL 命令以从列掩码定义中删除常量,然后再次重试该命令。
COLUMN_MASKS_不支持的数据类型
用作列掩码策略的函数 <functionName>
包含数据类型不受支持的 <dataType>
参数。
COLUMN_MASKS_不支持的提供者
无法执行 <statementType>
命令,因为不支持使用表提供程序“<provider>
”为目标数据源分配列掩码策略。
COLUMN_MASKS_不支持的子查询
无法对表 <operation>
执行 <tableName>
,因为它包含一个或多个带有子查询表达式的列掩码策略,它们尚不受支持。 请联系表所有者更新列掩码策略以继续。
COLUMN_MASKS_使用的列名称与目标列相同
列 <columnName>
的名称与目标列相同,无效;请从 USING COLUMNS
列表中删除该列,然后重试该命令。
列在表中未定义
<colType>
列 <colName>
未在表 <tableName>
中定义,定义的表列为:<tableCols>
。
列未找到
找不到列 <colName>
。 根据 SQL 配置 <caseSensitiveConfig>
验证列名的拼写和正确性。
列序数超出范围
列序号不在范围内。 表中的列数为 <attributesLength>
,但列序号为 <ordinal>
。
属性如下:<attributes>
。
逗号前置约束错误
约束定义前出现意外的“,”。 确保在未定义列(和预期)时,约束子句不会以逗号开头。
尚未实现连接注释
尚未实现 COMMENT ON CONNECTION
命令
比较器返回空值
比较器返回了一个 NULL
,用于 <firstValue>
和 <secondValue>
之间的比较。
它应为“大于”运算符返回正整数,为“等于”运算符返回 0,为“小于”运算符返回负整数。
若要恢复已弃用的行为,即,将 NULL
视为 0(使用“等于”运算符),必须将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。
复杂表达式不支持的输入
无法处理表达式的输入数据类型:<expression>
。
有关更多详细信息,请参阅 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
并发查询
此查询的另一个实例 [id:<queryId>
] 刚刚由并发会话启动 [现有 runId:<existingQueryRunId>
,新 runId:<newQueryRunId>
]。
并行调度器槽位不足
群集中所需的最小可用槽数是 <numTasks>
,而群集只有 <numSlots>
个可用槽。 查询将停止或失败。 增加群集大小以继续。
并行流日志更新
对日志的并发更新。 检测到 <batchId>
的多个流式处理作业。
请确保一次只有一个流式处理作业在特定检查点位置上运行。
配置不可用
配置 <config>
不可用。
冲突的集群配置
以下配置与 spark.databricks.streaming.realTimeMode.enabled 冲突: <confNames>
从群集配置中删除这些配置并重启 Spark 群集。
目录结构冲突
检测到有冲突的目录结构。
可疑路径:
<discoveredBasePaths>
如果提供的路径是分区目录,请在数据源的选项中设置“basePath”,以指定表的根目录。
如果有多个根目录,请单独加载它们,然后将它们联合起来。
冲突的分区列名称
检测到有冲突的分区列名:
<distinctPartColLists>
对于已分区表目录,数据文件应仅存在于叶目录中。
同一级别的目录应具有相同的分区列名称。
请检查以下目录是否有意外文件或分区列名称不一致:
<suspiciousPaths>
与保留字冲突的分区列名
分区列名称“”<partitionColumnName>
与保留列名称冲突。
Spark 会为 Hive 不兼容的 <tableName>
模式自动生成保留列“<partitionColumnName>
”,以特定方式存储表。
请对分区列使用不同的名称。
冲突的提供者
指定的提供程序 <provider>
与现有目录提供程序 <expectedProvider>
不一致。 请使用“USING <expectedProvider>
”,然后重试该命令。
SQL配置冲突
以下配置与 spark.databricks.streaming.realTimeMode.enabled 冲突: <confNames>
从 SparkSession 配置中删除这些配置。
连接
泛型 Spark Connect 错误。
有关更多详细信息,请参阅 CONNECT
连接已存在
无法创建连接 <connectionName>
,因为它已存在。
选择其他名称,删除或替换现有连接,或添加 IF NOT EXISTS
子句以容忍预先存在的连接。
连接名称不能为空
无法执行此命令,因为连接名称必须为非空。
未找到连接
无法执行此命令,因为找不到连接名称 <connectionName>
。
连接选项不受支持
“<connectionType>
”类型的连接不支持以下选项:<optionsNotSupported>
。 支持的选项:<allowedOptions>
。
连接类型不支持
无法创建“<connectionType>
”类型的连接。 支持的连接类型:<allowedTypes>
。
会话迁移连接
泛型会话迁移错误(userId:<userId>
、sessionId:<sessionId>
、serverSessionId:<serverSessionId>
)。
有关更多详细信息,请参阅 CONNECT_SESSION_MIGRATION
约束需要统一目录
在 Unity Catalog 中,表约束仅受支持。
转换_输入无效
值 <str> (<fmt>
)无法转换为 <targetType>
,因为它格式不正确。 根据语法更正值,或更改其格式。 改为使用 <suggestion>
来容许格式错误的输入并返回 NULL
。
COPY_INTO_列数不匹配
无法写入到 <tableName>
,原因是
有关更多详细信息,请参阅 COPY_INTO_COLUMN_ARITY_MISMATCH
不允许复制输入到凭证
方案 <scheme>
无效。
COPY INTO
源凭据目前仅支持 s3/s3n/s3a/wasbs/abfss。
需要复制到凭证中
COPY INTO
源凭据必须指定 <keyList>
。
无法复制到重复文件中——不允许复制
复制的文件在并发 COPY INTO
操作中提交。 请稍后重试。
不允许复制到加密中
方案 <scheme>
无效。
COPY INTO
源加密目前仅支持 s3/s3n/s3a/abfss。
复制到 Azure 的加密不支持
COPY INTO
加密仅支持 ADLS Gen2 或 abfss:// 文件方案
复制需加密
COPY INTO
源加密必须指定“<key>
”。
需要加密并预计的复制
加密选项 <requiredKey>
无效。
COPY INTO
源加密必须指定“<requiredKey>
”=“<keyValue>
”。
复制到特性中不兼容的设置
COPY INTO
功能“<feature>
”与“<incompatibleSetting>
”不兼容。
禁止将数据复制到非盲追加模式
COPY INTO
除了追加数据外,不允许与其他事务同时运行。 请稍后重试。
复制到RocksDB的最大重试次数已超过
COPY INTO
无法加载其状态,已超过最大重试次数。
复制操作中,架构与目标表不匹配
复制到 Delta 表时检测到架构不匹配(表:<table>
)。
这可能表示传入数据出现问题,或者可以通过设置使 Delta 表架构根据传入数据自动演变:
COPY_OPTIONS
(‘mergeSchema’ = ‘true’)
架构差异:
<schemaDiff>
复制到源文件格式不受支持
源文件的格式必须是 CSV、JSON、AVRO、ORC、PARQUET
、TEXT 或 BINARYFILE
之一。 不支持在 Delta 表上使用 COPY INTO
作为源,因为在进行 OPTIMIZE
操作后可能会引入重复数据。 可以通过运行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false
关闭此检查。
复制到源架构推断失败
源目录不包含类型为 <format>
的任何可分析文件。 请检查“<source>
”的内容。
通过将“<config>
”设置为“false”,可以将错误静音。
COPY_INTO_STATE_INTERNAL_ERROR(复制到状态内部错误)
处理 COPY INTO
状态时发生内部错误。
有关更多详细信息,请参阅 COPY_INTO_STATE_INTERNAL_ERROR
复制到语法错误
无法分析 COPY INTO
命令。
有关更多详细信息,请参阅 COPY_INTO_SYNTAX_ERROR
复制到不支持的功能
不支持 COPY INTO
功能“<feature>
”。
COPY_UNLOAD_格式类型_不支持
无法卸载格式为“<formatType>
”的数据。
<connectionType>
支持的格式为:<allowedFormats>
。
损坏的目录功能
由于目录中的函数信息损坏,无法将目录函数“”<identifier>
转换为 SQL 函数。 如果函数不是 SQL 函数,请确保类名“”<className>
是可加载的。
创建外部架构功能尚未实现
尚未实现 CREATE FOREIGN SCHEMA
命令
外部表创建尚未实现
尚未实现 CREATE FOREIGN TABLE
命令
不支持创建或刷新MV
不支持 CREATE OR REFRESH MATERIALIZED VIEW
。 请改用 CREATE OR REPLACE MATERIALIZED VIEW
。
CREATE_OR_REFRESH_MV_ST_ASYNC
无法对指定了 CREATE
的具体化视图或流式处理表运行 REFRESH
或 ASYNC
。 请从 ASYNC
OR CREATE
语句中删除 REFRESH
,或使用 REFRESH ASYNC
异步刷新现有具体化视图或流式处理表。
创建无别名永久视图
不允许创建永久视图 <name>
,而无需为表达式 <attr>
显式分配别名。
创建表列描述符重复
CREATE TABLE
列 <columnName>
多次指定了描述符“<optionName>
”,这是无效的。
创建视图列数目不匹配
无法创建视图 <viewName>
,原因是
有关更多详细信息,请参阅 CREATE_VIEW_COLUMN_ARITY_MISMATCH
资凭证丢失
请在创建或更新外部位置时提供凭据。
凭据目的不匹配
凭据 <credentialName>
具有用途 <actualPurpose>
,但命令中给出的用途是 <expectedPurpose>
。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED (CSV强制模式不支持)
使用 enforceSchema
或 rescuedDataColumn
时,不能配置 CSV 选项 failOnUnknownFields
,因为此时列是按名称而不是编号来读取的。
循环函数引用
检测到循环函数引用:<path>
。
Databricks Delta 未启用
帐户中未启用 Databricks Delta。<hints>
数据类型不匹配
由于数据类型不匹配,无法解析 <sqlExpr>
:
有关更多详细信息,请参阅 DATATYPE_MISMATCH
数据类型缺少大小
DataType <type>
需要长度参数,例如 <type>
(10)。 请指定长度。
数据关系_安全查看_叶节点无关联
写入世系失败:缺少与 CLM/RLS 策略对应的关系。
数据源已存在
数据源“<provider>
”已存在。 请为新数据源选择其他名称。
数据源外部错误 (DATA_SOURCE_EXTERNAL_ERROR)
保存到外部数据源时遇到错误。
数据源不存在 (DATA_SOURCE_NOT_EXIST)
找不到数据源“<provider>
”。 请确保数据源已注册。
数据源未找到 (DATA_SOURCE_NOT_FOUND)
找不到数据源:<provider>
。 请确保提供程序名称正确,并且包已正确注册并与 Spark 版本兼容。
数据源选项包含无效字符
选项 <option>
不得为空,并且不应包含无效字符、查询字符串或参数。
数据源选项是必填项
选项 <option>
是必需的。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH (数据源表模式不匹配)
数据源表的架构与预期的架构不匹配。 如果使用 DataFrameReader.schema API 或创建表,请避免指定架构。
数据源架构:<dsSchema>
预期架构:<expectedSchema>
数据源URL不允许
数据源选项中不允许使用 JDBC URL,请指定“host”、“port”和“database”选项。
日期时间字段超出范围
<rangeMessage>
。
有关详细信息,请参阅 DATETIME_FIELD_OUT_OF_BOUNDS
日期时间溢出
日期/时间操作溢出:<operation>
。
DC_接口_配额_已超出
已超出数据源 <sourceName>
的 API 配额。
有关更多详细信息,请参阅 DC_API_QUOTA_EXCEEDED
直流连接错误
无法连接到 <sourceName>
源。 错误代码:<errorCode>
。
有关更多详情,请参阅 DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Dynamics API 调用中发生错误,errorCode:<errorCode>
。
有关详细信息,请参阅 DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Netsuite JDBC 调用中发生错误,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_NETSUITE_ERROR
DC_架构更改错误
SQLSTATE:未分配
架构更改发生在 <tableName>
源的表 <sourceName>
中。
有关更多详细信息,请参阅 DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
ServiceNow API 调用中发生错误,errorCode:<errorCode>
。
有关详细信息,请参阅 DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB 未完成
对象 <objName>
的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。
若要重试,可以重新运行整个管道或刷新此特定目标表。 如果错误仍然存在,请提交票证。 作业 ID:<jobId>
。 作业状态:<jobStatus>
。
DC_SHAREPOINT_API_ERROR
Sharepoint API 调用中发生错误,errorCode:<errorCode>
。
有关详细信息,请参阅 DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
<sourceName>
API 调用中发生错误。 源 API 类型:<apiType>
。 错误代码:<errorCode>
。
有时,在达到 <sourceName>
API 限制时,可能会发生这种情况。 如果你未超过 API 限制,请尝试重新运行连接器。 如果问题仍然存在,请提交票证。
DC_UNSUPPORTED_ERROR (不支持的错误)
数据源 <sourceName>
中发生不支持的错误。
有关更多详细信息,请参阅 DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 调用中发生错误,errorCode:<errorCode>
。
有关更多详情,请参阅 DC_WORKDAY_RAAS_API_ERROR
小数精度超出最大精度
小数精度 <precision>
超过最大精度 <maxPrecision>
。
默认数据库不存在
默认数据库 <defaultDatabase>
不存在,请先创建它,或者将默认数据库更改为 <defaultDatabase>
。
默认文件未找到
基础文件可能已更新。 可在 SQL 中运行“REFRESH TABLE
tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。 如果磁盘缓存已过时或基础文件已删除,则可以通过重启群集手动使磁盘缓存失效。
默认位置无效
DEFAULT
、MERGE
、INSERT
或 UPDATE
命令中的 SET VARIABLE
关键字无法直接分配给目标列,因为它是表达式的一部分。
例如: UPDATE SET c1 = DEFAULT
是允许的,但 UPDATE T SET c1 = DEFAULT + 1
不允许。
默认不支持
无法执行 <statementType>
命令,因为不支持使用表提供程序“DEFAULT
”为目标数据源分配 <dataSource>
值。
描述_JSON_未扩展
DESCRIBE TABLE
...仅当指定 [EXTENDED|FORMATTED
] 时,才支持 AS JSON。
例如:DESCRIBE EXTENDED <tableName>
支持 AS JSON,但 DESCRIBE <tableName>
AS JSON 不受支持。
不同 Delta 表由流媒体源读取
流式处理查询从意外的 Delta 表(id =“<newTableId>
”)中读取。
它用于根据检查点从另一个 Delta 表(id =“<oldTableId>
”)中读取。
更改代码以从新表中读取,或者删除表然后
重新创建了一个表。 请还原更改或删除流式处理查询检查点
以从头开始。
不支持的 DISTINCT 窗口函数
不支持不同的窗口函数:<windowExpr>
。
DIVIDE_BY_ZERO
被零除。 使用 try_divide
容许除数为 0,并返回 NULL
。 如有必要,请将 <config>
设置为“false”以绕过此错误。
有关详细信息,请参阅 DIVIDE_BY_ZERO
不支持DLT期望
仅在 Lakeflow 声明性管道中支持期望。
不支持按视图群集
MATERIALIZED
具有 CLUSTER BY
子句的 VIEW 仅在 Lakeflow Declarative Pipelines 中受支持。
DLT_查看位置不支持
具体化视图位置仅在 Lakeflow 声明性管道中受支持。
DLT_视图_模式_带有_类型_不支持
只有在 Lakeflow 声明性管道中才支持特定类型的具体化视图架构。
DLT_VIEW_TABLE_CONSTRAINTS_不支持
CONSTRAINT
视图中的子句仅在 Lakeflow 的声明性管道中受到支持。
删除计划不存在
在没有现有计划或触发器的情况下,无法删除表上的 SCHEDULE
。
重复的CTE名称
CTE 定义不能有重复的名称:<duplicateNames>
。
箭头结构中重复的字段名称
在 Arrow 结构中不允许使用重复的字段名称,结果是 <fieldNames>
。
重复的映射键
找到重复的映射键 <key>
,请检查输入数据。
如果你要删除重复的键,可以将 <mapKeyDedupPolicy>
设置为“LAST_WIN
”,使最后插入的键优先。
重复的指标名称
指标名称不唯一:<metricName>
。 同一名称不能用于具有不同结果的指标。
但是,允许具有相同结果和名称的多个度量实例(例如自联接实例)。
重复分配
列或变量 <nameList>
多次显示为赋值目标。
重复条款
找到了重复子句:<clauseName>
。 请删除其中一个。
作用域内的重复条件
在作用域中找到重复条件 <condition>
。 请删除其中一个。
重复异常处理器
找到重复的处理程序。 请删除其中一个。
有关详细信息,请参阅DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_KEY
发现重复键 <keyColumn>
。
重复例程参数分配
对例程 <routineName>
的调用无效,因为它包含对同一参数名称 <parameterName>
的多个参数赋值。
有关更多详细信息,请参阅 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
重复例程参数名称 (DUPLICATE_ROUTINE_PARAMETER_NAMES)
在用户定义的例程的参数列表中找到重复的名称 <routineName>
:<names>
。
重复的例程返回列
在用户定义的例程 RETURNS
的 <routineName>
子句列列表中找到重复的列:<columns>
。
不允许发出超过时间标记的行
上一个节点发出了一行,其中的 eventTime=<emittedRowEventTime>
早于 current_watermark_value=<currentWatermark>
这可能会导致执行管道下游的状态操作符出现正确性问题。
请更正运算符逻辑以在当前全局水印值之后发出行。
空的JSON字段值
未能分析数据类型 <dataType>
的空字符串。
本地文件在阶段访问查询中为空
暂存 <operation>
查询中包含空本地文件
数据源不支持空架构
<format>
数据源不支持编写空架构或嵌套的空架构。 请确保数据架构至少有一列或多列。
编码器未找到
找不到 Spark SQL 内部表示形式 <typeName>
类型的编码器。
考虑将输入类型更改为“<docroot>
/sql-ref-datatypes.html”支持的其中一个类型。
标签结束未见标签开始
如果没有开始标签,则结束标签 <endLabel>
无法存在。
结束偏移量的主题分区偏移量大于最新可用触发器偏移量
在使用 Trigger.AvailableNow 运行查询时,某个或多个 Kafka 主题中的某些分区报告的可用偏移量小于结束偏移量。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。
最新偏移量:<latestOffset>
,结束偏移量:<endOffset>
结束偏移量对主题分区大于预取偏移量
对于具有 Trigger.AvailableNow 的 Kafka 数据源,每个主题分区的结束偏移量应小于或等于预提取的偏移量。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。
预提取的偏移量:<prefetchedOffset>
,结束偏移量:<endOffset>
。
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT (错误读取AVRO数据: 未知指纹)
读取 avro 数据时出错 -- 遇到未知指纹: <fingerprint>
不确定要使用的架构。
如果在启动 Spark 上下文后注册了其他架构,可能会发生这种情况。
事件日志为空
与<tableOrPipeline>
相关的事件日志没有架构,也不包含任何事件。 稍后等待事件生成后再尝试
事件日志需要共享计算资源
无法从“已分配”或“无隔离共享”群集查询事件日志,请改用共享群集或 Databricks SQL 仓库。
事件日志 TVF 不支持流水线
EVENT_LOG
使用“架构”字段或发布到默认存储的管道不支持 Table-Valued 函数。
若要查询事件日志,请在管道设置中指定event_log字段,将其发布到元存储。
有关详细信息,请参阅 Monitor Lakeflow 声明性管道文档: https://docs.databricks.com/aws/en/delta-live-tables/observability。
事件日志不可用
没有可用于 <tableOrPipeline>
的事件日志。 生成事件后请稍后重试
事件日志_不支持的表类型
<tableIdentifier>
的表类型为 <tableType>
。
查询事件日志仅支持物化视图、流表或 Lakeflow 声明性管道。
事件时间不在时间戳类型上
事件时间 <eventName>
的 <eventType>
类型无效,应为“TIMESTAMP
”。
超出限制长度
超过 char/varchar 类型长度限制:<limit>
。
除外_嵌套列_类型无效
EXCEPT
列 <columnName>
已解析,本应该为 StructType,但发现类型为 <dataType>
。
排除重叠列
EXCEPT
列表中的列必须非重复且不重叠,但出现了 (<columns>
)。
减去未匹配的已解决列
EXCEPT
列 [<exceptColumns>
] 已解析,但不与星形扩展中的任何 [<expandedColumns>
] 列匹配。
结构扩展过程中未解析的列异常
无法解析 <objectName>
子句中的列/字段名称 EXCEPT
。 您的意思是以下选项之一:[<objectList>
]?
注意:在结构扩展期间,EXCEPT
子句中的嵌套列可能不包括限定符(表名、父结构列名等);如果限定符与嵌套列一起使用,请尝试删除限定符。
执行器_广播_连接_内存不足
没有足够的内存来生成广播关系 <relationClassName>
。 关系大小 = <relationSize>
. 此任务使用的内存总量 = <taskMemoryUsage>
。 onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
,offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
,onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
,offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
。 [sparkPlanId: <sparkPlanId>
] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”或联接提示强制随机联接来禁用此查询的广播。
执行者_广播连接_存储_内存不足
没有足够的内存来存储广播关系 <relationClassName>
。 关系大小 = <relationSize>
. StorageLevel = <storageLevel>
。 [sparkPlanId: <sparkPlanId>
] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”或联接提示强制随机联接来禁用此查询的广播。
立即执行_重复参数别名
此 USING
命令的 EXECUTE IMMEDIATE
子句包含多个具有相同别名(<aliases>
)的参数,该参数无效;请更新命令以指定唯一别名,然后重试。
期望永久表而非临时表
“<operation>
”需要永久表,但 <tableName>
是临时表。 请改为指定一个永久表。
期望永久视图而非临时视图
“<operation>
”需要永久视图,但 <viewName>
是临时视图。
期望的表格而非视图
“<operation>
”需要一个表,而<viewName>
是视图。
有关更多详细信息,请参阅 EXPECT_TABLE_NOT_VIEW
期望视图而不是表
表 <tableName>
不支持 <operation>
。
有关更多详细信息,请参阅 EXPECT_VIEW_NOT_TABLE
表达式解码失败
无法将行解码为表达式的值:<expressions>
。
表达式编码失败 (EXPRESSION_ENCODING_FAILED)
无法将表达式的值 <expressions>
解码为行。
表达式类型不可排序
无法对列表达式 <expr>
进行排序,因为其类型 <exprType>
不可排序。
外部浅复制仍然存在
无法在源表<sourceTable>
上运行操作,因为浅表克隆<targetTable>
仍然存在,其状态无效。 如果确实想要继续此操作,请通过显式运行 DROP
命令清理这个浅表克隆。
外部表无效方案
外部表不支持 <scheme>
方案。
FABRIC_REFRESH_INVALID_SCOPE (无效的刷新范围)
运行“REFRESH FOREIGN <scope> <name>
”时出错。 无法直接刷新 Fabric <scope>
,请改用“REFRESH FOREIGN CATALOG <catalogName>
”刷新 Fabric Catalog。
执行用户自定义函数失败
用户自定义函数 (<functionName>
: (<signature>
) =>
<result>
) 由于 <reason>
而失败。
函数调用失败
为调用准备函数 <funcName>
失败。 请仔细检查函数的参数。
FAILED_JDBC
在操作中,JDBC <url>
失败。
有关详细信息,请参阅 FAILED_JDBC
解析结构类型失败
分析结构失败:<raw>
。
文件读取失败
读取文件 <path>
时出错。
有关更多详细信息,请参阅 FAILED_READ_FILE
使用KRYO注册类失败
未能向 Kryo 注册课程。
重命名路径失败
未能将 <sourcePath>
重命名为 <targetPath>
,因为目标已存在。
无法重命名临时文件
无法将临时文件重命名 <srcPath>
为 <dstPath>
,因为 FileSystem.rename 返回 false。
行转换为JSON失败
无法将类的行值 <value>
<class>
转换为 JSON 格式的目标 SQL 类型 <sqlType>
。
无法加载例程
无法加载例程 <routineName>
。
解析失败_内容过于复杂
该语句(包括潜在的 SQL 函数和引用的视图)太复杂,无法分析。
若要缓解此错误,可将语句划分为多个不太复杂的区块。
功能未启用
未启用该功能 <featureName>
。 请考虑将配置 <configKey>
设置为 <configValue>
以启用此功能。
功能_不在_经典仓库
经典 SQL 仓库不支持 <feature>
。 若要使用此功能,请使用 Pro 或无服务器 SQL 仓库。
功能需要UC
如果不使用 Unity Catalog,则不支持 <feature>
。 若要使用此功能,请启用 Unity 目录。
功能不可用
<feature>
在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持部门。
字段已存在
无法生成 <op>
列,因为 <fieldNames>
中已存在 <struct>
。
字段未找到
<fieldName>
中没有此类结构字段 <fields>
。
文件在暂存路径中已存在
暂存路径中的文件 <path>
已存在,但未设置 OVERWRITE
FLATMAPGROUPSWITHSTATE 用户函数错误 (USER_FUNCTION_ERROR)
在 flatMapGroupsWithState 中用户提供的函数中出错。 原因:<reason>
禁止的数据源在无服务器环境中
不允许在无服务器计算中查询数据源 <source>
。 无服务器计算仅支持 <allowlist>
数据源。
禁止操作
不允许对 <statement>
:<objectType>
执行操作 <objectName>
。
每个批次用户功能错误
用户在 foreach 批处理接收器中提供的函数中发生错误。 原因:<reason>
针对每个用户的函数错误
foreach 汇聚器中用户提供的函数发生错误。 原因:<reason>
外键不匹配
外键父列 <parentColumns>
与主键子列 <childColumns>
不匹配。
外部对象名称不能为空
无法执行此命令,因为外 <objectType>
名称必须为非空。
外部表转换不支持
表不符合从 UC Foreign 升级到 UC External 的条件。 原因:
有关详细信息 ,请参阅FOREIGN_TABLE_CONVERSION_UNSUPPORTED
发现多个数据源
检测到名称为“<provider>
”的多个数据源。 请检查数据源未同时注册并位于 classpath 中。
来自JSON的冲突模式更新
from_json 推理在以下位置遇到冲突的架构更新:<___location>
FROM_JSON损坏记录列在架构中
from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
)
在 JSON 对象中,无法再继续。 请为 columnNameOfCorruptRecord
选项“columnNameOfCorruptRecord”。
从JSON格式损坏的模式
from_json推理无法读取存储在以下位置的架构:<___location>
FROM_JSON_INFERENCE_FAILED (从 JSON 推断失败)
from_json无法推断架构。 请改为提供一个架构。
不支持FROM_JSON推断
只有在定义流式表时才支持from_json推理。
从JSON无效配置
from_json配置无效:
有关更多详细信息,请参阅 FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED(从JSON模式演变失败)
from_json无法从 <old>
发展到 <new>
函数参数必须命名
函数 <function>
需要命名参数。 参数缺少名称 <exprs>
。 请更新函数调用以添加所有参数的名称, <function>
例如(param_name => ...)。
生成列,默认值
列不能同时具有默认值和生成表达式,但列 <colName>
具有默认值:(<defaultValue>
)和生成表达式:(<genExpr>
)。
获取表格按类型_Hive版本不支持
Hive 2.2 和更低版本不支持 getTablesByType。 请使用 Hive 2.3 或更高版本。
获取预热追踪失败
未能获取预热跟踪。 原因:<cause>
。
热身跟踪功能不允许
不允许使用函数 get_warmup_tracing()。
石墨接收器_协议无效
无效的 Graphite 协议:<protocol>
。
石墨接收器属性缺失
Graphite 接收器需要“<property>
”属性。
分组列不匹配
在分组列 <grouping>
中找不到分组 (<groupingColumns>
) 的列。
分组ID列不匹配
grouping_id (<groupingIdColumn>
) 的列与分组列 (<groupByColumns>
) 不匹配。
分组大小超过限制
分组集大小不能大于 <maxSize>
。
按聚合分组
不允许在 GROUP BY
中使用聚合函数,但发现了 <sqlExpr>
。
有关更多详细信息,请参阅 GROUP_BY_AGGREGATE
按位置分组聚合
GROUP BY <index>
引用包含聚合函数的表达式 <aggExpr>
。 不允许在 GROUP BY
中使用聚合函数。
分组位置超出范围
GROUP BY
位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
分组表达式类型不可排序
表达式 <sqlExpr>
不能用作分组表达式,因为它的数据类型 <dataType>
不是可排序的数据类型。
HDFS_HTTP_ERROR
尝试从 HDFS 读取时,HTTP 请求失败。
有关详细信息,请参阅 HDFS_HTTP_ERROR
JDBC方言不支持的提示
JDBC 数据源不支持此选项hint
<jdbcDialect>
。 支持的方言是 MySQLDialect
, OracleDialect
以及 DatabricksDialect
。
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH (仓库元存储无效占位符路径)
查询或命令无法执行,因为“spark.databricks.hive.metastore.tablePlaceholderPath”配置提供了无效的 Hive 元存储表占位符路径。 请使用新值更新此配置,以提供有效的路径,然后再次运行查询或命令。
HIVE_METASTORE_表_占位符_路径_未设置
查询或命令失败,因为未设置 Hive 元存储表占位符路径,当架构位置位于 DBFS 上时,该路径是必需的,而表位置是对象/文件。 请将 spark.databricks.hive.metastore.tablePlaceholderPath 设置为有权访问的路径,然后重新运行查询或命令。
HLL_无效输入草图缓冲区
对 <function>
的调用无效;仅支持有效的 HLL 草图缓冲区作为输入(例如由 hll_sketch_agg
函数生成的缓冲区)。
HLL_INVALID_LG_K(无效的LG_K参数代码)
对 <function>
的调用无效;lgConfigK
值必须在 <min>
和 <max>
之间,包括:<value>
。
HLL_UNION_DIFFERENT_LG_K
草图具有不同的 lgConfigK
值:<left>
和 <right>
。 将 allowDifferentLgConfigK
参数设置为 true 以使用不同的 <function>
值调用 lgConfigK
。
HMS_FEDERATION_浅克隆_未找到_IN_UC
浅克隆路径“<path>
”无法解析为Unity目录中的表。 请确保该表存在并且已集成到 Unity Catalog。
混合分析器异常
尝试使用旧固定点分析器和单传递解析程序解析查询或命令时发生失败。
有关更多详细信息,请参阅 HYBRID_ANALYZER_EXCEPTION
标识符_名称部分过多
<identifier>
不是有效的标识符,因为它具有 2 个以上的名称部分。
身份列重复序列生成器选项
重复 IDENTITY
列序列生成器选项:<sequenceGeneratorOption>
。
标识列不合法步骤
IDENTITY
列步骤不能为 0。
唯一标识列不支持的数据类型
<dataType>
列不支持 DataType IDENTITY
。
非法的星期几
非法输入的星期几:<string>
。
非法状态存储值
提供给状态存储的非法值
有关更多详细信息,请参阅 ILLEGAL_STATE_STORE_VALUE
连接选项的不当URI方案
由于为连接选项“<uri>
”提供的 URI <option>
架构不当,无法创建连接。
允许的方案:<allowedSchemes>
。
如果方案不存在于 URI 中,请添加方案,或从允许的值指定方案。
无法比较的透视列
无效透视列 <columnName>
。 透视列必须可比较。
列类型不兼容 (INCOMPATIBLE_COLUMN_TYPE)
只能对具有兼容列类型的表执行 <operator>
。
<columnOrdinalNumber>
表的 <tableOrdinalNumber>
列是 <dataType1>
类型,该类型与第一个表同一列中的 <dataType2>
类型不兼容。<hint>
。
不兼容的数据源注册
检测到不兼容的 DataSourceRegister。 请从 classpath 中删除不兼容的库或对其进行升级。 错误:<message>
表格不兼容的数据
无法为表写入不兼容的数据 <tableName>
:
有关更多详细信息,请参阅 INCOMPATIBLE_DATA_FOR_TABLE
类型不兼容的连接
<joinType1>
和 <joinType2>
的联接类型不兼容。
视图模式更改不兼容
视图 <viewName>
的 SQL 查询具有不兼容的架构更改,无法解析列 <colName>
。 需要名为 <expectedNum>
的 <colName>
列,但收到的列为 <actualCols>
。
请尝试通过运行:<suggestion>
重新创建视图。
不完整类型定义
不完整的复杂类型:
有关更多详细信息,请参阅 INCOMPLETE_TYPE_DEFINITION
版本间行为不一致
您可能会得到不同的结果,这是由于升级至新的版本。
有关更多详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION
参数数量不正确
<failure>
,<functionName>
至少需要 <minArgs>
参数和大多数 <maxArgs>
参数。
错误的加速率
<rowsPerSecond>
rowsPerSecond 的最大偏移量为 <maxSeconds>
,但“rampUpTimeSeconds”为 <rampUpTimeSeconds>
。
不确定的排序
无法确定要用于字符串操作的排序规则。 使用 COLLATE
子句显式设置排序规则。
表达式中的不明确排序规则
<expr>
的数据类型具有不确定的排序规则。 使用 COLLATE
子句显式设置排序规则。
架构中不可确定的排序规则
架构包含不确定的排序规则:[<columnPaths>
]。 使用 COLLATE
子句显式设置排序规则。
索引已存在
无法对表 <indexName>
创建索引 <tableName>
,因为它已存在。
索引未找到
找不到表 <indexName>
上的索引 <tableName>
。
不支持INFINITE_STREAMING_TRIGGER
此群集类型不支持触发器类型 <trigger>
。
使用不同的触发器类型,例如 AvailableNow、Once。
插入列数量不匹配
无法写入到 <tableName>
,原因是
有关更多详细信息,请参阅 INSERT_COLUMN_ARITY_MISMATCH
插入分区列的元数不匹配
无法中写入“<tableName>
”,<reason>
:
表列:<tableColumns>
。
使用静态值的分区列:<staticPartCols>
。
数据列:<dataColumns>
。
使用的列集合无效,无法进行插入或替换操作
表必须分区,所有指定的列都必须表示表的分区列的完整集。
以下列不是分区列: <nonPartitionColumns>
缺少以下分区列: <missingPartitionsColumns>
插入替换未启用
请联系 Databricks 代表启用 INSERT INTO
... REPLACE USING
(...) 功能。
权限不足
权限不足:
<report>
权限不足_EXT_LOC
用户 <user>
对外部位置 <___location>
没有足够的权限。
权限不足_无所有者
<securableName>
没有所有者。 要求管理员设置所有者。
权限不足_所有权_可安全保护
用户不拥有 <securableName>
。
权限不足_可保护对象
用户对 <action>
没有 <securableName>
权限。
权限不足_可安全父对象_所有者
<securableName>
的所有者不同于 <parentSecurableName>
的所有者。
权限不足_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH保留超时
客户端无权为 CloudFetch 结果设置自定义保留超时。
权限不足存储凭据
存储凭据 <credentialName>
权限不足。
权限不足_底层可保护对象
由于对基础安全对象的权限,用户无法对 <action>
执行 <securableName>
。
权限不足_基础可保护对象_详细说明
由于对基础安全对象的权限,用户无法对 <action>
执行 <securableName>
:
<underlyingReport>
间隔算术溢出 (INTERVAL_ARITHMETIC_OVERFLOW)
使用间隔操作时的整数溢出。
有关更多详细信息,请参阅 INTERVAL_ARITHMETIC_OVERFLOW
区间除以零
被零除。 使用 try_divide
容许除数为 0,并返回 NULL
。
无效的聚合过滤器
聚合函数中的 FILTER
表达式 <filterExpr>
无效。
有关更多详细信息,请参阅 INVALID_AGGREGATE_FILTER
INVALID_无偏编码器
找到无效的不可知编码器。 预计会得到 AgnosticEncoder 的一个实例,但却得到 <encoderType>
。 有关详细信息,请参阅“<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html”。
无效算法值
无效或不受支持的边缘内插算法值 <alg>
。
无效的数组索引
索引 <indexValue>
超出界限。 数组具有 <arraySize>
元素。 使用 SQL 函数 get()
容许访问无效索引上的元素,并改为返回 NULL
。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX
元素中的无效数组索引
索引 <indexValue>
超出界限。 数组具有 <arraySize>
元素。 使用 try_element_at
来容忍在无效索引处访问元素,并返回 NULL
作为替代值。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX_IN_ELEMENT_AT
无效的属性名称语法
属性名称中的语法错误:<name>
。 检查反引号是否成对显示,带引号的字符串是一个完整的名称部分,并且仅在带引号的名称部分内使用反引号。
无效的AWS认证
请选择以下身份验证方法之一:
提供 Databricks 服务凭据(
<serviceCredential>
)的名称(作为 spark 流选项或群集环境变量)。提供 AWS AccessKey(
<awsAccessKey>
)和 SecretAccessKey(<awsSecretKey>
)以使用 AWS 密钥。请勿提供 AWS 密钥或 Databricks 服务凭据,以使用用于 Kinesis 身份验证的默认 AWS 凭据提供程序链。
AWS身份验证显式选项无效
请提供您的 Databricks 服务凭据的名称或编号(<serviceCredential>
)
或 <awsAccessKey>
和 <awsSecretKey>
无效的位图位置
索引为 0 的位图位置 <bitPosition>
超出边界。 位图具有 <bitmapNumBits>
位(<bitmapNumBytes>
字节)。
无效布尔声明
条件中预期会出现布尔语句,但已找到 <invalidStatement>
。
无效边界
边界 <boundary>
无效:<invalidValue>
。
有关更多详细信息,请参阅 INVALID_BOUNDARY
无效的分桶列数据类型
不能对存储桶列使用 <type>
。 存储桶不支持排序规则数据类型。
无效的桶文件
无效的桶文件:<path>
。
无效字节串
预期格式为 ByteString,但为 <unsupported> (<class>
。
无效的列名称作为路径
数据源 <datasource>
无法保存列 <columnName>
,因为它的名称包含文件路径中不允许的某些字符。 请使用别名对其进行重命名。
无效的列或字段数据类型
列或字段 <name>
的类型是 <type>
,但必须是 <expectedType>
。
INVALID_CONF_VALUE
配置“<confValue>
”中的值“<confName>
”无效。
有关更多详细信息,请参阅 INVALID_CONF_VALUE
无效或损坏的记录类型
损坏记录的列 <columnName>
必须具有可为 null 的 STRING
类型,但收到了 <actualType>
。
无效的坐标参考系统值
无效或不受支持的 CRS(坐标引用系统)值 <crs>
。
当前收件人用法无效
current_recipient
函数只能在 CREATE VIEW
语句或 ALTER VIEW
语句中使用,以在 Unity 目录中仅定义共享视图。
INVALID_CURSOR
游标无效。
有关更多详细信息,请参阅 INVALID_CURSOR
无效日期时间模式
无法识别的日期/时间模式:<pattern>
。
有关更多详细信息,请参阅 INVALID_DATETIME_PATTERN
无效的默认值
无法执行 <statement>
命令,因为目标列或变量 <colName>
具有 DEFAULT
值 <defaultValue>
,
有关更多详细信息,请参阅 INVALID_DEFAULT_VALUE
无效的分隔符值
分隔符的值无效。
有关更多详细信息,请参阅 INVALID_DELIMITER_VALUE
无效的目标目录
SYNC
命令的目标目录必须位于 Unity 目录中。 已找到 <catalog>
。
无效的驱动程序内存 (INVALID_DRIVER_MEMORY)
系统内存 <systemMemory>
必须至少 <minSystemMemory>
。
请通过在 Spark 配置中使用 --driver-memory 选项 或 "<config>
" 来增加内存堆的大小。
无效的动态选项
禁止为外部表 <option_list>
提供的选项 <table_name>
。
无效的空位置
位置名称不能为空字符串,但已指定 <___location>
。
无效错误条件声明
条件声明无效。
有关详细信息 ,请参阅INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
找到了无效的转义字符串:<invalidEscape>
。 转义字符串必须仅包含一个字符。
无效的转义字符
EscapeChar
应该是长度为 1 的字符串字面量,但结果却是 <sqlExpr>
。
无效的执行器内存
执行程序内存 <executorMemory>
必须至少 <minSystemMemory>
。
请使用 Spark 配置中的 --executor-memory 选项或“”<config>
增加执行程序内存。
表达式编码器无效
找到无效的表达式编码器。 需要 ExpressionEncoder 的实例,但获得 <encoderType>
。 有关详细信息,请参阅“<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html”。
无效的外部类型
外部类型 <externalType>
对表达式 <type>
处的类型 <expr>
无效。
无效提取基本字段类型
无法从 <base>
中提取值。 需要复杂类型[STRUCT
,ARRAY
,MAP
],但得到了 <other>
。
INVALID_EXTRACT_FIELD (提取字段无效)
无法从 <field>
中提取 <expr>
。
无效的提取字段类型
字段名称应是非 null 字符串文本,但它是 <extraction>
。
无效字段名称
字段名称 <fieldName>
无效:<path>
不是结构。
格式无效
格式无效:<format>
。
有关更多详细信息,请参阅 INVALID_FORMAT
无效的秒分数错误
秒的有效范围为 [0, 60](含),但提供的值为 <secAndMicros>
。 若要避免此错误,请使用 try_make_timestamp
,如果出错,它将返回 NULL
。
如果不想使用此函数的会话默认时间戳版本,请使用 try_make_timestamp_ntz
或 try_make_timestamp_ltz
。
无效的获取诊断使用
语句的 GETDIAGNOSTICS
用法无效。
有更详细的信息请参阅INVALID_GET_DIAGNOSTICS_USAGE
无效_GET_诊断_用法_条件编号必须为1
语句的 GETDIAGNOSTICS
用法无效。 语句中 GETDIAGNOSTICS
条件编号的唯一支持值为 1。
INVALID_HANDLE
句柄 <handle>
无效。
有关更多详细信息,请参阅 INVALID_HANDLE
无效的处理程序声明
处理程序声明无效。
有关详细信息,请参阅INVALID_HANDLER_DECLARATION。
无效的HTTP请求方法
输入参数:方法、值:<paramValue>
不是http_request的有效参数,因为它不是有效的 HTTP 方法。
无效的HTTP请求路径
输入参数:路径、值:<paramValue>
不是http_request的有效参数,因为不允许路径遍历。
无效标识符
未加引号的标识符 <ident>
是无效的,必须加反引号为:<ident>
。
不带引号的标识符只能包含 ASCII
字母(“a”-“z”、“A”-“Z”)、数字(“0”-“9”)和下划线(“_”)。
未引号的标识符也不得以数字开头。
不同的数据源和元存储可能会对有效标识符施加额外的限制。
无效的零索引
索引 0 无效。 索引应为< 0
或> 0
(第一个元素的索引为1)。
无效内联表
内联表无效。
有关更多详细信息,请参阅 INVALID_INLINE_TABLE
无效的时间间隔格式
将“<input>
”分析为间隔时出错。 请确保提供的值采用有效的格式来定义间隔。 可以参考文档以获取正确的格式。
有关更多详细信息,请参阅 INVALID_INTERVAL_FORMAT
无效的间隔微秒添加
无法将间隔添加到日期,因为它的微秒部分不是 0。 若要解决此问题,请将输入日期转换为时间戳,以支持添加包含非零微秒的间隔。
无效的 Java 标识符作为字段名称
<fieldName>
不是 Java 的有效标识符,不能用作字段名称
<walkedTypePath>
。
无效的_JDBC_连接选项 (INVALID_JDBC_CONNECTION_OPTION)
此选项 <optionKey>
不是此 jdbc 连接的有效参数。
无效的 JDBC 连接选项值
具有值<optionKey>
的选项<optionValue>
不是此 jdbc 连接的有效选项。
无效的JoinWith连接类型
joinWith 中的联接类型无效:<joinType>
。
INVALID_JSON_DATA_TYPE (JSON 数据类型无效)
无法将 JSON 字符串“<invalidType>
”转换为数据类型。 请输入有效的数据类型。
无效的JSON数据类型用于排序规则
排序规则只能应用于字符串类型,而 JSON 数据类型为 <jsonType>
。
无效的 JSON 记录类型
在 <failFastMode>
模式下推断通用架构时检测到 JSON 记录的类型无效。 需要 STRUCT
类型,但找到了 <invalidType>
。
无效的JSON根字段
无法将 JSON 根字段转换为目标 Spark 类型。
无效的_JSON_模式_映射_类型
输入架构 <jsonSchema>
只能包含 STRING
作为 MAP
的键类型。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE(无效的 Kryo 序列化器缓冲区大小)
配置“<bufferSizeConfKey>
”的值必须小于 2048 MiB,但却为 <bufferSizeConfValue>
MiB。
标签使用无效
标签 <labelName>
的使用无效。
有关更多详细信息,请参阅 INVALID_LABEL_USAGE
无效的Lambda函数调用
lambda 函数调用无效。
有关更多详细信息,请参阅 INVALID_LAMBDA_FUNCTION_CALL
无效的横向连接类型
不允许使用具有 <joinType>
关联的 JOINLATERAL
,因为 OUTER
子查询无法与其连接伙伴相关联。 请删除 LATERAL
关联或使用 INNER
JOIN,或改用 LEFT OUTER
JOIN。
无效的LIMIT_LIKE表达式
表达式 <expr>
等限制无效。
有关更多详细信息,请参阅 INVALID_LIMIT_LIKE_EXPRESSION
日志版本无效
UnsupportedLogVersion。
有关详细信息,请参阅 INVALID_LOG_VERSION
无效的非绝对路径
提供的非绝对路径 <path>
不能限定。 请将路径更新为有效的 dbfs 装载位置。
无效的非确定性表达式
运算符需要确定性表达式,但实际表达式是 <sqlExprs>
。
无效数字字面量范围
数值文本 <rawStrippedQualifier>
超出了 <typeName>
的有效范围,其最小值为 <minValue>
,最大值为 <maxValue>
。 请相应地调整值。
无效观察指标
观察到的指标无效。
有关更多详细信息,请参阅 INVALID_OBSERVED_METRICS
无效选项
无效选项:
有关更多详细信息,请参阅 INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT(无效的Pandas用户定义函数位置)
组聚合 pandas UDF <functionList>
不能与其他非 pandas 聚合函数一起调用。
无效参数标记值
提供了无效的参数映射:
有关更多详细信息,请参阅 INVALID_PARAMETER_MARKER_VALUE
参数值无效
<parameter>
中的参数值 <functionName>
无效:
有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE
无效的分区列数据类型
不能对分区列使用 <type>
。
无效分区操作
分区命令无效。
有关更多详细信息,请参阅 INVALID_PARTITION_OPERATION
无效的分区值
未能将 <value>
的值转换为用于分区列 <dataType>
的数据类型 <columnName>
。 确保该值与此分区列的预期数据类型匹配。
无效_PIPELINE_ID
管道 ID <pipelineId>
无效。
管道 ID 应该是格式为“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”的 UUID
无效权限
权限 <privilege>
对 <securable>
无效。
无效的属性键
<key>
属性键无效,请使用引号,例如 SET <key>=<value>
。
属性值无效
<value>
属性值无效,请使用引号,例如 SET <key>=<value>
无效的合格列名
列名 <columnName>
无效,因为它未使用表名限定,或者包含 4 个以上的名称部分。
查询无效,混合查询参数。
参数化查询必须使用位置参数或命名参数,但不能同时使用这两个参数。
无效的递归CTE
找到的递归定义无效。 递归查询必须包含一个 UNION
或一个包含 2 个子项的 UNION ALL
语句。 首个子级必须是锚定词,并且没有任何递归引用。
无效递归引用
在 WITH RECURSIVE
子句中找到无效的递归引用。
有关详细信息,请参阅INVALID_RECURSIVE_REFERENCE
无效的正则表达式替换
无法对源 =“<source>
”、模式 =“<pattern>
”、更换 =“<replacement>
”和位置 = <position>
执行 regexp_replace。
无效重置命令格式
预期格式为“RESET
”或“RESET
key”。 如果要在密钥中包含特殊字符,请使用引号,例如 RESET key
。
无效的重新信号使用
RESIGNAL
当处理程序未处于活动状态时。
RESIGNAL
语句只能在异常处理程序正文中使用。
无效的S3复制凭证
COPY INTO
凭据必须包括 AWS_ACCESS_KEY
、 AWS_SECRET_KEY
和 AWS_SESSION_TOKEN
。
无效保存模式
指定的保存模式 <mode>
无效。 有效的保存模式包括“append”、“overwrite”、“ignore”、“error”、“errorifexists”和“default”。
无效架构
输入架构 <inputSchema>
不是有效的架构字符串。
有关更多详细信息,请参阅 INVALID_SCHEMA
无效的架构或关系名称
<name>
不是表/架构的有效名称。 有效名称仅包含字母字符、数字和 _。
无效方案
Unity 目录不支持将 <name>
作为默认文件方案。
无效的密钥查询
机密查找无效:
有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP
无效的设置语法
预期格式为“SET
”、“SET
key”或“SET
key=value”。 如果要在键中包含特殊字符,或在值中包含分号,请使用后引号,例如 SET key
=value
。
无效共享别名名称
<sharedObjectType>
别名必须采用“schema.name”格式。
无效单一变量列 (INVALID_SINGLE_VARIANT_COLUMN)
在启用<schema>
选项时,用户指定的架构singleVariantColumn
无效。 架构必须是变体字段,或者是变体字段加上损坏的列字段。
无效的来源目录
源目录不得位于 SYNC
命令的 Unity 目录中。 已找到 <catalog>
。
无效的过滤服务合并命令源
筛选服务 MERGE
操作的源只能包含映射和筛选器。
请调整 MERGE
命令或使用暂存表作为源。
<stmt>
无效的SPARK配置
Spark 配置无效:
有关详细信息请参阅INVALID_SPARK_CONFIG
INVALID_SQLSTATE(无效的SQL状态)
无效 SQLSTATE
值:“<sqlState>
”。
SQLSTATE
长度必须为 5 个字符,且仅包含 A-Z 和 0-9。
SQLSTATE
不得以“00”、“01”或“XX”开头。
SQL参数无效
<name>
的参数 sql()
无效。 请考虑将其替换为 SQL 文本或集合构造函数,例如 map()
、array()
、struct()
。
SQL语法错误
无效的 SQL 语法:
有关更多详细信息,请参阅 INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY (在暂存访问查询中,暂存路径无效)
暂存 <operation>
查询中的暂存路径无效:<path>
无效的执行语句
INTO
的 EXECUTE IMMEDIATE
子句仅适用于查询,但给定的语句不是查询:<sqlString>
。
无效语句或子句
语句或子句:<operation>
无效。
流媒体实时模式触发间隔无效 (INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL)
实时触发器间隔设置为 <interval>
ms。 这小于 <minBatchDuration>
spark.databricks.streaming.realTimeMode.minBatchDuration 指定的毫秒最小值。
无效的流媒体实时模式触发覆盖间隔
无法分析实时触发器的检查点间隔 <interval>
。 请验证已传递正整数。
无效的子查询表达式
无效的子查询:
有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION
用于ALTER命令的目标无效
ALTER <commandTableType>
... <command>
不支持 <tableName>
。 请改用ALTER <targetTableType>
... <command>
无效的目标用于SET_TBLPROPERTIES命令
ALTER <commandTableType>
... SET TBLPROPERTIES
不支持 <tableName>
。 请改用ALTER <targetTableType>
... SET TBLPROPERTIES
INVALID_TEMP_OBJ_REFERENCE (无效的临时对象引用)
无法创建类型 <objName>
的永久性对象 <obj>
,因为它引用了类型 <tempObjName>
的临时对象 <tempObj>
。 请将临时对象 <tempObjName>
持久化,或将持久对象 <objName>
设为临时对象。
时间戳格式无效
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
无效时区
时区:<timeZone>
无效。 时区必须是基于区域的区域 ID 或区域偏移量。 区域 ID 必须具有“区域/城市”的格式,如“America/Los_Angeles”。 区域偏移量必须采用“(+|-)HH”、“(+|-)HH:mm”或“(+|-)HH:mm:ss”格式,例如“-08”、“+01:00”或“-13:33:33”,并且必须位于 -18:00 到 +18:00 的范围内。 “Z”和“UTC”被接受为“+00:00”的同义词。
时间旅行规范无效 (INVALID_TIME_TRAVEL_SPEC)
在按时间顺序查看表时,无法同时指定版本和时间戳。
时间旅行时间戳表达式无效
时间旅行时间戳表达式 <expr>
无效。
有关更多详细信息,请参阅 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
无效的类型化文字
类型化文本 <valueType>
的值无效:<value>
。
无效的UDF实现
函数 <funcName>
不实现 ScalarFunction 或 AggregateFunction。
无效的升级语法
<command> <supportedOrNot>
源表位于 Hive 元存储中,目标表位于 Unity 目录中。
无效的URL
url 无效:<url>
。 使用 try_parse_url
来容忍无效的 URL 并改为返回 NULL
。
INVALID_USAGE_OF_STAR_OR_REGEX(星号或正则表达式的无效使用)
<elem>
中 <prettyName>
的使用情况无效。
无效的UTF8字符串
在字符串中找到的 UTF8 字节序列无效:<str>
。
无效的UUID
输入 <uuidInput>
不是有效的 UUID。
UUID 应采用“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”格式
请检查 UUID 的格式。
无效变量声明
变量声明无效。
有关更多详细信息,请参阅 INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE(查询执行即时的变量类型无效)
变量类型必须是字符串类型,但接收到的是 <varType>
。
无效变体转换
变量值 <value>
不能被转换为 <dataType>
。 请改用 try_variant_get
。
从PARQUET的无效变体
无效的变量。
有关更多详细信息,请参阅 INVALID_VARIANT_FROM_PARQUET
无效的变体获取路径
路径 <path>
不是 <functionName>
中有效的变体提取路径。
有效路径应以 $
开头,后跟零个或多个段,如 [123]
、.name
、['name']
或 ["name"]
。
无效变体碎片化架构
架构 <schema>
不是有效的变体切碎架构。
无效的WHERE条件
WHERE
条件 <condition>
包含无效表达式:<expressionList>
。
重写查询以避免 WHERE
子句中的窗口函数、聚合函数和生成器函数。
无效窗口规格定义用于聚合函数 (INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC)
无法为 ORDER BY
指定 <aggFunc>
或窗口框架。
组内表达式无效
使用 <funcName>
时,函数 WITHIN GROUP
无效。
有关详细信息,请参阅 INVALID_WITHIN_GROUP_EXPRESSION
无效的编写者提交消息
数据源写入器生成了不合理数量的提交消息。 每个任务中应仅有一条写入器提交消息,但收到了 <detail>
。
无效写入分配
请求的写入分配无效。
有关更多详细信息,请参阅 INVALID_WRITE_DISTRIBUTION
隔离命令失败
未能执行 <command>
。 命令输出:
<output>
隔离命令未知故障
未能执行 <command>
。
联接条件不是布尔类型
联接条件 <joinCondition>
的 <conditionType>
类型无效,应为“BOOLEAN
”。
KAFKA_数据丢失
某些数据可能已丢失,因为它们在 Kafka 中不再可用;
数据已被 Kafka 设为过期,或者主题可能在其中的所有数据处理完毕之前
已被删除。
如果不希望流式查询在这种情况下失败,请将源选项 failOnDataLoss 设置为 false。
原因:
有关更多详情,请参阅 KAFKA_DATA_LOSS
KINESIS_无法读取分片至结束偏移量
在以下 Kinesis 流的分片 <endSeqNum>
达到所需的序列号 <shardId>
之前无法读取
使用使用者模式 <stream>
的 kinesis 流 <consumerMode>
。 查询将因...而失败
潜在的数据丢失。 最后一个读取记录位于序列号 <lastSeqNum>
。
如果存在以下条件,则可能会发生这种情况:具有 endSeqNum 的数据已过期,或者 Kinesis 流已
删除并以相同名称进行了重建。 可以
通过在 Spark 配置中将 spark.databricks.kinesis.failOnDataLoss 设置为 false。
KINESIS_EFO_CONSUMER_NOT_FOUND(无法找到KINESIS EFO消费者)
对于 kinesis 流 <streamId>
,删除了流的以前注册的 EFO 使用者 <consumerId>
。
重启查询,以便注册新的使用者。
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED(超出 Kinesis EFO 订阅限制)
对于分片 <shard>
,上一次 subscribeToShard API 调用是在下一次调用的 5 秒内。
在 5 秒或更多秒后重启查询。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD(Kinesis 获取的分片小于追踪的分片)
从 Kinesis 提取的最小 shardId (<fetchedShardId>
)
小于跟踪的最小 shardId (<trackedShardId>
)。
这是意外的,在删除 Kinesis 流并使用相同的名称重新创建时,会发生此情况,
使用现有检查点位置重启了使用此 Kinesis 流的流式处理查询。
使用新的检查点路径重启流查询,或使用新名称创建流。
KINESIS_轮询模式不受支持
不支持 Kinesis 轮询模式。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION(Kinesis记录序列号顺序违反)
对于分片 <shard>
,上一次提取中从 Kinesis 读取的最后一条记录具有序列号 <lastSeqNum>
,
它大于当前提取中读取的记录的序列号 <recordSeqNum>
。
这是意外的,当重试或下一次提取的开始位置不正确初始化时,可能会造成下游重复的记录。
KINESIS_SOURCE必须处于EFO模式才能配置消费者
若要从 Kinesis Streams 读取使用者配置(consumerName
、consumerNamePrefix
或 registeredConsumerId
),consumerMode
必须是 efo
。
必须指定注册的消费者ID和类型的KINESIS源
若要从 Kinesis Streams 中读取已注册使用者,必须同时指定 registeredConsumerId
和 registeredConsumerIdType
选项。
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS(必须指定流名称或ARNs)
若要从 Kinesis Streams 读取,必须将 streamName
或 streamARN
选项的任一(但不是两者)配置为以逗号分隔的流名称/ANN 列表。
KINESIS_SOURCE_无消费者选项_已注册消费者
若要从具有已注册使用者的 Kinesis Streams 进行读取,请不要配置 consumerName
或 consumerNamePrefix
选项,因为它们不会生效。
Kinesis 源注册消费者ID数量不匹配
已注册的使用者 ID 数应等于 Kinesis 流的数量,但收到了 <numConsumerIds>
使用者 ID 和 <numStreams>
流。
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND(未找到Kinesis源注册消费者)
找不到 streamARN <consumerId>
提供的注册使用者 <streamARN>
。 验证是否已注册使用者或未提供 registeredConsumerId
选项。
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID(Kinesis来源已注册消费者类型无效)
注册的使用者类型 <consumerType>
无效。 它必须是 name
或 ARN
。
KRYO_BUFFER_OVERFLOW (KRYO 缓冲区溢出)
Kryo 序列化失败:<exceptionMsg>
。 若要避免这种情况,请增加“<bufferSizeConfKey>
”值。
标签不匹配
开始标签 <beginLabel>
与结束标签 <endLabel>
不匹配。
标签已存在
标签 <label>
已存在。 选择其他名称或重命名现有标签。
标签名称禁止
禁止标签名称 <label>
。
湖仓联邦数据源需要更新的DBR版本
Lakehouse 联合数据源“<provider>
”需要更新的 Databricks Runtime 版本。
有关详细信息 ,请参阅LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
加载数据路径不存在
LOAD DATA 输入路径不存在:<path>
。
本地必须包含模式文件
LOCAL
必须与 file
的架构一起使用,但收到 了 <actualSchema>
。
位置已存在
无法将托管表命名为 <identifier>
,因为其关联位置 <___location>
已存在。 请选取其他表名,或首先删除现有位置。
丢失主题分区_在结束偏移量中_触发器_当前可用
使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中的某些分区已丢失。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。
最新偏移量 <tpsForLatestOffset>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区
畸形的_AVRO_消息
在消息反序列化中检测到格式不正确的 Avro 消息。 分析模式:<mode>
。 若要将格式错误的 Avro 消息作为 null 结果进行处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
格式错误的字符编码
使用 <function>
执行 <charset>
时找到的值无效
错误格式的CSV记录
格式不正确的 CSV 记录:<badRecord>
格式错误的日志文件
日志文件格式不正确:无法从 <text>
读取正确的日志版本。
格式错误的_PROTOBUF_消息
在消息反序列化中检测到格式不正确的 Protobuf 消息。 分析模式:<failFastMode>
。 若要将格式不正确的 protobuf 消息作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
解析中的记录格式错误
在记录分析中检测到格式不正确的记录:<badRecord>
。
分析模式:<failFastMode>
。 若要将格式错误的记录作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
有关更多详细信息,请参阅 MALFORMED_RECORD_IN_PARSING
每微批处理源中的状态异常
RatePerMicroBatch 源中的状态格式错误。
有关详细信息,请参阅 MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
格式错误变体
变体二进制格式不正确。 请检查数据源是否有效。
控制的冰山尝试启用聚类,而未禁用DVS或行跟踪
尝试在 Managed Iceberg 表上启用 Liquid 聚类分析,而无需禁用删除矢量和行跟踪。 Managed Iceberg 表不支持删除向量和行跟踪,而这些功能是 Liquid 表实现行级并发所必需的。 若要在托管 Iceberg 表上启用低并发控制的 Liquid 聚类,必须对此表禁用删除矢量和行跟踪。
ICEBERG操作不支持管理功能
托管冰山表不支持 <operation>
。
管理表_含凭证
不支持使用存储凭据创建托管表。
物化视图_MESA_刷新_无_PIPELINE_ID
无法 <refreshType>
具体化视图,因为它的时间早于具有 pipelineId。 要启用 <refreshType>
,请删除并重新创建具体化视图。
物化视图操作不允许
不允许执行具体化视图操作 <operation>
:
有关更多详细信息,请参阅 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
物化视图输出未明确别名
必须为具体化视图中的输出表达式 <expression>
显式提供别名。
流式查询上的物化视图无效
无法使用流式处理查询来创建具体化视图 <name>
。 请在您的CREATE [OR REFRESH] STREAMING TABLE
子句中使用STREAM
或删除FROM
关键字,以便将此关系转换为批处理查询。
物化视图不支持的操作
具体化视图目前不支持操作 <operation>
。
会话中的变量数量已超出最大限制
无法创建新变量 <variableName>
,因为会话中的变量数超过允许的最大数目(<maxNumVariables>
)。
每次获取的记录数对Kinesis源无效
maxRecordsPerFetch 必须是小于或等于 <kinesisRecordLimit>
的正整数
合并基数违法
ON
语句的 MERGE
搜索条件将目标表中的单个行与源表的多个行匹配。
这可能导致对目标行进行多次更新或删除操作,这是不被允许的。
合并无条件执行
WHEN
语句中必须至少有一个 MERGE
子句。
指标约束不受支持
METRIC CONSTRAINT
未启用。
指标存储无效参数值错误
<argValue>
表函数的参数“<argName>
”不支持提供的值“METRIC_STORE
”。
有关更多详细信息,请参阅 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
指标存储不支持错误
此环境中当前禁用了指标存储例程 <routineName>
。
模型视图_不明确的连接条件
指标视图定义包含具有不明确条件的联接: <expr>
。 使用 using
联接条件或使用 <sourceAlias>
别名显式限定列。
指标视图缓存表不被支持
不允许指标视图使用缓存表。
指标视图功能已禁用
指标视图功能已禁用。 请确保“spark.databricks.sql.metricView.enabled”设置为 true。
度量视图无效的测量函数输入
MEASURE
() 函数仅采用属性作为输入,但获得 <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION(指标视图-无效视图定义)
指标视图定义无效。 原因:<reason>
。
度量视图在CTE中不支持
CTE 定义中不允许使用指标视图。 计划:<plan>
指标视图连接不支持
不允许使用联接的指标视图。 计划:<plan>
指标视图实例化已禁用
指标视图具体化已禁用。 请确保“spark.databricks.sql.metricView.materializations.enabled”设置为 true。
度量视图缺失度量函数
度量值列 <column>
指标视图的使用需要 MEASURE
() 函数才能生成结果。
指标视图重命名不同目录和架构
不允许将指标视图<oldName>
重命名为其他目录或架构: <newName>
指标视图不支持的使用
不支持指标视图使用情况。 计划:<plan>
不支持METRIC_VIEW窗口函数
不允许指标视图使用窗口函数 <expr>
。
不支持迁移
<table>
不支持迁移到 UC 托管表,因为它不是 <tableKind>
表。
确保要迁移的表是 UC 外部增量表,并且
引用的是名称而不是路径。
不支持迁移回滚
<table>
不支持从托管表回滚至外部表,因为它不是 <tableKind>
表。
主题分区在结束偏移量与预取数据之间不匹配
Trigger.AvailableNow 中的 Kafka 数据源应在预提取的偏移量中提供相同的主题分区给每个微批的结束偏移量。 此错误可能是暂时性的 - 重启查询,如果仍然看到相同的问题,请报告。
预提取偏移量 <tpsForPrefetched>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区。
聚合缺失
非聚合表达式 <expression>
基于不参与 GROUP BY
子句的列。
将列或表达式添加到 GROUP BY
,或对表达式进行聚合;如果不在乎返回组中的哪个值,则使用 <expressionAnyValue>
。
有关更多详细信息,请参阅 MISSING_AGGREGATION
缺少操作所需条款
操作 <clauses>
缺少子句 <operation>
。 请添加所需的条款。
缺少连接选项
“<connectionType>
”类型的连接必须包括以下选项:<requiredOptions>
。
缺少用于V1会话目录的数据库
v1 会话目录中未指定数据库名称。 请确保在与 v1 目录交互时提供有效的数据库名称。
缺少分组依据
查询不包括 GROUP BY
子句。 添加 GROUP BY
或使用 OVER 子句将其转换为窗口函数。
缺少检查约束名称
CHECK
约束必须具有名称。
MISSING_PARAMETER_FOR_KAFKA(缺少Kafka的参数)
Kafka 需要参数 <parameterName>
,但 <functionName>
中未指定参数。
缺少常规所需参数
参数 <parameterName>
是必需的,但未在 <functionName>
中指定。
缺少日程定义
必须遵循 SCHEDULE
提供计划定义。
缺少超时配置 (MISSING_TIMEOUT_CONFIGURATION)
操作已超时,但未配置超时时间。 若要设置基于时间的处理超时,请在“mapGroupsWithState”或“flatMapGroupsWithState”操作中使用“GroupState.setTimeoutDuration()”。 对于基于事件时间的超时,请使用“GroupState.setTimeoutTimestamp()”,并使用“Dataset.withWatermark()”定义水印。
缺少窗口规格
WINDOW
的 <windowName>
子句中未定义窗口规范。 有关 WINDOW
子句的详细信息,请参阅“<docroot>
/sql-ref-syntax-qry-select-window.html”。
修改内置目录
不支持修改内置目录 <catalogName>
。
MULTIPLE_LOAD_PATH(多重加载路径)
Databricks Delta 不支持加载 API 中的多个输入路径。
路径:<pathList>
。 若要通过从同一 Delta 表加载多个路径来
生成单个数据帧,请加载
包含相应分区筛选器的 Delta 表。 如果多个路径
来自不同的 Delta 表,请使用数据集的 union()/unionByName() API
来合并由单独的 load() API 调用生成的数据帧。
多个匹配的约束条件
发现至少有两个具有给定条件的匹配约束。
多重查询结果子句与管道运算符
<clause1>
和 <clause2>
无法使用“|>”在同一 SQL 管道操作符中共存。 请将多个结果子句分隔为单独的管道运算符,然后再次重试查询。
多次时间旅行规范
无法在按时间顺序查看子句和选项中指定按时间顺序查看。
多个_XML_数据来源
检测到具有名称 <provider> (<sourceNames>
的多个数据源。 请指定完全限定的类名,或者从类路径中删除 <externalSource>
。
多重别名但无生成器
<names>
不支持多部分别名 (<expr>
),因为它不是生成器函数。
多源不支持表达式
表达式 <expr>
不支持多个源。
多语句事务CDF架构_带保留列名
无法在多语句事务中启用数据更改馈送,因为表中包含保留列名称(<column_name>
)。
若要继续作,请确保表仅使用非保留列名称。
多语句事务设定高水位线不允许
不允许手动设置 CDC 标识高水印。
多语句事务并发目录元数据更改
表/视图 <table>
上检测到并发元数据更改。 请运行 ROLLBACK
并重试此事务。 详细信息:
有关详细信息 ,请参阅MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH(多语句事务上下文不匹配)
在当前线程和 Spark 会话之间检测到事务上下文不一致。 当 Spark 会话跨多个线程共享时,通常会发生这种情况。 请在重复使用新事务的会话和线程之前,对每个事务使用专用会话和线程,并在其线程中提交/回滚事务。 详细信息:
有关详细信息 ,请参阅MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH
不支持多语句事务
未能执行该语句。
有关详细信息 ,请参阅MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED
多语句事务没有活动的事务
没有活动事务到<action>
。
多语句事务中止后需要回滚
当前事务已中止。 请在继续之前运行 ROLLBACK TRANSACTION
。 中止原因:
有关详细信息 ,请参阅MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
多UDF接口错误
不允许实现多个 UDF 接口,UDF 类 <className>
。
互斥条款
子句 <clauses>
或选项互斥。 请删除其中一个子句。
MV_ST_改变查询不正确的支持类型
输入查询需要 <expectedType>
,但基础表是 <givenType>
。
不支持命名参数
函数 <functionName>
不支持命名参数;请改用函数调用的位置参数重试查询。
不支持用于SQL UDF的命名参数
无法调用函数 <functionName>
,因为不支持命名参数引用。 在本例中,所指的命名参数是 <argument>
。
已禁用命名参数支持
无法调用函数 <functionName>
,因为此处未启用命名参数引用。
在本例中,所指的命名参数是 <argument>
。
将“spark.sql.allowNamedFunctionArguments”设置为“true”以启用功能。
命名空间已存在
无法创建命名空间 <nameSpaceName>
,因为它已存在。
选择其他名称、删除现有命名空间或添加 IF NOT EXISTS
子句以容忍预先存在的命名空间。
命名空间不为空
无法删除命名空间 <nameSpaceNameName>
,因为它包含对象。
使用 DROP NAMESPACE
... CASCADE
删除命名空间及其所有对象。
命名空间未找到
找不到命名空间 <nameSpaceName>
。 验证命名空间的拼写和正确性。
如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。
若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS
。
NATIVE_IO_ERROR(本地输入/输出错误)
本机请求失败。 requestId:<requestId>
,云:<cloud>
,操作:<operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
错误:<error>
XML数据源未启用
此群集中未启用本机 XML 数据源。
不允许负刻度
不允许负刻度:“<scale>
”。 将配置 <sqlConf>
设置为“true”以允许它。
频率表达式中的负值
在 <frequencyExpression>
中找到负值:<negativeValue>
,但预期值为正整数值。
嵌套聚合函数
不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。
嵌套执行立即命令
不允许嵌套 EXECUTE IMMEDIATE
命令。 请确保提供的 SQL 查询(<sqlString>
)不包含另一个 EXECUTE IMMEDIATE
命令。
列表中不存在的字段名称
字段 <nonExistFields>
不存在。 可用字段:<fieldNames>
NON_FOLDABLE_ARGUMENT
函数 <funcName>
要求参数 <paramName>
是类型 <paramType>
的可折叠表达式,但实际参数是不可折叠的。
非最后匹配子句忽略条件
当 MATCHED
语句中有多个 MERGE
子句时,只有最后一个 MATCHED
子句可以省略条件。
源条款不匹配且不省略条件非最终
当 NOT MATCHED BY SOURCE
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED BY SOURCE
子句可以省略条件。
非最后未由目标子句匹配省略条件
如果 NOT MATCHED [BY TARGET
语句中有多个 MERGE
] 子句,则只有最后一个 NOT MATCHED [BY TARGET
] 子句可以省略条件。
非字面枢轴值
必须为透视值提供文本表达式,但找到的是 <expression>
。
非分区列
PARTITION
子句不能包含非分区列:<columnName>
。
不支持流媒体中的非时间窗口
流式处理数据帧/数据集上的 <windowFunc>
(列 <columnName>
)不支持窗口函数。
结构化流式处理仅支持使用 WINDOW
函数进行时间窗口聚合。 (窗口规范:<windowSpec>
)
不允许在来源中
在 FROM
子句中不允许:
有关更多详细信息,请参阅 NOT_ALLOWED_IN_FROM
不允许在管道操作符WHERE中使用
在管道 WHERE
子句中不允许:
有关更多详细信息,请参阅 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
用于例程或子句 <expr>
的表达式 <name>
必须是 STRING
的常量 NOT NULL
。
有关更多详细信息,请参阅 NOT_A_CONSTANT_STRING
不是分区表
由于不是分区表,不允许对 <operation>
执行 <tableIdentWithDB>
操作。
NOT_A_SCALAR_FUNCTION
此处 <functionName>
显示为标量表达式,但该函数被定义为表函数。 请更新查询以将函数调用移动到 FROM
子句中,或改为重新定义 <functionName>
作为标量函数。
不是表函数
此处 <functionName>
显示为表函数,但该函数被定义为标量函数。 请更新查询以将函数调用移到 FROM
子句之外,或改为重新定义 <functionName>
作为表函数。
非空断言违规
NULL
值出现在不可为 null 的字段中:<walkedTypePath>
如果架构是从 Scala 元组/案例类或 Java bean 推断出来的,请尝试使用 scala.Option[_] 或其他可为 null 的类型(如 java.lang.Integer 而不是 int/scala.Int)。
非空约束违规
此处不允许分配 NULL
。
有关更多详细信息,请参阅 NOT_NULL_CONSTRAINT_VIOLATION
不支持的更改列
ALTER TABLE ALTER
/
CHANGE COLUMN
不支持将 <table>
的类型为 <originName>
的列 <originType>
更改为类型为 <newName>
的 <newType>
。
不支持更改相同列
ALTER TABLE ALTER
/
CHANGE COLUMN
不支持在同一命令中多次更改 <table>
其列 <fieldName>
,包括其嵌套字段。
不支持V2表格命令
v2 表不支持 <cmd>
。
不支持不含 Hive 支持的命令
不支持 <cmd>
,如果要启用它,请将“spark.sql.catalogImplementation”设置为“hive”。
JDBC目录中不支持
JDBC 目录中不支持的命令:
有关更多详细信息,请参阅 NOT_SUPPORTED_IN_JDBC_CATALOG
不支持与数据库的SQL操作(NOT_SUPPORTED_WITH_DB_SQL)
SQL <operation>
不支持 <endpoint>
。
不支持与无服务器架构一起使用
<operation>
不支持无服务器计算。
未解决编码器_NOT
需要未解析的编码器,但找到了 <attr>
。
无默认列值可用
无法确定其默认值 <colName>
,因为它不可为 null,并且没有默认值。
无处理程序用于用户定义的聚合函数
没有适用于 UDAF“<functionName>
”的处理程序。 请改用 sparkSession.udf.register(...)。
未指定合并操作
df.mergeInto 需要后跟至少一个 whenMatched/whenNotMatched/whenNotMatchedBySource。
无路径的父级外部位置
SQLSTATE:未分配
找不到路径“<path>
”的父外部位置。 请在其中一个父路径上创建外部位置,然后再次重试查询或命令。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA (无SQL类型在ProtoBuf架构中)
在 Protobuf 架构中找不到 <catalystFieldPath>
。
没有为表格指定存储位置
SQLSTATE:未分配
生成表凭据时,找不到表“<tableId>
”的存储位置。 请验证表类型和表位置 URL,然后再次重试查询或命令。
没有此类目录异常
找不到目录“<catalog>
”。 请验证目录名称,然后再次重试查询或命令。
NO_SUCH_CLEANROOM_EXCEPTION (无此清净室异常)
SQLSTATE:未分配
洁净室“<cleanroom>
”不存在。 请验证清理室名称拼写是否正确,并匹配有效的现有清理室的名称,然后再次重试查询或命令。
NO_SUCH_CREDENTIAL_EXCEPTION (无此凭证异常)
凭据“”<credential>
不存在。 请验证凭据名称拼写正确,并匹配有效现有凭据的名称,然后再次重试查询或命令。
没有此类外部位置异常
SQLSTATE:未分配
外部位置“<externalLocation>
”不存在。 请验证外部位置名称是否正确,然后再次重试查询或命令。
NO_SUCH_METASTORE_EXCEPTION (无此元存储异常)
SQLSTATE:未分配
找不到元存储。 请让帐户管理员将元存储分配给当前工作区,然后再次重试查询或命令。
没有这样的提供者异常 (NO_SUCH_PROVIDER_EXCEPTION)
SQLSTATE:未分配
共享提供程序“<providerName>
”不存在。 请验证共享提供程序名称拼写正确,并匹配有效现有提供程序名称的名称,然后再次重试查询或命令。
找不到_此_收件人_异常
SQLSTATE:未分配
收件人“<recipient>
”不存在。 请验证收件人名称拼写正确,并匹配有效现有收件人的名称,然后再次重试查询或命令。
无此共享异常
SQLSTATE:未分配
共享“<share>
”不存在。 请验证共享名称拼写是否正确,并匹配有效现有共享的名称,然后再次重试查询或命令。
无此存储凭证异常
SQLSTATE:未分配
存储凭据“<storageCredential>
”不存在。 请验证存储凭据名称拼写正确,并匹配有效的现有存储凭据的名称,然后再次重试查询或命令。
无此用户异常
SQLSTATE:未分配
用户“<userName>
”不存在。 请验证你向其授予权限或更改所有权的用户拼写正确,并匹配有效现有用户的名称,然后再次重试查询或命令。
NO_UDF_INTERFACE
UDF 类 <className>
不实现任何 UDF 接口。
可为空的列或字段
列或字段 <name>
可为 null,但它必须不可为 null。
可为空的行 ID 属性
行 ID 属性不能为空值:<nullableRowIdAttrs>
。
空数据源选项
数据源读/写选项 <option>
不能有 null 值。
NULL_MAP_KEY(空地图键)
不能将 null 用作映射键。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE 立即执行空查询字符串
立即执行需要一个非 null 变量作为查询字符串,但提供的变量 <varName>
为 null。
空值信号语句
信号语句参数需要非空值,但 <argument>
接收到空值。
数值超出支持范围
<value>
该值不能解释为数字,因为它的位数超过 38 位。
数值超出范围
有关更多详细信息,请参阅 NUMERIC_VALUE_OUT_OF_RANGE
列数不匹配
<operator>
只能对列数相同的输入进行操作,但第一个输入有 <firstNumColumns>
列,第 <invalidOrdinalNum>
个输入有 <invalidNumColumns>
列。
数字表值别名不匹配
给定别名的数目与输出列数不匹配。
函数名称:<funcName>
;别名数:<aliasesNum>
;输出列数:<outColsNum>
。
未提供 OAUTH_CUSTOM_IDENTITY_CLAIM
未提供自定义标识声明。
此处仅支持秘密功能
此 <functionName>
不支持调用函数 <___location>
;此处支持 <supportedFunctions>
。
仅支持UC_SQL_CONNECTOR
只有在支持 Unity Catalog 的 Databricks SQL 连接器上,SQL 操作 <operation>
才受到支持。
操作已取消
操作已取消。
操作需要 Unity 目录
操作 <operation>
需要启用 Unity Catalog。
操作不支持:只读模式
只读会话模式下不支持 <plan>
。
按位置排序超出范围
ORDER BY
位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
PARQUET_CONVERSION_FAILURE
无法为 Parquet 类型为 <dataType>
的数据类型 <parquetType>
创建 Parquet 转换器。
有关更多详细信息,请参阅 PARQUET_CONVERSION_FAILURE
PARQUET类型非法
非法的 Parquet 类型:<parquetType>
。
未识别的PARQUET类型
无法识别的 Parquet 类型:<field>
。
PARQUET类型不被支持
尚不支持的 Parquet 类型:<parquetType>
。
解析空语句
语法错误,意外的空语句。
解析模式不支持
<funcName>
模式不支持函数 <mode>
。 可接受的模式是 PERMISSIVE
和 FAILFAST
。
解析语法错误
<error> <hint>
位置或附近有语法错误。
分区已存在
无法在表 RENAME
中添加 ADD 或 <partitionList>
TO 分区 <tableName>
,因为它们已存在。
选择其他名称、删除现有分区或添加 IF NOT EXISTS
子句以容忍预先存在的分区。
分区未找到
无法在表 <partitionList>
中找到分区 <tableName>
。
验证分区规范和表名称。
若要容许删除时出错,请使用 ALTER TABLE
...
DROP IF EXISTS PARTITION
。
分区列在模式中未找到
架构 <column>
中找不到分区列 <schema>
。 请提供用于分区的现有列。
分区位置已存在
表 <locationPath>
中已存在分区位置 <tableName>
。
分区位置不在表目录下
无法执行 ALTER TABLE SET PARTITION LOCATION
语句,因为
分区位置 <___location>
不在表目录 <table>
下。
若要修复此问题,请将分区的位置设置为 <table>
的子目录。
分区元数据
<action>
不允许在表 <tableName>
上使用,因为 Unity Catalog 不支持存储分区元数据。
分区编号不匹配
值数量(<partitionNumber>
)与架构的大小(<partitionSchemaSize>
)不匹配:值为 <partitionValues>
,架构为 <partitionSchema>
,文件路径为 <urlEncodedPath>
。
请重新具体化表或联系所有者。
分区转换表达式不在分区中
表达式 <expression>
必须位于“partitionedBy”内。
路径已存在
路径 <outputPath>
已存在。 请将模式设置为“overwrite”以覆盖现有路径。
路径未找到
路径不存在:<path>
。
PHOTON_反序列化_PROTOBUF_内存限制_已超出
反序列化 Photon protobuf 计划至少需要 <size>
字节,这超过
<limit>
个字节的限制。 这可能是由于一个非常大的计划或存在一个非常
宽的架构。 尝试简化查询、删除不必要的列或禁用 Photon。
PHOTON序列化的PROTOBUF内存限制已超出
序列化的 Photon protobuf 计划的大小 <size>
字节,这超过了限制
<limit>
字节。 计划中数据类型的序列化大小为 <dataTypeSize>
字节。
这可能是由于计划非常大,或者存在非常广泛的架构。
请考虑重写查询以删除不需要的操作和列或禁用 Photon。
管道不存在
管道“<pipelineId>
”不存在
有关详细信息 ,请参阅PIPELINE_DOES_NOT_EXIST
管道操作符聚合表达式不包含聚合函数
非分组表达式 <expr>
作为管道运算符的参数 |> AGGREGATE
提供,但不包含任何聚合函数;请更新它以包含聚合函数,然后再次重试查询。
管道操作符_包含聚合函数
使用管道运算符<expr>
子句时不允许聚合函数|> <clause>
;请改用管道运算符|> AGGREGATE
子句。
透视值数据类型不匹配
透视值“<value>
”无效:值数据类型 <valueType>
与透视列数据类型 <pivotType>
不匹配。
** 指针数组内存不足
内存不足,无法增长指针数组
策略已存在
无法创建策略 <policyName>
,因为它已存在。
选择其他名称或删除现有策略以容忍预先存在的连接。
策略_未找到
无法执行<commandType>
命令,因为找不到该策略<policyName>
<securableFullname>
。
请验证拼写和正确性。
不支持的可保护类型策略
无法在安全对象类型 <securableType>
上创建策略。 支持的安全对象类型: <allowedTypes>
。
参数数量与过程不匹配
过程 <procedureName>
需要 <expected>
参数,但提供了 <actual>
。
空例程创建过程
不允许使用具有空例程定义的 CREATE PROCEDURE
。
过程创建参数_OUT_INOUT_具有默认值
参数 <parameterName>
使用参数模式 <parameterMode>
定义。 调用例程时,不能省略 OUT
和 INOUT
参数,因此不支持 DEFAULT
表达式。 若要继续,请删除 DEFAULT
子句或更改参数模式以 IN
。
不支持的过程
不支持存储过程
操作不支持HMS系统
Hive 元存储不支持存储过程。 请改用 Unity Catalog。
找不到PROTOBUF依赖项
找不到依赖项:<dependencyName>
。
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND(找不到协议缓冲区描述符文件)
在路径上读取 Protobuf 描述符文件时出错:<filePath>
。
Google Protocol Buffer字段缺失
在 Protobuf 架构中的 <field>
处搜索与给定的 <protobufSchema>
匹配的 <matchSize>
。 候选项:<matches>
。
在SQL架构中缺少的PROTOBUF字段
在 Protobuf 架构中找到 <field>
,但 SQL 架构中没有匹配项。
PROTOBUF_FIELD_TYPE_MISMATCH (Protobuf 字段类型不匹配)
字段的类型不匹配:<field>
。
不支持PROTOBUF Java类
<protobufFunction>
不支持 Java 类。 有关备用选项,请联系 Databricks 支持部门。
未找到PROTOBUF消息
无法在描述符中找到消息 <messageName>
。
未加载PROTOBUF,SQL函数不可用
无法调用 <functionName>
SQL 函数,因为未加载 Protobuf 数据源。
请使用加载的“spark-protobuf”包重启作业或会话,例如在命令行上使用 --packages 参数,然后再次重试查询或命令。
不支持的PROTOBUF类型
尚不支持 Protobuf 类型:<protobufType>
。
数据抓取重试异常
无法重试 pubsub 提取阶段中的任务。 在阶段 <partitionInfo>
,TID <stageInfo>
中对 <taskId>
进行分区。
PS_无效_空选项
<key>
不能是空字符串。
PS_无效密钥类型
PubSub dedup 的键类型无效:<key>
。
PS_无效选项
PubSub 不支持 <key>
选项。 它只能在测试中使用。
PS_无效选项类型
<key>
的类型无效。
<key>
的类型应为 <type>
类型。
无效的读取限制
PubSub 流的读取限制无效:<limit>
。
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO (PS_无效_不安全_行_从_PROTO转换)
将解码为 PubSubMessageMetadata 的 UnsafeRow 无效,所需的 proto 架构为:<protoSchema>
。 输入 UnsafeRow 可能已损坏:<unsafeRow>
。
工作负载身份联合观众选项无效
由于读取选项无效,查询或命令失败:在 spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>
) 中。 更新 <audience>
以匹配以下格式: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID}
然后再次重试查询或命令。
缺少授权信息
找不到完整的 PubSub 身份验证信息。
缺少必要选项
找不到所需的选项:<key>
。
检查点移动失败 (PS_MOVING_CHECKPOINT_FAILURE)
无法将原始数据检查点文件从 <src>
移动到目标目录:<dest>
。
多重认证选项
请提供 Databricks 服务凭据或 GCP 服务帐户凭据。
多个失败的阶段
无法启动 PubSub 流,因为失败的提取不止一个:<failedEpochs>
。
PS_OPTION_NOT_IN_BOUNDS(选项不在范围内)
<key>
必须位于以下边界 (<min>
, <max>
) 之间,不包含这两个边界值。
请提供凭证(带选项)
共享群集不支持使用实例配置文件进行身份验证。 直接使用 .option() 向数据流提供凭据。
PS_SPARK_推测功能不支持
PubSub 源连接器仅在禁用 spark.speculation
的群集中可用。
无法创建订阅
尝试创建有关主题 <subId>
的订阅 <topicId>
时出错。 请检查是否有足够的权限创建订阅,然后重试。
无法解析原型
无法分析序列化的字节以生成 proto。
PS_UNSUPPORTED_GET_OFFSET_CALL不支持的获取偏移调用
如果没有提供限制,则不支持 getOffset。
Python数据源错误
未能<action>
Python 数据源 <type>
:<msg>
PYTHON_流数据源_运行时错误
Python 流式处理数据源执行 <action>
时失败:<msg>
查询表与列掩码策略不兼容
无法访问引用的表,因为以前分配的列掩码当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
查询的表与行级安全策略不兼容
无法访问引用的表,因为以前分配的行级别安全策略当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
查询执行超时时间已超出
由于超时(<timeoutSec>
秒)而取消了查询执行。 可以通过设置 <config>
来增加限制(以秒为单位)。
查询被拒绝
查询执行被拒绝。
查询结果写入云存储权限错误
工作区内部存储配置可防止 Databricks 访问云存储。
无法找到当前文件
<message>
基础文件可能已更新。 可在 SQL 中运行“REFRESH TABLE
tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。
参数不明确的例程文件读取
函数 <functionName>
的调用中,<parameterName>
和 <alternativeName>
已被设置,且它们是彼此的别名。 请仅设置其中一个。
READ_FILES_CREDENTIALS_PARSE_ERROR
分析 read_files() 函数的临时凭据时出错。
有关详细信息,请参阅 READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER(读取_TVF_意外的必需参数)
必须在没有名称的位置 <functionName>
分配函数 <parameterName>
的必需参数 <expectedPos>
。
接收者过期不支持
仅支持 TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
类型用于收件人过期时间戳。
递归层级限制超出
已达到递归级别限制<levelLimit>
,但查询尚未完成,请尝试将其增加为“WITH RECURSIVE
t(col) MAX RECURSION LEVEL
200”。
递归行限制超出
递归行限制 <rowLimit>
已达到,但是查询尚未结束。尝试在查询 CTE 关系时设置更大的 LIMIT
值。
递归_CTE_在_旧版模式
递归定义不能在旧 CTE 优先模式中使用(spark.sql.legacy.ctePrecedencePolicy=LEGACY
)。
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG (递归CTE与传统内联标志)
当旧内联标志设置为 true 时,不能使用递归定义(spark.sql.legacy.inlineCTEInCommands=true)。
RECURSIVE_PROTOBUF_SCHEMA
在 Protobuf 架构中找到递归引用,默认情况下 Spark 无法处理该引用:<fieldDescriptor>
。 请尝试将选项 recursive.fields.max.depth
设置为 1 到 10。 不允许超过 10 个级别的递归。
递归视图
检测到递归视图 <viewIdent>
(周期:<newPath>
)。
分区中不允许设置引用默认值
不允许在 DEFAULT
子句中引用 PARTITION
列值。
关系大于8G
无法生成大于 8G 的 <relationName>
。
远程功能HTTP失败错误
远程 HTTP 请求失败,代码 <errorCode>
,错误消息 <errorMessage>
远程函数 HTTP 结果解析错误 (REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR)
由于无法分析远程 HTTP 响应中的 JSON 结果,无法评估 <functionName>
SQL 函数;错误消息为 <errorMessage>
。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
远程函数 HTTP 结果意外错误
由于无法处理意外的远程 HTTP 响应,无法评估 <functionName>
SQL 函数;错误消息为 <errorMessage>
。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
远程功能_HTTP_重试_超时
重试 <N>
次后,远程请求失败;最后一个失败的 HTTP 错误代码是 <errorCode>
,消息为 <errorMessage>
。
远程功能缺少必要条件错误
由于 <functionName>
,未能计算 <errorMessage>
SQL 表达式。 查看 <docUrl>
中的要求。 请修复错误消息中指示的问题,然后再次重试查询。
重命名源路径未找到
由于未找到 <sourcePath>
,重命名失败。
重复条款
在每个 <clause>
操作中,<operation>
子句最多只能使用一次。
所需参数已按位置提供
例程 <routineName>
所需的参数 <parameterName>
已在位置 <positionalIndex>
被分配,但没有指定名称。
请更新函数调用,以删除名为 <parameterName>
的命名参数,或删除位置参数。
位于 <positionalIndex>
的位置参数,然后重试查询。
必需的参数未找到
无法调用例程 <routineName>
,因为名为 <parameterName>
的参数是必需的,但例程调用不提供值。 请更新例程调用以提供参数值(索引位置 <index>
或按名称排列),然后再次重试查询。
需要单一部分命名空间
<sessionCatalog>
需要单部分命名空间,但收到了 <namespace>
。
救援数据列与单一变体冲突
“rescuedDataColumn”DataFrame API 读取器选项与“singleVariantColumn”DataFrame API 选项互斥。
请删除其中一个,然后再次重试 DataFrame 操作。
写入时保留的CDC列
写入包含保留列 <columnList>
,这些列
在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除
这些列,或者将
<config>
设置为 false 来禁用表上的更改数据馈送。
受限流媒体选项权限已强制执行
选项 <option>
在 <source>
源的共享群集上具有限制值。
有关更多详细信息,请参阅 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
例程已存在
无法创建 <newRoutineType> <routineName>
,因为该名称的 <existingRoutineType>
已存在。
选择其他名称,删除或替换现有 <existingRoutineType>
,或添加 IF NOT EXISTS
子句以容忍预先存在的 <newRoutineType>
。
未找到例程
找不到例程 <routineName>
。 验证架构和目录的拼写和正确性。
如果名称未使用架构和目录限定,请检查 current_schema() 的输出,或者用正确的架构和目录来限定名称。
若要在放置时容忍错误,请使用DROP
... IF EXISTS
。
找不到例程参数
例程 <routineName>
不支持在位置 <parameterName>
指定的参数 <pos>
。<suggestion>
例程使用系统保留的类名
无法创建函数 <routineName>
,因为指定的类名“<className>
”保留供系统使用。 请重命名该类,然后重试。
行级安全与ABAC不匹配
无法解析 <tableName>
上的行筛选器,因为从策略继承的行筛选器与显式定义的行筛选器之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。
行级安全检查约束不支持
不支持对具有行级别安全策略的表 CHECK
创建 <tableName>
约束。
行级安全重复列名称
<statementType>
语句尝试将行级安全策略分配给表,但所引用的两个或多个列具有相同的名称 <columnName>
,这是无效的。
行级安全特性不支持ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
不支持 <tableName>
的行级别安全策略:
有关更多详细信息,请参阅 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
行级安全不兼容的架构更改
无法从表 <statementType> <columnName>
执行 <tableName>
,因为它已在行级安全策略中引用。 表所有者必须先删除或更改此策略,然后才能继续。
行级安全性合并不支持的来源
MERGE INTO
操作不支持源表<tableName>
中的行级安全策略。
行级安全性合并不支持的目标
MERGE INTO
操作不支持使用行级别安全策略写入表 <tableName>
。
行级安全多部分列名称
此语句尝试向表分配行级别安全策略,但引用的列 <columnName>
有多个名称部分,这无效。
行级安全需要UNITY_CATALOG
行级别安全策略仅在 Unity 目录中受支持。
行级安全功能不支持显示分区
SHOW PARTITIONS
具有行级别安全策略的表不支持 <format>
命令。
行级安全表克隆源不受支持
不支持使用行级别安全策略从表 <mode>
进行 <tableName>
克隆。
行级安全策略表不支持克隆目标
不支持使用行级别安全策略 <mode>
克隆到表 <tableName>
。
行级安全不支持常量作为参数
不支持将常量用作行级别安全策略中的参数。 请更新 SQL 命令以从行筛选器定义中删除常量,然后再次重试该命令。
ROW_LEVEL_SECURITY_不支持的数据类型
用于行级别安全策略的函数 <functionName>
具有具有不受支持的数据类型 <dataType>
的参数。
行级安全性不支持的提供程序
无法执行 <statementType>
命令,因为不支持使用表提供程序“<provider>
”为目标数据源分配行级别安全策略。
ROW_SUBQUERY_TOO_MANY_ROWS 错误:子查询返回过多行。
用作行的子查询返回了多个行。
行值为空
在索引 NULL
处的行中找到 <index>
,预期为非 NULL
值。
规则_ID_未找到
找不到规则名称“<ruleName>
”的 ID。 如果要添加新规则,请修改 RuleIdCollection.scala。
SALESFORCE_数据共享_API_未授权
对 Salesforce Data Share API 的授权失败。 验证 Databricks 连接详细信息是否已提供给相应的 Salesforce 数据共享目标。
示例表格权限
示例数据库/表不支持权限。
标量函数不兼容
ScalarFunction <scalarFunc>
不会重写使用自定义实现的“produceResult(InternalRow)”方法。
标量函数未完全实现
ScalarFunction <scalarFunc>
不会实现或重写“produceResult(InternalRow)”方法。
标量子查询存在于GROUP BY或聚合函数中
相关的标量查询“<sqlExpr>
”既不存在于 GROUP BY
中,也不存在于聚合函数中。
使用序号位置将其添加到 GROUP BY
,或者将其包装在 first()
(或 first_value
)中(如果你不在意收到的值)。
标量子查询返回行数过多 (SCALAR_SUBQUERY_TOO_MANY_ROWS)
用作表达式的子查询返回了多个行。
已存在的时间表
无法将 <scheduleType>
添加到已具有 <existingScheduleType>
的表。 请删除现有计划或使用 ALTER TABLE
... ALTER <scheduleType>
更改它。
调度期无效
<timeUnit>
的计划周期必须是介于 1 和 <upperBound>
(含)之间的整数值。 收到了:<actual>
。
模式已存在
无法创建架构 <schemaName>
,因为它已存在。
选择其他名称、删除现有架构或添加 IF NOT EXISTS
子句以容忍预先存在的架构。
架构_非空
无法删除架构 <schemaName>
,因为它包含对象。
使用 DROP SCHEMA
... CASCADE
删除架构及其所有对象。
模式未找到
找不到架构 <schemaName>
。 验证架构和目录的拼写和正确性。
如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。
若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS
。
模式注册表配置错误
无法初始化架构注册表中的架构。
<reason>
。
第二个函数参数不是整数 (SECOND_FUNCTION_ARGUMENT_NOT_INTEGER)
<functionName>
函数的第二个参数必须是整数。
秘密功能_位置无效
无法执行具有对 <commandType>
函数的一个或多个非加密引用的 SECRET
命令;请使用 AES_ENCRYPT
加密每个此类函数调用的结果,然后重试该命令
种子表达式是不可展开的
表达式 <seedExpr>
中的种子表达式 <exprWithSeed>
必须可折叠。
服务器正忙
服务器正忙,无法处理请求。 请稍候片刻,然后重试。
SFTP_无法连接
无法使用用户名<host>
连接到端口<port>
上的 SFTP 服务器<user>
。
SFTP用户不匹配
从凭据 <credentialUser>
检索的用户与 SFTP 路径 <path>
中指定的用户不匹配。
显示带有冲突的命名空间列
SHOW COLUMNS
包含有冲突的命名空间:<namespaceA>
!= <namespaceB>
。
不分桶排序
sortBy 必须与 bucketBy 一起使用。
SPARK作业已取消
作业 <jobId>
已取消 <reason>
不允许指定分桶
没有显式列列表的 CREATE TABLE
无法指定存储桶信息。
请使用具有显式列列表的表单,然后指定存储桶信息。
或者,允许通过省略此子句来推断存储桶信息。
无法指定具有分桶功能的集群划分
不能同时指定 CLUSTER BY
和 CLUSTERED BY INTO BUCKETS
。
不允许指定 CLUSTER BY 与 PARTITIONED BY一起使用
不能同时指定 CLUSTER BY
和 PARTITIONED BY
。
不允许指定分区
没有显式列列表的 CREATE TABLE
无法指定 PARTITIONED BY
。
请将表单与显式列列表一起使用,并指定 PARTITIONED BY
。
或者,允许通过省略 PARTITION BY
子句来推断分区。
内存溢出
调用 spill() 时<consumerToSpill>
出错:<message>
SQL 配置未找到
找不到 SQL 配置 <sqlConf>
。 请验证配置是否存在。
SQL脚本在执行立即命令中
EXECUTE IMMEDIATE
命令中不允许使用 SQL 脚本。 请确保提供的 SQL 查询 (<sqlString>
) 不是 SQL 脚本。 请确保sql_string是格式正确的 SQL 语句,不包含 BEGIN
和 END。
SQL脚本超出最大字符数限制
已超出 SQL 脚本(ID: <scriptId>
)中的最大字符数。 允许的最大字符数是 <maxChars>
,并且脚本具有 <chars>
字符。
SQL脚本超过最大行数限制
已超出 SQL 脚本中的最大行数(id: <scriptId>
) 。 允许的最大行数是 <maxLines>
,并且脚本包含 <lines>
行。
SQL_SCRIPT_超出本地变量声明的最大数量限制
已超出 SQL 脚本(id: <scriptId>
)中本地变量声明的最大数目。 允许的最大声明数是 <maxDeclarations>
,并且脚本具有 <declarations>
。
SQL_存储过程_嵌套调用_超出限制
过程(名称:<procedureName>
,调用ID:<procedureCallId>
)已超出嵌套调用的最大次数。 允许的最大嵌套过程调用数为 <limit>
。
当前暂存路径不可访问
访问目标暂存路径时出现暂时性错误 <path>
,请在几分钟内尝试
星级分组_BY_销售点
在使用序号位置 GROUP BY
时,不允许在选择列表中使用星号(*)。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE(有状态处理器无法在句柄状态无效时执行操作)
未能执行有状态处理器操作“<operationType>
”,句柄状态“<handleState>
”无效。
有状态处理器无法在无效的时间模式下执行操作
未能执行有状态处理器操作“<operationType>
”,timeMode“<timeMode>
”无效
有状态处理器重复定义状态变量
已在 StatefulProcessor 中定义了名称 <stateVarName>
的状态变量。
有状态处理器分配TTL时的时间模式不正确
在 timeMode“<stateName>
”中不能对状态“<timeMode>
”使用 TTL,请改用 TimeMode.ProcessingTime()。
有状态处理器的生存时间必须为正值
对于针对状态“<operationType>
”执行的状态存储操作“<stateName>
”,TTL 持续时间必须大于零。
有状态处理器_未知时间模式
未知时间模式 <timeMode>
。 接受的 timeMode 模式为“none”、“processingTime”、“eventTime”
状态存储无法创建带有保留字符的列族
未能创建具有不受支持的起始字符和名称“<colFamilyName>
”的列系列。
状态存储不能使用具有无效名称的列族
未能执行列系列操作“<operationName>
”,名称“<colFamilyName>
”无效。 列系列名称不能为空或包含前导/尾随空格,也不能使用保留关键字 default
状态存储列族模式不兼容
与列系列 =<colFamilyName>
、oldSchema=<oldSchema>
、newSchema=<newSchema>
不兼容的架构转换。
状态存储不支持可重用迭代器
StateStore <inputClass>
不支持可重用迭代器。
状态存储句柄未初始化 (STATE_STORE_HANDLE_NOT_INITIALIZED)
尚未为此 StatefulProcessor 初始化句柄。
请仅在 transformWithState 运算符中使用 StatefulProcessor。
状态存储范围扫描的排序列数不正确
范围扫描编码器的排序序号数 <numOrderingCols>
不正确。 排序序号的数量不能为零,也不能超过模式列的数量。
状态存储_前缀扫描前缀列数不正确
前缀扫描编码器的前缀列数 <numPrefixCols>
不正确。 前缀列数不能为零,也不能大于或等于架构列数。
重启后状态存储配置无效
无法在重启期间将 <configName>
从 <oldConfig>
更改为 <newConfig>
。 请将 <configName>
设置为 <oldConfig>
,或使用新的检查点目录重启。
状态存储无效供应商
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。
状态存储无效变量类型更改
在查询重启之间无法将 <stateVarName>
更改为 <newType>
。 请将 <stateVarName>
设置为 <oldType>
,或使用新的检查点目录重启。
状态存储本地RocksDB超时
访问 RocksDB 状态存储以执行有状态流式处理操作时,调用 RocksDB 的原生函数 <funcName>
在等待超时=<timeoutMs>
ms 后超时。 如果错误仍然存在,请重试并重启群集。
状态存储不支持空类型排序列
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的 null 类型排序列。
状态存储提供程序不支持细粒度状态重放
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。
因此,它不支持状态数据源中的 snapshotStartBatchId 或 readChangeFeed 选项。
状态存储状态模式文件阈值超限
状态架构文件数 <numStateSchemaFiles>
超过此查询的最大状态架构文件数:<maxStateSchemaFiles>
。
已添加:<addedColumnFamilies>
,已删除:<removedColumnFamilies>
请将“spark.sql.streaming.stateStore.stateSchemaFilesThreshold”设置为更高的数字,或还原状态架构修改
状态存储_在缺失的列族上不支持的操作
不支持对缺少的列系列“<operationType>
”执行状态存储操作“<colFamilyName>
”。
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED(状态存储值模式演变阈值超出)
<numSchemaEvolutions>
的状态架构演变数超过了允许此列系列的最大状态架构演变数(<maxSchemaEvolutions>
)。
有冲突的列系列:<colFamilyName>
请将“spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold”设置为更大的数值,或恢复状态架构修改。
状态存储不支持以可变大小排序的列
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的变量大小排序列。
静态分区列在插入列列表中
列列表中还指定了静态分区列 <staticName>
。
STDS已提交批次不可用
未找到提交的批处理,检查点位置:<checkpointLocation>
。 在停止之前,请确保查询已运行并提交任何微批次。
性病冲突选项
选项 <options>
不能同时指定。 请指定一个。
STDS_无法读取操作员元数据
未能读取 checkpointLocation=<checkpointLocation>
和 batchId=<batchId>
的运算符元数据。
文件不存在,或者文件已损坏。
重新运行流查询以构建运算符元数据,如果错误仍然存在,请向相应的社区或供应商报告。
STDS_未能读取状态模式
未能读取状态架构。 文件不存在,或者文件已损坏。 选项:<sourceOptions>
。
重新运行流式处理查询以构造状态架构,并在错误仍然存在时向相应的社区或供应商报告。
无效的选项值
源选项“<optionName>
”的值无效:
有关更多详细信息,请参阅 STDS_INVALID_OPTION_VALUE
状态存储中未发现分区
这个州没有任何分区。 请仔细检查查询是否指向有效状态。 选项:<sourceOptions>
STDS偏移日志不可用
<batchId>
的偏移量日志不存在,检查点位置:<checkpointLocation>
。
请指定可用于查询的批处理 ID - 可以使用状态元数据数据源查询可用的批处理 ID。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE(偏移元数据日志不可用)
元数据不适用于 <batchId>
的偏移量日志,检查点位置:<checkpointLocation>
。
检查点似乎仅使用较旧的 Spark 版本运行。 使用最新的 Spark 版本运行流式处理查询,以便 Spark 构造状态元数据。
STDS_REQUIRED_OPTION_UNSPECIFIED (必需选项未指定)
必须指定“<optionName>
”。
不支持状态操作符的流式AQE
结构化流式处理中的有状态运算符不支持自适应查询执行。
从物化视图流式传输
无法从具体化视图 <viewName>
流式处理。 不支持从具体化视图流式处理。
流式输出模式
流式处理输出模式无效:<outputMode>
。
有关更多详细信息,请参阅 STREAMING_OUTPUT_MODE
流媒体实时模式
流式处理实时模式具有以下限制:
有关更多详细信息,请参阅 STREAMING_REAL_TIME_MODE
流式有状态运算符在状态元数据中不匹配
流式处理的有状态运算符名称与状态元数据中的运算符不匹配。 当用户添加/删除/更改现有流式处理查询的有状态运算符时,可能会发生这种情况。
元数据中的有状态运算符:[<OpsInMetadataSeq>
];当前批处理中的有状态运算符:[<OpsInCurBatchSeq>
]。
流媒体表需要刷新
需要刷新流式处理表 <tableName>
才能执行 <operation>
。
如果表是从 DBSQL
创建的,请运行 REFRESH STREAMING TABLE
。
如果表是由 Lakeflow 声明性管道创建的,请运行管道更新。
不支持流式表
只能在 Lakeflow 声明性管道和 Databricks SQL 数据仓库中创建和刷新流式表。
不允许流表操作
操作 <operation>
不被允许:
有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED
流表查询无效
流表 <tableName>
只能由流式查询创建。 请将 STREAM
关键字添加到 FROM
子句,以将此关系转换为流式处理查询。
找不到Kinesis的流STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
在 <streamName>
中找不到 Kinesis 流 <region>
。
请启动指向正确流名称的新查询。
结构数组长度不匹配
输入行不包含架构所需的预期值数。
<expected>
字段是必需的,而 <actual>
值是提供的。
限制和偏移量之和超出最大整数限制
LIMIT
子句和 OFFSET
子句的总和不能大于最大 32 位整数值(2,147,483,647),但发现 limit = <limit>
,offset = <offset>
。
SYNC_METADATA_DELTA_ONLY
仅 delta 表支持修复表同步元数据命令。
同步源目标表不一致
源表名称 <srcTable>
必须与目标表名 <destTable>
相同。
SYNTAX_DISCONTINUED
对语句或关键字 <clause>
的支持在此上下文中已停止。
有关更多详细信息,请参阅 SYNTAX_DISCONTINUED
表或视图已存在
无法创建表或视图 <relationName>
,因为它已存在。
选择其他名称,删除现有对象,添加 IF NOT EXISTS
子句以容忍预先存在的对象,添加 OR REPLACE
子句以替换现有具体化视图,或添加 OR REFRESH
子句以刷新现有流式处理表。
未找到表或视图
找不到表或视图 <relationName>
。 验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 的输出,或者使用正确的架构和目录来限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS
或 DROP TABLE IF EXISTS
。
有关更多详细信息,请参阅 TABLE_OR_VIEW_NOT_FOUND
尚未为 SQL 函数实现的表值参数
不能使用 <action>
参数 <functionName>
SQL 用户定义函数 TABLE
,因为此功能尚未实现。
表值函数在Python中分析失败
未能分析 Python 用户定义的表函数:<msg>
表值函数所需的元数据与调用不兼容
无法评估表函数 <functionName>
,因为其表元数据为 <requestedMetadata>
,但函数调用 <invalidFunctionCallProperty>
。
表值函数所需的元数据无效
由于表元数据无效,无法评估表函数 <functionName>
;<reason>
。
表值函数表参数过多
表值函数的表参数过多。
它允许一个表参数,但得到:<num>
。
如果要设置为允许,请将“spark.sql.allowMultipleTableArguments.enabled”设置为“true”
找不到具有指定ID的表
找不到 ID 为 <tableId>
的表。 验证 UUID 的正确性。
任务写入失败 (TASK_WRITE_FAILED)
将行写入 <path>
时任务失败。
不支持临时检查点位置
当前工作区不支持隐式临时流式处理检查点位置,请显式指定检查点位置。
对于 display(),请使用以下方法设置检查点位置:
display(df, checkpointLocation = “your_path”)
对于所有其他流式处理查询,请使用:
.option(“checkpointLocation”, “your_path”)。
临时表创建_传统方式_查询
CREATE TEMPORARY TABLE
... AS ... 在此处不受支持,请使用CREATE TEMPORARY VIEW
代替
临时表创建相互排斥规范
CREATE TEMPORARY TABLE
不支持指定 <unsupportedSpec>
,请改为创建永久表。
临时表创建需要单个部分名称
创建会话本地临时表需要单个部分表名称,但已获取 <tableName>
。 请更新命令以使用单个部件表名称,然后重试。
临时表删除互斥规格
DROP TEMPORARY TABLE
不支持指定 <unsupportedSpec>
,请删除此规范,或使用 DROP TABLE
命令删除永久表。
临时表删除需要单段名称
删除会话本地临时表需要单个部分表名,但已获取 <tableName>
。 请更新 DROP TEMPORARY TABLE
命令以使用单部分表名来删除临时表,或者使用 DROP TABLE
命令来删除永久表。
临时_表_删除_需要_V2_命令
DROP TEMPORARY TABLE
需要打开 V2 命令。 请将配置“spark.sql.legacy.useV1Command”设置为 false,然后重试。
未找到临时表
当前会话中找不到临时表 <tableName>
。 验证表名称的拼写和正确性,然后再次重试查询或命令。
若要容忍删除时出错,请使用 DROP
TEMP TABLE IF EXISTS
。
临时表不支持与HMS一起使用
Hive 元存储不支持临时表操作 <operation>
。
TEMP_TABLE_OPERATION_NOT_SUPPORTED(临时表操作不支持)
不支持对会话本地的临时表 <tableName>
执行的操作。
有关详细信息,请参阅 TEMP_TABLE_OPERATION_NOT_SUPPORTED
临时表或视图已存在
无法创建临时表或视图 <relationName>
,因为它已存在。
选择其他名称、删除现有对象或添加 IF NOT EXISTS
子句以容忍预先存在的对象。
TEMP_TABLE_REQUIRES_DELTA
在会话本地临时表上进行操作需要启用 Delta 目录。 请打开 Delta 目录,然后重试。
临时表需要UC
对会话本地临时表的操作需要 Unity Catalog。 请在正在运行的环境中启用 Unity 目录,然后重试。
临时视图名称包含过多名称部分
CREATE TEMPORARY VIEW
或相应的数据集 API 仅接受单部分视图名称,但收到了 <actualName>
。
SELECT 中的尾随逗号
在 SELECT
子句中检测到尾随逗号。 删除 FROM
子句之前的尾随逗号。
交易最大提交时间戳超限
事务无法提交,因为超出最大提交时间戳。 maxCommitTimestamp:<maxCommitTimestampMs>
commitTimestamp:<commitTimestampMs>
状态用户函数转换错误
StatefulProcessor 的用户定义函数 <function>
中发生错误。 原因:<reason>
。
转置超出行限制
行数超过<maxValues>
的允许限制为TRANSPOSE
。 如果这是预期的,请将 <config>
设置为至少与当前行数相同。
转置操作中无效的索引列
由于 TRANSPOSE
,索引列 <reason>
无效。
无最小公共类型的转置
转置要求非索引列共享一个最低的公共类型,但<dt1>
和<dt2>
不满足这一条件。
触发间隔无效
触发器间隔必须是可以转换为整秒的正持续时间。 收到了:<actual>
秒。
元组为空
由于 Scala 对元组的支持有限,因此不支持空元组。
元组大小超出限制
由于 Scala 对元组的支持有限,不支持包含 22 个以上的元素的元组。
UC_BUCKETED_TABLES
Unity Catalog 中不支持存储桶表。
未提供UC目录名称
对于 Unity Catalog,请明确指定目录名称。 例如 SHOW GRANT your.address@email.com ON CATALOG
main。
不支持的命令
命令:<commandName>
在 Unity Catalog 中不受支持。
有关更多详细信息,请参阅 UC_COMMAND_NOT_SUPPORTED
UC命令在无服务器环境中不受支持
无服务器下的 Unity Catalog 群集不支持命令 <commandName>
。 请改用单个用户或共享群集。
UC_命令在共享访问模式下不受支持
共享访问模式下的 Unity Catalog 群集不支持命令 <commandName>
。 改用单用户访问模式。
未找到适用于文件系统源访问的UC连接
评估<path>
后找不到用于访问<connectionNames>
的有效 UC 连接。
确保至少有一个有效的 UC 连接可用于访问目标路径。
被评估的连接的详细错误:
<connectionErrors>
不支持UC凭证用途
不支持指定的凭据类型。
UC_数据源不受支持
Unity 目录中不支持数据源格式 <dataSourceFormatName>
。
不支持UC数据源选项
Unity 目录中不支持数据源选项。
UC_依赖不存在
Unity 目录中不存在依赖项:
<errorMessage>
外部存储卷缺少位置
外部卷必须存在 LOCATION
子句。 请检查用于创建外部卷的语法“CREATE EXTERNAL VOLUME
... LOCATION
...”。
UC_失败的供应状态
查询失败,因为它尝试引用表 <tableName>
,但无法执行此操作:<failureReason>
。 请更新表 <tableName>
以确保它处于活动预配状态,然后再次重试查询。
UC_不支持用于表创建的文件方案
不支持在 Unity 目录中创建包含文件方案 <schemeName>
的表。
请改为使用同一表提供程序的 CREATE CONNECTION
命令创建联合数据源连接,然后基于与 CREATE FOREIGN CATALOG
命令的连接创建目录,以引用其中表。
UC_HIVE_METASTORE_联邦跨目录视图不支持
Hive 元存储联合视图不支持跨多个目录的依赖项。 在 Hive 元存储联合目录中查看 <view>
必须使用来自hive_metastore或spark_catalog目录的依赖项,但其依赖项 <dependency>
位于另一个目录 <referencedCatalog>
中。 请更新依赖项以满足此约束,然后再次重试查询或命令。
UC_蜂巢_元存储_联邦_未启用
未在此群集上启用 Hive 元存储联邦功能。
此群集不支持访问目录 <catalogName>
UC_INVALID_DEPENDENCIES(无效依赖项)
<viewName>
的依赖项记录为 <storedDeps>
,同时分析为 <parsedDeps>
。 这可能是通过不当使用非 SQL API 而发生的。 可以通过运行 ALTER VIEW <viewName>
AS <viewText>
来修复 Databricks Runtime 中的依赖项。
UC_无效命名空间
Unity 目录中不支持嵌套或空命名空间。
UC_INVALID_REFERENCE(无效引用)
无法在 Unity Catalog 对象中引用非 Unity Catalog 对象 <name>
。
UC_LAKEHOUSE_联合数据库_禁止写入
此群集上的提供程序 <provider>
未启用 Unity Catalog Lakehouse 联合身份验证写入支持。
UC_位置不支持托管卷
托管卷不接受 LOCATION
子句。 创建托管卷时,请检查语法“CREATE VOLUME
...”。
UC_未启用
此群集上未启用 Unity 目录。
UC查询联合未启用
此群集上未启用 Unity 目录查询联邦功能。
UC_RESOLVED_DBFS_PATH_MISMATCH
查询失败,因为它尝试引用 <objectType> <name>
因而未能成功:解析的 DBFS 路径 <resolvedHmsPath>
与 Unity Catalog 存储位置 <ucStorageLocation>
不一致。
未启用UC服务凭据
此群集上未启用服务凭据。
UC_体积未启用
此实例上未启用对 Unity 目录卷的支持。
UC_VOLUMES_共享未启用
此实例上未启用对卷共享的支持。
未找到UC卷
卷 <name>
不存在。 请使用“SHOW VOLUMES
”列出可用卷。
UDF环境错误
由于系统错误,无法安装 UDF 依赖项 <udfName>
。
有关更多详细信息,请参阅 UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT用户错误
无法为 <udfName>
安装 UDF 依赖项。
有关详细信息 ,请参阅UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE:未分配
函数 <fn>
执行失败
有关详细信息,请参阅 UDF_ERROR
UDF_LIMITS
违反了一个或多个 UDF 限制。
有关详细信息,请参阅 UDF_LIMITS
用户自定义函数数量超出最大限制 (UDF_MAX_COUNT_EXCEEDED)
超出了查询范围的 <maxNumUdfs>
UDF 上限(在公共预览版期间受限)。 已找到 <numUdfs>
。 UDF 为:<udfNames>
。
UDF_PYSPARK_ERROR
Python 工作器意外退出
有关详细信息,请参阅 UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
处于共享访问模式的群集不支持 PySpark UDF <udf> (<eval-type>
)。
UDF_PYSPARK_USER_CODE_ERROR
执行失败。
有关更多详细信息,请参阅 UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
用户定义的 <functionType>
函数不支持参数默认值。
UDF_USER_CODE_ERROR
函数<fn>
运行失败。
有关详细信息,请参阅 UDF_USER_CODE_ERROR
UDTF别名数量不匹配
AS 子句中提供的别名数与 UDTF 输出的列数不匹配。
需要 <aliasesSize>
别名,但结果是 <aliasesNames>
。
请确保提供的别名数与 UDTF 输出的列数匹配。
请求排序字符串中的别名无效 - 来自ANALYZE方法
未能计算用户定义的表函数,因为其“analyze”方法返回了请求的 OrderingColumn,其列名表达式包含不必要的别名 <aliasName>
;请删除此别名,然后再次尝试查询。
UDTF_请求分析方法中选择的表达式无效,需要别名
未能计算用户定义的表函数,因为它的“analyze”方法返回了请求的“select”表达式 (<expression>
),但不包含相应的别名;请更新 UDTF 以在此处指定别名,然后再次尝试查询。
无法获取内存
无法获取内存的 <requestedBytes>
字节,收到了 <receivedBytes>
。
无法转换为PROTOBUF消息类型
无法将 SQL 类型 <toType>
转换为 Protobuf 类型 <protobufType>
。
无法获取 Hive 表
无法提取 Hive 数据库的表:<dbName>
。 错误类名称:<className>
。
无法推断架构
无法推断 <format>
的架构。 必须手动指定。
未经授权的访问
未经授权的访问:
<report>
未绑定的SQL参数
找到未绑定的参数:<name>
。 请修复 args
并提供参数到 SQL 文本或集合构造函数的映射,例如 map()
、array()
、struct()
。
未封闭的括号注释
找到未闭合的方括号注释。 请在注释末尾追加 */ 。
意外输入类型
函数 <paramIndex>
的参数 <functionName>
需要 <requiredType>
类型,但 <inputSql>
具有类型 <inputType>
。
命名参数的输入类型意外
函数 <namedParamKey>
的 <functionName>
参数需要 <requiredType>
类型,但 <inputSql>
具有类型 <inputType>
。<hint>
意外操作符_在流视图中
<op>
语句中作为流式处理源的意外运算符 CREATE VIEW
。
流式处理视图查询只能包含 SELECT
、WHERE
和 UNION ALL
操作。
意外的定位参数
无法调用例程 <routineName>
,因为它包含在分配给 <parameterName>
的命名参数之后的位置参数;请重新排列这些参数,使位置参数在前,然后再次重试查询。
类的意外序列化器
类 <className>
具有意外的表达式序列化器。 预期返回“STRUCT
”的“IF
”或“STRUCT
”,但找到了 <expr>
。
递归CTE中不支持UNION
在递归公共表表达式(直接或间接引用自身的子句)中尚不支持UNION
运算符。 请改用 UNION ALL
。
未知字段异常
在分析期间遇到 <changeType>
:<unknownFieldBlob>
,这可以通过自动重试 <isRetryable>
进行修复
有关更多详细信息,请参阅 UNKNOWN_FIELD_EXCEPTION
未知的定位参数
例程 <routineName>
的调用在位置 <sqlExpr>
处包含一个未知的位置自变量 <pos>
。 这无效。
未知的变体中基本类型
在变体值中找到 ID 为 <id>
的未知基元类型。
未知_PROTOBUF_消息类型
尝试将 <descriptorName>
视为消息,但它是 <containingType>
。
反透视需要属性
UNPIVOT
要求所有给定的 <given>
表达式在未给出任何 <empty>
表达式时成为列。 这些表达式不是列:[<expressions>
]。
UNPIVOT要求值列
至少需要为 UNPIVOT
指定一个值列,所有列指定为 ID。
取消透视值数据类型不匹配
逆透视值列必须共享一个最不常见的类型,不包括某些类型:[<types>
]。
反透视值大小不匹配
所有逆透视值列的大小必须与值列名称 (<names>
) 相同。
未识别的参数名称 (UNRECOGNIZED_PARAMETER_NAME)
无法调用例程 <routineName>
,因为在调用时使用了名为 <argumentName>
的命名参数引用,但此例程的任何函数签名中都不包含具有该名称的参数。 您是指以下选项中的一个吗? [<proposal>
]。
未识别的SQL类型
无法识别的 SQL 类型 - 名称:<typeName>
,id:<jdbcType>
。
未识别的统计数据
无法识别统计信息 <stats>
。 有效统计信息包括 count
、count_distinct
、approx_count_distinct
、mean
、stddev
、min
、max
和百分位值。 百分位必须是数字值,后跟“%”,范围介于 0% 到 100%。
未解析的表值函数
无法将 <name>
解析为表值函数。
请确保 <name>
定义为表值函数,并正确提供所有必需的参数。
如果未定义 <name>
,请在使用之前创建表值函数。
有关定义表值函数的详细信息,请参阅 Apache Spark 文档。
未解决_全_在_分组_中
无法基于 select 子句推断 GROUP BY ALL
的分组列。 请显式指定分组列。
未解析的列
无法解析具有名称 <objectName>
的列、变量或函数参数。
有关更多详细信息,请参阅 UNRESOLVED_COLUMN
未解决的字段
名为 <fieldName>
的字段无法通过结构类型列 <columnPath>
解析。
有关详细信息,请参阅 UNRESOLVED_FIELD
未解决的插入或替换使用栏
REPLACE USING
列 <colName>
无法在 <relationType>
中解析。
您是否指的是以下列之一? [<suggestion>
]。
未解析的映射键
无法将列 <objectName>
解析为映射键。 如果键是字符串字面量,请在其两侧添加单引号 ''。
有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY
未解决的例程
无法解析搜索路径 <routineName>
上的例程 <searchPath>
。
验证 <routineName>
的拼写,检查例程是否存在,并确认你对目录和架构具有 USE
权限,以及对例程具有 EXECUTE
权限。
有关更多详细信息,请参阅 UNRESOLVED_ROUTINE
未解决的使用列进行连接
无法解析联接的 USING
一侧的 <colName>
列 <side>
。
<side>
一侧的列:[<suggestion>
]。
未解决的变量
无法解析搜索路径 <variableName>
上的变量 <searchPath>
。
非结构化数据处理不支持的文件格式
不支持非结构化文件格式 <format>
。 支持的文件格式是 <supportedFormats>
。
请将 format
表达式中的 <expr>
更新为受支持的格式之一,然后再次重试查询。
非结构化数据处理不支持的模型选项
不支持非结构化模型选项 ('<option>
' ->
''<value>
)。 支持的值为: <supportedValues>
。
切换到其中一个受支持的值,然后再次重试查询。
不允许使用元数据模型选项的非结构化 OCR 列
指定“metadataModel”选项时,函数参数“ocrText”必须是NULL
,或者被省略。 指定的“metadataModel”选项会触发数据提取功能,并禁止使用提供的“ocrText”。
不支持的添加文件
不支持添加文件。
有关更多详细信息,请参阅 UNSUPPORTED_ADD_FILE
不支持的修改列参数
不支持使用 <parameter>
指定 ALTER <commandTableType>
。
不支持的箭头类型
不支持的箭头类型 <typeName>
。
不支持的批量表值函数
函数 <funcName>
不支持批处理查询。
不支持的调用
无法调用“<methodName>
”类的“<className>
”方法。
有关更多详细信息,请参阅 UNSUPPORTED_CALL
不支持的字符或VARCHAR作为字符串
不能在表架构中使用 char/varchar 类型。
如果希望 Spark 将其视为与 Spark 3.0 及更早版本所视为的相同字符串类型,请将“spark.sql.legacy.charVarcharAsString”设置为“true”。
不支持的操作条款
<clause>
不支持 <operation>
。
不支持的排序规则
排序规则 <collationName>
不受支持:
有关更多详细信息,请参阅 UNSUPPORTED_COLLATION
不支持的文件流源的通用祖先位置
应向 UC 注册源路径和 sourceArchiveDir 的公共上级。
如果看到此错误消息,则可能是在不同的外部位置注册了源路径和 sourceArchiveDir。
请把它们放到一个单独的外部位置。
不支持的连接功能
Spark Connect 不支持此功能:
有关详细信息 ,请参阅UNSUPPORTED_CONNECT_FEATURE
不支持的约束条款
不支持约束子句 <clauses>
。
不支持的约束类型
不支持的约束类型。 仅支持 <supportedConstraintTypes>
不支持直接查询的数据源
不支持直接查询文件的数据源类型:<dataSourceType>
不支持的数据类型
不支持的数据类型 <typeName>
。
不支持的数据源保存模式
数据源“<source>
”不能以 <createMode>
模式写入。 请改用“追加”或“覆盖”模式。
不支持的数据类型用于数据源
<format>
数据源不支持类型为 <columnName>
的列 <columnType>
。
不支持的编码器数据类型
无法为 <dataType>
创建编码器。 请对 UDF 或 DataFrame 使用不同的输出数据类型。
不支持的默认值
不支持 DEFAULT
列值。
有关更多详细信息,请参阅 UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER (不支持的反序列化器)
不支持反序列化程序:
有关更多详细信息,请参阅 UNSUPPORTED_DESERIALIZER
不支持的表达式生成列
由于 <fieldName>
,无法使用生成表达式 <expressionStr>
创建生成的列 <reason>
。
运算符不支持的表达式
查询运算符包含一个或多个不受支持的表达式。
请考虑重写它,以避免 WHERE
子句中的窗口函数、聚合函数和生成器函数。
无效的表达式:[<invalidExprSqls>
]
不支持的参数表达式
查询参数包含不受支持的表达式。
参数可以是变量或文本。
无效表达式:[<invalidExprSql>
]
不支持窗口的表达式
窗口函数中不支持表达式 <sqlExpr>
。
不支持的功能
不支持此功能:
有关更多详细信息,请参阅 UNSUPPORTED_FEATURE
不受支持的功能类型
不支持的用户定义函数类型:<language>
不支持的生成器
不支持生成器:
有关详细信息,请参阅 UNSUPPORTED_GENERATOR
不支持的分组表达式
grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 一起使用。
不支持的Kinesis源初始位置和触发器对
Kinesis 源不支持初始位置为 <trigger>
的 <initialPosition>
不支持的插入
无法插入到目标中。
有关更多详细信息,请参阅 UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE (不支持的连接类型)
不支持的联接类型“<typ>
”。 支持的联接类型包括:<supported>
。
不支持的管理表创建
不支持使用数据源 <tableName>
创建托管表 <dataSource>
。 需要使用数据源DELTA
或使用CREATE EXTERNAL TABLE <tableName>
创建外部表USING <dataSource>
...
不支持的合并条件
MERGE
操作包含不支持的 <condName>
条件。
有关更多详细信息,请参阅 UNSUPPORTED_MERGE_CONDITION
不支持的嵌套行或列访问策略
表 <tableName>
具有行级安全策略或列掩码,而该掩码间接引用了具有行级安全策略或列掩码的另一个表;这种情况不被支持。 调用序列:<callSequence>
不支持的覆写
无法覆盖正在读取的目标。
有关更多详细信息,请参阅 UNSUPPORTED_OVERWRITE
不支持的分区转换
不支持的分区转换:<transform>
。 支持的转换是 identity
、bucket
和 clusterBy
。 确保转换表达式使用其中一种。
不支持的保存模式
以下对象不支持保存模式 <saveMode>
:
有关更多详细信息,请参阅 UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE (不支持显示创建表的命令)
不支持 SHOW CREATE TABLE
命令。
有关更多详细信息,请参阅 UNSUPPORTED_SHOW_CREATE_TABLE
不支持的单遍分析器功能
单传递分析器无法处理此查询或命令,因为它尚不支持 <feature>
。
不支持的 SQL 用户定义函数使用
在<functionName>
中使用 SQL 函数<nodeName>
是不支持的。
不支持无水印的流操作符
没有水印的流式处理数据帧/数据集上的 <outputMode>
不支持 <statefulOperator>
输出模式。
视图不支持的流选项
不支持流式传输视图。 原因:
有关更多详细信息,请参阅 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
不支持的流媒体选项权限已强制执行
共享群集上的数据源 <options>
不支持流式处理选项 <source>
。 请确认选项已指定并拼写正确,并检查 https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 的限制。
不支持的流媒体接收权限已执行
不支持将数据源 <sink>
用作共享群集上的流式处理接收器。
不支持的流媒体源权限已执行
不支持将数据源 <source>
用作共享群集上的流式处理源。
不支持的流式表值函数
函数 <funcName>
不支持流式处理。 请删除 STREAM
关键字
不支持的Kinesis源流读取限制
<streamReadLimit>
在 Kinesis 源中不受支持。
不支持的子查询表达式类别
不支持的子查询表达式:
有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
JDBC目录中不支持的表更改
表<change>
上的 JDBC 目录不支持表更改<tableName>
。 支持的更改包括:AddColumn、RenameColumn、DeleteColumn、UpdateColumnType、UpdateColumnNullability。
不支持的时间序列列
不支持使用时间序列列创建主键
不支持包含多列的时间序列
不支持创建具有多个时序列 <colSeq>
的主键
不支持的时间精度
TIME 数据类型的秒精度 <precision>
超过支持的范围 [0, 6]。
不支持的时间类型
不支持数据类型 TIME。
不支持的Kinesis源触发器
<trigger>
在 Kinesis 源中不受支持。
不支持的类型文字
不支持 <unsupportedType>
类型的文本。 支持的类型是 <supportedTypes>
。
不支持的用户定义函数特性
函数 <function>
使用以下需要较新版本的 Databricks Runtime 的功能:<features>
。 有关详细信息,请参阅 <docLink>
。
不支持的UDF类型在同一位置
UDF 类型不能一起使用:<types>
非类型化SCALA用户定义函数 (UNTYPED_SCALA_UDF)
你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。
Spark 可能会盲目地将 null 传递给具有基元类型参数的 Scala 闭包,闭包将会看到该 null 参数对应的 Java 类型的默认值,例如 udf((x: Int) => x, IntegerType)
,对于 null 输入结果是 0。 若要摆脱此错误,可以:
使用类型化的 Scala UDF API(不含返回类型参数),例如
udf((x: Int) => x)
。如果输入类型都是非基元,则使用 Java UDF API,例如
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
。将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”,并谨慎使用此 API。
升级不支持
表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:
有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED
用户定义函数
用户定义的函数无效:
有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS
用户引发异常 (USER_RAISED_EXCEPTION)
<errorMessage>
用户引发的异常:参数不匹配
raise_error()
函数用于引发错误类:<errorClass>
,需要参数:<expectedParms>
。
提供的 <providedParms>
参数与预期的参数不匹配。
请确保提供所有预期的参数。
用户引发异常_未知错误类
raise_error()
函数用于引发未知错误类:<errorClass>
变量已存在
无法创建变量 <variableName>
,因为它已存在。
选择其他名称,或者删除或替换现有变量。
变量未找到
找不到变量 <variableName>
。 验证架构和目录的拼写和正确性。
如果名称未使用架构和目录限定,请检查 current_schema() 的输出,或者用正确的架构和目录来限定名称。
若要容许删除时出错,请使用 DROP VARIABLE IF EXISTS
。
VARIANT_CONSTRUCTOR_SIZE_LIMIT(变体构造器大小限制)
无法构造大于 16 MiB 的 Variant。 Variant 值的最大允许大小为 16 MiB。
VARIANT_DUPLICATE_KEY (变体重复键)
由于对象键 <key>
重复,无法生成变体。
变体大小限制
无法在 <sizeLimit>
中生成大于 <functionName>
的变体。
请避免向此表达式添加大型输入字符串(例如,添加函数调用)以检查表达式大小,并在太大时将其转换为 NULL
。
版本克隆不支持的表特性
源表历史记录包含一些在此 DBR 版本中版本克隆不支持的表特性:<unsupportedFeatureNames>
请升级到较新的 DBR 版本。
视图已存在
无法创建视图 <relationName>
,因为它已存在。
选择其他名称,删除或替换现有对象,或添加 IF NOT EXISTS
子句以容忍预先存在的对象。
视图超过最大嵌套深度
视图的深度 <viewName>
超出了最大视图分辨率深度(<maxNestedDepth>
)。
分析已中止以避免错误。 若要解决此问题,请尝试增加“spark.sql.view.maxNestedViewDepth”的值。
视图未找到
找不到视图 <relationName>
。 验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 的输出,或者使用正确的架构和目录来限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS
。
卷已经存在
无法创建卷 <relationName>
,因为它已存在。
选择其他名称,删除或替换现有对象,或添加 IF NOT EXISTS
子句以容忍预先存在的对象。
窗口函数与帧不匹配
<funcName>
函数只能在具有单个偏移量的基于有序行的窗口框架中进行计算:<windowExpr>
。
窗口函数缺少 OVER 子句
窗口函数 <funcName>
需要 OVER 子句。
含凭证
WITH CREDENTIAL
不支持 <type>
语法。
禁止写入流
writeStream
”只能在流式处理的数据集/数据帧上调用。
不支持 DELTA ALTER TABLE ADD COLUMN 的错误列默认值
无法执行命令,因为添加新值时不支持 DEFAULT
值
不支持 DEFAULT 值;请先添加没有默认值的列,
然后运行第二个 ALTER TABLE ALTER COLUMN SET DEFAULT
命令来应用
请求将来插入的行。
错误的列默认值,Delta功能未启用
未能执行 <commandType>
命令,因为它分配了列 DEFAULT
值,
但未启用相应的表功能。 请再次重试该命令
执行 ALTER TABLE
tableName SET
后
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'supported')。
命令与对象类型不匹配
操作 <operation>
需要 <requiredType>
。 但 <objectName>
是 <foundType>
。 请改用 <alternative>
。
WRONG_NUM_ARGS
<functionName>
需要 <expectedNum>
个参数,但实际数量为 <actualNum>
。
有关更多详细信息,请参阅 WRONG_NUM_ARGS
XML行标签缺失
<rowTag>
是以 XML 格式读取/写入文件所需的选项。
XML_不支持的嵌套类型
XML 不支持 <innerDataType>
作为内部类型 <dataType>
。 在 <innerDataType>
中使用时,请将 <dataType>
包装在 StructType 字段中。
XML通配符数据恢复冲突错误
无法同时启用已获救的数据和通配符列。 请删除 wildcardColumnName 选项。
ZORDERBY_COLUMN_DOES_NOT_EXIST (排序列不存在)
ZOrderBy 列 <columnName>
不存在。
Delta Lake
未找到激活的Delta Spark会话
找不到活动的 SparkSession。
DELTA_活动事务已设定
当一个 txn 已处于活动状态时,无法将新的 txn 设置为活动状态。
增添具有内部名称的列失败
无法添加列 <colName>
,因为名称是保留的。
禁止添加删除向量的增量
当前操作尝试将删除向量添加到不允许创建新删除向量的表中。 请提交 bug 报告。
不允许在边界紧密情况下添加删除向量的增量
所有添加删除向量的操作应将统计信息中的 tightBounds 列设置为 false。 请提交 bug 报告。
DELTA_在索引小于零时添加列
要添加的列<columnIndex>
的索引<columnName>
小于 0。
DELTA_添加_列_父项_不是_结构体
无法添加 <columnName>
,因为其父级不是 StructType。 已找到 <other>
。
DELTA_ADD_COLUMN_STRUCT_未找到
在位置 <position>
上找不到结构。
增量添加约束
请使用 ALTER TABLE
ADD CONSTRAINT
来添加 CHECK
约束。
生成列中的增量聚合
已找到 <sqlExpr>
。 生成的列不能使用聚合表达式。
不支持增量聚合
<operation> <predicate>
不支持聚合函数。
不支持修改排序规则的布隆过滤器 (DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER)
无法更改列 <column>
的排序规则,因为它具有布隆过滤器索引。 请保留现有的排序规则,或者删除 bloom 筛选器索引,然后再次重试该命令以更改排序规则。
DELTA_不支持通过聚类修改排序规则
无法更改列 <column>
的排序规则,因为它是聚类分析列。 请保留现有的排序规则,或者使用 ALTER TABLE
命令将列更改为非聚集列,然后再次重试该命令以更改排序规则。
不支持 DELTA 修改表更改列
ALTER TABLE CHANGE COLUMN
不支持将列 <currentType>
更改为 <newType>
.
DELTA不允许按CLUSTER BY修改表
只有使用 Liquid 聚类分析的 Delta 表才支持 ALTER TABLE CLUSTER BY
。
不允许在分区表上进行DELTA_ALTER_TABLE_CLUSTER_BY操作
无法将 ALTER TABLE CLUSTER BY
应用于分区表。
DELTA 不允许重命名表
不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME
TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有一个具有新名称的 Delta 表 <newName>
,则可以通过将 <key>
设置为 true 来启用此功能。
修改DELTA表的SET_CLUSTERING表功能不允许
无法使用 <tableFeature>
启用 ALTER TABLE SET TBLPROPERTIES
表功能。 请使用 CREATE
OR REPLACE TABLE CLUSTER BY
创建包含聚类分析的 Delta 表。
增量_修改_表_设定_托管_不支持_统一冰山
ALTER
TABLE
...
SET
MANAGED
不支持 Uniform Iceberg 表。 禁用“Uniform”并重试。
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED
失败。
有关详细信息,请参阅 DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED (修改表设置为非管理状态未启用)
ALTER TABLE
... SET MANAGED
命令未启用。 请联系 Databricks 支持团队以获取帮助。
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED (尝试取消表的托管属性失败)
<table>
无法从托管表回滚到外部表。
有关详细信息 ,请参阅DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_更改_表_未启用_取消_管理权限
ALTER TABLE
... UNSET MANAGED
命令未启用。 请联系 Databricks 支持团队以获取帮助。
DELTA_数据类型变更歧义
无法将 <column>
数据类型从 <from>
更改为 <to>
。 此更改包含列删除和添加,因此它们不明确。 请使用 ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
单独进行这些更改。
DELTA_AMBIGUOUS_PARTITION_COLUMN(不明确的分区列)
不明确的分区列 <column>
可以是 <colMatches>
。
创建表时的DELTA模糊路径
CREATE TABLE
包含两个不同的位置:<identifier>
和 <___location>
。
可以从 LOCATION
语句中删除 CREATE TABLE
子句,或设置
<config>
为 true 以跳过此检查。
已归档文件在限制内
表 <table>
在非存档文件中没有足够的记录,无法满足 LIMIT
条记录的指定 <limit>
。
扫描中的增量归档文件
在表 <numArchivedFiles>
中找到可能归档的 <table>
文件,这些文件需要作为此查询的一部分被扫描。
无法访问存档的文件。 将存档配置为 <archivalTime>
之前的当前时间。
请调整查询筛选器以排除任何存档的文件。
DELTA块列映射和CDC操作
当表启用了更改数据馈送 (CDF) 并使用 <opName>
或 DROP COLUMN
进行了架构更改后,不允许执行操作“RENAME COLUMN
”。
DELTA_布隆过滤器_删除_不存在的列
无法删除以下不存在的列的 bloom 筛选器索引:<unknownColumns>
。
增量布隆过滤器写入时内存不足
在为以下列编写 bloom 筛选器索引时发生 OutOfMemoryError:<columnsWithBloomFilterIndices>
。
可以通过为“numItems”选项选择更小的值、为“fpp”选项选择更大的值或为更少的列编制索引来减少 bloom 筛选器索引的内存占用。
无法更改数据类型
无法更改数据类型: <dataType>
.
无法更改位置
无法使用 SET TBLPROPERTIES
更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION
。
DELTA_无法更改供应商
“provider”是保留的表属性,不能更改。
无法为不存在的列创建布隆过滤器_DELTA
无法为以下不存在的列创建布隆过滤器索引:<unknownCols>
。
DELTA_无法创建日志路径
无法创建 <path>
。
无法描述视图历史的Delta操作或功能限制
无法描述视图的历史。
无法在非索引列上删除布隆过滤器
无法删除未编入索引的列上的 Bloom 过滤器索引:<columnName>
。
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE (无法删除检查约束的功能)
无法删除 CHECK
约束表功能。
必须先删除以下约束:<constraints>
。
无法删除排序规则功能
无法删除排序规则表功能。
具有非默认排序规则的列必须首先更改为使用 UTF8_BINARY:<colNames>
。
DELTA_无法评估表达式
无法计算表达式: <expression>
.
无法找到桶规格_DELTA
期待一个有分桶功能的 Delta 表,但找不到表中的分桶规格。
DELTA_无法为表达式生成代码
无法为表达式生成代码: <expression>
.
无法修改仅追加的DELTA
此表配置为仅允许追加。 如果要允许更新或删除,请使用“”。ALTER TABLE <table_name> SET TBLPROPERTIES (<config> =false)
增量无法修改目录所有的依赖项
无法覆盖或取消设置处于提交状态的时间戳表属性,因为此表由目录所有。 从 TBLPROPERTIES
子句中删除“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”和“delta.inCommitTimestampEnablementTimestamp”,然后重试该命令。
不能修改协调提交的依赖关系
<Command>
无法重写或解除设置提交时间戳表属性,因为此表已启用协调提交功能,并依赖于这些属性。 请从 TBLPROPERTIES
子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。
DELTA_无法修改表属性
不能由用户指定 Delta 表配置 <prop>
。
无法覆盖协调提交的配置 (DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS)
<Command>
无法替代现有目标表的协调提交配置。 请从 TBLPROPERTIES
子句中删除它们(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.tableConf-preview”),然后再次重试该命令。
无法从URI重建路径的DELTA
在事务日志中找到无法转换为相对路径的 uri (<uri>
)。
DELTA_无法相对化路径
一个无法通过事务日志中找到的当前输入相对化的 (<path>
)
事务日志。 请用以下方式重新运行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<userPath>
, true)
然后同时运行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<path>
)
无法重命名路径
无法重命名 <currentPath>
为 <newPath>
.
无法用Delta替换缺失的表
无法替换表 <tableName>
,因为它不存在。 使用 CREATE
OR REPLACE TABLE
创建表。
DELTA 无法解析聚簇列 (DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN)
由于出现意外错误,无法解析<columnName>
中的聚类列<schema>
。 运行 ALTER TABLE
... CLUSTER BY
... 以修复 Delta 聚类元数据。
DELTA_CANNOT_RESOLVE_COLUMN (无法解析列)
无法解析 <columnName>
中的列 <schema>
无法还原表版本_DELTA
无法将表还原到版本 <version>
。 可用版本:[<startVersion>
,<endVersion>
]。
DELTA_无法将时间戳恢复至更早时间
无法将表还原到时间戳(<requestedTimestamp>
),因为它在可用的最早版本之前。 请在 (<earliestTimestamp>
) 之后使用时间戳。
DELTA_无法还原_时间戳更大
无法将表还原到时间戳(<requestedTimestamp>
),因为该时间戳晚于当前最新版本。 请在 (<latestTimestamp>
) 之前使用时间戳。
无法设置协调提交的依赖关系
<Command>
无法将提交中的时间戳表属性与协调的提交一起设置,因为后者依赖于前者并在内部设置前者。 请从 TBLPROPERTIES
子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。
无法在路径标识符上设置位置
无法更改基于路径的表的位置。
无法设置管理的统计列属性的DELTA
无法在非 DLT 类型的表上设置 delta.managedDataSkippingStatsColumns。
DELTA_无法在命令中设置_UC_COMMIT_COORDINATOR_CONF
将“unity-catalog”作为提交协调器启用时,无法通过命令设置配置“<configuration>
”。 请将其从 TBLPROPERTIES
子句中删除,然后再次重试该命令。
无法在会话中设置UC提交协调器配置
启用“unity-catalog”作为提交协调器时,无法从 SparkSession 配置中设置配置“<configuration>
”。 请通过运行 spark.conf.unset("<configuration>")
将其取消设置,然后再次重试该命令。
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER
无法取消设置协调的提交配置。 若要从协调提交降级表,请使用 ALTER
TABLE[table-name]
DROP FEATURE 'coordinatedCommits-preview'
重试。
DELTA_无法更新数组字段
无法更新 <tableName>
字段 <fieldName>
类型:请通过更新 <fieldName>
.element` 来更新该元素。
DELTA_无法更新_MAP_字段
无法更新<tableName>
字段<fieldName>
类型:通过更新<fieldName>.key
或<fieldName>.value
映射来更新。
无法更新其他字段的增量
无法更新 <tableName>
类型的 <typeName>
字段。
无法更新结构字段的DELTA
无法更新 <tableName>
字段 <fieldName>
类型:通过添加、删除或更新其字段来更新结构。
Delta系统无法将所有列用于分区
不能将所有列作为分区列使用。
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE 无法删除所有符合条件的文件,因为 Delta 日志未引用某些文件。 请运行 VACUUM FULL
。
无法将增量写入视图
<table>
是视图。 不支持对视图的写入。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE(表写入中的DElta转换溢出)
由于溢出,无法将 <sourceType>
类型的值写入 <targetType>
类型列 <columnName>
。
请对输入值使用 try_cast
来容忍溢出并改为返回 NULL
。
如有必要,将 <storeAssignmentPolicyFlag>
设置为“LEGACY
”以绕过此错误,或将 <updateAndMergeCastingFollowsAnsiEnabledFlag>
设置为 true 以还原旧行为,并遵循 <ansiEnabledFlag>
和 UPDATE
中的 MERGE
。
此版本中不允许使用DELTA_CDC
配置 delta.enableChangeDataFeed 无法被设置。 来自 Delta 的更改数据馈送尚不可用。
增量_CDC_读取空范围边界
CDC 读取开始/结束参数不能为空。 请提供有效的版本或时间戳。
增量变更数据馈送不兼容的数据架构
由于数据架构不兼容,检索版本 <start>
和 <end>
之间的表更改失败。
你的读取架构是版本 <readSchema>
中的 <readVersion>
,但我们发现版本 <incompatibleVersion>
中的数据架构不兼容。
如果可能,请通过将 <config>
设置为 endVersion
使用最终版本的架构来检索表更改,或者联系支持人员。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
由于架构更改不兼容,在版本 <start>
和 <end>
之间检索表更改失败。
您的读取架构为版本 <readSchema>
的 <readVersion>
,但我们在版本 <incompatibleVersion>
中发现了不兼容的架构更改。
如果可能,请分别查询表从版本 <start>
到 <incompatibleVersion>
- 1 的更改,以及从版本 <incompatibleVersion>
到 <end>
的更改。
DELTA_CHANGE_DATA_FILE_NOT_FOUND (增量更改数据文件未找到)
找不到事务日志中引用的文件 <filePath>
。 当从文件系统手动删除数据而不是使用表 DELETE
语句时,可能会发生这种情况。 此请求似乎是针对变更数据流的。如果是这种情况,当变更数据日志文件超出保留时间并被 VACUUM
语句删除时,可能会发生此错误。 有关详细信息,请参阅 <faqPath>
增量变更表已禁用
无法写入具有 delta.enableChangeDataFeed 集的表。 来自 Delta 的更改数据馈送不可用。
DELTA_检查点_不可用表
无法为不存在的表 <path>
创建检查点。 是否手动删除_delta_log目录中的文件?
DELTA_CLONE_不明确的目标
提供了两个路径作为 CLONE
的目标,因而不明确使用哪一个。 在提供
路径的同时,还在 CLONE
处提供 <externalLocation>
的外部位置
<targetIdentifier>
。
DELTA_CLONE_INCOMPATIBLE_SOURCE
克隆源具有有效的格式,但具有 Delta 不支持的功能。
有关详细信息 ,请参阅DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_克隆_不完整_文件_复制
文件 (<fileName>
) 未完全复制。 预期文件大小 <expectedSize>
,找到:<actualSize>
。 若要忽略文件大小检查并继续操作,请将 <config>
设置为 false。
增量克隆不支持的源
克隆源“<mode>
”不受支持 <name>
,其格式为 <format>
。
支持的格式为“delta”、“iceberg”和“parquet”。
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE(不支持来源的历史记录克隆)
不支持的源表:
有关详细信息 ,请参阅DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
不支持具有历史记录的目标的增量克隆
不支持的目标表:
有关详细信息 ,请参阅DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED(不支持DELTA聚类克隆表)
不支持 DBR 版本 CLONE
的 Liquid 群集 Delta 表中的 < 14.0
。
DELTA 聚类列的数据类型不支持
不支持 CLUSTER BY
,因为以下列 <columnsWithDataTypes>
不支持跳过数据。
DELTA聚类列不匹配
提供的聚类分析列与现有的表不匹配。
提供的:
<providedClusteringColumns>
现有的:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN缺少统计数据
液体聚类分析需要聚类分析列具有统计信息。在统计信息架构中找不到聚类分析列“<columns>
”:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE (用于从流动表创建外部非流动表的Delta群集操作)
不允许从具有流动聚类的表目录中创建不使用流动聚类的外部表;路径:<path>
。
不支持DELTA聚类
“<operation>
”不支持聚类分析。
DELTA_集群_阶段_失败
无法使用 <phaseOutType>
表功能完成表的 <tableFeatureToAdd>
(原因:<reason>
)。 请再次尝试 OPTIMIZE
命令。
== 错误 ==
<error>
数据聚类将表替换为分区表
不允许通过 REPLACE
命令将使用 Liquid 聚类分析的 Delta 表替换为已分区表。
增量聚类展示创建表无聚类列
使用 Liquid 聚类分析的 Delta 表(无任何聚类分析列)不支持 SHOW CREATE TABLE
。
保持原英文标识符不变以确保技术准确性:DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
当现有表具有非空聚类分析列时,不允许将具有 Liquid 聚类分析的 Delta 表转换为分区表:<operation>
。
请先运行 ALTER TABLE CLUSTER BY
NONE 来删除聚类列。
增量聚类与动态分区覆写
使用 Liquid 集群的 Delta 表不允许动态分区覆盖模式。
增量聚类_含分区谓词
使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE
命令不支持分区谓词。 请删除谓词:<predicates>
。
增量聚类及排序功能 (DELTA_CLUSTERING_WITH_ZORDER_BY)
具有 Liquid 聚类分析的 Delta 表的 OPTIMIZE
命令不能指定 ZORDER BY
。 请删除 ZORDER BY (<zOrderBy>
。
自动不匹配的DELTA_CLUSTER (if translation is applicable and the term is not proprietary)
提供的 clusterByAuto 值与现有表的值不匹配。
按无效列数聚类的Delta
Liquid 聚类分析的 CLUSTER BY
支持最多 <numColumnsLimit>
个聚类分析列,但该表具有 <actualNumColumns>
个聚类分析列。 请删除额外的聚类列。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED(未提供按架构分组的 Delta 集群)
不允许在未定义架构时指定 CLUSTER BY
。 请为表 <tableName>
定义架构。
DELTA_按分桶聚类
无法同时指定聚类分析和分桶。 如果要创建包含群集的 Delta 表,请删除 CLUSTERED BY INTO BUCKETS
/bucketBy。
DELTA_按组分区_CLUSTER_BY_WITH_PARTITIONED_BY
无法同时指定聚类分析和分区。 如果要创建具有聚类分析的 Delta 表,请删除 PARTITIONED BY
/partitionBy/partitionedBy。
增量排序不支持
Delta Lake 不支持排序规则。
DELTA列数据跳过不支持分区列
分区列“<column>
”不支持跳过数据。
增量列数据跳过不支持类型
类型为 <column>
的列“<type>
”不支持跳过数据。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET (Delta 列映射最大列 ID 未设置)
未在启用列映射的表中设置最大列 ID 属性(<prop>
)。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID 未正确设置
启用列映射的表的最大列 ID 属性(<prop>
)是 <tableMax>
,不能小于所有字段的最大列 ID(<fieldMax>
)。
DELTA_COLUMN_MISSING_DATA_TYPE (字段缺少数据类型)
未提供列 <colName>
的数据类型。
Δ列未找到
找不到给定 [<columnName>
] 的列<columnList>
。
在合并中找不到 DELTA 列
无法从 <targetCol>
列找到目标表的列“INSERT
”:<colNames>
。
INSERT
子句必须为目标表的所有列指定值。
在架构中找不到DELTA列
在下列位置无法找到 <columnName>
列:
<tableSchema>
DELTA列路径未嵌套
预期 <columnPath>
是嵌套数据类型,但却发现了 <other>
。 正在查找
嵌套字段中 <column>
的索引。
图式:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH(Delta列结构类型不匹配)
结构列 <source>
不能插入到 <targetType>
中的 <targetField>
字段 <targetTable>
中。
增量提交中间重定向状态
无法处理重定向表状态“<state>
”内表的提交。
DELTA_压缩验证失败
验证路径 <compactedPath>
到 <newPath>
的压缩失败:请提交 bug 报告。
DELTA_复合类型列包含空类型
在数据类型为 <columName>
的 <dataType>
列中找到嵌套的 NullType。 Delta 不支持在复杂类型中写入 NullType。
DELTA_同时追加
ConcurrentAppendException:已通过并发更新将文件添加到 <partition>
。 <retryMsg> <conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_并发删除_删除
ConcurrentDeleteDeleteException:此事务尝试通过并发更新删除一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
Delta并发删除读取
ConcurrentDeleteReadException:此事务尝试通过并发更新读取删除的一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException:当多个流式处理查询使用相同的检查点写入此表时,会发生此错误。 是否同时运行同一流查询的多个实例?<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException:并发事务已写入新数据,因为当前事务读取表。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA冲突集列
这些 SET
列 <columnList>
之间存在冲突。
不支持在命令中覆盖 DELTA 配置
在 <command>
期间,无法从命令设置配置“<configuration>
”。 请将其从 TBLPROPERTIES
子句中删除,然后再次重试该命令。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION (在会话中不支持 Delta 配置覆盖)
在 <command>
期间,无法从 SparkSession 配置设置配置“<configuration>
”。 请通过运行 spark.conf.unset("<configuration>")
将其取消设置,然后再次重试该命令。
DELTA_CONSTRAINT_ALREADY_EXISTS(增量约束已存在)
约束“<constraintName>
”已存在。 请先删除旧约束。
旧约束:
<oldConstraint>
DELTA_约束_数据类型不匹配
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下检查约束引用了此列:
<constraints>
增量约束依赖列更改
无法更改列 <columnName>
,因为以下检查约束引用了此列:
<constraints>
DELTA约束不存在
无法从表 <constraintName>
中删除不存在的约束 <tableName>
。 若要避免引发错误,请提供参数 IF EXISTS
或将 SQL 会话配置 <config>
设置为 <confValue>
。
DELTA转换在读合并不支持
不支持转换读取时合并 <format>
表:<path>
、<hint>
未找到DELTA转换的分区
在表 <tableName>
的目录中找不到分区信息。 你是否已对该表运行“MSCK REPAIR TABLE
”来发现分区?
DELTA_转换不支持排序分区列
无法将已排序分区列的 Parquet 表 <colName>
转换为 Delta。
Δ转换_不支持的列映射
使用 <config>
TO <mode>
时,无法将配置“CONVERT
”设置为 DELTA
。
不支持模式更改的DELTA转换
找到了 <format>
表不支持的架构更改:<path>
、<hint>
Delta转换非Parquet表
CONVERT
TO DELTA
仅支持 parquet 表,但您正在尝试转换 <sourceName>
源:<tableId>
。
DELTA转换为不带统计数据的DELTA行跟踪
如果不收集统计信息,则无法启用行跟踪。
如果要启用行跟踪,请执行以下作:
- 通过运行命令启用统计信息收集
SET <statisticsCollectionPropertyKey>
= 真
- 在没有 NO
CONVERT
选项的情况下运行DELTA
TOSTATISTICS
。
如果不想收集统计信息,请禁用行跟踪:
- 默认情况下,通过运行以下命令停用启用表功能:
RESET <rowTrackingTableFeatureDefaultKey>
- 默认情况下,通过运行以下命令停用表属性:
SET <rowTrackingDefaultPropertyKey>
= 假
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO
目标必须是 Delta 表。
DELTA_创建外部表时没有架构
你正在尝试创建外部表 <tableName>
<path>
创建外部表
输入路径为空。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
DELTA_创建外部表_无事务日志
您正在尝试使用 Delta 从 <tableName>
创建外部表 <path>
,但 <logPath>
没有事务日志。 检查上游作业,确保它使用 format("delta") 编写,并且路径是表的根目录。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
增量创建表标识符位置不匹配
不支持创建具有不同位置的基于路径的 Delta 表。 标识符: <identifier>
,位置: <___location>
.
缺少表名或位置的DELTA_CREATE_TABLE错误
必须指定表单名称或位置。
DELTA_创建表_模式不匹配
指定的架构与 <path>
的现有架构不匹配。
== 指定的 ==
<specifiedSchema>
== 现有 ==
<existingSchema>
== 差异 ==
<schemaDifferences>
如果打算保留现有架构,可以省略
从 create table 命令省略该架构。 否则请确保
架构匹配。
DELTA创建表设置聚类表功能不允许
无法使用 <tableFeature>
启用 TBLPROPERTIES
表功能。 请使用 CREATE
OR REPLACE TABLE CLUSTER BY
创建包含聚类分析的 Delta 表。
DELTA_创建不同聚簇的表
指定的聚类分析列与 <path>
的现有聚类分析列不匹配。
== 指定的 ==
<specifiedColumns>
== 现有 ==
<existingColumns>
DELTA_创建带有不同分区的表
指定的分区与 <path>
的现有分区不匹配。
== 指定的 ==
<specifiedColumns>
== 现有 ==
<existingColumns>
DELTA_使用不同属性创建表
指定的属性与 <path>
的现有属性不匹配。
== 指定的 ==
<specifiedProperties>
== 现有 ==
<existingProperties>
DELTA_在非空位置创建表
无法创建表(“<tableId>
”)。 关联的位置(“<tableLocation>
”)不为空,也不是 Delta 表。
数据变化为假
无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“<op>
”。
DELTA_删除的_PARQUET_文件_未找到
找不到事务日志中引用的文件 <filePath>
。 可以在 Delta 的数据保留策略下删除此 parquet 文件。
默认数据保留持续时间:<logRetentionPeriod>
。 Prquet 文件的修改时间:<modificationTime>
。 Prquet 文件的删除时间:<deletionTime>
。 删除的 Delta 版本:<deletionVersion>
。
增量删除向量缺少记录数量
提交包含缺少 numRecords 统计信息的删除向量的文件无效。
不允许在合并操作中禁止源实体化
不允许通过将“spark.databricks.delta.merge.materializeSource”设置为“none”来禁用MERGE
中的源具体化。
不支持域元数据更改
检测到域 <domainNames>
的 DomainMetadata 操作,但未启用 DomainMetadataTableFeature。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO (删除列时,索引不能小于零)
要删除列的索引 <columnIndex>
小于 0。
DELTA_删除单字段架构中的列
无法从具有单个列的架构中删除列。 图式:
<schema>
DELTA_重复操作_已找到
针对路径 <actionType>
多次指定了文件操作“<path>
”。
它与 <conflictingPath>
冲突。
在单个提交中,不允许存在具有相同路径的多个文件操作。
发现重复的列
找到重复的列<coltype>
:<duplicateCols>
。
DELTA_DUPLICATE_COLUMNS_ON_INSERT 复制列在插入时的重复事项
子句中的 INSERT
列名重复。
更新表时的DELTA重复列错误
<message>
请在更新表之前删除重复的列。
DELTA_重复数据跳过列
找到了重复的数据跳过列:<columns>
。
增量重复域元数据内部错误
内部错误:同一事务中的两个 DomainMetadata 操作具有相同的域 <domainName>
。
DELTA_DV_HISTOGRAM_DESERIALIZATION
无法在表完整性验证期间反序列化已删除的记录计数直方图。
DELTA_动态分区覆盖_禁用
动态分区覆盖模式由会话配置或写入选项指定,但由 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
禁用。
DELTA_EMPTY_DATA (数据为空)
创建 Delta 表时使用的数据没有任何列。
DELTA_EMPTY_DIRECTORY
目录中未找到任何文件:<directory>
。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT(字符或可变字符长度超出限制)
值“<value>
”超过了 char/varchar 类型长度限制。 检查失败:<expr>
。
分区值转换失败
未能将分区值 <value>
转换为 <dataType>
。
DELTA_无法在输出列中找到属性
在现有目标输出<newAttributeName>
中找不到 <targetOutputColumns>
。
DELTA_推断模式失败
无法从给定的文件列表中推断架构。
DELTA_合并架构文件失败
未能合并文件 <file>
的架构:
<schema>
DELTA_浅层克隆操作失败
由于浅克隆<sourceTable>
仍然存在,并且其中发生了以下错误:<targetTable>
,所以无法在源表<message>
上运行操作。
DELTA_读取文件尾部失败
无法读取文件的页脚: <currentFile>
。
DELTA_识别谓词失败
无法识别谓词“<predicate>
”。
DELTA扫描失败,具有历史版本
预期会对最新版本的 Delta 源进行完整扫描,但却发现了版本 <historicalVersion>
的历史扫描。
DELTA_合并字段失败
未能合并字段“<currentField>
”和“<updateField>
”。
增量功能协议元数据不匹配
无法对此表进行作,因为下表功能在元数据中已启用,但未在协议中列出:<features>
。
需要手动启用的增量功能
表架构需要手动启用以下表功能:<unsupportedFeatures>
。
为此,请针对上面列出的每个功能运行以下命令:
ALTER TABLE
SET TBLPROPERTIES
table_name ('delta.feature.feature_name' = 'supported')
将“table_name”和“feature_name”替换为实际值。
当前支持的功能:<supportedFeatures>
。
DELTA_FEATURE仅能通过历史截断来撤销检查点保护
无法删除检查点保护功能。
只能通过截断历史记录来删除此功能。
请使用 TRUNCATE HISTORY
选项重试:
ALTER TABLE
DROP FEATURE
table_name checkpointProtectionTRUNCATE HISTORY
DELTA_功能_删除_检查点_失败
由于检查点创建失败,删除 <featureName>
失败。
请稍后重试。 此问题仍然存在,请与 Databricks 支持部门联系。
DELTA_FEATURE_DROP_CHECKPOINT保护等待保留期
操作未成功,因为仍然存在已删除特征的痕迹。
表历史记录中。 CheckpointProtection 在这些历史版本过期之前
无法删除。
若要删除 CheckpointProtection,请等待历史版本
过期,然后重复此命令。 历史版本的保留期为
当前配置为 <truncateHistoryLogRetentionPeriod>
。
增量功能丢弃冲突重新验证失败
由于并发事务修改了表,因此无法删除功能。
请再次尝试该操作。
<concurrentCommit>
删除依赖功能
无法删除表功能 <feature>
,因为此表中的一些其他功能(<dependentFeatures>
)依赖于 <feature>
。
在删除此功能之前,请考虑先删除它们。
DELTA_功能删除_未呈现功能
无法从此表中删除 <feature>
,因为它当前不存在于该表的协议中。
DELTA_特性_删除历史版本存在
无法删除 <feature>
,因为 Delta 日志包含使用该功能的历史版本。
请等到历史记录保留期(<logRetentionPeriodKey>=<logRetentionPeriod>
)
自该功能上次处于活动状态以来,时间已过去。
或者,请等待 TRUNCATE HISTORY
保留期到期(<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE
DROP FEATURE
table_name TRUNCATE HISTORY
feature_name TRUNCATE HISTORY
三角洲功能删除历史记录截断不允许
特定功能不需要历史记录截断。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
无法删除 <feature>
,因为不支持删除此功能。
请联系 Databricks 支持部门。
功能删除_不支持的客户端功能
无法删除 <feature>
,因为此 Databricks 版本不支持它。
请考虑将 Databricks 与更高版本配合使用。
增量特性删除等待保留期
删除 <feature>
部分成功。
此功能现在不再用于表的当前版本。 但是,该功能
仍存在于表的历史版本中。 无法删除表功能
从表协议中,直到到这些历史版本已过期。
若要从协议中删除表功能,请等待历史版本
过期,然后重复此命令。 历史版本的保留期为
当前配置为 <logRetentionPeriodKey>=<logRetentionPeriod>
。
或者,请等待 TRUNCATE HISTORY
保留期到期(<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE
DROP FEATURE
table_name TRUNCATE HISTORY
feature_name TRUNCATE HISTORY
三角洲功能要求更高版本的阅读器
无法启用表功能 <feature>
,因为它需要更高的读取器协议版本(当前 <current>
)。 请考虑将表的读取器协议版本升级到 <required>
,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA功能需要更高版本的写入程序
无法启用表功能 <feature>
,因为它需要更高的编写器协议版本(当前 <current>
)。 请考虑将表的编写器协议版本升级到 <required>
,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_FILE_ALREADY_EXISTS
现有文件路径 <path>
。
增量文件列表与模式字符串冲突
不能同时指定文件列表和模式字符串。
增量文件未找到
文件路径 <path>
。
未找到增量文件详细信息
找不到事务日志中引用的文件 <filePath>
。 当从文件系统手动删除数据而不是使用表 DELETE
语句时,会出现这种情况。 有关详细信息,请参阅 <faqPath>
增量文件或目录未找到
没有此类文件或目录: <path>
。
找不到需要覆盖的增量文件
在候选文件中找不到要重写的文件(<path>
):
<pathList>
DELTA_发现地图类型列
已找到 MapType。 若要访问 MapType 的键或值,请指定一个
:
<key>
或
<value>
后跟列的名称(仅当该列是结构类型时)。
例如 mymap.key.mykey
如果列是基本类型,mymap.key或 mymap.value 就足够了。
图式:
<schema>
DELTAX生成的列数据类型不匹配
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下生成的列引用了此列:
<generatedColumns>
。
增量生成列依赖列更改
无法更改列 <columnName>
,因为以下生成的列引用了此列:
<generatedColumns>
。
DELTA 生成列表达式类型不匹配
生成的列 <columnName>
的表达式类型是 <expressionType>
,但列类型为 <columnType>
。
Delta生成列更新类型不匹配
列 <currentName>
是一个生成列,或是一个被生成列使用的列。 数据类型是 <currentDataType>
且无法转换为数据类型 <updateDataType>
。
DELTA_GEOSPATIAL_不受支持
此版本的 Delta Lake 不支持地理空间类型。
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED (不支持的地理空间SRID)
地理空间类型具有不支持的空间参考标识符 srid:<srid>
。 Delta 表仅支持非负 srid 值。
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version>
验证失败。
有关更多详细信息,请参阅 DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
IcebergWriterCompatV<version>
的验证失败。
有关详细信息,请参阅 DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_标识列_修改列_不支持
ALTER TABLE ALTER COLUMN
列不支持 IDENTITY
。
Delta_Identity_Columns_Alter_Non_Delta_Format
ALTER TABLE ALTER COLUMN SYNC IDENTITY
仅受 Delta 支持。
DELTA_标识列_更改非标识列
不能对非 ALTER TABLE ALTER COLUMN SYNC IDENTITY
列调用 IDENTITY
。
DELTA 不支持对身份列的显式插入
不支持为 GENERATED ALWAYS
AS IDENTITY
列 <colName>
提供值。
DELTA_标识列_非法步长
IDENTITY
列步骤不能为 0。
增量标识列非增量格式
IDENTITY
列仅受 Delta 支持。
不支持DELTA标识列分区
不支持 PARTITIONED BY IDENTITY
列 <colName>
。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED (不支持替换列的标识符列)
包含 ALTER TABLE REPLACE COLUMNS
列的表不支持 IDENTITY
。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE (Delta 标识列不支持的数据类型)
<dataType>
列不支持 DataType IDENTITY
。
不支持对 Delta 标识列进行更新
不支持对 UPDATE
列 IDENTITY
运行 <colName>
。
DELTA_标识列_带有_生成的_表达式
不能使用生成的列表达式指定 IDENTITY
列。
DELTA_非法选项
选项“<input>
”的值“<name>
”无效,<explain>
DELTA_非法使用
对 Delta 表执行 <option>
时不允许使用 <operation>
。
增量_不一致_桶规格
Delta Bucketed 表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。 应为: <expected>
. 实际为:<actual>
。
Δ_不一致_日志存储_配置
(<setKeys>
) 不能设置为不同的值。 请仅设置其中一个值,或将其设置为相同的值。
DELTA_数组访问错误
错误地访问数组类型。 使用 arrayname.element.elementname 位置
添加到数组。
DELTA_使用名称访问数组时出错
已找到 ArrayType。 若要访问 ArrayType 的元素,请指定
<rightName>
而不是 <wrongName>
。
图式:
<schema>
DELTA_INCORRECT_GET_CONF
使用 getConf()
而不是 conf.getConf()
。
DELTA_错误日志存储实现
该错误通常在使用 LogStore 默认实现
(即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。
若要获取表更新的事务 ACID 保证,必须使用
适合你的存储系统的正确 LogStore 实现。
有关详细信息,请参阅 <docLink>
。
DELTA_INDEX大于或等于STRUCT
要删除列时,索引 <index>
等于或是大于结构长度: <length>
。
指数增量大于结构
添加列<index>
的索引<columnName>
大于结构长度: <length>
。
DELTA 插入列数不匹配
无法写入到“<tableName>
”,<columnName>
;目标表有<numColumns>
列,而插入的数据有<insertColumns>
列。
DELTA_INSERT列不匹配
未在<columnName>
中指定列INSERT
。
DELTA_INVALID_AUTO_COMPACT_TYPE(无效的自动压缩类型)
自动压缩类型无效:<value>
。 允许的值为:<allowed>
。
DELTA_无效的桶数量
无效桶计数:<invalidBucketCount>
。 桶计数应该是一个正数,是 2 的幂,至少是 8。 可以改用 <validBucketCount>
。
DELTA_无效的桶索引
在分区列中找不到存储桶列。
DELTA_日历间隔无效_为空
间隔不能为 null 或空白。
增量无效的CDC范围
从起始值 <start>
到结束值 <end>
的 CDC 范围无效。 结束不能早于开始。
DELTA_列名中包含无效字符
属性名称“
DELTA_列名中无效字符
在架构的列名中,发现了' ,;{}()\n\t='
包含无效字符。
无效的列名:<invalidColumnNames>
。
请使用其他字符,然后重试。
或者,启用列映射以继续使用这些字符。
DELTA_无效克隆路径
CLONE
的目标位置必须是绝对路径或表名。 使用
绝对路径而不是 <path>
。
DELTA_移除列映射时无效的列名称
在架构的列名中,发现了' ,;{}()\n\t='
包含无效字符。
无效的列名:<invalidColumnNames>
。
如果列名中存在无效字符,则无法删除列映射。
请重命名列以删除无效字符,然后再次执行此命令。
DELTA_格式无效
检测到不兼容的格式。
在 <deltaRootPath>/_delta_log
找到了 Delta 的事务日志
但你正在尝试使用 format("<operation> <path>
") 执行 <format>
。 必须在读取和
必须使用“format("delta")”。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
DELTA_INVALID_生成列引用无效
生成的列不能使用不存在的列或其他生成的列。
DELTA无效幂等写入选项
幂等 Dataframe 写入的选项无效:<reason>
Δ无效时间间隔
<interval>
不是有效的 INTERVAL
。
DELTA_库存架构无效
指定 INVENTORY
的架构不包含所有必填字段。 必填字段为:<expectedSchema>
DELTA_无效隔离级别
无效的隔离级别“<isolationLevel>
”。
增量无效日志存储配置
(<classConfig>
)和(<schemeConfig>
)不能同时设置。 请仅设置其中一组。
DELTA_无效的托管表语法_无模式
你正在尝试使用 Delta 创建托管表 <tableName>
使用 Delta,但未指定架构。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
DELTA_INVALID_PARTITION_COLUMN分区列错误
<columnName>
不是表 <tableName>
中有效的分区列。
DELTA_无效分区列名称
在 " ,;{}()\n\t="
的分区列中找到无效字符。 请将名称更改为分区列。 可以通过设置 spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。
DELTA_无效的分区列类型
不支持使用 <name>
类型的 <dataType>
列作为分区列。
DELTA_无效分区路径
分区路径片段应为类似于 part1=foo/part2=bar
的形式。 分区路径: <path>
.
协议降级无效错误
协议版本不能从 (<oldProtocol>
) 降级到 (<newProtocol>
)。
DELTA_协议版本无效
不支持的 Delta 协议版本:表“<tableNameOrPath>
”需要读取器版本 <readerRequired>
和写入器版本 <writerRequired>
,但此版本的 Databricks 支持读取器版本 <supportedReaders>
和写入器版本 <supportedWriters>
。 请升级到较新版本。
DELTA_无效的表值函数
函数 <function>
是不支持用于 CDC 读取的表值函数。
DELTA_时间戳格式无效
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
增量日志已存在
Delta 日志已存在于 <path>
.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
如果从未删除它,则可能是查询未跟上进度。 请删除其检查点以从头开始。 为了避免这种情况再次发生,您可以更新您 Delta 表的保留策略。
缺少DELTA_MATERIALIZED_ROW_TRACKING列名称
<rowTrackingColumn>
缺少具体化 <tableName>
列名称。
超过最大数组大小限制
请使用小于 Int.MaxValue - 8 的限制。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED (超过最大提交重试次数)
此提交失败,因为它已尝试 <numAttempts>
次,但均未成功。
这可能是由多个并发提交连续提交 Delta 表
造成的。
提交开始于版本:<startVersion>
提交失败的版本:<failVersion>
尝试提交的操作数:<numActions>
尝试此提交所用的总时间:<timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
文件列表必须最多有 <maxFileListSize>
个条目,实际有 <numFiles>
个。
增量合并新增空列
无法添加类型为 VOID 的列 <newColumn>
。 请显式指定非 void 类型。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
未能合并不兼容的数据类型 <currentDataType>
和 <updateDataType>
。
不兼容的十进制类型合并在DELTA中
无法合并与 <decimalRanges>
不兼容的十进制类型。
DELTA合并物化源反复失败
保留已具体化的 MERGE
语句的源已一再失败。
DELTAMERGE缺失when
WHEN
语句中必须至少有一个 MERGE
子句。
DELTA_合并_已解决_属性_缺失_自输入
运算符 <missingAttributes>
中的 <input>
缺失已解析属性 <merge>
。
增量合并的意外分配键
意外的分配键值:<unexpectedKeyClass>
- <unexpectedKeyObject>
。
DELTA_MERGE_未解析表达式
无法在给定列 <sqlExpr>
中解析 <clause>
<cols>
。
元数据变更
MetadataChangedException:Delta 表的元数据已由并发更新更改。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
增量缺失变更数据
获取 [<startVersion>
, <endVersion>
] 范围的更改数据时出错,因为未记录
版本 [<version>
] 的更改数据。 如果在此表上启用了更改数据馈送,
使用 DESCRIBE HISTORY
查看其首次启用时间。
否则,若要开始记录更改数据,请使用 ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)`。
DELTA_MISSING_COLUMN 缺失列
在表列中找不到<columnName>
: <columnList>
DELTA_缺少提交信息
此表启用了特征 <featureName>
,这要求每次提交中都存在 CommitInfo 操作。 但是,提交版本 <version>
中缺少 CommitInfo操作。
增量缺失提交时间戳
此表启用了编号为 <featureName>
的功能,这要求在 CommitInfo 操作中存在 commitTimestamp。 但是,此字段尚未在提交版本 <version>
中设置。
DELTA_MISSING_DELTA_TABLE(缺失的 Delta 表格)
<tableName>
不是 Delta 表。
DELTA_缺少_DELTA_表复制导入
表不存在。 首先使用 CREATE TABLE <tableName>
创建空 Delta 表。
DELTA_缺失_冰山_类
找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。
有关详细信息,请参阅 <docLink>
。
DELTA_缺失非空列值
列 <columnName>
(具有 NOT NULL
约束)在写入表中的数据中缺失。
DELTA_缺失的分区列
架构 <columnName>
中找不到分区列 <columnList>
。
DELTA_MISSING_PART_FILES (缺少部分文件)
无法找到检查点版本的所有部件文件:<version>
。
DELTA_MISSING_PROVIDER_FOR_CONVERT (缺少转换提供者)
CONVERT
TO DELTA
仅支持 parquet 表。 请将目标重写为 Parquet。如果它是 Parquet 目录,则为 <path>
DELTA_缺失设置列
在 SET
列 <columnName>
中没有找到给定列:<columnList>
。
DELTA_缺失交易日志
检测到不兼容的格式。
你尝试使用 Delta 来访问 <operation> <path>
,但不
存在事务日志。 检查上游作业,确保它正在使用
format("delta") 进行写入,并且你正在尝试对表基本路径执行 %1$s。
若要了解有关 Delta 的详细信息,请参阅 <docLink>
不支持增量模式
不支持指定模式“<mode>
”。 支持的模式为: <supportedModes>
.
DELTA_MULTIPLE_CDC边界
为 CDC 读取提供的多个 <startingOrEnding>
参数。 请提供一个 <startingOrEnding>
时间戳或 <startingOrEnding>
版本。
布隆过滤器中的单列多重配置差异
多个布隆过滤器索引配置传递给了列命令:<columnName>
多个源行在合并中匹配目标行
无法像匹配多个源行一样执行合并,并且尝试以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,当多个源行在同一目标行上匹配时,结果可能不明确,因为不清楚应使用哪个源行来更新或删除匹配的目标行。 你可以预处理源表来消除出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
在 <command>
期间,两个协调提交配置(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.commitCoordinatorConf-preview”)均在命令中设置或两者均未设置。 缺失值:“<configuration>
”。 请在 TBLPROPERTIES
子句中指定此配置或删除其他配置,然后再次重试该命令。
所有协调提交确认必须在会话中设置DELTA
在 <command>
期间,两个协调提交配置(“coordinatedCommits.commitCoordinator-preview”、“coordinatedCommits.commitCoordinatorConf-preview”)均在命令中设置或两者均未设置。 缺失值:“<configuration>
”。 请在 SparkSession 中设置此配置或取消设置其他配置,然后再次重试该命令。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE (存储桶表中的名称冲突)
以下列名称仅保留供 Delta 分桶表内部使用:<names>
DELTA_嵌套字段需要重命名
输入架构包含大小写与目标表不同的嵌套字段。
需要重命名它们,以避免在写入 Delta 时丢失这些字段中的数据。
领域:
<fields>
。
原始架构:
<schema>
增量嵌套非空约束
字段 <nestType>
的 <parent>
类型包含 NOT NULL
约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL
约束。 若要取消此错误并静默忽略指定的约束,请设置 <configKey>
= true。
分析的 <nestType>
类型:
<nestedPrettyJson>
增量嵌套子查询不支持
<operation>
条件不支持嵌套子查询。
增量_新检查约束违规
<numRows>
行 <tableName>
违反新 CHECK
约束 (<checkConstraint>
)。
DELTA_NEW_NOT_NULL_VIOLATION (新的Delta不允许为空的违规)
<numRows>
行在<tableName>
中违反了NOT NULL
上的新<colName>
约束。
Delta非布尔检查约束
CHECK
约束“<name>
”(<expr>
) 应是一个布尔表达式。
生成列中的非确定性表达式
已找到 <expr>
。 生成的列不能使用非确定性表达式。
DELTA_不支持非确定性函数
不支持在<operation> <expression>
中使用非确定性函数。
非最后匹配子句的增量忽略条件
当 MATCHED
语句中有多个 MERGE
子句时,只有最后一个 MATCHED
子句可以省略条件。
DELTA_非最后组_不通过源子句匹配_排除条件
当 NOT MATCHED BY SOURCE
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED BY SOURCE
子句可以省略条件。
DELTA非最后不匹配子句省略条件
当 NOT MATCHED
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED
子句可以省略条件。
DELTA_NON_PARSABLE_TAG
无法分析标记 <tag>
。
文件标记为: <tagList>
.
DELTA_非分区列缺失
写入 Delta 的数据至少需要包含一个非分区列。<details>
DELTA_非分区列引用
谓词引用非分区列“<columnName>
”。 只能引用分区列:[<columnList>
]。
DELTA_NON_PARTITION_COLUMN_SPECIFIED (指定了非分区列)
指定了非分区列 <columnList>
,但只能指定分区列:<fragment>
。
DELTA_非单独部分命名空间_用于目录
Delta 目录需要单部分命名空间,但 <identifier>
是多部分。
命令不支持DELTA_NON_UC_COMMIT_COORDINATOR
不支持通过命令将提交协调器设置为“<nonUcCoordinatorName>
”,因为 UC 管理的表只能将“unity-catalog”设置为提交协调器。 请将其更改为“unity-catalog”,或者从 TBLPROPERTIES
子句中删除所有协调提交表属性,然后再次重试该命令。
DELTA 非 UC 提交协调器在会话中不支持
不支持从 SparkSession 配置中将提交协调器设置为<nonUcCoordinatorName>
,因为 UC 管理的表格只能使用“unity-catalog”作为提交协调器。 请通过运行 spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
将其更改为“unity-catalog”,或者通过运行 spark.conf.unset("<coordinatorNameDefaultKey>")
、spark.conf.unset("<coordinatorConfDefaultKey>")
和 spark.conf.unset("<tableConfDefaultKey>")
从 SparkSession 配置中删除所有协调提交表属性,然后再次重试该命令。
DELTA_不是_DATABRICKS_DELTA表
<table>
不是 Delta 表。 如果要使用 Databricks Delta 创建此表,请先删除此表。
DELTA_NOT_A_DELTA_TABLE(不是一个 Delta 表)
<tableName>
不是 Delta 表。 如果要使用 Delta Lake 重新创建此表,请先删除此表。
找不到非空列在结构中
在结构中找不到不可为空的列:<struct>
。
DELTA_非空约束_违反
列 NOT NULL
违反了 <columnName>
约束。
DELTA_不可为空的嵌套字段
不能将不可为 null 的嵌套字段添加到可为 null 的父级。 请相应地设置父列的可为 Null 性。
未找到提交记录
在<logPath>
中找不到任何提交。
未找到可重建的历史_DELTA
在<logPath>
找不到可重新创建的提交。
DELTA_无重定向规则违规
操作不允许:无法对具有重定向功能的表执行 <operation>
。
不满足无重定向规则 <noRedirectRules>
。
Δ_无关系表
找不到表 <tableIdent>
。
DELTA_无法启动_CDC读取
没有为 CDC 读取提供 startingVersion 或 startingTimestamp。
增量流式写入中的空模式
Delta 不接受在架构中使用 NullTypes 进行流写入。
DELTA_ONEOF_IN_TIMETRAVEL
请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。
DELTA_ONLY_OPERATION
<operation>
仅支持用于 Delta 表。
增量操作缺少路径
请提供 <operation>
的路径或表标识符。
DELTA_OPERATION_NOT_ALLOWED(不允许的增量操作)
操作不允许:<operation>
不支持 Delta 表。
DELTA_OPERATION_NOT_ALLOWED_DETAIL (三角洲操作不允许 - 详细信息)
不允许的操作:Delta 表 <operation>
不支持:<tableName>
。
不支持对具有排序规则的列进行DELTA操作
具有非默认排序规则 <operation>
的列 <colName>
不支持 <collation>
。
不支持数据类型的DELTA操作
<operation>
数据类型不支持: <dataTypeList>
不支持具有排序规则的表达式的DELTA操作
<operation>
不支持表达式 <exprText>
,因为它使用了非默认排序规则。
不支持在含有生成列的临时视图上执行 Delta 操作
不支持在引用 Delta 表(包含生成列)的临时视图上执行 <operation>
命令。
<operation>
请直接在 Delta 表上运行命令。
在视图上不允许执行增量操作
不允许执行操作:不能对视图执行 <operation>
。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED(不支持完整优化)
只有具有非空聚类分析列的聚集表才支持 OPTIMIZE FULL
。
DELTA_OVERWRITE_MUST_BE_TRUE(增量覆盖必须为真)
如果不设 OVERWRITE
= 'true',则无法指定复制选项 overwriteSchema。
DELTA覆盖模式与动态分区覆盖
“overwriteSchema”不能在动态分区覆盖模式下使用。
DELTA_分区_列_转换_失败
未能将值 <value>
转换为 <dataType>
的分区列 <columnName>
。
找不到 DELTA 分区列
架构 [<columnName>
] 中未找到分区列<schemaMap>
。
增量分区模式在Iceberg表中
转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。
DELTA路径不存在
<path>
不存在或不是 Delta 表。
增量路径已存在
如果不设置 <path>
= 'true',则无法写入已存在的路径 OVERWRITE
。
增量提交后挂钩失败
提交 Delta 表版本 <version>
成功,但在执行提交后挂钩 <name> <message>
时出错
DELTA 协议已更改
ProtocolChangedException:Delta表的协议版本已被并发更新更改。 <additionalInfo> <conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_PROTOCOL_PROPERTY_NOT_INT (增量协议属性不是整数)
协议属性 <key>
必须是整数。 已找到 <value>
。
增量读取功能协议需要写入
无法仅升级读取器协议版本以使用表功能。 写入器协议版本必须至少为 <writerVersion>
才能继续。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_读取无列表格
尝试读取不包含任何列的 Delta 表 <tableName>
。
使用选项 mergeSchema = true
写入一些新数据,以便能够读取表。
增量正则表达式选项语法错误
请重新检查“”<regExpOption>
的语法。
三角关系路径不匹配
关系路径“<relation>
”与 <targetType>
“路径”<targetPath>
不匹配。
DELTA_REPLACE_WHERE_IN_OVERWRITE
不能将 replaceWhere 与通过筛选器进行覆盖结合使用。
DELTA替换条件不匹配
写入的数据不符合部分表覆盖条件或约束“<replaceWhere>
”。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
“replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器: <dataFilters>
.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS(增量行ID分配缺少统计信息)
如果没有行计数统计信息,则无法分配行 ID。
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_模式_已更改
检测到的架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
增量模式已更改,包含启动选项
版本 <version>
中检测到的架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。 如果问题在之后仍然存在
更换到新的检查点目录时,您可能需要更改现有设置。
“startingVersion”或“startingTimestamp”选项,以使用新的检查点目录
从高于 <version>
的版本重新开始。
DELTA_架构随着版本而改变
版本 <version>
中检测到的架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
增量模式分析后的模式更改
Delta 表的架构已因您的 DataFrame 发生不兼容的更改,导致该表不可正确使用。
或者 DeltaTable 对象已被创建。 请重新定义 DataFrame 或 DeltaTable 对象。
变化:
<schemaDiff> <legacyFlagMessage>
未提供增量模式
未提供表架构。 在使用 REPLACE
表时,请提供表的架构(列定义),但未提供 AS SELECT
查询。
增量模式未设置
未设置表架构。 将数据写入其中或使用 CREATE TABLE
来设置架构。
DELTA_设置位置模式不匹配
新的 Delta 位置的架构与当前表架构不同。
原始架构:
<original>
目标架构:
<destination>
如果这是预期的更改,可以通过运行以下命令来禁用此检查:
%%sql 设置 <config>
= 真
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND文件未找到
找不到事务日志中引用的文件 <filePath>
。 当从文件系统手动删除数据而不是使用表 DELETE
语句时,可能会发生这种情况。 此表似乎是浅表克隆,如果是这样,当从中克隆此表的原始表删除了该克隆仍在使用的文件时,可能会发生此错误。 如果你希望任何克隆独立于原始表,请改用 DEEP 克隆。
DELTA共享无法修改保留的接收方属性
无法修改以 <prefix>
开头的预定义属性。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
数据受收件人属性限制,<property>
不适用于会话中的当前收件人。
有关更多详细信息,请参阅 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_共享_在_外部_共享_视图中_无效操作
不能在跨帐户共享的 Delta Sharing 视图中使用 <operation>
。
DELTA共享无效提供程序认证
提供者 <authenticationType>
的身份验证类型 <provider>
非法。
DELTA共享无效收件人认证
接收者 <authenticationType>
的身份验证类型 <recipient>
非法。
DELTA共享无效的共享数据对象名称
引用共享内 <type>
的名称无效。 可以按照 [schema].[<type>
] 格式在共享中使用 <type>
的名称,也可以按照 [catalog].[schema].[>type>] 格式使用表的原始全名。
如果不确定要使用的名称,则可以运行“SHOW ALL IN SHARE
[share]”,并找到要移除的 <type>
名称:列“name”是共享中 <type>
的名称,列“shared_object”是 <type>
的原始全名。
RECIPIENT_TOKENSDELTA共享最大值已超出
接收者 <recipient>
有两个以上的令牌。
DELTA_共享_接收方_属性_未找到
收件人属性 <property>
不存在。
RECIPIENT_TOKENSDELTA_SHARING__NOT_FOUND
接收者 <recipient>
缺少接收者令牌。
DELTA展示未分区列中的分区
为 <badCols>
指定了非分区列 SHOW PARTITIONS
。
非分区表中的 DELTA 显示分区
SHOW PARTITIONS
不允许在未分区 <tableName>
的表上:
DELTA源忽略删除
在版本 <removedFile>
的流源中检测到已删除的数据(例如 <version>
)。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 可以在路径 <dataPath>
找到源表。
DELTA_SOURCE_TABLE_IGNORE_CHANGES(忽略更改的Delta源表)
在版本 <file>
的源表中检测到数据更新(例如 <version>
)。 目前不支持。 如果这种情况经常发生,并且可以跳过更改,请将选项“skipChangeCommits”设置为“true”。 如果希望反映数据更新,请使用新的检查点目录重启此查询,或者在使用 DLT 时执行完全刷新。 如果需要处理这些更改,请切换到 MV 模式。 可以在路径 <dataPath>
找到源表。
增量起始版本和时间戳均已设置
请提供<version>
或<timestamp>
。
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND(增量统计收集列未找到)
在 Parquet 元数据中找不到列的 <statsType>
统计信息:<columnPath>
。
增量流无法在模式演变后继续处理
我们检测到 Delta 流式处理源中 Delta 版本 <opType>
与 <previousSchemaChangeVersion>
之间的一个或多个非累加架构更改 (<currentSchemaChangeVersion>
)。
变化:
<columnChangeDetails>
请在我们使用最终定稿架构版本<currentSchemaChangeVersion>
进行流处理之前,查看是否需要手动传播架构更改到汇聚表。
一旦您修复了目标表的架构或决定无需修复,您可以设置以下配置以解除非累加架构更改的阻碍并继续流处理。
使用数据框架读取器的选项:
要取消对这特定数据流的阻止,仅针对这一系列架构更改:
<unblockChangeOptions>
若要解除屏蔽此特定流:
<unblockStreamOptions>
使用 SQL 配置:
要取消对这特定数据流的阻止,仅针对这一系列架构更改:
<unblockChangeConfs>
若要解除屏蔽此特定流:
<unblockStreamConfs>
要解除所有流的阻止:
<unblockAllConfs>
增量流检查列映射无快照
在检查列映射架构更改时,未能获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将“<config>
”设置为“true”来强制启用流式读取,但需自负风险。
数据流不兼容的模式更改
对具有读取不兼容架构更改的表(例如重命名或删除或数据类型更改)不支持流式读取。
有关解决此问题的详细信息和可能的后续步骤,请查看 <docLink>
的文档
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
流式处理中的不兼容架构更改,请使用架构日志
对具有读取不兼容架构更改的表(例如重命名或删除或数据类型更改)不支持流式读取。
请提供“schemaTrackingLocation”,以便为 Delta 流处理启用非累加架构演变。
有关详细信息,请参阅 <docLink>
。
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
DELTA流媒体元数据演变
Delta 表的架构、表配置或协议在流式处理期间已更改。
架构或元数据跟踪日志已更新。
请重启流以继续使用更新的元数据进行处理。
更新的架构:<schema>
。
更新的表配置:<config>
。
更新的表协议:<protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
使用架构跟踪从源表 <tableId>
进行流式传输时不支持行筛选器或列掩码。
请删除行筛选器或列掩码,或者禁用架构跟踪。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT (Delta流媒体模式位置冲突)
从位于“<loc>
”的表流式传输时检测到有冲突的架构位置“<table>
”。
另一个流可能重用相同的架构位置,这是不允许的。
请提供一个新的唯一 schemaTrackingLocation
路径或 streamingSourceTrackingId
,作为此表中某个数据流的读取选项。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT(Delta流数据架构位置未在检查点下)
架构位置“<schemaTrackingLocation>
”必须放在检查点位置“<checkpointLocation>
”下。
DELTA流式Schema日志反序列化失败
“<___location>
”处的 Delta 流式处理源架构日志中的日志文件不完整。
架构日志可能已损坏。 请选择新的架构位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID (不兼容的 Delta 表 ID)
尝试读取 Delta 流时检测到不兼容的 Delta 表 ID。
持久化表 ID:<persistedId>
,表 ID:<tableId>
架构日志可能已重复使用。 请选择新的架构位置。
DELTA 流式架构日志与分区架构不兼容
尝试读取 Delta 流时检测到不兼容的分区架构。
持久化架构:<persistedSchema>
,Delta 分区架构:<partitionSchema>
如果你最近手动更改了表的分区架构,请选择新的架构位置来重新初始化架构日志。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA(Delta流数据模式日志初始化失败:元数据不兼容)
无法初始化 Delta 流式处理源架构日志,因为
我们在从表版本 <a>
向 <b>
提供流式处理批处理时检测到不兼容的架构或协议更改。
DELTA_流式_架构日志_解析架构失败
无法从 Delta 流式处理源架构日志文件中解析架构。
架构日志可能已损坏。 请选择新的架构位置。
DELTA 表已经包含变更数据捕获列
无法对表启用变更数据捕获。 表已包含
保留的列 <columnList>
,
这些列将在内部用作表的更改数据馈送的元数据。 若要为
表上的更改数据馈送将重命名/删除这些列。
DELTA表已存在
表 <tableName>
已存在。
路径不支持的Hadoop配置的DELTA_TABLE
目前 DeltaTable.forPath 仅支持以 <allowedPrefixes>
开头的 hadoop 配置密钥,但输入为 <unsupportedOptions>
。
DELTA_表_ID_不匹配
<tableLocation>
处的 Delta 表已替换,但此命令使用的是该表。
表的 ID 从 <oldId>
变为 <newId>
。
请重试当前命令,以确保读取表的视图一致性。
DELTA表无效重定向状态转换
无法更新表重定向状态:尝试状态转换无效。
Delta 表<table>
无法从<oldState>
更改为<newState>
。
DELTA表无效的设置或取消重定向
无法对SET
上的属性 UNSET
或 <table>
重定向:当前属性 '<currentProperty>
' 与新属性 '<newProperty>
' 不匹配。
DELTA_TABLE_位置不匹配
现有的表 <tableName>
位于 <existingTableLocation>
。 它与指定的位置 <tableLocation>
不匹配。
DELTA_TABLE_NOT_FOUND(未找到Delta表)
Delta 表 <tableName>
不存在。
DELTA表格在操作中不受支持
表在 <operation>
中不受支持。 请改用路径。
DELTA_TABLE_ONLY_OPERATION(仅限于Delta表的操作)
<tableName>
不是 Delta 表。
<operation>
仅支持用于 Delta 表。
DELTA_TABLE_未识别的重定向规范
Delta 日志包含无法识别的表重定向规范“<spec>
”。
最终目标表 Delta 架构为空
目标表最终架构为空。
增量时间戳大于提交时间
提供的时间戳 (<providedTimestamp>
) 晚于此
表(<tableName>
)。 请使用早于或等于 <maximumTimestamp>
的时间戳。
DELTA_TIMESTAMP_INVALID
提供的时间戳(<expr>
)无法转换为有效的时间戳。
增量时间旅行无效起始值
<timeTravelKey>
必须是有效的开始值。
DELTA_列表内存过多
由于内存不足,无法列出 Delta 表中的文件(<numFiles>
)。 必需内存: <estimatedMemory>
,可用内存: <maxMemory>
。
截断的增量事务日志
<path>
:由于手动删除或遵循日志保留策略(<version>
)和检查点保留策略(<logRetentionKey>=<logRetention>
),事务日志已被截断,因此无法重新构造版本<checkpointRetentionKey>=<checkpointRetention>
状态。
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED(不支持的表分区截断)
不允许操作:Delta 表上的 TRUNCATE TABLE
不支持分区谓词;使用 DELETE
删除特定的分区或行。
自动生成列中的 DELTA_UDF
已找到 <udfExpr>
。 生成的列不能使用用户定义的函数。
意外行动表达式_delta
意外的操作表达式 <expression>
。
意外的Delta分区列数来自文件名
期望分区列:<expectedColsSize>
,但通过解析文件名:<expectedCols>
,发现了分区列:<parsedColsSize>
。
无预期的部分扫描异常
应对 Delta 源进行完整扫描,但发现只扫描了一部分。 路径: <path>
.
DELTA_文件名中意外的分区列
需要分区列<expectedCol>
,但从分析文件名中找到了分区列<parsedCol>
: <path>
DELTA用户意外分区架构
CONVERT
TO DELTA
被调用时使用了与从目录中推断的不一致的分区架构,请避免提供分区架构,以便系统能从目录中选择合适的分区架构。
目录分区架构:
<catalogPartitionSchema>
提供的分区架构:
<userPartitionSchema>
DELTA_统一性_兼容性位置不能更改
无法更改 delta.universalFormat.compatibility.___location。
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED(未注册兼容性位置)
delta.universalFormat.compatibility.___location 未在目录中注册。
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION(缺少或无效的Delta统一兼容性位置)
统一兼容性格式的位置缺失或无效。 请为 delta.universalFormat.compatibility.___location 设置空目录。
失败的原因:
有关更多详细信息,请参阅 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_入口违规
具有 Delta Uniform 的 Read Iceberg 的失败。
有关更多详细信息,请参阅 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
待命_均匀_入口_不明确_格式
发现多个 Delta Uniform 入口格式(<formats>
),最多只能设置一个。
不支持 DELTA_UNIFORM_INGRESS
不支持创建或刷新统一入口表。
DELTA_UNIFORM_入口不支持的格式
不支持格式 <fileFormat>
。 仅支持冰山和 hudi 作为原始文件格式。
三角形统一入口违规
读取 Delta Uniform 失败:
有关详细信息,请参阅DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_不支持
仅 Unity 目录表支持通用格式。
DELTA_UNIFORM_REFRESH参数无效
REFRESH TABLE
参数无效:
有关详细信息 ,请参阅DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH
标识符 SYNC UNIFORM
不受支持,原因如下:
有关更多详细信息,请参阅 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
不支持具有元数据路径的托管冰山表进行DELTA统一刷新
在托管的 Iceberg 表中不支持将 REFRESH TABLE
与 METADATA_PATH
一起使用。
DELTA_通用格式转换失败
无法将表版本 <version>
转换为通用格式 <format>
。 <message>
增量通用格式违规
通用格式 (<format>
) 的验证失败: <violation>
。
DELTA_未知配置
指定了未知配置: <config>
。
若要禁用此检查,请在 Spark 会话配置中设置 <disableCheckConfig>
=true。
未知权限DELTA
未知权限: <privilege>
。
DELTA_未知读取限制
未知的读取限制:<limit>
。
DELTA_未识别列变更
无法识别的列更改 <otherClass>
。 你可能正在运行过时的 Delta Lake 版本。
Δ_无法识别的不变量
无法识别的不变量。 请升级 Spark 版本。
DELTA_未识别的日志文件
无法识别的日志文件 <filename>
。
DELTA取消不存在的属性
尝试在表<property>
中解除设置不存在的属性“<tableName>
”。
DELTA_不支持的绝对路径添加文件
<path>
不支持添加具有绝对路径的文件。
不支持 DELTA_ALTER_TABLE_CHANGE_COL_OP 操作
ALTER TABLE CHANGE COLUMN
不支持将列 <fieldPath>
从 <oldField>
更改为 <newField>
.
不支持DELTA修改表替换列的操作
不支持 ALTER TABLE REPLACE COLUMNS
操作。 原因:<details>
无法将架构从
<oldSchema>
更改为:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE 不支持的克隆替换操作:尝试替换同一个表。
你尝试对具有 REPLACE
的现有表 (<tableName>
) 执行 CLONE
。 此操作
不受支持。 尝试为 CLONE
使用不同的目标,或删除当前位置的表。
DELTA_不支持的列映射模式更改
不支持将列映射模式从“<oldMode>
”更改为“<newMode>
”。
布隆过滤器索引列的不支持的列映射操作
无法对列 <opName>
执行列映射操作 <quotedColumnNames>
因为这些列包含布隆筛选索引。
如果你要对包含布隆筛选索引的列执行
列映射操作,
请先删除布隆筛选器索引:
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
如果要删除表上的所有 Bloom 筛选器索引,请使用:
DROP BLOOMFILTER INDEX ON TABLE
表名
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL (DELTA不支持的列映射协议)
当前表协议版本不支持更改列映射模式
使用 <config>
。
列映射所需的 Delta 协议版本:
<requiredVersion>
表的当前 Delta 协议版本:
<currentVersion>
<advice>
DELTA 不支持的列映射模式更改
检测到架构更改:
旧架构:
<oldTableSchema>
新架构:
<newTableSchema>
在更改列映射模式期间不允许进行架构更改。
不支持的列映射写入
不支持使用列映射模式写入数据。
DELTA_布隆过滤器中不支持的列类型
不支持对类型<dataType>
列创建 Bloom 过滤器索引:<columnName>
DELTA_不支持的评论映射数组
无法向 <fieldPath>
添加注释。 不支持向映射键/值或数组元素添加注释。
DELTA_不支持的数据类型
找到使用不支持数据类型的列:<dataTypeList>
。 可以将“<config>
”设置为“false”以禁用类型检查。 禁用此类型检查可能会允许用户创建不受支持的 Delta 表,并且仅在尝试读取/写入旧表时使用。
DELTA_在生成列中不支持的数据类型
<dataType>
不能是生成的列的结果。
不支持DELTA深度克隆
此 Delta 版本不支持深度克隆。
DELTA_不支持的_详细视图描述
<view>
是视图。
DESCRIBE DETAIL
仅支持表格。
不支持删除聚类列的DELTA
不允许删除聚类列(<columnList>
)。
DELTA_不支持的删除列
Delta 表不支持 DROP COLUMN
。 <advice>
DELTA_不支持从非结构类型删除嵌套列
只能从 StructType 中删除嵌套列。 已找到 <struct>
。
DELTA_不支持_删除分区列
不允许删除分区列(<columnList>
)。
DELTA_UNSUPPORTED_EXPRESSION(不支持的表达式)
<expType>
不支持的表达式类型 (<causedBy>
)。 支持的类型为 [<supportedTypes>
]。
DELTA_不支持的表达式_生成列
<expression>
不能在生成的列中使用。
不支持读取功能的DELTA
不支持的 Databricks 读取功能:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的读取器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
不支持写入操作的DELTA功能
不支持的 Databricks 写入功能:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的编写器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
配置中的不支持功能
此版本的 Databricks 无法识别以下 Spark 配置或 Delta 表属性中配置的表功能:<configs>
。
DELTA_不支持功能状态
预期表功能 <feature>
的状态是“supported”,但却是“<status>
”。
DELTA_不支持字段更新_非结构型
仅 StructType 支持更新嵌套字段,但你在尝试更新类型为 <columnName>
的 <dataType>
的字段。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS(不支持删除向量的文件系统一致性检查)
缺少删除向量文件的表版本不支持“FSCK REPAIR TABLE
”命令。
请联系支持人员。
不支持生成带有删除向量的DELTA
包含删除向量的表版本不支持“GENERATE
symlink_format_manifest”命令。
若要在不删除向量的情况下生成表的版本,请运行“REORG TABLE
table APPLY (PURGE
)”。 然后,重新运行“GENERATE
”命令。
请确保没有并发事务在 REORG
和 GENERATE
之间再次添加删除向量。
如果需要定期生成清单,或者无法阻止并发事务,请考虑使用“ALTER TABLE
表 SET TBLPROPERTIES
(delta.enableDeletionVectors = false)”禁用此表中的删除向量。
不支持的变体非结构DELTA
不支持在 StructTypes 以外的嵌套字段上应用不变量。
在子查询中不支持DELTA
<operation>
条件中不支持 In 子查询。
不支持的前缀键列表DELTA
listKeywithPrefix 不可用。
不支持的清单生成与列映射
利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。
DELTA_不支持带CDC的合并模式演变
带有架构演变的 MERGE INTO
操作目前不支持写入 CDC 输出。
DELTA_不支持的多列条件
<operation>
条件中不支持多列 In 谓词。
DELTA_在布隆过滤器中不支持的嵌套列
目前不支持在嵌套列上创建 bloom filer 索引: <columnName>
不支持的嵌套字段操作DELTA
<operation>
中不支持嵌套字段(字段 = <fieldName>
)。
不支持的非空克隆
克隆目标表不为空。 运行 TRUNCATE
之前,请先对表进行 DELETE FROM
或 CLONE
操作。
不支持的输出模式
数据源 <dataSource>
不支持 <mode>
输出模式。
DELTA_不支持的分区列在布隆过滤器中
不支持对分区列创建 bloom 筛选器索引: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN(不支持重命名列)
Delta 表不支持列重命名。 <advice>
DELTA_读取过程中不支持的架构
Delta 不支持在读取时指定架构。
DELTA不支持在分桶表上排序
SORTED BY
不支持 Delta 分桶表。
不支持的来源_DELTA
<operation>
目标仅支持 Delta 源。
<plan>
不支持的静态分区
在插入期间,目前不支持在分区规范中指定静态分区。
不支持的策略名称
不支持的策略名称: <strategy>
。
不支持的子查询_DELTA
<operation>
不支持子查询(条件 = <cond>
)。
DELTA_分区条件中不支持的子查询
分区谓词中不支持子查询。
DELTA_不支持的时间旅行多格式
无法以多种格式指定“按时间顺序查看”。
不支持时间旅行视图的DELTA
无法按时间顺序查看视图、子查询、流或更改数据馈送查询。
不支持截断示例表的DELTA操作
不支持截断示例表。
不支持的模式类型更改_DELTA
由于应用了不支持的类型更改,无法对此表进行操作。 字段 <fieldName>
已从 <fromType>
更改为 <toType>
。
Delta_不支持Bloom过滤器索引列上的类型更改
无法更改列 <quotedColumnNames>
的数据类型
因为这些列包含布隆筛选索引。
如果要使用 Bloom Filter Index(es) 更改列的数据类型,
请先删除布隆筛选器索引:
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
如果要删除表上的所有 Bloom 筛选器索引,请使用:
DROP BLOOMFILTER INDEX ON TABLE
表名
DELTA_不支持清理特定分区
清空 Delta 表时,请提供基本路径(<baseDeltaPath>
)。 目前不支持清空特定分区。
DELTA不支持写入暂存表
表实现不支持写入: <tableName>
不支持协调器的写入操作
你正在尝试对已在提交协调器 <coordinatorName>
中注册的表执行写入。 但是,当前环境中不提供此协调器实现,不允许在没有协调器的情况下进行写入。
DELTA_不支持写入示例表
不支持写入示例表。
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION (增量更新中架构不匹配表达式)
无法将 <fromCatalog>
强制转换为 <toCatalog>
。 所有嵌套列必须匹配。
DELTA_V2_操作所需检查点
CHECKPOINT
操作需要在表上启用 V2 检查点。
DELTA_VACUUM_COPY_INTO_STATE_FAILED(状态复制失败)
数据文件上的 VACUUM
操作已成功,但 COPY INTO
状态的垃圾回收操作失败。
DELTA_VERSIONS_NOT_CONTIGUOUS
版本(<versionList>
)不是连续的。
在尝试加载版本<startVersion>
时检测到版本<endVersion>
<versionToLoad>
之间的增量日志中的差距。
有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID(增量版本无效)
提供的版本 (<version>
) 不是有效的版本。
DELTA_违反约束条件_包含值
具有值的行违反了 CHECK
约束 <constraintName> <expression>
:
<values>
。
DELTA违反了表属性验证失败
表 <table>
的属性验证已被违反。
有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
不支持将增量写入视图
<viewIdentifier>
是视图。 不能将数据写入视图。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST (Delta Z排序列不存在)
数据架构中不存在 Z 排序列 <columnName>
。
无统计数据的列上的DELTA层排序
Z 排序 <cols>
将无效,因为我们当前不收集这些列的统计信息。 有关跳过数据和 z 排序的详细信息,请参阅 <link>
。 可以通过设置禁用此检查
SET <zorderColStatKey>
= 假
分区列上的DELTA排序
<colName>
是分区列。 Z 排序只能对数据列执行
Delta共享
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST(Delta共享激活随机值不存在)
SQLSTATE:未分配
找不到激活 nonce。 使用的激活链接无效或已过期。 重新生成激活链接,然后重试。
增量共享_跨区域共享_不支持
SQLSTATE:未分配
不支持在 <regionHint>
区域与外部区域之间共享。
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT (获取接收者属性无效依赖项错误)
SQLSTATE:未分配
使用 current_recipient
函数定义的视图仅用于共享,只能从数据接收方查询。 提供的 ID 为 <securableId>
的安全对象不是 Delta Sharing 视图。
不支持DELTA共享可变安全类型
SQLSTATE:未分配
提供的可保护类型 <securableKind>
不支持 Delta 共享中的可变性。
DELTA共享令牌旋转未被授权用于市场
SQLSTATE:未分配
提供的安全对象类型 <securableKind>
不支持市场服务启动的轮换令牌操作。
DS_认证类型不可用
SQLSTATE:未分配
<dsError>
:身份验证类型在提供程序实体 <providerEntity>
中不可用。
DS_CDF_未启用
SQLSTATE:未分配
<dsError>
:无法访问 <tableName>
的更改数据馈送。 在版本 <version>
中,CDF 未在原始 Delta 表上启用。 请联系你的数据供应商。
DS_CDF_未共享
SQLSTATE:未分配
<dsError>
:无法访问 <tableName>
的更改数据馈送。 CDF 未在表上共享。 请联系你的数据供应商。
DS_CDF_RPC_INVALID_PARAMETER (参数无效)
SQLSTATE:未分配
<dsError>
:<message>
数据库 DS 服务器的客户端授权错误 (DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER)
SQLSTATE:未分配
<dsError>
:<message>
数据库DS服务器的客户端错误
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE:未分配
<dsError>
:<message>
客户端OAuth令牌交换未授权
SQLSTATE:未分配
<dsError>
:<message>
DS_云服务提供商不可用
SQLSTATE:未分配
<dsError>
:云供应商暂时无法为 <rpcName>
提供服务,请重试。<traceId>
DS_DATA_物化命令失败
SQLSTATE:未分配
<dsError>
:在命令 <runId>
处,从组织 <orgId>
运行的数据具体化任务 <command>
失败
DS数据物化命令不支持
SQLSTATE:未分配
<dsError>
:从组织 <runId>
运行的数据具体化任务 <orgId>
不支持命令 <command>
DS_数据物化不支持没有无服务器功能。
SQLSTATE:未分配
<dsError>
:<featureName>
不支持,因为在提供程序工作区中不支持或未启用无服务器功能。 请联系您的数据供应商以启用无服务器架构。
DS_DATA_MATERIALIZATION_无效命名空间
SQLSTATE:未分配
<dsError>
:找不到有效的命名空间来创建 <tableName>
的具体化。 请联系您的数据提供商解决此问题。
DS_数据_物化_运行_不存在
SQLSTATE:未分配
<dsError>
:从组织 <runId>
运行的数据具体化任务 <orgId>
不存在
DS_DELTA_ILLEGAL_STATE
SQLSTATE:未分配
<dsError>
:<message>
DS_DELTA_缺少检查点文件
SQLSTATE:未分配
<dsError>
:找不到检查点版本的所有组成部分文件:<version>
。 <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE:未分配
<dsError>
:<message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE:未分配
<dsError>
:<message>
令牌过期,未经授权访问市场
SQLSTATE:未分配
<dsError>
:提供的安全对象类型 <securableKind>
不支持市场服务启动的使令牌过期操作。
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER(请求打开DS服务器失败)
SQLSTATE:未分配
<dsError>
:<message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER (请求SAP DS服务器失败)
SQLSTATE:未分配
<dsError>
:<message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS(仅适用于Databricks间的功能)
SQLSTATE:未分配
<dsError>
:仅为 Databricks 到 Databricks Delta Sharing 启用了 <feature>
。
DS_文件列表异常
SQLSTATE:未分配
<dsError>
: <storage>
: <message>
文件签名异常 (DS_FILE_SIGNING_EXCEPTION)
SQLSTATE:未分配
<dsError>
:<message>
DS_外部表元数据刷新失败
SQLSTATE:未分配
<dsError>
:<message>
DS_HADOOP_CONFIG_NOT_SET(Hadoop配置未设置)
SQLSTATE:未分配
<dsError>
:调用方未设置 <key>
。
DS_ILLEGAL_STATE (非法状态)
SQLSTATE:未分配
<dsError>
:<message>
DS_来自数据库DS服务器的内部错误
SQLSTATE:未分配
<dsError>
:<message>
DS_无效的_AZURE_路径
SQLSTATE:未分配
<dsError>
:Azure 路径无效:<path>
。
DS_INVALID_DELTA_ACTION_OPERATION (无效的delta操作动作)
SQLSTATE:未分配
<dsError>
:<message>
DS_无效字段
SQLSTATE:未分配
<dsError>
:<message>
DS_无效迭代器操作
SQLSTATE:未分配
<dsError>
:<message>
DS_无效参数值
SQLSTATE:未分配
<dsError>
:由于 <rpcName>
,<cause>
的参数无效。
DS_INVALID_PARTITION_SPEC (无效的分区规范)
SQLSTATE:未分配
<dsError>
:<message>
从DS服务器收到无效响应
SQLSTATE:未分配
<dsError>
:<message>
DS_物化查询失败
SQLSTATE:未分配
<dsError>
:<schema>
查询失败。来自共享 <table>
的 <share>
。
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE:未分配
<dsError>
:<schema>
查询超时。
<table>
秒后,来自共享 <share>
的 <timeoutInSec>
。
DS_MISSING_IDEMPOTENCY_KEY (缺少幂等性密钥)
SQLSTATE:未分配
<dsError>
:查询 <schema>
时需要幂等密钥。异步来自共享 <table>
的 <share>
。
DS_多个RPC参数集
SQLSTATE:未分配
<dsError>
:请仅提供 <parameters>
中的一个。
DS_网络连接已关闭
SQLSTATE:未分配
<dsError>
:由于<rpcName>
,网络连接已关闭<errorCause>
,请重试。<traceId>
网络连接超时 (DS_NETWORK_CONNECTION_TIMEOUT)
SQLSTATE:未分配
<dsError>
:由于<rpcName>
,<errorCause>
的网络连接超时,请重试。<traceId>
DS_网络错误
SQLSTATE:未分配
<dsError>
:由于<rpcName>
,<errorCause>
发生网络错误,请重试。<traceId>
未分配元数据存储
SQLSTATE:未分配
<dsError>
:没有为当前工作区分配元存储(workspaceId:<workspaceId>
)。
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED(工作负载标识令牌生成失败)
SQLSTATE:未分配
<dsError>
:为 O2D OIDC 提供程序生成工作负载标识令牌失败:<message>
。
分页与查询参数不匹配
SQLSTATE:未分配
<dsError>
:分页或查询参数不匹配。
分区列已重命名
SQLSTATE:未分配
<dsError>
:共享表上的分区列 [<renamedColumns>
] 已被重命名。 请联系您的数据提供商解决此问题。
查询开始版本之前
SQLSTATE:未分配
<dsError>
:只能查询自版本 <startVersion>
以来的表数据。
最新版本后版本的DS查询结束
SQLSTATE:未分配
<dsError>
:提供的用于读取数据的终止版本(<endVersion>
)无效。 结束版本不能大于表的最新版本(<latestVersion>
)。
查询开始版本在最新版本之后
SQLSTATE:未分配
<dsError>
:提供的读取数据的起始版本(<startVersion>
)无效。 起始版本不能大于表的最新版本(<latestVersion>
)。
DS_查询超时_服务器上
SQLSTATE:未分配
<dsError>
:在跨 <queryType>
迭代进行 <tableName>
更新后处理 <numActions>
上的 <numIter>
时发生超时。<progressUpdate> <suggestion> <traceId>
DS服务器上的速率限制
SQLSTATE:未分配
<dsError>
:<message>
DS_RECIPIENT_RPC_INVALID_PARAMETER(无效参数)
SQLSTATE:未分配
<dsError>
:<message>
DS_RECON_FAILED_ON_UC_WRITE_RPC (写入RPC时的重新连接失败)
SQLSTATE:未分配
<dsError>
:UC RPC <rpcName>
失败,转换为 INTERNAL_ERROR
。
DS资源已存在于DS服务器上 (DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER)
SQLSTATE:未分配
<dsError>
:<message>
DS_RESOURCE_EXHAUSTED (资源耗尽)
SQLSTATE:未分配
<dsError>
:<resource>
超出限制:[<limitSize>
]<suggestion>
。<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER (DS服务器上未找到资源)
SQLSTATE:未分配
<dsError>
:<message>
DS_SCHEMA_NAME_CONFLICT_FOUND (发现了 DS 架构名称冲突)
SQLSTATE:未分配
<dsError>
:目录 <catalogName>
已包含在共享 <shareName>
中找到的架构名称。
<description>
的冲突架构名称:<schemaNamesInCommon>
。
服务器超时
SQLSTATE:未分配
<dsError>
:由于<rpcName>
,<errorCause>
的服务器超时,请重试。<traceId>
DS共享已挂载到目录
SQLSTATE:未分配
<dsError>
:来自提供程序<shareName>
的共享<providerName>
已装载到目录<catalogName>
。
DS_系统_工作区_组_权限_不支持
SQLSTATE:未分配
无法向系统生成的组 <securableType>
授予对 <principal>
的权限。
时光旅行不被允许
SQLSTATE:未分配
<dsError>
:除非历史记录在 <tableName>
上共享历史记录,否则不允许进行时间旅行查询。 请联系你的数据供应商。
未授权
SQLSTATE:未分配
<dsError>
:未经授权。
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE:未分配
<dsError>
:未经授权的 D2O OIDC 接收者:<message>
。
DS_未知异常
SQLSTATE:未分配
<dsError>
:<traceId>
未知查询ID (DS_UNKNOWN_QUERY_ID)
SQLSTATE:未分配
<dsError>
:<queryID>
的查询 ID <schema>
是未知的。来自共享 <table>
的 <share>
。
数据源未知查询状态
SQLSTATE:未分配
<dsError>
:对于 <queryID>
的查询 ID <schema>
的查询状态未知。来自共享 <table>
的 <share>
。
DS_UNKNOWN_RPC (未知远程过程调用)
SQLSTATE:未分配
<dsError>
:未知 RPC <rpcName>
。
DS_不支持的增量阅读器版本
SQLSTATE:未分配
<dsError>
:增量协议读取器版本 <tableReaderVersion>
高于 <supportedReaderVersion>
,不能在增量共享服务器中受支持。
DS_UNSUPPORTED_DELTA_TABLE_FEATURES (不支持的 Delta 表功能)
SQLSTATE:未分配
<dsError>
:在表 <tableFeatures>
中找到表功能 <versionStr> <historySharingStatusStr> <optionStr>
不支持的操作
SQLSTATE:未分配
<dsError>
:<message>
不支持的存储方案
SQLSTATE:未分配
<dsError>
:不支持的存储方案:<scheme>
。
DS_UNSUPPORTED_TABLE_TYPE(不支持的表类型)
SQLSTATE:未分配
<dsError>
:无法检索 <schema>
。
<table>
来自 Share<share>
,因为 <tableType>
查询中当前不支持类型为 [<queryType>
] 的表。
DS_用户_上下文_错误
SQLSTATE:未分配
<dsError>
:<message>
不允许共享视图功能
SQLSTATE:未分配
<dsError>
:视图共享查询中不允许 <functions>
以下函数。
DS 工作空间域未设置
SQLSTATE:未分配
<dsError>
:未设置工作区 <workspaceId>
域。
DS_工作空间_未找到
SQLSTATE:未分配
<dsError>
:找不到工作区 <workspaceId>
。
自动加载程序
不支持添加新项
指定架构时不支持架构演变模式 <addNewColumnsMode>
。 若要使用此模式,可以改为通过 cloudFiles.schemaHints
提供架构。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR(身份验证选项不明确错误)
找到了(默认)目录列表模式的通知设置
列出模式:
<options>
如果要使用文件通知模式,请显式设置:
.option(“cloudFiles.<useNotificationsKey>
”, “true”)
如果要跳过选项验证步骤并忽略这些
身份验证选项,可以设置:
.option(“cloudFiles.ValidateOptionsKey>”, “false”)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR(不明确的增量列出模式错误)
增量列表模式 (cloudFiles.<useIncrementalListingKey>
)
和文件通知 (cloudFiles.<useNotificationsKey>
)
已同时启用。
请确保只选择一个。
CF_AZURE_认证缺少选项
请提供 Databricks 服务凭据,或者同时提供 clientId 和 clientSecret,以便通过 Azure 进行身份验证。
CF_AZURE_认证多选项
提供 Databricks 服务凭据时,不应提供其他凭据选项(例如 clientId、clientSecret 或 connectionString)。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED 需要
Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix
CF_BUCKET_MISMATCH(CF桶不匹配)
文件事件 <storeType>
中的 <fileEvent>
与源的预期不同:<source>
。
CF_无法演变_架构_日志_为空
架构日志为空时无法改进架构。 架构日志位置:<logPath>
CF_无法解析队列消息
无法分析以下队列消息:<message>
无法解析容器名称 (CF_CANNOT_RESOLVE_CONTAINER_NAME)
无法从路径 <path>
解析容器名称,解析的 URI 为 <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING(无法运行目录列表)
当运行异步回填线程时无法运行目录列表
CF_CLEAN_SOURCE_允许_覆盖_两者_启用
无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH (无法移动源路径内的文件)
不支持将文件移动到从中引入的路径下的目录。
CF_CLEAN_SOURCE_NOT_ENABLED(源清理功能未启用)
尚未为此工作区启用 CleanSource。 请联系 Databricks 支持部门获取帮助。
源未授权写入权限 (CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION)
自动加载程序无法存档已处理的文件,因为它对源目录或移动目标没有写入权限。
<reason>
若要修复,可以:
向源目录授予写入权限并移动目标 OR
将 cleanSource 设置为“OFF”
还可以通过将 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 设置为“true”来解除阻止流。
CF_重复数据中的列
尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 若要忽略分区值,请使用以下命令显式提供分区列: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
用于模式推断的空目录 CF
当输入路径 <path>
为空时,无法推断架构。 请在输入路径中存在文件或指定架构时尝试启动流。
事件网格认证错误
无法创建事件网格订阅。 请确保服务
主体具有 <permissionType>
事件网格订阅。 请参阅以下位置的更多详细信息:
<docLink>
CF_EVENT_GRID_CREATION_FAILED (事件网格创建失败)
无法创建事件网格订阅。 请确保 Microsoft.EventGrid
在订阅中注册为资源提供程序。 请参阅以下位置的更多详细信息:
<docLink>
CF_EVENT_GRID_未找到错误
无法创建事件网格订阅。 请确保存储
帐户 (<storageAccount>
) 位于资源组 (<resourceGroup>
) 的下面,并且
存储帐户是“StorageV2(常规用途 v2)”帐户。 请参阅以下位置的更多详细信息:
<docLink>
不支持 CF_EVENT_NOTIFICATION 事件通知
<cloudStore>
不支持自动加载程序事件通知模式。
CF_无法检查新流
无法检查流是否为新流
CF_创建_PUBSUB_订阅_失败
无法创建订阅 <subscriptionName>
。 同名的订阅已存在,并且与另一个主题相关联:<otherTopicName>
。 所需主题为 <proposedTopicName>
。 删除现有订阅或创建具有新资源后缀的订阅。
CF_创建PubSub主题失败
无法创建主题 <topicName>
。 已存在同名的主题。
<reason>
删除现有主题,或使用另一个资源后缀重试
CF_无法删除_GCP_通知
未能删除主题 <notificationId>
的存储桶 <bucketName>
上 ID 为 <topicName>
的通知。 请重试或通过 GCP 控制台手动删除通知。
反序列化持久化架构失败
无法从字符串反序列化持久化架构:“<jsonSchema>
”
无法演变架构
在没有架构日志的情况下无法改进架构。
CF_FAILED_TO_FIND_PROVIDER(无法找到提供程序)
找不到 <fileFormatInput>
服务提供者
无法推断架构
无法从输入路径 <fileFormatInput>
中的现有文件中推断格式 <path>
的架构。
有关更多详细信息,请参阅 CF_FAILED_TO_INFER_SCHEMA
CF_无法写入架构日志
无法在位置 <path>
写入架构日志。
CF_FILE_FORMAT_REQUIRED (文件格式要求)
找不到所需的选项:cloudFiles.format。
找到多个自动加载器的发布订阅订阅项
发现主题 <num>
有多个(<topicName>
个)订阅使用自动加载程序前缀:
<subscriptionList>
每个主题只能有一个订阅。 请手动确保主题没有多个订阅。
CF_GCP_认证
请提供以下所有凭据:<clientEmail>
、<client>
、
<privateKey>
和 <privateKeyId>
,或提供使用 Databricks 服务凭据的 <serviceCredential>
。
或者,请提供它们中的一个,以便使用默认的 GCP 凭据提供程序链对 GCP 资源进行身份验证。
CF_GCP_标签数量超出限制
收到太多 GCP 资源的标签(<num>
个)。 每个资源的最大标签数为 <maxNum>
。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED(已超出GCP资源标签数量限制)
收到太多 GCP 资源的资源标记(<num>
个)。 每个资源的最大资源标记数量为 <maxNum>
,因为资源标记是作为 GCP 标签存储在资源上的,而 Databricks 特定的标记会占用部分 GCP 标签的配额。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG(日志模式中不完整日志文件)
路径 <path>
的架构日志中不完整的日志文件
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
自动加载程序检查点中的元数据文件不完整
批处理使用错误
CloudFiles 是流式处理源。 请使用 spark.readStream 而不是 spark.read。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled>
设置为 false。
SQL参数错误
cloud_files方法接受两个必需的字符串参数:要从中加载的路径和文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files("path", "json", map("option1", "value1"))。 收到:<params>
CF_错误流使用
若要使用“cloudFiles”作为流式处理源,请使用“cloudFiles.format”选项提供文件格式,并使用 .load() 创建 DataFrame。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled>
设置为 false。
CF_INTERNAL_ERROR
内部错误。
有关更多详细信息,请参阅 CF_INTERNAL_ERROR
CF_INVALID_ARN(无效的ARN)
无效 ARN:<arn>
CF_无效的Azure证书
无法解析与选项 cloudFiles.certificate 一起提供的私钥。 请提供 PEM 格式的有效公钥。
CF_INVALID_AZURE_CERT_PRIVATE_KEY(无效的 Azure 证书私钥)
无法解析通过选项 cloudFiles.certificatePrivateKey 提供的私钥。 请以 PEM 格式提供有效的私钥。
CF_无效检查点
此检查点不是有效的 CloudFiles 源
CF_INVALID_CLEAN_SOURCE_MODE(无效的清理源模式)
清理源选项 <value>
的模式无效。
CF_INVALID_GCP_RESOURCE_TAG_KEY (无效的GCP资源标签键)
GCP 资源的资源标记键无效:<key>
。 键必须以小写字母开头,长度在 1 到 63 个字符以内,并且仅包含小写字母、数字、下划线(_)和连字符(-)。
CF_INVALID_GCP资源标签值不正确
GCP 资源的资源标记值无效:<value>
。 值长度必须为 0 到 63 个字符,并且必须仅包含小写字母、数字、下划线(_)和连字符(-)。
无效的托管文件事件选项键
与托管文件事件一起使用时,自动加载程序不支持以下选项:
<optionList>
建议删除这些选项,然后重启流。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE (无效的托管文件事件响应)
来自托管文件事件服务的响应无效。 请联系 Databricks 支持部门获取帮助。
有关更多详情,请参阅 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_无效的模式演化模式
cloudFiles。
<schemaEvolutionModeKey>
必须是以下项之一
- “
<addNewColumns>
” - “
<failOnNewColumns>
” - “
<rescue>
” - “
<noEvolution>
”
CF_INVALID_SCHEMA_HINTS_OPTION(无效的模式提示选项)
模式提示不能多次指定某个特定的列。
在这种情况下,请重新定义列:<columnName>
在 schemaHints 中多次:
<schemaHints>
CF_无效的架构提示列
架构提示无法用于覆盖映射和数组的嵌套类型。
有冲突的列:<columnName>
CF_最新的偏移读取限制需要
应在此源上使用 ReadLimit 调用 latestOffset。
CF 日志文件格式错误
日志文件格式不正确:无法从 <fileName>
读取正确的日志版本。
CF_托管文件事件正在填充中
你已请求自动加载程序通过将 includeExistingFiles 设置为 false 来忽略外部位置中的现有文件。 但是,托管文件事件服务仍在外部位置发现了现有文件。 请在文件管理事件完成对外部位置中所有文件的发现后再试。
CF_管理的文件事件端点_未找到
你正在将自动加载程序与托管文件事件配合使用,但输入路径“<path>
”的外部位置似乎未启用文件事件,或输入路径无效。 请请求 Databricks 管理员在输入路径的外部位置启用文件事件。
CF 管理文件事件终端权限被拒绝
你正在将自动加载程序与托管文件事件配合使用,但你无权访问输入路径“<path>
”的外部位置或卷,或输入路径无效。 请请求 Databricks 管理员授予外部位置或卷的读取权限,或在现有外部位置或卷中提供有效的输入路径。
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
带有受控文件事件的自动加载器是预览功能。 若要继续,请联系 Databricks 支持部门或关闭 cloudFiles.useManagedFileEvents 选项。
CF_MAX必须为正数
max 必须为正
CF_METADATA_FILE_同时使用
多个流式处理查询在同时使用 <metadataFile>
CF_丢失元数据文件错误
流式处理源检查点目录中的元数据文件丢失。 此元数据
文件包含流的重要默认选项,因此无法重启流
马上。 请联系 Databricks 支持部门获取帮助。
CF_缺少分区列错误
提供的架构中不存在分区列 <columnName>
:
<schema>
CF缺少模式在无路径模式下
如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 或者,若要让自动加载程序推断架构,请在 .load() 中提供基本路径。
允许主题进行多次发布和订阅通知
在存储桶 <topicName>
上发现主题 <bucketName>
的现有通知:
通知,身份标识
<notificationList>
若要避免意外事件污染订阅服务器,请删除上述通知并重试。
CF_新分区错误
从文件中已推断出新的分区列:[<filesList>
]。 请在架构中提供所有分区列,或者提供要通过使用以下方法提取值的分区列列表: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_分区_推理_错误
尝试推断当前批处理文件的分区架构时出错。 请明确提供您的分区列,例如:.option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}"
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES (读取文件的路径不存在)
当输入路径 <path>
不存在时,无法读取文件。 请确保输入路径存在并重新尝试。
CF_周期性回填不支持
如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing
设置为 true 来启用异步回填/目录列表
CF_前缀不匹配
找到不匹配的事件:密钥 <key>
没有前缀:<prefix>
协议不匹配错误
<message>
如果无需对代码进行任何其他更改,请设置 SQL
配置:“<sourceProtocolVersionKey> = <value>
”
以恢复流。 请参阅:
<docLink>
以获取更多详细信息。
CF_REGION_NOT_FOUND_ERROR(区域未找到错误)
无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。
CF_RESOURCE_SUFFIX_EMPTY
无法创建通知服务:资源后缀不能为空。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS (AWS资源后缀无效字符)
无法创建通知服务:资源后缀只能有字母数字字符、连字符(-)和下划线(_)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE 资源后缀包含无效字符_AZURE
无法创建通知服务:资源后缀只能有小写字母、数字和短划线(-)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP (谷歌云平台资源后缀无效字符)
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 (<percentSign>
)。
CF_RESOURCE_SUFFIX_LIMIT
无法创建通知服务:资源后缀不能超过 <limit>
个字符。
CF_RESOURCE_SUFFIX_LIMIT_GCP(CF资源后缀限制_GCP)
无法创建通知服务:资源后缀必须在 <lowerLimit>
和 <upperLimit>
个字符之间。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY(受限的GCP资源标签键)
找到受限的 GCP 资源标记键(<key>
)。 自动加载程序限制以下 GCP 资源标记密钥:[<restrictedKeys>
]
文件保留时间大于最大文件年龄 (CF_RETENTION_GREATER_THAN_MAX_FILE_AGE)
cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
无法为前缀为 <topic>
的主题 <prefix>
创建通知。 已经存在一个具有不同前缀的同名主题:<oldPrefix>
。 尝试使用不同的资源后缀进行设置或删除现有设置。
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
无法从源架构日志克隆和迁移任何架构日志条目。
CF_SFTP_缺少密码或密钥文件
必须为 SFTP 指定密码或密钥文件。
请在源 URI 中或通过 <passwordOption>
指定密码,或通过 <keyFileOption>
指定密钥文件内容。
CF_SFTP_NOT_ENABLED (SFTP功能未启用)
未启用访问 SFTP 文件。 请联系 Databricks 支持部门获取帮助。
CF_SFTP_REQUIRE_UC_CLUSTER
访问 SFTP 文件需要启用 UC 的群集。 请联系 Databricks 支持部门获取帮助。
CF_SFTP_USERNAME_NOT_FOUND(找不到SFTP用户名)
必须为 SFTP 指定用户名。
请在源 URI 中或通过 <option>
提供用户名。
需要CF源目录路径
请使用选项 path
提供源目录路径
CF来源不被支持
云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_STATE_INCORRECT_SQL_PARAMS(SQL参数不正确状态)
cloud_files_state 函数接受表示 cloudFiles 流的检查点目录的字符串参数或标识流式处理表的多部分 tableName,以及(可选)表示要加载其状态的检查点版本的第二个整数参数。 第二个参数也可能是“latest”,用于读取最新的检查点。 收到:<params>
CF_STATE_INVALID_CHECKPOINT_PATH(无效的检查点路径)
输入检查点路径 <path>
无效。 路径不存在,或者找不到cloud_files源。
CF_STATE_版本无效
指定的版本 <version>
不存在,或在分析期间被删除。
CF_线程_已终止
<threadName>
线程已死。
The error message itself is likely better kept in English due to its technical specificity, but if necessary to provide a more accessible presentation for the audience, a possible translation or explanation could be: "无法导出流检查点位置的错误代码" (Unable to derive stream checkpoint ___location error code).
无法从源检查点位置获取流检查点位置:<checkPointLocation>
CF_无法检测文件格式
无法在 <fileSize>
采样文件中检测源文件格式,找到了 <formats>
。 请指定格式。
CF_无法提取存储桶信息
无法提取存储桶信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_UNABLE_TO_EXTRACT_KEY_INFO(无法提取关键信息)
无法提取密钥信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
无法提取存储账户信息
无法提取存储帐户信息。路径:“<path>
”,解析的 URI:“<uri>
”
CF_无法有效列出
收到路径 <path>
的目录重命名事件,但无法有效地列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。
CF_UNEXPECTED_READ_LIMIT
意外的 ReadLimit:<readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
找到未知选项键:
<optionList>
请确保提供的所有选项键都正确。 如果您想要跳过某个步骤,请执行以下操作:
选项验证步骤并忽略这些未知选项,你可以设置:
.option(“cloudFiles.<validateOptions>
”, “false”)
CF_UNKNOWN_READ_LIMIT(未知读取限制)
未知 ReadLimit:<readLimit>
不支持的清洁源移动
cleanSource “move” 模式配置不受支持。
有关详细信息 ,请参阅CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION (不支持的云文件SQL函数)
仅 Lakeflow 声明性管道支持使用 SQL 函数“cloud_files”来创建自动加载器流式源。 请参阅以下位置的更多详细信息:
<docLink>
不支持格式以进行模式推断
格式 <format>
不支持架构推理。 请指定架构。
CF_不支持的日志版本
UnsupportedLogVersion:支持的最大日志版本为 v<maxVersion>
,但遇到的是 v<version>
。 日志文件由较新版本的 DBR 生成,此版本无法读取。 请升级。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE不支持的模式进化方案
架构演变模式 <mode>
不支持用于格式:<format>
。 请将架构演变模式设置为“none”。
CF_USE_DELTA_FORMAT
此语法不支持从 Delta 表读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表(<deltaDocLink>
),或读取 Delta 表作为流源(<streamDeltaDocLink>
)。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。
地理空间
EWKB_PARSE_ERROR(EWKB解析错误)
分析 EWKB 时出错:<parseError>
位置处的 <pos>
GEOJSON_PARSE_ERROR
在位置 <parseError>
解析 GeoJSON 时出错:<pos>
有关详细信息,请参阅 GEOJSON_PARSE_ERROR
地理编码器SRID不匹配错误
无法对值进行编码 <type>
,因为提供要编码的值的 SRID <valueSrid>
与 SRID 类型不匹配: <typeSrid>
。
H3_INVALID_CELL_ID
<h3Cell>
不是有效的 H3 单元格 ID
有关更多详细信息,请参阅 H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 网格距离 <k>
必须为非负
有关更多详细信息,请参阅 H3_INVALID_GRID_DISTANCE_VALUE
H3_无效解析值
H3 分辨率 <r>
必须介于 <minR>
和 <maxR>
之间(含两端)
有关更多详细信息,请参阅 H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
禁用或不支持 <h3Expression>
。 请考虑切换到支持 H3 表达式的层
有关更多详细信息,请参阅 H3_NOT_ENABLED
H3_五角大楼_遇到错误
计算网格距离为 <h3Cell>
的 <k>
的六边形环时出现五边形
H3_未定义网格距离
未定义 <h3Cell1>
和 <h3Cell2>
之间的 H3 网格距离
不同SRID值
“<sqlFunction>
”的参数必须具有相同的 SRID 值。 找到的 SRID 值:<srid1>
、<srid2>
ST_无效参数
“”<sqlFunction>
: <reason>
ST_参数类型无效
“<sqlFunction>
”的参数必须为 <validTypes>
类型
ST_INVALID_CRS_TRANSFORMATION_ERROR (坐标参考系统转换错误无效)
<sqlFunction>
:从 SRID <srcSrid>
到 SRID <trgSrid>
无效或不受支持的 CRS 转换
ST_INVALID_ENDIANNESS_VALUE (无效的字节序值)
Endianness“<e>
”必须是“NDR”(little-endian) 或“XDR”(big-endian)
ST_INVALID_GEOHASH_VALUE (地理哈希值无效)
<sqlFunction>
:无效的 geohash 值:“<geohash>
”。 Geohash 值必须是有效的小写 base32 字符串,如前所述 https://en.wikipedia.org/wiki/Geohash#Textual_representation
无效索引值
<sqlFunction>
:提供的地理空间值的索引 <index>
无效。
ST_INVALID_PRECISION_VALUE(无效的精度值)
精度 <p>
必须在 <minP>
和 <maxP>
之间(含)
ST_INVALID_SRID_VALUE (无效的SRID值)
无效或不受支持的 SRID <srid>
ST_未启用
禁用或不支持 <stExpression>
。 请考虑切换到支持 ST 表达式的层
ST_不支持的返回类型
查询中无法返回 GEOGRAPHY
和 GEOMETRY
数据类型。 使用以下 SQL 表达式之一将其转换为标准交换格式:<projectionExprs>
。
WKB_PARSE_ERROR
分析 WKB 时出错:<parseError>
位置处的 <pos>
有关更多详细信息,请参阅 WKB_PARSE_ERROR
WKT_PARSE_ERROR
分析 WKT 时出错:<parseError>
位置处的 <pos>
有关更多详细信息,请参阅 WKT_PARSE_ERROR
统一目录
列名冲突错误
列 <columnName>
与同名但不包含尾随空格的另一列冲突(例如,名为 <columnName>
现有列)。 请使用其他名称重命名列。
不支持在线表连接的连接凭据
SQLSTATE:未分配
为 <connectionType>
类型的连接获取连接级别凭据的请求无效。 此类凭据仅适用于托管 PostgreSQL 连接。
连接类型未启用
SQLSTATE:未分配
连接类型“<connectionType>
”未启用。 请启用连接以使用它。
DELTA_SHARING_READ_ONLY_接收者存在
SQLSTATE:未分配
已存在具有相同共享标识符“<existingRecipientName>
”的收件人对象“<existingMetastoreId>
”。
仅限读取的安全类型
SQLSTATE:未分配
Delta Sharing 安全对象类型 <securableKindName>
的数据是只读的,不能创建、修改或删除。
元存储上的外部访问已禁用
SQLSTATE:未分配
由于已禁用元存储 <metastoreName>
的外部数据访问,非 Databricks 计算环境会拒绝凭据贩卖。 请联系元存储管理员,以在元存储上启用“外部数据访问”配置。
不允许外部访问该表
SQLSTATE:未分配
由于表的类型是 <tableId>
,ID 为 <securableKind>
的表无法从 Databricks 计算环境外部访问。 只能从外部访问“TABLE_EXTERNAL
”、“TABLE_DELTA_EXTERNAL
”和“TABLE_DELTA
”表类型。
外部使用模式分配给错误的可保护类型
SQLSTATE:未分配
特权 EXTERNAL
USE SCHEMA
不适用于该实体 <assignedSecurableType>
,只能用于架构或目录。 请从 <assignedSecurableType>
对象中删除该权限,并将其分配给架构或目录。
不允许对表进行外部写入
SQLSTATE:未分配
id 为 <tableId>
的表无法从 Databricks 计算环境外部写入,因为它的类型 <securableKind>
。 只能从外部写入“TABLE_EXTERNAL
”和“TABLE_DELTA_EXTERNAL
”表类型。
外部目录存储根必须支持写入
SQLSTATE:未分配
<catalogType>
类型的外部目录的存储位置将用于卸载数据,因此不能设置为只读。
HMS_可保护的重叠限制已超出
SQLSTATE:未分配
输入路径 <resourceType>
的 <url>
数量超过了重叠 HMS <overlapLimit>
允许的限制 (<resourceType>
)。
无效的资源名称_DELTA_共享
SQLSTATE:未分配
使用资源名称不支持 Delta Sharing 请求
无效资源名称实体类型
SQLSTATE:未分配
提供的资源名称引用实体类型 <provided>
,但应该引用 <expected>
INVALID_RESOURCE_NAME_METASTORE_ID (无效的资源名称: METASTORE_ID)
SQLSTATE:未分配
提供的资源名称引用不在当前请求范围内的元存储
位置重叠
SQLSTATE:未分配
输入路径 URL“<path>
”与“<overlappingLocation>
”调用内的 <caller>
重叠。
<conflictingSummary>
。 <permissionErrorSuggestion>
MONGO_DB_SRV_连接字符串不允许指定端口
SQLSTATE:未分配
不允许创建或更新 MongoDB 连接,因为 MongoDB SRV 连接字符串不需要端口。
请删除端口,因为 SRV 连接字符串不需要端口。
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE:未分配
Redshift 外部目录的存储根必须是 AWS S3。
安全类型不支持湖仓联合
SQLSTATE:未分配
类型为 <securableKind>
的安全对象不支持 Lakehouse Federation。
可保护类型未启用
SQLSTATE:未分配
未启用安全对象类型“<securableKind>
”。 如果这是与预览功能关联的安全对象类型,请在工作区设置中启用它。
不支持湖仓联邦的安全类型
SQLSTATE:未分配
类型为 <securableType>
的安全对象不支持 Lakehouse Federation。
源表列数超过限制
SQLSTATE:未分配
源表包含的列数超过 <columnCount>
。 请将列数减少到 <columnLimitation>
或更少。
UC_AAD_TOKEN_寿命太短
SQLSTATE:未分配
交换的 AAD 令牌生存期 <lifetime>
配置得太短。 请检查 Azure AD 设置,确保临时访问令牌至少具有一小时生存期。 https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
统一配置_基于属性的访问控制_依赖项_不同_RF_CM
SQLSTATE:未分配
依赖项“<dependency>
”被多次引用,导致 ABAC 行筛选器或列掩码不同。
UC_ABAC_评估错误
SQLSTATE:未分配
评估 <resource>
上的 ABAC 策略时出错。
UC_ABAC_评估用户错误
SQLSTATE:未分配
评估<resource>
上的 ABAC 策略时出错。 策略“<policyName>
”失败并显示消息: <message>
。
在定义的管道之外修改DLT视图
SQLSTATE:未分配
不允许在定义视图的管道外部更改视图“<viewFullName>
”。 而是从定义视图的管道(管道 ID: <owningPipelineId>
) 更新视图定义。
UC_AUTHZ_操作不支持
SQLSTATE:未分配
不支持授权 <actionName>
;请检查是否已为此资源类型实现 RPC
UC_内建_HMS_连接创建权限被拒绝
SQLSTATE:未分配
无法为内置 hive 元存储创建连接,因为用户:<userId>
不是工作区的管理员:<workspaceId>
UC_内置_HMS_连接_修改_受限_字段
SQLSTATE:未分配
尝试修改内置的 HMS 连接“<connectionName>
”中的受限字段。 只能更新“warehouse_directory”。
无法重命名分区过滤列
SQLSTATE:未分配
无法重命名表列 <originalLogicalColumn>
,因为它用于 <sharedTableName>
中的分区筛选。 若要继续操作,可以从共享中删除表,重命名列,然后再次与所需的分区筛选列共享。 不过,这可能会中断收件人的流式处理查询。
UC 子创建禁止非 UC 集群
SQLSTATE:未分配
无法在 <securableType>
“<securable>
”下创建 <parentSecurableType>
“<parentSecurable>
”,因为请求不是来自 UC 群集。
UC_云存储访问失败
SQLSTATE:未分配
无法访问云存储:<errMsg>
exceptionTraceId=<exceptionTraceId>
连接选项冲突 (UC_CONFLICTING_CONNECTION_OPTIONS)
SQLSTATE:未分配
无法使用用户名/密码和 oauth 身份验证选项创建连接。 请选择一个。
连接凭证数量已达上限
SQLSTATE:未分配
连接名称“<connectionName>
”的最大凭据数量已达到。 请在创建新凭据之前删除现有凭据。
用户的登录连接凭据不存在
SQLSTATE:未分配
找不到连接“<userIdentity>
'”的用户标识凭据。<connectionName>
请先登录以连接,通过访问<connectionPage>
UC连接凭据类型不支持
SQLSTATE:未分配
不支持为安全对象类型“”<securableType>
创建凭据。 支持的安全对象类型: <allowedSecurableType>
。
凭证已存在 UC 连接
SQLSTATE:未分配
凭证“<credentialName>
”具有一个或多个依赖连接。 可以使用强制选项继续更新或删除凭据,但使用此凭据的连接可能不再有效。
连接过期访问令牌
SQLSTATE:未分配
与连接关联的访问令牌已过期。 请更新连接以重启 OAuth 流以检索令牌。
UC_连接已过期_刷新令牌
SQLSTATE:未分配
与连接关联的刷新令牌已过期。 请更新连接以重启 OAuth 流以检索新的令牌。
UC连接处于失败状态
SQLSTATE:未分配
连接处于 FAILED
状态。 请使用有效的凭据更新连接以重新激活连接。
UC连接缺少选项
SQLSTATE:未分配
安全类型“”<securableType>
的连接必须包括以下选项(s): <requiredOptions>
。
UC连接缺少刷新令牌
SQLSTATE:未分配
没有与连接关联的刷新令牌。 请更新标识提供者中的 OAuth 客户端集成以返回刷新令牌,并更新或重新创建连接以重启 OAuth 流并检索所需的令牌。
UC_连接_OAUTH_交换_失败
SQLSTATE:未分配
OAuth 令牌交换失败,HTTP 状态代码 <httpStatus>
。 返回的服务器响应或异常消息为:<response>
不支持的UC连接选项
SQLSTATE:未分配
安全对象类型<securableType>
的连接不支持以下选项:<optionsNotSupported>
. 支持的选项:<allowedOptions>
。
UC_联合提交_未启用
SQLSTATE:未分配
未启用对协调提交的支持。 请联系 Databricks 支持部门。
不活动安全对象下禁止创建
SQLSTATE:未分配
无法创建 <securableType>
“<securableName>
”,因为它位于不活动的 <parentSecurableType>
“<parentSecurableName>
”。 请删除父级安全对象并重新创建父级。
UC_凭据_访问_连接器_解析失败
SQLSTATE:未分配
未能解析给定的访问连接器 ID:<accessConnectorId>
。 请验证其格式并重试。
凭证无法获取验证令牌失败
SQLSTATE:未分配
未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。
UC_凭证_无效_云权限
SQLSTATE:未分配
注册凭据需要通过 ID 为 <accessConnectorId>
的相应访问连接器提供参与者角色。 请联系你的帐户管理员。
证书无效,类型与用途不符
SQLSTATE:未分配
出于目的“<credentialType>
”,不支持凭证类型“<credentialPurpose>
”
UC_凭证权限被拒绝
SQLSTATE:未分配
只有帐户管理员可以创建或更新类型为 <storageCredentialType>
的凭据。
UC凭证信任策略是开放的
SQLSTATE:未分配
IAM 角色的信任策略,以允许 Databricks 帐户承担该角色应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范混淆代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
UC_CREDENTIAL_不支持无特权的服务主体
SQLSTATE:未分配
服务主体无法使用 CREATE_STORAGE_CREDENTIAL
特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。
UC_CREDENTIAL_WORKSPACE_API_禁止使用
SQLSTATE:未分配
帐户级 API 不支持以非帐户管理员身份创建或更新凭据。 请改用工作区级 API。
UC_DBR_信任版本过旧
SQLSTATE:未分配
正在使用的 Databricks Runtime 不再支持此操作。 请使用最新版本(可能需要重启群集)。
UC_DELTA_通用格式无法解析_ICEBERG_VERSION
SQLSTATE:未分配
无法从元数据位置 <metadataLocation>
分析 Iceberg 表版本。
通用格式并发写操作
SQLSTATE:未分配
检测到对同一冰山元数据版本的并发更新。
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION - 通用格式的元数据位置无效
SQLSTATE:未分配
提交的元数据位置 <metadataLocation>
无效。 它不是表根目录 <tableRoot>
的子目录。
UC_增量_通用格式_字段缺失约束
SQLSTATE:未分配
提供的 delta iceberg 格式转换信息缺少必填字段。
UC_增量_通用_格式_不可创建_约束
SQLSTATE:未分配
不支持设置有关创建 delta iceberg 格式的信息。
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT(通用格式过大限制)
SQLSTATE:未分配
提供的 delta iceberg 格式转换信息太大。
UC_DELTA_通用格式更新无效
SQLSTATE:未分配
只能在启用了统一的 Delta 表上更新统一元数据。
UC_依赖深度已超限 (UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED)
SQLSTATE:未分配
<resourceType>
“<ref>
”深度超过限制(或具有循环引用)。
UC_依赖不存在
SQLSTATE:未分配
<resourceType>
“<ref>
”无效,因为其中一个基础资源不存在。 <cause>
UC_DEPENDENCY_PERMISSION_DENIED (依赖项权限被拒绝)
SQLSTATE:未分配
<resourceType>
“<ref>
”没有足够的权限执行,因为其中一个基础资源的所有者未能通过授权检查。 <cause>
重复连接 (UC_DUPLICATE_CONNECTION)
SQLSTATE:未分配
已存在具有相同 URL 的名为“'”<connectionName>
的连接。 请要求所有者使用该连接的权限,而不是创建重复连接。
面料目录重复创建
SQLSTATE:未分配
尝试创建 URL 为“<storageLocation>
”的 Fabric 目录,该目录与现有目录匹配,这是不允许的。
标签分配创建重复
SQLSTATE:未分配
具有标记键的标记分配 <tagKey>
已存在
UC实体不存在对应的在线集群
SQLSTATE:未分配
实体 <securableType> <entityId>
没有相应的联机群集。
UC_ERROR_CODE_XWYEY
SQLSTATE:未分配
如果此问题仍然存在,请联系带有错误代码为 UC-XWYEY
的 Databricks 支持部门。
超过最大文件限制
SQLSTATE:未分配
文件数超过 <maxFileResults>
。 请指定 [max_results] 以限制返回的文件数。
UC_外部位置操作不允许
SQLSTATE:未分配
无法 <opName> <extLoc> <reason>
。
<suggestion>
。
UC_功能已禁用
SQLSTATE:未分配
<featureName>
当前已在 UC 中禁用。
不支持的连接类型的外国目录
SQLSTATE:未分配
不支持为连接类型“<connectionType>
”创建外部目录。 此连接类型只能用于创建托管引入管道。 有关详细信息,请参阅 Databricks 文档。
UC_仅限读取操作的外部凭证检查
SQLSTATE:未分配
只能检索外表的 READ 凭据。
UC_外国_HMS_浅层克隆不匹配
SQLSTATE:未分配
基表和克隆表必须在同一个目录中,这样才能在外部 Hive 元存储目录中创建浅克隆表。 基表“”位于目录“<baseTableName>
<baseCatalogName>
中,克隆表”<cloneTableName>
“位于目录”“<cloneCatalogName>
中。
外键子列长度不匹配
SQLSTATE:未分配
外键 <constraintName>
子列和父列的大小不同。
外键列不匹配错误 (UC_FOREIGN_KEY_COLUMN_MISMATCH)
SQLSTATE:未分配
外键父列与引用的主键子列不匹配。 外键父列是(<parentColumns>
),主键子列是(<primaryKeyChildColumns>
)。
UC_外键列类型不匹配
SQLSTATE:未分配
外键子列类型与父列类型不匹配。 外键子列 <childColumnName>
具有类型 <childColumnType>
,父列 <parentColumnName>
具有类型 <parentColumnType>
。
UC_GCP_INVALID_PRIVATE_KEY(无效的私钥)
SQLSTATE:未分配
访问被拒绝。 原因:服务帐户私钥无效。
UC_GCP_无效的私钥JSON格式
SQLSTATE:未分配
Google Server 帐户 OAuth 私钥必须是具有必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页的“KEYS”部分生成的完整 JSON 文件。
UC_GCP_私钥JSON格式无效_缺少字段
SQLSTATE:未分配
Google Server 帐户 OAuth 私钥必须是具有必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页的“KEYS”部分生成的完整 JSON 文件。 缺少的字段为 <missingFields>
UC_IAM角色_不可自我承担
SQLSTATE:未分配
发现此存储凭据的 IAM 角色不是自假设的。 请检查角色的信任和 IAM 策略,以确保 IAM 角色可以根据 Unity Catalog 存储凭证文档自行承担。
UC_ICEBERG_提交_冲突
SQLSTATE:未分配
无法提交 <tableName>
:元数据位置 <baseMetadataLocation>
已从 <catalogMetadataLocation>
更改。
UC_ICEBERG_COMMIT_INVALID_TABLE (提交无效表)
SQLSTATE:未分配
无法对非托管 Iceberg 表执行托管 Iceberg 提交:<tableName>
。
提交缺少字段约束
SQLSTATE:未分配
提供的 Managed Iceberg 提交信息缺少必填字段。
UC_ID_MISMATCH (识别码不匹配)
SQLSTATE:未分配
<type> <name>
没有 ID <wrongId>
。 请重试该操作。
UC_无效访问_BRICKSTORE_PG_连接
SQLSTATE:未分配
对数据库实例的访问无效。 <reason>
UC_INVALID_ACCESS_DBFS_ENTITY (DBFS 实体无效访问)
SQLSTATE:未分配
在联合目录 <securableType> <securableName>
中,访问 <catalogName>
是无效的。 <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID (无效的Cloudflare账户ID)
SQLSTATE:未分配
Cloudflare 帐户 ID 无效。
UC_凭证无效_云
SQLSTATE:未分配
凭证云提供商“<cloud>
”无效。 允许的云提供商“<allowedCloud>
”。
UC_INVALID_CREDENTIAL_PURPOSE_VALUE (无效的凭证用途值)
SQLSTATE:未分配
凭据“purpose”的值“<value>
”无效。 允许的值“<allowedValues>
”。
凭证转换无效
SQLSTATE:未分配
无法将连接从 <startingCredentialType>
更新为 <endingCredentialType>
。 唯一有效的转换是从基于用户名/密码的连接到基于 OAuth 令牌的连接。
UC_INVALID_CRON_STRING_FABRIC(无效的 CRON 字符串设置错误)
SQLSTATE:未分配
cron 字符串无效。 找到了:“<cronString>
”并出现分析异常:“<message>
”
UC_无效直接访问管理表格
SQLSTATE:未分配
直接访问托管表 <tableName>
无效。 确保未定义源表和管道定义。
无效的空存储位置
SQLSTATE:未分配
目录“<securableType>
”中的 <securableName>
“<catalogName>
”出现意外空存储位置。 若要修复此错误,请运行 DESCRIBE SCHEMA <catalogName>
。
<securableName>
并刷新此页面。
无效选项更新
SQLSTATE:未分配
提供的更新选项无效。 无效选项:<invalidOptions>
。 允许的选项:<allowedOptions>
。
无效的选项值
SQLSTATE:未分配
“<value>
”的“<option>
”值无效。 允许的值“<allowedValues>
”。
选项值为空
SQLSTATE:未分配
“<option>
”不能为空。 请输入非空值。
UC_无效的政策条件
SQLSTATE:未分配
策略“”<policyName>
中的条件无效。 包含消息“<message>
”的编译错误。
UC_INVALID_R2_ACCESS_KEY_ID (无效的R2访问密钥ID)
SQLSTATE:未分配
R2 访问密钥 ID 无效。
UC_INVALID_R2_SECRET_ACCESS_KEY (无效的 R2 密钥访问权限)
SQLSTATE:未分配
R2 机密访问密钥无效。
在系统工作区管理员组拥有的可保护对象上进行无效更新
SQLSTATE:未分配
无法更新 <securableType>
“<securableName>
”,因为它由内部组拥有。 请联系 Databricks 支持部门了解更多详细信息。
UC_无效_WASBS_外部位置存储凭据
SQLSTATE:未分配
如果存储凭据 <storageCredentialName>
未与 DBFS 根关联,则禁止创建 wasbs 外部位置。
UC_位置_无效方案
SQLSTATE:未分配
存储位置的 URI 方案无效:<scheme>
。
UC_格式错误_OAUTH_服务器响应
SQLSTATE:未分配
令牌服务器的响应缺少字段 <missingField>
。 返回的服务器响应为:<response>
UC_METASTORE_ASSIGNMENT_STATUS_INVALID (元数据存储分配状态无效)
SQLSTATE:未分配
无法分配“<metastoreAssignmentStatus>
'。 仅支持 MANUALLY_ASSIGNABLE
和 AUTO_ASSIGNMENT_ENABLED
。
UC_元数据存储_认证_未启用
SQLSTATE:未分配
未启用Metastore认证。
UC_METASTORE_DB分片映射未找到
SQLSTATE:未分配
由于内部错误,无法检索元存储到元存储 ID 的数据库分片映射 <metastoreId>
。 请联系 Databricks 支持部门。
UC_元数据存储_有_活动_托管_在线_目录
SQLSTATE:未分配
元存储 <metastoreId>
具有 <numberManagedOnlineCatalogs>
托管联机目录。 请显式删除它们,然后重试元存储删除。
UC_元数据存储主凭证更新无效
SQLSTATE:未分配
更新元存储根位置时,无法定义元存储根凭据。 将从元存储父外部位置提取凭据。
UC_METASTORE_存储根目录删除无效
SQLSTATE:未分配
删除元存储根位置失败。 <reason>
UC_元数据存储_存储根_只读_无效
SQLSTATE:未分配
元存储的根 <securableType>
不能为只读。
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID (元数据存储根更新无效)
SQLSTATE:未分配
设置元存储根目录后,无法更新元存储根。
UC_MODEL_状态无效
SQLSTATE:未分配
无法为状态为 <opName>
的模型版本 <modelVersion>
生成临时“<modelVersionStatus>
”凭证。 “<opName>
”凭证只能为状态为 <validStatus>
的模型版本生成
在上下文中没有组织ID
SQLSTATE:未分配
尝试访问组织 ID(或工作区 ID),但上下文没有。
UC_在线目录不可变更
SQLSTATE:未分配
<rpcName>
请求更新 <fieldName>
。 使用联机存储计算选项卡修改联机目录的注释、所有者和 isolationMode 以外的任何内容。
在线目录配额超出限额
SQLSTATE:未分配
无法在元存储中创建超过 <quota>
个联机存储,并且已存在 <currentCount>
。 您可能无法访问任何现有的在线商店。 请联系数据存储管理员,获取访问权限或进一步说明。
UC_ONLINE_INDEX_目录_无效_CRUD
SQLSTATE:未分配
联机索引目录必须通过 /vector-search API 进行 <action>
。
在线索引目录不可变
SQLSTATE:未分配
<rpcName>
请求更新 <fieldName>
。 使用 /vector-search API 修改联机索引目录的注释、所有者和 isolationMode 以外的任何内容。
在线索引目录配额超限
SQLSTATE:未分配
无法在元存储中创建超过 <quota>
个联机索引目录,并且已存在 <currentCount>
。 你可能无权访问任何现有的联机索引目录。 请联系数据存储管理员,获取访问权限或进一步说明。
在线索引无效的CRUD操作 (UC_ONLINE_INDEX_INVALID_CRUD)
SQLSTATE:未分配
联机索引必须通过 /vector-search API 进行 <action>
。
UC_ONLINE_STORE无效创建读取更新删除
SQLSTATE:未分配
必须通过联机存储计算选项卡 <action>
联机存储。
UC_在线_表格_列名_过长
SQLSTATE:未分配
源表列名 <columnName>
太长。 最大长度为 <maxLength>
个字符。
UC_ONLINE_TABLE_主键列不在源表主键约束中
SQLSTATE:未分配
列 <columnName>
不能用作联机表的主键列,因为它不属于源表的现有 PRIMARY KEY
约束的一部分。 有关详细信息,请参阅 <docLink>
UC在线表时间序列键不在源表主键约束中
SQLSTATE:未分配
列 <columnName>
不能用作联机表的超时键,因为它不是源表现有 PRIMARY KEY
约束的超时列。 有关详细信息,请参阅 <docLink>
UC_在线视图_每来源表_配额超出
SQLSTATE:未分配
无法为每个源表创建 <quota>
个以上的联机表。
UC_在线查看访问被拒绝
SQLSTATE:未分配
访问资源 <resourceName>
需要使用无服务器 SQL 仓库。 请确保用于在 UI 中执行查询或查看数据库目录的仓库是无服务器的。 有关详细信息,请参阅 <docLink>
UC_在线查看连续配额超限
SQLSTATE:未分配
无法在联机存储中创建超过 <quota>
连续联机视图,并且已存在 <currentCount>
。 您可能无法访问任何现有的在线视图。 请联系您的在线商店管理员,以授予访问权限或进一步说明。
UC_ONLINE_VIEW 不支持 DMK
SQLSTATE:未分配
不能使用 Databricks 托管密钥在存储位置下创建 <tableKind>
。 请在存储位置中选择一个不同的架构/目录,而不使用 Databricks 托管密钥加密。
无效目录视图
SQLSTATE:未分配
具有创建 <catalogName>
的种类 <catalogKind>
的目录 <tableKind>
无效。
<tableKind>
只能在 <validCatalogKinds>
类型的目录下创建。
UC_在线视图_无效_模式
SQLSTATE:未分配
要在其中创建 <schemaName>
的类型 <schemaKind>
的架构 <tableKind>
无效。
<tableKind>
只能在特定类型的架构下创建:<validSchemaKinds>
。
UC_在线查看_无效TTL时间列类型
SQLSTATE:未分配
<columnName>
类型的列 <columnType>
不能用作 TTL 时间列。 允许的类型是 <supportedTypes>
。
UC_OPERATION_NOT_SUPPORTED(不支持的操作)
SQLSTATE:未分配
Unity 目录不支持的操作。 <detailedMessage>
授权路径范围之外
SQLSTATE:未分配
授权路径错误。 目录的授权路径中未定义 <securableType>
位置 <___location>
:<catalogName>
。 请要求目录所有者将路径添加到目录上定义的授权路径列表中。
UC_重复授权路径
SQLSTATE:未分配
“authorized_paths”选项包含重叠的路径:<overlappingPaths>
。 确保每个路径都是唯一的,并且不会与列表中的其他人相交。
UC_分页和查询参数不匹配
SQLSTATE:未分配
查询参数“<arg>
”设置为“<received>
”,它与第一个分页调用(“<expected>
”)中使用的值不同
路径过滤器允许列表违规
SQLSTATE:未分配
不允许使用凭据“<targetPath>
”的路径“<credentialName>
”。 请确保该路径是以下列表中的元素的子路径:“”。<allowlist>
路径过长_uc
SQLSTATE:未分配
输入路径太长。 允许的长度:<maxLength>
。 输入长度:<inputLength>
。 输入: <path>
...
元存储数据库并发限制超出
SQLSTATE:未分配
元存储 <metastoreId>
超出了并发限制。 请稍后重试。 如果问题仍然存在,请联系支持人员。 错误代码 #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_每个源表的在线视图配额已超出
SQLSTATE:未分配
无法为每个源表创建多个 <quota>
同步的数据库表。
可为空列上的唯一主键
SQLSTATE:未分配
无法创建主键 <constraintName>
,因为其子列 <childColumnNames>
可为 null。 请更改列的可为 null 性,然后重试。
请求超时 (UC_REQUEST_TIMEOUT)
SQLSTATE:未分配
此操作花费的时间过长。
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
SQLSTATE:未分配
Unity Catalog 不支持包含点的根存储 S3 存储桶名称:<uri>
UC_架构_空存储位置
SQLSTATE:未分配
目录“<schemaName>
”中的架构“<catalogName>
”出现意外空存储位置。 请确保架构使用 <validPathSchemesListStr>
的路径方案。
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING (无服务器不受信域存储令牌铸造)
SQLSTATE:未分配
无服务器笔记本无法从 Unity 目录中检索临时存储凭据。
存储凭证访问连接器解析失败
SQLSTATE:未分配
未能解析给定的访问连接器 ID:<accessConnectorId>
。 请验证其格式并重试。
UC_STORAGE_CREDENTIAL_DBFS 根目录创建权限被拒绝
SQLSTATE:未分配
无法为 DBFS 根目录创建存储凭据,因为用户:<userId>
不是工作区的管理员:<workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE:未分配
启用了防火墙的 DBFS 的工作区尚不支持 DBFS 根存储凭据
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE:未分配
尚不支持当前工作区的 DBFS 根存储凭据
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE:未分配
未为工作区 <workspaceId>
启用 DBFS 根
无法获取验证令牌的存储凭据错误
SQLSTATE:未分配
未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。
存储凭证无效云权限
SQLSTATE:未分配
注册存储凭据需要通过 ID 为 <accessConnectorId>
的相应访问连接器提供参与者角色。 请联系你的帐户管理员。
UC_存储凭证权限被拒绝
SQLSTATE:未分配
只有帐户管理员可以创建或更新类型为 <storageCredentialType>
的存储凭据。
UC_存储_凭证_服务_主体_缺少_验证_令牌
SQLSTATE:未分配
缺少服务主体的验证令牌。 请在“X-Databricks-Azure-SP-Management-Token”请求标头中提供有效的 ARM 范围内的 Entra ID 令牌,然后重试。 有关详细信息,请查看 https://docs.databricks.com/api/workspace/storagecredentials
存储凭证信任策略设置为开放
SQLSTATE:未分配
IAM 角色的信任策略,以允许 Databricks 帐户承担该角色应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范混淆代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
存储凭证不支持无权限的服务主体
SQLSTATE:未分配
服务主体无法使用 CREATE_STORAGE_CREDENTIAL
特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。
UC存储凭证_WASBS_不是_DBFS根路径
SQLSTATE:未分配
位置 <___location>
不在 DBFS 根内,因此,我们无法创建存储凭证 <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE:未分配
帐户级 API 不支持在非帐户管理员身份下创建或更新存储凭据。 请改用工作区级 API。
UC存储凭证_WS_桶_无效位置
SQLSTATE:未分配
位置 <requestedLocation>
不在允许的上下文中 <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
SQLSTATE:未分配
尚不支持当前工作区的工作区内部目录存储凭据
UC系统工作区组权限不支持
SQLSTATE:未分配
无法向系统生成的组 <securableType>
授予对 <principal>
的权限。
UC_表_没有_目录_所有权
SQLSTATE:未分配
对表“<tableId>
”执行提交/getCommits 的请求要求启用表上的目录所属功能。
标签分配不存在
SQLSTATE:未分配
标记键为 <tagKey>
的标记分配不存在
不支持暂时凭证操作
SQLSTATE:未分配
不支持临时凭据操作。
资源标识符已存在
SQLSTATE:未分配
无法取消删除“<resourceType>
”,因为 ID 为“<resourceType>
”的“<resourceId>
”已存在。
资源名称已存在且无法删除
SQLSTATE:未分配
无法取消删除“<resourceType>
”,因为名称为“<resourceType>
”的“<resourceName>
”已存在。
UC_UNDROP_RESOURCE_NOT_READY
SQLSTATE:未分配
无法撤销对“<resourceType>
”的删除,因为 ID 为“<resourceType>
”的“<resourceId>
”尚未准备好恢复,请稍后重试。
UC_取消删除资源超出可恢复窗口
SQLSTATE:未分配
无法取消删除“<resourceType>
”,因为 ID 为“<resourceType>
”的“<resourceId>
”超出了支持的还原期(<maxRestorationPeriodDay>
天)。
不支持的HTTP连接基本路径
SQLSTATE:未分配
提供的基路径无效,基本路径应类似于 /api/resources/v1。 不支持的路径:<path>
UC_不支持的_HTTP连接主机
SQLSTATE:未分配
提供的主机名无效,主机名应类似于 https://www.databricks.com,且不应包含路径后缀。 不支持的主机:<host>
路径中不支持的拉丁字符
SQLSTATE:未分配
外部位置/卷/表路径仅支持基本 Latin/Latin-1 ASCII
字符。 不支持的路径:<path>
更新禁止用于安全配置
SQLSTATE:未分配
无法更新 <securableType>
“<securableName>
”,因为它正在预配。
UC_写入冲突
SQLSTATE:未分配
<type> <name>
已被另一个请求修改。 请重试该操作。
UNITY_CATALOG_外部协调提交请求被拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为表“<tableId>
”执行 commit/getCommits 的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
统一目录外部创建临时表请求被拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部创建临时表“<tableFullName>
”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY目录外部创建表请求被非外部表拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部创建非外部表“<tableFullName>
”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_外部删除非外部表请求_被拒绝
SQLSTATE:未分配
不支持从启用了 Databricks Unity 目录的计算环境外部删除非外部表“<tableFullName>
”的请求。
UNITY目录外部路径生成凭证拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为路径“<path>
”生成访问凭证的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED (外部生成表凭证被拒绝)
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为表“<tableId>
”生成访问凭证的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_获取外部凭证_拒绝
SQLSTATE:未分配
出于安全原因,拒绝从启用了 Databricks Unity 目录的计算环境外部获取安全对象的外部凭据的请求。
UNITY目录外部元数据快照更新被拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity 目录的计算环境外部更新元数据快照的请求。
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE(不支持遗留托管在线表的写入凭证)
SQLSTATE:未分配
获取联机目录中托管联机表的写入凭据的请求无效。
文件 API
API 文件接口未启用
SQLSTATE:未分配
<api_name>
未启用 API
云路径未启用FILES_API_API
SQLSTATE:未分配
文件 API 的请求方法不支持云路径
文件_API_AWS_访问被拒绝
SQLSTATE:未分配
AWS 拒绝访问存储存储桶。
文件接口亚马逊网络服务所有访问已禁用
SQLSTATE:未分配
AWS 中已禁用对存储存储桶的所有访问。
文件_API_AWS_Bucket_不存在
SQLSTATE:未分配
AWS 中不存在存储存储桶。
文件_API_AWS_禁止访问
SQLSTATE:未分配
AWS 禁止访问存储存储桶。
文件_API_AWS_无效的授权头
SQLSTATE:未分配
工作区配置错误:它必须与 AWS 工作区根存储存储桶位于同一区域。
FILES_API_AWS_INVALID_BUCKET_NAME (提示:存储桶名称无效)
SQLSTATE:未分配
存储存储桶名称无效。
FILES_API_AWS_KMS_KEY_DISABLED(文件API AWS KMS密钥已禁用)
SQLSTATE:未分配
在 AWS 中禁用用于访问存储存储桶的已配置的 KMS 密钥。
文件_API_AWS_未经授权
SQLSTATE:未分配
未经授权访问 AWS 资源。
文件_API_AZURE账户已禁用
SQLSTATE:未分配
存储帐户在 Azure 中处于禁用状态。
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE:未分配
授权权限不匹配。
文件_API_AZURE_容器_不存在
SQLSTATE:未分配
Azure 容器不存在。
文件_API_AZURE_禁止
SQLSTATE:未分配
Azure 禁止访问存储容器。
FILES_API_AZURE_HAS_A_LEASE (Azure 已获取租约)
SQLSTATE:未分配
Azure 回应称该资源目前存在租约。 请稍后再试。
文件_API_AZURE_账户权限不足
SQLSTATE:未分配
要访问的帐户没有足够的权限来执行此作。
文件_API_AZURE_存储账户配置无效
SQLSTATE:未分配
访问的帐户的配置不被支持。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME(Azure存储帐户名称无效)
SQLSTATE:未分配
无法访问 Azure 中的存储帐户:存储帐户名称无效。
基于密钥的Azure身份验证不被允许
SQLSTATE:未分配
Azure 中找不到 Key Vault 保管库。 请检查客户管理的密钥设置。
FILES_API_AZURE_密钥库_密钥未找到
SQLSTATE:未分配
Azure 密钥保管库密钥在 Azure 中找不到。 请检查客户管理的密钥设置。
文件_API_AZURE_密钥保管库_保管库未找到
SQLSTATE:未分配
Azure 中找不到 Key Vault 保管库。 请检查客户管理的密钥设置。
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND(文件接口Azure MI访问连接器未找到)
SQLSTATE:未分配
找不到具有访问连接器的 Azure 托管标识凭据。 这可能是因为 IP 访问控制拒绝了你的请求。
文件_API_AZURE_操作_超时
SQLSTATE:未分配
操作无法在允许的时间内完成。
文件_API_AZURE_路径无效
SQLSTATE:未分配
请求的路径对 Azure 无效。
文件_API_AZURE_路径不可变
SQLSTATE:未分配
请求的路径是不可变的。
FILES_API_AZURE不支持的标头
SQLSTATE:未分配
在操作中指定的某个标头不受支持。
文件_API_无法解析_URL参数
SQLSTATE:未分配
无法分析 URL 参数。
文件_API_目录_未找到
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_云资源耗尽
SQLSTATE:未分配
<message>
文件_API_云存储提供商连接问题
SQLSTATE:未分配
存在连接问题,无法连接到<cloud_storage_provider>
。 请稍后重试。
文件API路径中不支持使用冒号
SQLSTATE:未分配
路径不支持字符“:”
文件_API_消费者_网络_区域_不允许
SQLSTATE:未分配
使用者网络区域“<consumer_network_zone>
”不允许来自请求方网络区域“<requester_network_zone>
”。
文件_API_控制平面网络区域_不允许
SQLSTATE:未分配
不允许 Databricks 控制平面网络区域。
文件API目录不能包含内容
SQLSTATE:未分配
提供了正文,但目录不能包含文件正文
文件_API_目录_不为空
SQLSTATE:未分配
目录不为空。 不支持对非空目录进行此操作。
文件接口目录未找到 (FILES_API_DIRECTORY_IS_NOT_FOUND)
SQLSTATE:未分配
找不到要访问的目录。
文件_API_DMK_加密根密钥已禁用
SQLSTATE:未分配
禁用客户管理的加密的根密钥。
文件_API_重复_标题
SQLSTATE:未分配
请求包含只允许一次的标头的多个副本。
文件接口重复查询参数
SQLSTATE:未分配
查询参数“<parameter_name>
”必须只出现一次,但却被多次提供。
文件_API_空桶名
SQLSTATE:未分配
DBFS 存储桶名称为空。
文件_API_加密_密钥_权限_被拒绝
SQLSTATE:未分配
用户无权访问加密密钥。
文件API加密密钥检索操作超时
SQLSTATE:未分配
检索加密密钥的作无法在允许的时间内完成。
文件_API_实体过大
SQLSTATE:未分配
对象超过允许的最大对象大小。
文件_API_错误_TTL_已过期
SQLSTATE:未分配
TTL 已过期。
文件_API_错误_无效_TTL
SQLSTATE:未分配
TTL 无效。
工作区的文件API错误密钥未找到
SQLSTATE:未分配
找不到工作区的密钥。
文件_API_错误_缺少必要参数
SQLSTATE:未分配
URL 缺少必需的参数。
文件_API错误_TTL_在将来时间
SQLSTATE:未分配
TTL 在将来。
文件_API_错误_URL_无效_发行者_分片名称 (FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME)
SQLSTATE:未分配
颁发者分片名称无效。
文件_API_过期时间_必须存在
SQLSTATE:未分配
过期时间必须存在
文件_API_令牌过期
SQLSTATE:未分配
提供的令牌已过期。
文件_API_过期时间必须是未来的
SQLSTATE:未分配
ExpireTime 必须是未来时间
文件_API_过期时间过于未来
SQLSTATE:未分配
请求的 TTL 超过支持的最大限制(1 小时)
FILE_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC存储实体
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_文件已存在
SQLSTATE:未分配
正在创建的文件已存在。
文件_API_文件_未找到
SQLSTATE:未分配
找不到要访问的文件。
文件_API_文件或目录以点结尾
SQLSTATE:未分配
不支持以“.”字符结尾的文件或目录。
文件接口文件大小超出限制
SQLSTATE:未分配
文件大小不应超过 <max_download_size_in_bytes>
字节,但发现了 <size_in_bytes>
字节。
文件_API_GCP_帐户已被禁用
SQLSTATE:未分配
GCP 中已禁用对存储存储桶的访问。
文件_API_GCP_存储桶_不存在
SQLSTATE:未分配
GCP 中不存在存储存储桶。
文件_API_GCP_禁止访问
SQLSTATE:未分配
GCP 禁止访问存储桶。
文件_API_GCP_KEY_已禁用或已销毁
SQLSTATE:未分配
为该位置配置的客户管理的加密密钥已被禁用或销毁。
FILES_API_GCP请求被政策禁止
SQLSTATE:未分配
策略禁止向存储桶发出的 GCP 请求,请检查 VPC 服务控制。
文件_API主机暂时不可用
SQLSTATE:未分配
云提供商主机暂时不可用;请稍后重试。
文件_API_无效_继续_标记
SQLSTATE:未分配
提供的页面令牌无效。
文件_API_无效_主机名
SQLSTATE:未分配
主机名无效。
文件接口无效HTTP方法
SQLSTATE:未分配
http 方法无效。 应是“<expected>
”,但收到的是“<actual>
”。
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE:未分配
元存储 ID 标头无效。
文件_API_无效页面令牌
SQLSTATE:未分配
页面令牌无效
文件_API_路径无效
SQLSTATE:未分配
路径无效: <validation_error>
FILES_API_范围无效
SQLSTATE:未分配
范围标头无效。
文件_API_资源全名无效
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_无效的_会话_令牌
SQLSTATE:未分配
会话令牌无效
文件_API_无效_会话_令牌_类型
SQLSTATE:未分配
会话令牌类型无效。 应是“<expected>
”,但收到的是“<actual>
”。
文件_API_时间戳无效
SQLSTATE:未分配
时间戳无效。
文件_API_无效的上传类型
SQLSTATE:未分配
上传类型无效。 应是“<expected>
”,但收到的是“<actual>
”。
文件_API_无效的URL参数
SQLSTATE:未分配
作为参数传递的 URL 无效
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER (文件API覆盖查询参数的无效值)
SQLSTATE:未分配
查询参数“overwrite”必须是其中之一:true 或 false,但为:<got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER(查询参数的值无效)
SQLSTATE:未分配
查询参数“<parameter_name>
”必须是以下项之一:<expected>
,但为:<actual>
文件_API_请求体格式错误
SQLSTATE:未分配
格式不正确的请求正文
文件_API_管理目录功能已禁用
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_元存储_未找到
SQLSTATE:未分配
<unity_catalog_error_message>
文件 API 方法未启用于任务背景计算的工件存储
SQLSTATE:未分配
作业后台计算项目存储不支持文件 API 请求的方法。
文件接口缺少内容长度
SQLSTATE:未分配
请求中需要内容长度标头。
FILES_API_缺少查询参数
SQLSTATE:未分配
查询参数“<parameter_name>
”是必需的,但请求中缺少该参数。
文件 API 请求中缺少必需参数
SQLSTATE:未分配
请求缺少必需的参数。
FILES_API_MLFLOW_PERMISSION_DENIED(文件 API Mlflow 权限被拒绝)
SQLSTATE:未分配
<mlflow_error_message>
文件API模型版本尚未准备好
SQLSTATE:未分配
模型版本尚未就绪
文件_API_多部分上传中止_预签名_URL_不支持
SQLSTATE:未分配
对存储在 <cloud_storage_provider>
上的文件,预签名的 URL 不支持中止多部分上传。
文件_API_多部分上传_空部分列表
SQLSTATE:未分配
部件列表必须至少有一个元素,但为空。
文件接口多部分上传无效部分
SQLSTATE:未分配
找不到一个或多个指定部件。 部件可能尚未上传,或者指定的实体标记可能与部件的实体标记不匹配。
多部分上传无效的分块号
SQLSTATE:未分配
部件号必须大于或等于 <min>
且小于或等于 <max>
。
文件_API_分段上传缺少ETag
SQLSTATE:未分配
必须为存储在<cloud_storage_provider>
上的文件提供ETag。 没有提供至少一个 ETag,或者提供的 ETag 为空。
文件_API_分片上传_修改后存储实体状态
SQLSTATE:未分配
自上传启动以来,存储实体的内部状态已被修改,例如文件路径不指向同一基础云存储位置。 通过启动新的上传会话继续。
多部分上传中的非结尾部分具有不同大小的文件API
SQLSTATE:未分配
作为多部分上传会话的一部分上传的部件对于存储 <cloud_storage_provider>
的文件的大小必须相同,但最后一部分可能更小。
FILES_API_多部分上传_部分尺寸超出范围
SQLSTATE:未分配
作为多部分上传会话的一部分上传的部分的大小必须大于或等于 <min>
且小于或等于 <max>
。
文件_API_分段上传会话未找到
SQLSTATE:未分配
找不到上传会话。 它可能已中止或已完成。
FILES_API_Multipart_Upload_Unordered_Parts_List (文件_API_多部分上传_无序部分列表)
SQLSTATE:未分配
部件列表必须由部件编号排序,但未排序。
文件API未为地点启用
SQLSTATE:未分配
未为此工作区/帐户启用 <place>
的文件 API
内部工作区存储不支持FILES_API
SQLSTATE:未分配
内部工作区存储不支持文件 API 请求的方法
文件操作API必须存在
SQLSTATE:未分配
操作必须存在
文件应用程序接口操作超时
SQLSTATE:未分配
作超时。
文件_API_页面大小必须大于或等于零
SQLSTATE:未分配
page_size必须大于或等于 0
文件的API路径以斜杠结尾
SQLSTATE:未分配
以“/”字符结尾的路径表示目录。 此 API 不支持对目录的操作。
文件_API路径是一个目录
SQLSTATE:未分配
给定的路径指向现有目录。 此 API 不支持对目录的操作。
文件_API_路径_是_文件
SQLSTATE:未分配
给定路径指向现有文件。 此 API 不支持对文件的操作。
文件_API_路径不是有效的UTF8编码网址
SQLSTATE:未分配
给定路径不是有效的 UTF-8 编码 URL
文件API路径未启用用于数据平面代理
SQLSTATE:未分配
未为数据平面代理启用给定的路径
文件_API_路径_必须_存在
SQLSTATE:未分配
路径必须存在
FILES_API_PATH_NOT_SUPPORTED (文件API路径不支持)
SQLSTATE:未分配
<rejection_message>
文件_API_路径_过长
SQLSTATE:未分配
提供的文件路径太长。
FILES_API_前提条件失败
SQLSTATE:未分配
请求由于前置条件而失败。
文件_API_不支持模型的预签名网址
SQLSTATE:未分配
目前不支持用于模型的预签名 URL 的文件 API
FILES_API_R2_CREDENTIALS_DISABLED(文件API R2 凭证已禁用)
SQLSTATE:未分配
目前不支持 R2。
文件接口范围无法满足 (FILES_API_RANGE_NOT_SATISFIABLE)
SQLSTATE:未分配
请求的范围无法满足。
文件API不支持递归列表操作
SQLSTATE:未分配
不支持以递归方式列出文件。
FILES_API请求者网络区域未知
SQLSTATE:未分配
无法推断请求者网络区域。
文件API请求被错误路由
SQLSTATE:未分配
请求路由不正确
文件_API请求必须包含账户信息
SQLSTATE:未分配
请求必须包含帐户信息
文件_API_请求_必须_包括_用户_信息
SQLSTATE:未分配
请求必须包含用户信息
文件API请求必须包含工作区信息
SQLSTATE:未分配
请求必须包含工作区信息
FILES_API_RESOURCE_IS_READONLY(文件接口资源为只读)
SQLSTATE:未分配
资源为只读。
文件_API_资源未找到
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_架构_未找到
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_安全_URL_无法访问
SQLSTATE:未分配
无法访问 URL。
文件_API_签名_验证_失败
SQLSTATE:未分配
签名验证失败。
API文件存储上下文未设置
SQLSTATE:未分配
无法访问此工作区的存储配置。
文件_API_存储_凭证_未找到
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_表类型_不支持
SQLSTATE:未分配
<table_type>
不支持文件接口
文件_API_UC_认证失败
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_UC_模型_无效_状态
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_用户权限被拒绝
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_UC_资源已耗尽
SQLSTATE:未分配
<message>
文件_API_UC_路径中不支持的拉丁字符
SQLSTATE:未分配
<unity_catalog_error_message>
文件系统API_用户卷名已更改
SQLSTATE:未分配
<unity_catalog_error_message>
文件API解析URI时发生意外错误
SQLSTATE:未分配
分析 URI 时出现意外错误
FILES_API_意外的查询参数
SQLSTATE:未分配
意外的查询参数: <unexpected_query_parameters>
文件_API_未知方法
SQLSTATE:未分配
未知方法 <method>
文件_API_未知服务器错误
SQLSTATE:未分配
未知服务器错误。
文件_API_未知_URL_主机
SQLSTATE:未分配
URL 主机未知。
文件_API_不支持的认证方法
SQLSTATE:未分配
请求未正确进行身份验证。
文件_API_不支持的_HTTP_方法
SQLSTATE:未分配
不支持 httpMethod。
文件_API_不支持的参数组合
SQLSTATE:未分配
不支持参数组合。
FILES_API_UNSUPPORTED_PATH(文件API不支持的路径)
SQLSTATE:未分配
文件 API 不支持提供的路径。 确保提供的路径不包含“../”或“./”序列的实例。 确保提供的路径不使用多个连续斜线(例如“///”)。
文件_API_上传_部分_URLS_数量_必须_大于_零
SQLSTATE:未分配
输入参数“count”必须大于 0。
文件API网址生成已禁用
SQLSTATE:未分配
未为 <cloud>
启用预签名 URL 生成。
不支持的文件 API 卷类型
SQLSTATE:未分配
<volume_type>
不支持文件 API。
文件_API_工作区_已取消
SQLSTATE:未分配
工作区已取消。
文件_API_工作区_未找到
SQLSTATE:未分配
无法访问此工作区的存储配置。
分布式账本技术 (DLT)
对于已关联的管道存在活动更新
已存在一个活动更新“<updateId>
”用于链接的管道“<linkedPipelineId>
”。
管道存在有效更新
对于管道“<updateId>
”,已经存在一个活动更新“<pipelineId>
”。
不允许对管道表进行ALTER操作
有关详细信息 ,请参阅ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
修改的计划不存在
在没有现有计划或触发器的情况下,无法更改表上的 <type>
。 在尝试更改表格之前,请先向其添加日程或触发器。
API配额已超出
已超出数据源 <sourceName>
的 API 配额。
有关更多详细信息,请参阅 API_QUOTA_EXCEEDED
应用更改错误
在自动CDC操作期间发生错误。
有关详细信息,请参阅APPLY_CHANGES_ERROR
从快照应用更改错误
在AUTO CDC FROM SNAPSHOT
操作期间发生错误。
有关详细信息 ,请参阅APPLY_CHANGES_FROM_SNAPSHOT_ERROR
不支持从快照应用变更的预期
数据集 <datasetName>
定义了预期,但目前不支持使用 AUTO CDC FROM SNAPSHOT
数据集的预期。
消除对解决此错误的期望。 作为替代方法,请考虑使用以下结构通过组合 AUTO CDC
和 AUTO CDC FROM SNAPSHOT
应用预期:
使用 SCD 类型 1 将快照的更改应用到中间表中,无需任何期望。
使用
spark.readStream.option("readChangeFeed", "true").table
从中间表中读取更改。将中间表的更改应用到最终目标表
dlt.create_auto_cdc_flow
,使用以下参数以及当前已与dlt.acreate_auto_cdc_flow_from_snapshot
使用的参数:
处理更改:
apply_as_deletes = "_change_type == 'delete'"
删除 CDF 添加的列:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- 包括用于
dlt.create_auto_cdc_flow
的最终目标表的当前预期集。
应用更改部分更新未启用
功能 COLUMNS
到 UPDATE
处于预览状态,并未在您的工作区中启用。 请联系 Databricks 代表,详细了解此功能并访问个人预览版。
架构迁移失败
有关更多详细信息,请参阅 ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_需要_无服务器
使用默认存储定位目录的管道必须使用无服务器计算。 如果您无权访问无服务器计算服务,请联系 Databricks 为您的工作区启用该功能。
无法将列添加到包含的列中
新列 (<columnNames>
) 已添加到表 <qualifiedTableName>
的管道定义中的 include_columns 字段。 请完全刷新表以避免潜在的数据丢失或从include_columns中删除这些列。
无法添加存储位置
如果要设置存储位置创建新管道,则无法将存储位置添加到具有已定义目录的现有管道。
现有目录:“<catalog>
”。
请求的存储位置: <storageLocation>
.
无法构建装饰器
SQLSTATE:未分配
@<decoratorName>
修饰器无法组合与<otherDecorators>
使用。
无法排除不存在的列
管道定义排除源 <columnNames>
表 <qualifiedTableName>
中不存在的列(<sourceType>
)。 请从exclude_columns字段中删除这些列。
无法筛选出必需列
管道定义不包括源 <columnNames>
的引入表 <qualifiedTableName>
所需的列 (<sourceType>
)。 请将其添加到include_columns,或将其从exclude_columns中删除。
无法包含不存在的列
管道定义包括源 <columnNames>
表 <qualifiedTableName>
中不存在的列(<sourceType>
)。 请从include_columns字段中删除这些列。
无法导入没有主键的表
源中的<qualifiedTableName>
表<sourceType>
没有主键。
请在连接器配置中指定主键以引入表(如果存在)。
无法修改UC管道的管道所有者
尚不支持更改非 UC 管道的所有者。
无法修改管道所有者 - 权限被拒绝
只有工作区管理员可以更改管道所有者。
无法修改管道所有者,因为信息缺失
新所有者不存在。
无法修改管道类型
无法更新“pipeline_type”。
当前管道类型:<currentPipelineType>
.
更新了pipeline_type:<requestedPipelineType>
。
无法修改存储位置
无法修改现有管道的存储位置。
现有存储位置:“<existingStorageLocation>
”。
请求的存储位置: <requestedStorageLocation>
.
无法从排除列中移除列
在表 <columnNames>
的管道定义中,列(<qualifiedTableName>
)被从 exclude_columns 字段中删除。 请对表格进行完全刷新以避免潜在的数据丢失,或者将这些列重新添加到 exclude_columns 中。
无法为HMS_PIPELINE设置目录
如果要使用 UC 创建新管道并设置目录,则无法将目录添加到具有已定义存储位置的现有管道。
现有存储位置:“<storageLocation>
”
请求的目录:“<catalog>
”
无法设置关联的管道ID
管道 ID 相同,设置链接的管道 ID 将导致死锁。
无法为现有管道设置架构
管道“<pipelineName>
”的设置中指定的'schema'字段是不合法的。 原因:
有关详细信息 ,请参阅CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
不能同时指定包含列和排除列
管道定义为 <identifier>
指定了 include_columns 和 exclude_columns。 请删除其中一个。
无法更新聚类列
无法更新表 <tableName>
的聚类列,因为其使用了分区列。 表可以使用分区列或聚簇列,但不能同时使用两者。
若要在液体聚类分析与分区之间切换,请触发此表的完全刷新。
无法更新分区列
无法更新流式处理表 <tableName>
的分区列。
当前为:<existingPartitionColumns>
,
请求了:<requestedPartitionColumns>
若要应用此分区更改,请触发此表和已更新分区列的任何其他流式处理表的完全刷新。
或者还原此更改以继续使用现有分区列。
无法更新表结构
无法合并表 <tableName>
的当前架构和新架构。
若要继续执行此架构更改,可以触发此表的完全刷新。
根据用例和架构更改,你也许能够删除架构更改 -- 可以更新查询,以便输出架构与现有架构兼容(例如,通过显式将列强制转换为正确的数据类型)。
不能写入非活动列
<details>
但是,目标表已具有具有此名称的非活动列;这些列处于非活动状态,因为它们以前是从源表中删除的。
若要继续更新,请对表使用 FULL REFRESH
命令或使用 ALTER TABLE DROP COLUMN
命令删除这些非活动列。
无法写入非活动表
目标中的下表处于非活动状态,并且与当前源表冲突:<tables>
。
这些表保持非活动状态,因为它们以前已从源中删除或未从连接器中选择。
若要继续更新,请对表执行 FULL REFRESH
,或者从目录资源管理器中的目标中删除这些非活动表,或通过 DROP TABLE
命令删除这些非活动表,然后重试更新。
无法写入待重置的表格
在上一次完整刷新中,目标中的下列表格未正确重置:<tables>
。
请对其触发完全刷新以恢复。
目录映射在UC中不可用
UC 目录没有针对目录 <sourceCatalog>
的映射。
请检查目录是否已在 UC 目录中注册。
目录模式与目标管道不匹配
ID 为 <destPipelineCatalog>
的目标管道的目录 <destPipelineSchema>
和架构 <destPipelineId>
与表 <tableName>
的目录和架构不匹配。 目标管道应具有与表相同的目录和架构,或者目标管道必须使用直接发布模式。
目录规范不支持
数据库连接器当前不支持 CatalogSpecs。 请删除目录规范。
CDC_APPLIER_COLUMN_UOID_不支持
CDC 托管引入管道不支持表 <columnNames>
中具有 UOID <tableName>
的列。
请检查引入管道是否支持列 UOID,或请求完全刷新。
从网关来的CDC应用程序致命故障
网关管道遇到严重错误:
<errorMessage>
请在这里查看管道更新失败:<link>
CDC_应用者_复制表_元数据_未准备好
表<tableName>
的复制表元数据尚未准备就绪。
现有的作业请求时间戳是 <existingRequestTs>
,但我们需要 <expectedRequestTs>
或更高版本。
CDC_应用程序要求对所有目标表进行完全刷新
不支持完全刷新一个目标表,不支持从同一源对另一个目标表进行正常更新。
请完全刷新这两个表,以便尽可能继续。
完全刷新表:<fullRefreshTables>
源 <sourceTable>
的目标表:<destinationTables>
CDC应用程序在流式传输期间架构发生更改
架构版本 <dataSchemaVersion>
与读取的架构版本 <readSchemaVersion>
不同。
DLT 将重试更新。
CDC_应用_按列顺序未找到
在 sequenceBy 中指定的表 <columnName>
的列 <tableName>
在 <columns>
中不存在。
CDC_应用程序_序列_按_无效类型
sequenceBy 中指定的表<columnName>
的列<tableName>
的类型<typeName>
不受支持。
sequenceBy 列支持的类型有<allowedTypes>
。
不支持按多列排序的CDC应用程序顺序
在 CDC 管理的摄取管道的 sequenceBy 中最多只能指定一个列。
为表 <columns>
指定的列: <tableName>
。
CDC_不兼容的模式更改
我们从架构版本 <cause>
到 <previousSchemaVersion>
遇到不兼容的架构更改(<currentSchemaVersion>
)。
因此,我们不能继续对 <tableName>
应用更改。 请请求完全刷新表。
以前的架构:<previousSchema>
当前架构:<currentSchema>
CDC_潜在数据差距
下表 [<needFullRefreshTableList>
] 在 <retention>
天内没有成功的更新。
请对这些表或整个数据管道进行全面刷新。
从多个来源获取相同表的CDC
从多个源找到同一个表名 <table>
:<sources>
。
请将它们拆分为不同的管道,以避免冲突。
来自多个来源表的CDC映射到相同的目标表
找到多个源表: <source_tables>
映射到同一目标表 <destination_table>
。
请将它们映射到不同的目标表名称或不同的目标架构。
CDC表在所有表中未找到
在源数据库的所有表快照中找不到表 <table>
。
表规范详细信息:
<tableSpec>
更改HMS管道为UC不允许
不允许将 HMS 管道更改为 UC 管道。
不允许更改统一通信管道为华为移动服务
不允许将 UC 管道更改为 HMS 管道。
更改表的流水线ID不受支持
不支持更改<commandTableType>
的管道。
不可更改目录
无法修改现有管道的目录。 现有目录:“<existingCatalog>
”。 请求的目录:“<requestedCatalog>
”。
不允许更改目标架构
不允许更改目标架构。 原因:<reason>
。
集群创建预算政策限制已超出
由于管道的预算策略超出了限制,无法创建群集。 请使用其他策略或联系计费管理员。
集群创建客户端错误
未能创建管道群集: <errorMessage>
此错误可能是由于管道中的配置错误。
检查管道群集配置和关联的群集策略。
集群创建额度已耗尽
无法创建群集,因为已耗尽可用额度。 请添加付款方式以升级帐户。
群集创建资源耗尽
无法创建群集,因为已超出资源限制: <errorMessage>
集群启动客户端错误
未能启动管道群集 <clusterId>
:<clusterStateMessage>
此错误可能是由于管道中的配置错误。
检查管道群集配置和关联的群集策略。
集群启动云端失败
未能启动管道群集 <clusterId>
:<clusterStateMessage>
此错误可能是暂时性的 - 重启管道,如果仍然看到相同的问题,请报告。
CLUSTER_SETUP_CLIENT_ERROR(集群设置客户端错误)
有关更多详细信息,请参阅 CLUSTER_SETUP_CLIENT_ERROR
集群无法访问
与驱动程序通信丢失。 群集 <clusterId>
有 <timeoutSeconds>
秒无法访问。
无列的列掩码
为 MV/ST 架构中不存在的列“”<columnName>
找到的列掩码。 如果这是因为对基表的架构进行更改,
请丢弃旧掩码ALTER TABLE
[table_name] ALTER COLUMN
[应用掩码的列] DROP
MASK; 或还原该列。
未找到要更新的列
在源数据帧中找不到 <column>
TO COLUMNS
中指定的列 UPDATE
。
无法停止以前的更新导致并行升级失败
启动了升级的更新“<upgradedUpdateId>
”,但未能停止之前的更新“<oldUpdateId>
”。
此错误可能是暂时性的。 管道将自动重试,问题应自行解决。
如果仍然看到相同的问题,请将此错误报告给 Databricks。
数据集装饰器应用两次
SQLSTATE:未分配
数据集 <datasetName>
已存在。 确保查询函数仅标记为视图或表一次。
数据集_未定义
未能读取数据集“”。<datasetName>
管道中未定义此数据集。
如果此表由其他管道管理,则不要使用 dlt.read
/ dlt.readStream
读取该表,也不要将名称加上 LIVE 关键字。
DBFS未启用
未为此工作区启用 DBFS;请发布到 Unity 目录,或为管道指定不同的存储位置。
数据库SQL管道不应包含多个表
DBSQL
管道必须只有一个具体化视图或流式处理表,但找到<tablesSize>
的表:<tables>
找不到目标管道
找不到 ID 为“”<pipelineId>
的目标管道。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。
目标管道不处于直接发布模式
ID 为“”<pipelineId>
的目标管道未使用直接发布模式。
目的地管道权限被拒绝
不允许执行此操作,因为您不是ID为“<pipelineId>
”的目标管道的所有者。 只有所有者才能更改表的管道。
目标管道类型不是工作空间管道类型
ID 为“”<pipelineId>
的目标管道不是 ETL 管道。
执行创建或编辑无效用户操作
处理“<action>
”请求时出错。
删除计划_计划不存在
在没有现有计划或触发器的情况下,无法删除表上的 SCHEDULE
。
重复自JSON架构位置
重复的“from_json”模式位置键:<schemaLocationKey>
。
请在管道中为每个from_json查询选择唯一的架构位置键
重复的摄取配置表规格
引入管道配置包含重复表。 请确保每个表都是唯一的。
空的摄取配置对象
引入配置对象为空。
增强型自动扩展需要高级版
只有 Lakeflow 声明性管道的高级产品版本支持增强的自动缩放“spare_capacity_fraction”设置。
请编辑管道设置,将“edition”设置为“advanced”,以便使用“spare_capacity_fraction”。
事件日志选择器功能不支持
此管道不支持将事件日志发布到 Unity 目录。 如果这是意外的,请联系 Databricks 支持部门。
期望违例
流“<flowName>
”未能满足预期。
有关详细信息 ,请参阅EXPECTATION_VIOLATION
探索模式与验证模式不能同时设置
explore_only和validate_only不能同时设置为 true。
探索模式未启用
未启用“explore_only”更新。
仅在非数据摄取管道上探索
对于引入管道,explore_only只能设置为 true。
无法创建事件日志
未能使用标识符 <pipelineId>
创建管道(id=<eventLogIdentifier>
)事件日志。 有关更多详细信息,请参阅下面的异常。
无法将视图发布到元存储
无法将视图 <viewName>
发布到元存储,因为 <reason>
。
无法更新事件日志
未能将管道 (id=<pipelineId>
) 事件日志标识符更新为 <newEventLogIdentifier>
。 有关更多详细信息,请参阅下面的异常。
流程架构已更改
流 <flowName>
已终止,因为它在执行期间遇到架构更改。
架构更改与现有目标架构兼容,下一次流程运行可以使用新架构恢复。
FORACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL仅在预览频道中支持
目前不支持 DLT ForeachBatch 接收器。
DLT ForeachBatch 接收器的专用预览版需要 PREVIEW
通道。
DLT 接收器:<sinkNames>
网关管道初始化脚本不允许
网关管道不允许群集初始化脚本。 请将其从 <from>
中删除。
网关管道Spark配置不允许
网关管道不允许 spark 配置 [<configs>
]。 请将其从 <from>
中删除。
获取组织更新容量限制已超出
请求的组织 ID 数超过允许的最大限制 <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING (Google Analytics 原始数据连接器源目录丢失)
Google Analytics 原始数据连接器中发生错误。
引入规范中缺少源目录。在这里,源目录指的是要从中引入内容的 GCP 项目的项目 ID。
请确保引入规范中存在源目录以解决此问题。
HMS未启用
未为此工作区启用 Hive 元数据存储,请发布到 Unity Catalog。
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE (非法列更新数据类型)
COLUMNS
TO UPDATE
中指定的列的数据类型必须是字符串数组,但找到了 <illegalDataType>
。
管道设置中的非法ID参数
设置不得包含“<fieldName>
”。
管道规范中的非法模式字段
管道设置中的指定“schema”字段是非法的。 原因:<reason>
。
根路径类型不正确
根路径“<rootPath>
”必须是目录,但发现 <objectType>
。
摄取配置重复的架构
引入管道配置包含重复的架构。 请确保每个架构都是唯一的。
传入网关身份验证失败
身份验证失败
有关更多详细信息,请参阅 INGESTION_GATEWAY_AUTHENTICATION_FAILURE
摄入网关关键结构变更失败
源表和目标表之间检测到架构不匹配。 若要解决此问题,需要对引入管道执行表<entityName>
的完全刷新。
数据摄取网关CDC未启用
CDC 未在<entityType>
上启用<entityName>
。 启用 CDC 并在引入管道上执行完整表刷新。 错误消息:“<errorMessage>
”。
数据摄取网关DDL对象丢失
<entityType>
上的<entityName>
缺少 DDL 对象。 执行 DDL 对象脚本并完全刷新引入管道上的表。 错误消息:“<errorMessage>
”。
数据入口网关缺少连接引用
引入网关配置缺少连接。
请添加对包含凭据的 Unity Catalog 连接的引用。
引入网关管道定义详细信息:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG (保持不变,因为它似乎是一个不需要翻译的技术术语或标识符)
引入网关配置缺少内部存储位置目录。
请添加内部存储位置目录。
引入网关管道定义详细信息:
<definition>
数据入口网关_缺少_内部存储名称
引入网关配置缺少内部存储位置名称。
请添加内部存储位置名称。
引入网关管道定义详细信息:
<definition>
INGESTION_GATEWAY_缺失的内部存储模式
引入网关配置缺少内部存储位置架构。
请添加内部存储位置架构。
引入网关管道定义详细信息:
<definition>
在源中缺少表的摄取网关
源数据库中不存在表“”<entityName>
或已删除。 解决此问题,并对托管数据导入管道中的表进行完全刷新。 错误消息:“<errorMessage>
”。
数据接入网关 pG 发布更改失败
无法更改 “<entityType>
” 的<entityName>
复制发布
错误消息:<errorMessage>
有关详细信息 ,请参阅INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
内容网关PG发布创建失败
无法为 <entityType>
<entityName>
创建复制发布
错误消息:<errorMessage>
有关详细信息 ,请参阅INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED(数据传输网关PG发布删除失败)
未能删除“”<entityType>
的<entityName>
复制发布
错误消息:<errorMessage>
有关详细信息 ,请参阅INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
入口网关已被其他进程消耗的PG插槽
由于复制槽被另一个 PID 使用,无法为 <entityType>
“”<entityName>
创建复制槽。
错误消息:<errorMessage>
数据网关PG插槽创建失败
无法为 <entityType>
“”<entityName>
创建复制槽
错误消息:<errorMessage>
有关详细信息 ,请参阅INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
数据网关源权限不足故障
用户没有访问此对象或执行存储过程所需的权限。 请确保授予所有必要的特权。 请参阅以下文档: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements
INGESTION_GATEWAY_主机或端口不可达故障
由于源数据库的主机名 <host>
和/或端口 <port>
不正确,连接失败。
有关更多详细信息,请参阅 INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
无效的应用更改命令
AUTO CDC
命令无效。
<reason>
。
无效的参数类型
SQLSTATE:未分配
传递给参数<paramName>
的值类型无效。 应为 <expectedType>
。
<additionalMsg>
。
无效兼容性选项
为表指定的表 <table>
选项无效,因为
有关详细信息 ,请参阅INVALID_COMPATIBILITY_OPTIONS
装饰器使用无效
SQLSTATE:未分配
传递给 @<decoratorName>
的第一个位置参数必须可调用。 在函数中添加没有参数的 @<decoratorName>
,或者使用关键字参数(例如)<decoratorName>
将选项传递给 @<exampleUsage>
。
无效的事件日志配置
在管道规格中找到的事件日志配置无效: <message>
名称无效或已在使用命令
<name>
命令中的名称“<command>
”无效。 原因:<reason>
非法参数_FOR_DBSQL_PIPELINE
在为管道调用“dry_run”时,只能指定“pipeline_id”和“pipeline_type”。DBSQL
无效的刷新选择
为此更新指定的刷新选择参数无效,因为
有关更多详细信息,请参阅 INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE is a technical term and may not require alteration if it is used as a specific identifier across languages without translation.
连续模式不支持刷新选择。
无效的刷新选择请求与完全刷新
对于刷新选择请求,不应将full_refresh设置为 true。
无效的根路径
无效的根路径 '<rootPath>
':目前仅支持绝对目录路径。 目录路径必须以“/”开头,而不是以“/”结尾。
无效的模式名称
管道设置中指定的架构“”<schemaName>
无效。 原因:<reason>
。
无效的快照和版本类型
SQLSTATE:未分配
snapshot_and_version带有目标“<target>
”的流返回不受支持的类型。
<additionalMsg>
。
触发间隔格式无效
<configurationType>
中指定的触发器间隔配置无效
职位详情不匹配
如果同时提供“update_cause_details.job_details”和“job_task”,则它们必须匹配,但实际上它们分别是<details>
和<jobTask>
。
任务详情缺失
如果“cause”是JOB_TASK
,则必须提供“job_task”或“update_cause_details.job_details”之一。
实时引用超出查询定义经典
不支持在数据集查询定义之外使用 LIVE
虚拟架构(即 @dlt.table 注释)引用数据集。
查询定义之外的实时引用_DPM
不支持在数据集查询定义之外使用 LIVE
虚拟架构 <identifier>
引用数据集(即 @dlt.table 注释)。
查询定义之外的实时引用_SPARK_SQL
在 spark.sql(...)中使用 LIVE
虚拟架构来引用数据集的 API,不得在数据集查询定义(即 @dlt.table 批注)外部调用。 只能在数据集查询定义中调用它。
最大重试次数已达到,等待酶重新计算
重试次数已达上限。 重试计数:<flowRetryCount>
。 maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
。 <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE 유형 정의无效
<definitionType>
不允许从 UC 定义启动管道。
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES(管线不匹配的管线类型)
存储和更新的定义必须是相同的管道类型,但必须具有 <stored>
和 <updated>
。
MESA_PIPELINE_缺少定义
管道在 UC 中没有有效的定义,但请求刷新。
MESA_PIPELINE_缺乏定义_意外情况
UC 中意外缺少管道定义。
元数据存储操作超时 (METASTORE_OPERATION_TIMED_OUT)
更新 <tableName>
元存储信息所涉及的操作所需的时间比 <timeout>
长。
此问题可能是暂时性的,也可能指示配置的元存储客户端中的 bug。 如果问题仍然存在,请尝试重启管道并报告此问题。
缺少创建模式的权限
用户“<userName>
”无权在目录中创建架构 <catalogName>
缺少创建表权限
用户“<userName>
”无权在架构中创建表 <schemaName>
缺少“作为用户运行”配置
未为更新指定运行方式用户。
互斥选项
互斥选项 <options>
。 请删除其中一个选项。
负值
SQLSTATE:未分配
值 <arg_name>
必须大于或等于 0,得到“<arg_value>
”。
非UC表已由其他管道管理
表 '<tableName>
' 已由管道 <otherPipelineId>
管理。
如果希望表<tableName>
由此管道管理,
从管道“”
<otherPipelineId>
中删除表。启动此管道的完整刷新更新。
如果要继续从多个管道管理表,请在管道设置中将配置 pipelines.tableManagedByMultiplePipelinesCheck.enabled
更改为 false
,以禁用此检查。
不建议这样做,因为对表的并发操作可能会相互冲突,从而导致意外结果。
笔记本名称数量已达上限
无效的笔记本路径:“<nameStart>
...<nameEnd>
”。 它比 <maxNotebookPathLength>
字符长。
笔记本未找到
无法加载笔记本“<notebookPath>
”。
通知重复警报
[<alertsDuplicates>
] 中指定的重复警报“<alerts>
”
通知_重复电子邮件地址
在 [<emailRecipientsDuplicates>
] 中指定了重复的电子邮件地址“<emailRecipients>
”
通知_无效警报
已指定无效警报来接收通知:<invalidAlerts>
通知_无效的电子邮件地址
指定接收通知的电子邮件地址无效: <invalidEmailAddresses>
通知缺少参数
请在其中指定至少一个收件人和一个警报 <setting>
未提供来源、快照和版本参数
SQLSTATE:未分配
必须为目标“<target>
”设置source
或snapshot_version
中的一个create_auto_cdc_flow_from_snapshot
。
管道中无表格
管道预计应至少定义一个表,但在您的管道中未找到任何表。
请检查是否已包含预期的源文件,以及您的源代码是否包含表定义(例如,SQL代码中的CREATE MATERIALIZED VIEW
,Python代码中的@dlt.table)。
请注意,只有表计入此检查。 如果仅在管道中包含视图或流,则也可能遇到此错误。
所有者丢失
所有者不存在。
具备名称和分页的请求
可以提供 <name>
或分页,但不能同时提供两者。
更新管道定义不支持的字段
PatchPipelineDefinition 仅支持schedule
该字段,但提供的定义具有其他填充字段:“”。<updatedDefinition>
持久化视图从流媒体源读取
持久化的视图不支持从数据流源读取。
持久视图从临时视图读取
持久化视图 <persistedViewName>
不能引用管道范围外部不可用的临时视图 <temporaryViewName>
。 使持久视图成为临时视图或保留临时视图。
管道克隆已在进行中
管道已被克隆到 ID 为‘<pipelineId>
’的管道。
在活动更新期间无效的管道克隆
在活动更新期间,ID 为“<pipelineId>
”的管道无法克隆。
管道克隆无效字段
请求包含无效字段的管道规范以用于克隆。 允许的字段包括:名称、目录、目标、配置。
管道克隆无效,因为缺少目标
ID 为“”<pipelineId>
的管道不会发布到目标架构。 源管道需要将数据发布到一个目标架构,以实现克隆。 请在管道规范中指定“目标”字段,然后运行新的更新以发布到目标架构,再重试。
管道克隆在UC管道中无效
ID 为 <pipelineId>
的管道已经是 UC 管道。 无法克隆 UC 管道。
未指定管道克隆模式
没有指定的克隆模式。
管道克隆未指定目标
没有用于克隆的指定目标目录。
管道创建未为工作区启用
未为此工作区启用管道创建。
管道不存在
ID 为“”<pipelineId>
的管道不存在。
有关详细信息 ,请参阅PIPELINE_DOES_NOT_EXIST
管道环境未启用
未启用 DLT 中的环境。
不允许的管道环境版本
管道的环境当前不支持环境版本。
流水线因并发更新而未能更新UC表
管道在经历了<tableName>
次尝试后因并发更改无法更新UC表(<attempts>
)。
请验证是否有外部进程修改表,请重试更新,如果此问题仍然存在,请联系 Databricks 支持部门。
表格所需刷新管道
该表 <tableName>
未处于所需状态,该表最近尚未更新。 必须再次运行 ID 为“”<pipelineId>
的管道,然后重试该作。
未找到表的管道
找不到 ID 为“”<pipelineId>
的管道,用于管理表 <tableName>
。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。
管道全局包含冲突
应在管道设置中的库下设置 glob 或笔记本/文件字段。 请更改管道设置。
管道全局包含不支持
使用 glob 字段包含源文件是一项预览功能,目前处于禁用状态。
重新选择要包含的每个源文件,以便管道修复此错误。
联系 Databricks 支持人员,详细了解此功能并注册预览版。
管道_通配符_不支持_特殊字符
特殊字符 <specialChar>
是保留的,不应在管道设置中的包含路径“”<path>
中使用。 删除这些字符以修复错误
管道名称已达上限
名称不能超过 <maxPipelineNameLength>
字符。
不可重试的分析流水线
由于在部分执行后出现不可重试的错误,管道无法分析源表(<tables>
)。
不会创建新的管道更新。 请检查事件日志并相应地修复问题。
管道未处于直接发布模式
ID 为“”<pipelineId>
的管道(管理表 <tableName>
)不使用直接发布模式。
管道未准备好进行计划更新
表格尚未准备好刷新
有关更多详细信息,请参阅 PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
管道权限拒绝:非所有者
您不允许执行此操作。 你不是 ID 为“<pipelineId>
”的管道的所有者,因此无法管理表 <tableName>
。
管道设置字段无法编辑
“”<uneditableFieldName>
不能由用户修改。 如果用户想要添加或修改<settingName>
,请改用“<editableFieldName>
”字段。
管道设置已同时修改
管道设置被同时修改。
管道设置不支持的配置
Lakeflow 声明性管道不支持这些配置 <configurations>
。 请删除这些配置。
管道设置不应指定开发环境
不支持使用“开发”设置启动更新。
流水线不应包含多个表格
管道必须只有一个表,但找到 <tablesSize>
的表: <tables>
流水线源文件数量超出限制
源文件数(包括文件夹中声明的文件)超出了限制 <limit>
。
根据需要删除或合并过多的文件并更改相应的管道规范,
或联系 Databricks 客服请求提升限额。
管道源文件夹深度超限
文件夹“”<folder_path>
超出了允许的最大目录嵌套级别 <limit>
。 减少文件夹嵌套级别或联系 Databricks 支持部门以请求增加限制。
管道规格参数无法更改
不允许在管道设置中修改以下参数<param>
不支持的管道类型
不支持管道类型“<pipelineType>
” 。
PIPELINE_TYPE_NOT_WORKSPACE管道类型代理类型
ID为<pipelineId>
的管道,管理表<tableName>
,不是一个ETL管道。
超过管道类型配额
无法启动更新<updateId>
,因为已达到<pipelineType>
类型的活动管道数量限制。
表格的管道更新正在运行
ID 为“”<pipelineId>
的管道正在运行,用于管理表 <tableName>
。 请在运行操作之前停止管道。
管道工作空间已达到限制
由于工作区“<pipelineType>
”已经有“<orgId>
”个管道,因此阻止了类型“<countLimit>
”的管道创建。 请联系 Databricks 支持部门来调整此限制。
PIP_INSTALL_ERROR(PIP安装错误)
调用 %pip 安装时出错。
在笔记本顶部位置不安装PIP
找到包含 %pip 安装的单元格,这些单元格不在“”<notebookPath>
笔记本顶部
将所有 %pip install 单元格移动到该笔记本的开头。
PY4J_BLOCKED_API
SQLSTATE:未分配
你使用的是当前环境中不支持的 Python API。
请查看 Databricks 文档了解替代项。
<additionalInfo>
引用_DLT数据集_超出查询定义
不支持引用数据集查询定义外部的 DLT 数据集 <identifier>
(即 @dlt.table 批注)。 请改为在数据集查询定义中读取它。
从无效工作区启动的刷新
刷新必须在创建资源的工作区 <homeWorkspaceId>
中启动。
在工作区 <userWorkspaceId>
中尝试刷新。
刷新模式已存在
无法将 <type>
添加到已具有 <existingType>
的表。 请删除现有计划或使用 ALTER TABLE
... ALTER <type>
更改它。
必须的参数未找到
找不到必需的参数 <param>
。
在使用中的保留关键字目录
USE CATALOG
“”<reservedKeyword>
是非法的,因为“”<reservedKeyword>
是 DLT 中的保留关键字。
保留关键字使用模式
USE SCHEMA
“”<reservedKeyword>
是非法的,因为“”<reservedKeyword>
是 DLT 中的保留关键字。
根路径未找到
无法访问根路径“”。<rootPath>
请确保拥有所需的访问权限。
以用户身份运行的用户未找到
在工作区中,不存在被指定为用户“<runAsUserId>
”的任务。
SAAS连接错误
无法连接到 <sourceName>
源。 错误代码:<saasConnectionErrorCode>
。
有关详细信息,请参阅 SAAS_CONNECTION_ERROR
SAAS连接器刷新令牌已过期
连接的 <connectionName>
刷新令牌已过期。 编辑连接、重新进行身份验证并重新运行管道。
SAAS连接器架构更改错误
架构更改发生在 <tableName>
源的表 <sourceName>
中。
有关更多详细信息,请参阅 SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
软件即服务连接器来源API错误
<sourceName>
API 调用中发生错误。 源 API 类型:<saasSourceApiType>
。 错误代码:<saasSourceApiErrorCode>
。
尝试刷新目标表。 如果问题仍然存在,请提交票证。
不支持的SAAS连接器错误
数据源 <sourceName>
中发生不支持的错误。
有关更多详细信息,请参阅 SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_初始化期间的不兼容架构变更
初始化管道时检测到不兼容的架构更改:
<details>
请对受影响的表执行完全刷新。
SAAS部分分析输入创建错误
为部分分析创建输入时遇到错误。 不会创建新的管道更新。
请检查事件日志并相应地修复问题。
软件即服务_模式在分析过程中出现分歧
源表 (<table>
) 的分析架构与预期架构存在分歧。
请重试管道更新,看看问题是否已解决。
如果此问题仍然存在,请对上述表执行完全刷新
预期架构:
<expectedSchema>
实际架构:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE(SaaS UC 连接不可访问)
提供的连接 <connectionName>
不可访问。 请检查连接,然后重试。
有关更多详细信息,请参阅 SAAS_UC_CONNECTION_INACCESSIBLE
架构规范_空目录
SchemaSpec 在目录字段中有一个空字符串。
请删除空字符串或添加目录名称。 (如果此架构不属于源中的目录,请不要设置字段。
架构规格详细信息:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec 在架构字段中有一个空字符串。
请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。
架构规格详细信息:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
必须存在至少一个源目录和源架构。 但两者都是空的。
架构规格详细信息:
<schemaSpec>
无服务器预算策略请求错误
由于策略工作区绑定约束,此工作区中不能使用此 ID 为“”<budgetPolicyId>
“的预算策略。
无服务器预算策略无效
ID 为“”<budgetPolicyId>
的无服务器预算策略无效。
无服务器预算策略缺失
ID 为“”<budgetPolicyId>
的无服务器预算策略不存在。
无服务器预算策略未启用
未启用无服务器预算策略,请联系 Databricks 支持部门。
无服务器预算策略未对账户启用
未为此帐户启用无服务器预算策略。 用户无法为此管道指定预算策略。 帐户管理员应尝试通过功能预览门户进行注册。 如果问题仍然存在,请联系 Databricks 支持部门。
非无服务器管道不支持无服务器预算策略
无法将无服务器预算策略分配给非无服务器管道。
不支持该管道类型的无服务器预算策略
管道类型 <pipelineType>
不支持无服务器预算策略。
无服务器预算策略权限拒绝
用户无权使用 ID 为“”<budgetPolicyId>
的无服务器预算策略。
无服务器功能不可用
无服务器计算不可用。 有关详细信息,请联系 Databricks。
无服务器功能未启用
不能对 Lakeflow 声明性管道使用无服务器计算。 请联系 Databricks 为工作区启用此功能。
用户未启用无服务器功能
未为调用方启用无服务器计算。 请联系工作区管理员以启用此功能。
未为工作区启用无服务器功能
无服务器计算不适用于此工作区和/或区域。 有关详细信息,请联系 Databricks。
无服务器_必需
必须在此工作区中使用无服务器计算。
SERVICENOW_CONNECTION_ERROR
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
有关详细信息 ,请参阅SERVICENOW_CONNECTION_ERROR
服务管理平台连接器空光标密钥错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
此时,引入管道无法引入表“”<tableName>
,因为行中的游标键包含空字段。
若要继续运行管道,请删除此表。 如果错误仍然存在,请提交票证。
ServiceNow连接器实例休眠错误 (SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR)
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能连接到 ServiceNow 实例。 该实例似乎处于休眠状态或处于非活动状态。
登录到 ServiceNow 管理门户,等待一段时间,直到实例完全唤醒。
如果错误仍然存在,请提交票证。
服务现在连接器实例离线错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能连接到 ServiceNow 实例。 实例处于脱机状态。
登录到 ServiceNow 管理门户,等待一段时间,直到实例还原。
如果错误仍然存在,请提交票证。
服务现在连接器_无效表错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能查询表“”<tableName>
的架构。 此用户的 ServiceNow 帐户中不存在该表。
检查表名称是否有拼写错误,并确保用户具备访问该表所需的权限。
如果错误仍然存在,请提交票证。
ServiceNow连接器IP地址受限错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能连接到 ServiceNow 实例。 该实例具有 IP 地址访问控制限制。
若要解决此问题,可以通过导航到 ServiceNow >> All >> System Security >> IP 地址访问控制来禁用 IP 地址限制,或使用无服务器的固定 IP。
如果错误仍然存在,请提交票证。
SERVICENOW_连接器_格式错误的终端_URL_错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
检测到 ServiceNow API 端点 URL 无效。 URL 结构与预期的 ServiceNow 格式不匹配。
检查 UC 连接凭据中的 ServiceNow 实例配置。
有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
服务门户连接器:已达到最大失败尝试次数
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
当表的数据提取时间过长时,通常会发生这种情况。 作为第一步,请与 ServiceNow 管理员协作,在游标列上启用索引。
游标列是从以下列表中选择的,按可用性和首选项的顺序:sys_updated_on(第一个选项)、sys_created_on(第二个选项)、sys_archived(第三个选项)
有关在 ServiceNow 中启用索引的说明,请参阅: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
我们还建议将 REST API 查询超时增加到 60 秒以上,以允许更多时间提取记录。
然后,重试引入管道。 如果问题仍然存在,请提交工单。
服务Now连接器方案字段类型不匹配
提取表架构时,ServiceNow 中发生错误。
为字段“”<fieldName>
“”<firstDataType>
和“”<secondDataType>
找到了两种冲突的数据类型。
若要继续运行管道,请删除此表。 如果错误仍然存在,请提交票证。
SERVICENOW连接器未经授权访问错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
不允许为管道表设置表属性
ALTER <commandTableType>
... SET TBLPROPERTIES
不支持。 若要修改表属性,请更改原始定义并运行更新。
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE(SFDC 连接器批量查询作业未完成)
对象 <objName>
的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。
有关更多详细信息,请参阅 SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND(未找到SFDC连接器批量查询)
对象 <objName>
引入失败,因为找不到 Salesforce 批量 API 查询作业。
请对特定目标表执行 FULL REFRESH
。
SFDC连接器创建批量查询API超出限制
Salesforce API 调用中出现错误:超出 API 限制
请等待 API 限制重置。 然后尝试刷新目标表。
如果错误仍然存在,请提交票证。
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED (请注意:Salesforce 连接器创建批量查询作业失败)
由于创建 Salesforce 批量 API 查询作业失败,对象 <objName>
引入不完整。 错误代码:<saasSourceApiErrorCode>
。
<actionText>
。
水槽不支持在SEG中
启用了无服务器出口控件的工作区不支持管道中的 DLT 接收器。 支持的 DLT 数据流接收端包括 Kafka 和 Delta。
找到以下不支持的接收器:<sinkNames>
,其相应的格式为:<sinkFormats>
。
源表未实现
无法读取依赖数据集“”<sourceTableName>
,因为它未具体化。 运行整个工作流以生成所有依赖的数据集。
独立私有MVST不支持
不支持创建独立的 PRIVATE
MV/ST。 请删除 PRIVATE
修饰符
未定义的流目标
找不到<target>
对应的<command>
命令的目标表。 管道中未定义目标表 <target>
。
同步表用户错误
同步表管道用户错误。
有关详细信息,请参阅SYNCED_TABLE_USER_ERROR
在操作期间表已更改
表 <tableName>
已在此事务之外进行了修改,并且此事务已回滚。 重试操作。
表物化循环外键依赖关系
管道更新:<pipelineId>
检测到外键约束的循环链:<tables>
。
表规范需要同时目录和模式
TableSpec 缺少源目录和/或源架构之一。
表规范详细信息:
<tableSpec>
表格规范为空目录
TableSpec 在目录字段中有一个空字符串。
请删除空字符串或添加目录名称。 (如果此表不属于源中的目录,请不要设置字段。
表规范详细信息:
<tableSpec>
表格规范为空的架构
TableSpec 在架构字段中有一个空字符串。
请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。
表规范详细信息:
<tableSpec>
表格规格_空表
表名为空。 请提供表名。
表规范详细信息:
<tableSpec>
表令牌不存在于架构演变遗留表中
由于缺少元数据,无法启用架构演变。 请触发完全刷新。
原因:启用架构演变时必须定义快照表令牌。
触发间隔值无效
触发器间隔必须是正持续时间,最大可接受的值为 2,147,483,647 秒。 收到了:<actual>
秒。
触发读取文件不支持在查看中
源 <source>
是从文件位置读取的视图,该位置当前不受触发器支持。
触发源类型不被支持
触发器当前不支持类型为 <source>
的源 <type>
。
UC清算目标架构不允许
不允许在 UC 管道中清除目标架构字段。 原因:<reason>
。
UC_未启用
未在 DLT 中使用 UC 目录。
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS(无法向消息管理系统发布)
启用了 UC 的管道无法发布到 Hive 元存储。 请选择其他目标目录。
需要UC_目标_架构
UC 管道需要目标架构字段。 原因:<reason>
。
无法推断表架构
无法从其上游流推断表 <tableName>
的架构。
请修改写入此表的流,使其架构兼容。
到目前为止,推断的架构:
<inferredDataSchema>
不兼容的架构:
<incompatibleDataSchema>
意外的管道方案权限错误
检查管道 <pipelineId>
的架构权限时出现意外错误。 请联系 Databricks 支持部门。
ROW_FILTERSUNIFORM_COMPATIBILITY_CANNOT_SET_WITH__OR_COLUMN_MASKS
不能对应用行筛选器或列掩码的物化视图或流式表设置统一的兼容性。
UNITY_CATALOG_初始化失败
在群集 <clusterId>
上设置管道时遇到 Unity 目录错误。
确保 Unity 目录配置正确,并且所需的资源(例如目录、架构)存在且可访问。
此外,请验证群集是否具有访问 Unity 目录的适当权限。
详细信息:<ucErrorMessage>
未解决的下游路径
无法解析接收器 <identifier>
的存储路径。 请联系 Databricks 支持部门。
未解决的维护表格
下表是在管道定义中找到的,但在维护期间无法解析。 如果问题仍然存在,请使用最新的管道定义运行管道更新任务,以生成管道定义中的所有表,解除维护阻塞,或者联系 Databricks 支持部门。
<unresolvedTableIdentifiersSet>
未解决的表路径
无法解析表 <identifier>
的存储路径。 请联系 Databricks 支持部门。
不支持的修改命令
ALTER <commandTableType>
... <command>
不支持。
不支持的 DPM 通道
直接发布模式不支持的通道。 期望得到“CURRENT
”或“PREVIEW
”通道,但得到“PREVIOUS
”通道。
在非DPM管道中不支持的命令
<command>
仅在 Lakeflow 声明性管道启用了直接发布模式时受支持
查询定义中的不支持命令
查询定义不支持“<command>
” 。 请将命令移到查询定义之外。 如果是 Python 中的管道,请将 <command>
移到 @dlt.table()/@dlt.view() 修饰器之外。 如果它是 Scala 中的管道,请将“”<command>
移动到“query”方法的外部。
不支持的自定义DBR版本
不支持自定义 DBR 版本“<v>
”在SHIELD
和HIPAA
工作区。 应是以下之一:[<supportedDbrVersions>
]
不支持的数据库版本 (UNSUPPORTED_DBR_VERSION)
不支持 DBR 版本“<v>
”。 应是以下之一:[<supportedDbrVersions>
]
不支持的工作区功能
工作区不支持 <featureName>
。 请联系 Databricks 支持部门,为工作区启用此功能。
不支持的语言
无法加载<language>
笔记本“<notebookPath>
”。 目前仅支持 <supportedLanguages>
笔记本。
不支持的库文件类型
该文件 <path>
没有.py或.sql后缀。 管道中仅支持 Python 和 SQL 文件。
不支持的库或笔记本语言
笔记本<language>
不支持的语言<path>
。 管道中仅支持 Python 和 SQL
不支持的库对象类型
包含在路径中的<path>
类型为<objectType>
,该类型不受支持。 目前,只能将笔记本和文件用作库。 若要解决此问题,请删除不受支持的对象或更新为此管道配置的库,以便仅包含受支持的对象类型。
不支持的托管导入源类型
托管引入管道定义无效,源类型不受支持:<sourceType>
。
不支持的SaaS数据摄取类型
不支持提供的引入类型 <ingestionType>
。
如果此问题仍然存在,请联系 Databricks 支持部门。
不支持的SPARK SQL命令
DLT Python 中的 spark.sql(“...”) API 不支持'<command>
' 。 支持的命令:<supportedCommands>
。
更新后的非数据库SQL管道定义集
只有 DBSQL
管道才能有更新的定义。
在HMS中使用目录
仅在启用了 UC 的 Lakeflow 声明性管道中受支持 USE CATALOG
查看未在UC中保存的文本
无法刷新表 <tableName>
,因为它没有保存在 Unity 目录中的查询。 请联系 Databricks 支持部门。
WORKDAY_REPORTS_CONNECTOR_报告未找到错误
Workday 报表中发生错误。 源 API 类型:<saasSourceApiType>
。
报表 URL“”<reportUrl>
不正确。 请检查基 URL 或报表名称中的任何拼写错误以解决此问题。
如果问题仍然存在,请提交工单。
Workday 报告连接器未授权访问错误
Workday 报表中发生错误。 源 API 类型:<saasSourceApiType>
。
有关详细信息 ,请参阅WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
工作日报告网址为空
Workday 报表 URL 为空。 必须至少提供一个报表。
工作区配额已超限
无法启动更新<updateId>
,因为此工作区中已有<maxActiveUpdates>
个活动管道在运行。
杂项
不支持运行时版本的ABAC策略
SQLSTATE:未分配
因<tableFullName>
,在分配群集上不支持对具有 ABAC 策略的表<dbrVersionMessage>
进行查询。 需要版本 <minimumSupportedVersion>
或更高版本。
AZURE_ENTRA_凭证_缺失
SQLSTATE:未分配
Azure Entra(即 Azure Active Directory)凭据缺失。
请确保已用 Entra 帐户登录
或已在用户设置中为 > Git 集成设置了 Azure DevOps 个人访问令牌(PAT)。
如果不使用 PAT,并且正在将 Azure DevOps 与 Repos API 配合使用,
必须使用 Azure Entra 访问令牌。
请参阅 https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token 获取 Azure Entra 访问令牌的步骤。
AZURE_ENTRA_凭据解析失败
SQLSTATE:未分配
遇到与您的 Azure Entra(Azure Active Directory)凭据相关的错误。 请尝试注销
Entra(https://portal.azure.com)并重新登录。
或者,还可以访问“用户设置”> Git 集成来设置
设置 Azure DevOps 个人访问令牌。
Azure Entra 登录错误 (AZURE_ENTRA_LOGIN_ERROR)
SQLSTATE:未分配
您的 Azure Active Directory 凭据出现错误。 请尝试注销
Azure Active Directory (https://portal.azure.com) 并重新登录。
Azure Etra工作负载身份错误
SQLSTATE:未分配
Azure 工作负载标识遇到异常错误:Azure Exception: <azureWorkloadIdentityExceptionMessage>
清洁室_DELTA_共享_实体_未经授权
SQLSTATE:未分配
无法请求为清洁室 Delta Sharing 安全对象生成凭据。
清理室隐秘安全许可被拒绝
SQLSTATE:未分配
类型为 <securableName>
且种类为 <securableType>
的安全对象 <securableKind>
由清洁室系统管理,用户无权访问。
约束已存在
SQLSTATE:未分配
名为 <constraintName>
的约束已存在,请选择其他名称。
约束不存在
SQLSTATE:未分配
约束 <constraintName>
不存在。
无法读取远程存储库
SQLSTATE:未分配
无法读取远程存储库(<repoUrl>
)。
请访问您的远程 Git 提供商以确保:
远程 Git 存储库 URL 有效。
个人访问令牌或应用密码具有正确的存储库访问权限。
无法解析存储库主机
SQLSTATE:未分配
无法解析 <repoUrl>
的主机。
CSMS_不支持从时间开始
SQLSTATE:未分配
参数 beginning_of_time
不能为 true。
CSMS_连续令牌已过期
SQLSTATE:未分配
找不到延续令牌的请求对象。
无效的延续令牌 (CSMS_INVALID_CONTINUATION_TOKEN)
SQLSTATE:未分配
延续令牌无效。 原因:<msg>
CSMS_INVALID_MAX_OBJECTS (无效的最大对象)
SQLSTATE:未分配
参数 max_objects 的值 <value>
无效,预期值应在 [<minValue>
, <maxValue>
] 之间。
CSMS_INVALID_SUBSCRIPTION_ID (无效的订阅ID)
SQLSTATE:未分配
订阅 ID 无效。 原因:<msg>
CSMS_INVALID_URI_FORMAT(URI格式无效)
SQLSTATE:未分配
URI 格式无效。 需要卷(例如“/Volumes/catalog/schema/volume”)或云存储路径(例如“s3://some-uri”)
CSMS_KAFKA_主题缺失
SQLSTATE:未分配
必须提供 Kafka 主题
位置错误_CSMS
SQLSTATE:未分配
无法列出对象。 这个位置存在需要解决的问题。 详细信息:<msg>
CSMS位置未知
SQLSTATE:未分配
找不到 uri <path>
的位置
CSMS_METASTORE_ID_缺失
SQLSTATE:未分配
必须提供元数据存储 uuid
元存储解析失败
SQLSTATE:未分配
无法确定请求的元存储。
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED(本地分片名称解析失败)
SQLSTATE:未分配
CSMS 无法解析本地分片名称
CSMS_服务_已禁用
SQLSTATE:未分配
服务已禁用
CSMS请求中缺少分片名称
SQLSTATE:未分配
RPC 请求中缺少发往 CSMS 的分片名称
CSMS_UNITY_CATALOG_实体未找到
SQLSTATE:未分配
找不到 Unity 目录实体。 确保存在目录、架构、卷和/或外部位置。
CSMS_UNITY_CATALOG_外部位置不存在
SQLSTATE:未分配
Unity 目录外部位置不存在。
CSMS_UNITY_CATALOG_外部存储重叠
SQLSTATE:未分配
URI 与其他卷重叠
CSMS_UNITY_CATALOG元数据存储不存在
SQLSTATE:未分配
无法确定请求的元存储。 元存储不存在
CSMS_UNITY_CATALOG_权限被拒绝
SQLSTATE:未分配
权限被拒绝
CSMS_UNITY_目录_表_不存在
SQLSTATE:未分配
Unity 目录表不存在。
CSMS_统一目录卷不存在
SQLSTATE:未分配
Unity 目录卷不存在。
CSMS_不支持的安全对象
SQLSTATE:未分配
不支持的安全对象
CSMS_URI_缺失
SQLSTATE:未分配
必须提供 URI
CSMS_URI过长
SQLSTATE:未分配
提供的 URI 太长。 允许的最大长度为 <maxLength>
。
在经典计算上禁止使用DMK目录
SQLSTATE:未分配
无法使用经典计算访问 Databricks 默认存储。 请使用无服务器计算访问默认存储中的数据
GitHub 应用无法刷新凭证
SQLSTATE:未分配
操作失败,因为无法更新关联的 GitHub 应用凭据。
请重试或转到“用户设置”> Git 集成,然后尝试重新链接 Git 提供程序帐户。
如果问题仍然存在,请提交支持票证。
GitHub应用凭据无访问权限
SQLSTATE:未分配
您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:
- 存储库的管理员必须转到 https://github.com/apps/databricks/installations/new 存储库中并安装 Databricks GitHub 应用。
或者,GitHub 帐户所有者可以在帐户上安装应用,以授予对帐户存储库的访问权限。
- 如果已安装应用,则让管理员确保如果他们使用范围内的访问权限和“仅选择存储库”选项,则通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GitHub 应用程序凭证已过期
SQLSTATE:未分配
链接的 GitHub 应用凭据在 6 个月不使用后过期。
转到“用户设置”>“Git 集成”,然后尝试重新链接凭据。
如果问题仍然存在,请提交支持票证。
不同用户帐户上的GITHUB应用安装
SQLSTATE:未分配
您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:
GitHub 用户
<gitCredentialUsername>
应转到 https://github.com/apps/databricks/installations/new 帐户<gitCredentialUsername>
并安装应用以允许访问。如果用户
<gitCredentialUsername>
已安装应用并且使用范围内的访问权限和“仅选择存储库”选项,则他们应确保已通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GitHub应用程序安装在组织上
SQLSTATE:未分配
您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:
GitHub 组织的
<organizationName>
所有者应转到 https://github.com/apps/databricks/installations/new,并在<organizationName>
组织中安装应用程序以允许访问。如果应用已安装在 GitHub 组织
<organizationName>
上,则让该组织的所有者确保如果他们使用范围内的访问权限和“仅选择存储库”选项,则通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
在您的账户上安装GitHub应用程序
SQLSTATE:未分配
您的 GitHub 帐户链接没有访问权限。 若要修复此错误,请:
转到 https://github.com/apps/databricks/installations/new 帐户
<gitCredentialUsername>
并安装应用以允许访问。如果已安装应用,并且你在使用范围内的访问权限和“仅选择存储库”选项,则确保你已通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GIT集群未准备好
SQLSTATE:未分配
Git 群集未准备就绪。
Git凭证_通用_无效
SQLSTATE:未分配
存储库 URL <repoUrl>
的 Git 提供程序凭据无效。
当前 Git 凭据提供程序为 <gitCredentialProvider>
,用户名为 <gitCredentialUsername>
。
转到“用户设置”>“Git 集成”以查看凭据。
请访问您的远程 Git 提供商以确保:
你已使用 Git 提供程序凭据输入正确的 Git 用户电子邮件或用户名。
令牌或应用密码具有正确的存储库访问权限。
令牌未过期。
如果您已为您的 Git 提供商启用 SSO,请务必授权您的令牌。
GIT 凭证 无效的 PAT
SQLSTATE:未分配
存储库 URL <repoUrl>
的 Git 提供程序个人访问令牌凭据无效。
当前 Git 凭据提供程序为 <gitCredentialProvider>
,用户名为 <gitCredentialUsername>
。
转到“用户设置”>“Git 集成”以查看凭据。
请访问您的远程 Git 提供商以确保:
你已使用 Git 提供程序凭据输入正确的 Git 用户电子邮件或用户名。
令牌或应用密码具有正确的存储库访问权限。
令牌未过期。
如果您已为您的 Git 提供商启用 SSO,请务必授权您的令牌。
Git 凭据缺失
SQLSTATE:未分配
未配置 Git 凭据,但此存储库需要凭据(<repoUrl>
)。
转到“用户设置”> Git 集成以设置 Git 凭据。
GIT_CREDENTIAL_NO_WRITE_PERMISSION(无写权限)
SQLSTATE:未分配
未授予对 <gitCredentialProvider>
存储库(<repoUrl>
)的写入访问权限。
请确保(<gitCredentialUsername>
)对此远程存储库具有写入访问权限。
GIT_凭证提供者_不匹配
SQLSTATE:未分配
存储库的 Git 凭据提供程序不正确。
当前 Git 凭证的提供程序 (<gitCredentialProvider>
) 与存储库的 Git 提供程序 <repoUrl>
的不匹配。
请尝试其他存储库或转到“用户设置”> Git 集成来更新 Git 凭据。
GIT_PROXY_CLUSTER_NOT_READY(Git代理集群尚未准备好)
SQLSTATE:未分配
Git 代理群集尚未准备就绪。
代码中的GIT秘密
SQLSTATE:未分配
在提交中找到的机密。 详细信息:<secretDetail>
。 若要修复此错误,请:
删除机密,然后重试提交。
如果问题仍然存在,请提交支持票证。
分级命名空间未启用
SQLSTATE:未分配
Azure 存储帐户未启用分层命名空间。
字段长度无效
SQLSTATE:未分配
<rpcName> <fieldName>
太长。 最大长度为 <maxLength>
个字符。
参数值无效
SQLSTATE:未分配
<msg>
有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE
作业任务框架任务运行输出未找到
SQLSTATE:未分配
任务框架:找不到具有 runId <runId>
和 orgId <orgId>
的任务运行输出。
作业任务框架无法找到任务运行状态
SQLSTATE:未分配
任务框架:找不到具有 runId <runId>
和 orgId <orgId>
的任务运行状态。
任务注册表中不存在任务客户端配置
SQLSTATE:未分配
任务 ID 为 <taskId>
的 RPC ClientConfig 不存在。
任务注册表中的任务不存在
SQLSTATE:未分配
ID 为 <taskId>
的任务不存在。
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE:未分配
任务注册表:类 <taskClassName>
不支持或未知的 JobTask。
基于路径的访问不支持外部浅克隆
SQLSTATE:未分配
不支持对外部浅克隆表 <tableFullName>
进行基于路径的访问。 请改用表名来访问浅表克隆。
不支持基于路径的Fabric访问
SQLSTATE:未分配
找不到位于 URL“<url>
”的 Fabric 表。 请使用 REFRESH FOREIGN CATALOG
命令填充 Fabric 表。
不支持用于具有行列访问策略的表的基于路径的访问
SQLSTATE:未分配
不支持行筛选器或列掩码的基于路径的访问表 <tableFullName>
。
权限被拒绝
SQLSTATE:未分配
用户在 <msg>
“<resourceType>
”上没有 <resourceName>
。
REDASH_删除资产_处理程序_无效输入
SQLSTATE:未分配
无法分析删除对象请求:<invalidInputMsg>
REDASH_未在回收站中的对象无法删除
SQLSTATE:未分配
无法删除不在回收站中的对象 <resourceName>
REDASH_权限被拒绝
SQLSTATE:未分配
找不到资源 <resourceId>
,或没有权限访问。
REDASH_QUERY_NOT_FOUND (未找到查询)
SQLSTATE:未分配
无法从查询 ID <queryId>
找到资源
REDASH查询代码片段创建失败
SQLSTATE:未分配
无法创建新的查询代码段
REDASH查询片段配额已超出
SQLSTATE:未分配
已达到查询代码段数的配额。 当前配额为 <quota>
。
Redash 查询代码片段触发器已在使用中
SQLSTATE:未分配
指定的触发器 <trigger>
已被此工作区中的其他查询代码片段使用。
红色资源未找到 (REDASH_RESOURCE_NOT_FOUND)
SQLSTATE:未分配
请求的资源 <resourceName>
不存在
REDASH_RESTORE_ASSET_HANDLER_无效输入
SQLSTATE:未分配
无法分析删除对象请求:<invalidInputMsg>
无法还原对象,因为它不在垃圾箱中
SQLSTATE:未分配
无法还原不在回收站中的编号为 <resourceName>
的对象
REDASH_垃圾对象已在垃圾桶中
SQLSTATE:未分配
无法将已放入回收站的对象 <resourceName>
再次放入回收站
瑞达什无法生成资源名称
SQLSTATE:未分配
无法从 ID <id>
生成资源名称
REDASH 可视化创建失败
SQLSTATE:未分配
无法创建新的可视化效果
REDASH 可视化未找到
SQLSTATE:未分配
找不到可视化效果 <visualizationId>
REDASH_可视化_配额已超出
SQLSTATE:未分配
查询 <query_id>
的可视化数量配额已达到上限。 当前配额为 <quota>
。
存储库网址未找到
SQLSTATE:未分配
找不到远程存储库(<repoUrl>
)。
当前 Git 凭据提供程序为 <gitCredentialProvider>
,用户名为 <gitCredentialUsername>
。
请访问您的远程 Git 提供商以确保:
远程 Git 存储库 URL 有效。
个人访问令牌或应用密码具有正确的存储库访问权限。
资源已存在
SQLSTATE:未分配
<resourceType>
“<resourceIdentifier>
”已存在
资源不存在
SQLSTATE:未分配
<resourceType>
“<resourceIdentifier>
”不存在。
行列访问策略不支持分配的集群
SQLSTATE:未分配
在已分配的群集上,不支持对包含行筛选器或列掩码的表 <tableFullName>
执行查询。
Delta Sharing 中的表不支持行列安全性
SQLSTATE:未分配
表 <tableFullName>
正在通过 Delta Sharing 进行共享,不能使用行/列安全性。
服务暂时不可用
SQLSTATE:未分配
<serviceName>
服务暂时处于维护状态。 请稍后重试。
在在线模式下,不支持具有行列安全性的表格
SQLSTATE:未分配
表 <tableFullName>
不能同时具有行/列安全性和联机具体化视图。
更新的行数过多
SQLSTATE:未分配
要更新的行太多,更新正在中止。