以下发行说明提供了由 Apache Spark 3.4.1 提供支持的 Databricks Runtime 13.3 LTS 的相关信息。
Databricks 于 2023 年 8 月发布了此版本。
注意
LTS 表示此版本受长期支持。 请参阅 Databricks Runtime LTS 版本生命周期。
提示
若要查看已终止支持 (EoS) 的 Databricks Runtime 版本的发行说明,请参阅终止支持 Databricks Runtime 发行说明。 EoS Databricks Runtime 版本已停用,可能不会更新。
新增功能和改进
- 对共享群集的 Scala 支持
- Unity 目录标准群集(以前共享群集)上的 init 脚本、JAR 和 Maven 坐标的允许列表为公共预览版
- 对 init 脚本和 JAR 的卷支持为公共预览版
- 默认情况下,为 Delta Lake 操作启用了安全强制转换
- 推出 Unity Catalog 标记
- 如果在查询计划和调用之间修改了文件,Databricks Runtime 将返回错误
- 使用动态分区覆盖时阻止架构覆盖
- 将 copyFile API 集成到 dbutils.fs.cp 中
- Databricks ODBC/JDBC 驱动程序支持
- 支持未命名(位置)参数标记
- 启用时序列标签
- 新位图 SQL 函数
- 改进的加密函数
- Unity 目录对REFRESH FOREIGN的支持
- INSERT按名称
- 与 Delta Sharing 共享具体化视图
对共享群集的 Scala 支持
使用 Databricks Runtime 13.3 及更高版本时,启用 Unity Catalog 的共享群集现在支持 Scala。
Unity 目录标准群集(以前共享群集)上的 init 脚本、JAR 和 Maven 坐标的允许列表为公共预览版
现在,可以使用 Unity Catalog allowlist
在运行 Databricks Runtime 13.3 及更高版本的计算上,通过标准访问模式控制初始化脚本、JAR 和 Maven 坐标的安装。 请参阅在采用标准访问模式(以前称为“共享访问模式”)的计算上将库和初始化脚本加入允许列表。
对 init 脚本和 JAR 的卷支持为公共预览版
现在,可以使用 Unity 目录卷通过运行 Databricks Runtime 13.3 及更高版本的专用或标准访问模式在计算上存储初始化脚本和 JAR。 请参阅 初始化脚本可以安装在哪里? 和 计算范围库。
默认情况下,为 Delta Lake 操作启用了安全强制转换
当值无法安全地强制转换为目标表架构中的类型时,Delta UPDATE
和 MERGE
操作现在会导致错误。 Delta 中的所有隐式强制转换现在都遵循 spark.sql.storeAssignmentPolicy
而不是 spark.sql.ansi.enabled
。 请参阅Databricks Runtime 中的 ANSI 合规性。
Unity Catalog 标记简介
使用 Databricks Runtime 13.3 LTS 及更高版本,你可以将标记应用到安全对象。 标记有助于组织安全对象并简化数据资产的搜索和发现。 请参阅“将标记应用于 Unity Catalog 安全对象”。
如果在查询计划和调用之间修改文件,Databricks Runtime 将返回错误
如果在查询计划和调用之间更新了文件,Databricks Runtime 查询现在会返回错误。 在此更改之前,Databricks Runtime 会在这些阶段之间读取文件,这偶尔会导致意外结果。
使用动态分区覆盖时阻止架构覆盖
不能将 overwriteSchema
设置为 true
与 Delta Lake 中的动态分区覆盖相结合。 这样可以防止由于架构不匹配而导致的表损坏。 请参阅动态分区覆盖。
将 copyFile API 集成到 dbutils.fs.cp 中
dbutils 复制命令,dbutils.fs.cp
现在经过优化,可以更快地进行复制。 有了这一改进,根据文件大小的不同,复制操作的速度可以提高 100 倍。 功能可在 Azure Databricks 中可访问的所有文件系统中使用,包括 Unity Catalog 卷和 Databricks 文件系统装载。
Databricks ODBC/JDBC 驱动程序支持
Azure Databricks 支持过去 2 年中发布的 ODBC 和 JDBC 驱动程序。 在下载 ODBC 驱动程序和下载 JDBC 驱动程序下载最新的驱动程序。
支持未命名(位置)参数标记
除了使用 SparkSession.sql()
语法的参数化查询之外,?
API 现在还支持使用 :parm
语法的参数化查询。 请参阅参数标记。
启用时序列标签
现在,可以在创建主键约束时为时序列添加标签。
新位图 SQL 函数
Azure Databricks 现在提供了一组函数,可用于将整数数值映射到位图上并聚合它们。 这可以用于预先计算不同值的数量。
改进的加密函数
通过支持初始化向量 (IV) 和身份认证附加数据 (AAD),aes_encrypt、aes_decrypt 和 try_aes_decrypt 函数得到了改进。
Unity Catalog 对 REFRESH FOREIGN 的支持
现在可以使用 REFRESH FOREIGN CATALOG
、REFRESH FOREIGN SCHEMA
和 REFRESH FOREIGN TABLE
更新 Unity Catalog 中的外部目录、架构和表。 请参阅 REFRESH FOREIGN (CATALOG, SCHEMA和 TABLE) 。
INSERT 按名称
现在当将行插入表中时,可以让 Azure Databricks 按名称自动将源查询中的列和字段映射到表的列。 请参阅 INSERT INTO。
与 Delta Sharing 共享具体化视图
该 ALTER SHARE 语句现在支持具体化视图。
中断性变更
在表中存储行时对使用MERGE INTO和UPDATE进行隐式转换的更改
Azure Databricks 现在遵循在表中存储行时隐式转换的配置 spark.sql.storeAssignmentPolicy
。 存储溢出的值时,默认值 ANSI
将引发错误。 以前,值默认存储为 NULL
。
如以下示例所示,可以通过重写表,为导致错误的列使用更广泛的类型来解决溢出问题。
-- Enable column mapping
ALTER TABLE MyTable SET TBLPROPERTIES (
'delta.minReaderVersion' = '2',
'delta.minWriterVersion' = '5',
'delta.columnMapping.mode' = 'name'
)
-- Rename the old column and create a new column with the new type using the old name
ALTER TABLE MyTable RENAME ID to ID_old
ALTER TABLE MyTable ADD COLUMN ID BIGINT
-- Rewrite the entire table
UPDATE MyTable SET ID = ID_old
-- Drop the old column
ALTER TABLE MyTable DROP COLUMN ID_old
Parquet 架构推理更改
从不是以 Spark 编写的 Parquet 文件推理架构时,使用 int64
批注的 isAdjustedToUTC=false
时间戳列现在将默认为 TIMESTAMP_NTZ
类型。 以前,这些列会推理为 TIMESTAMP
类型。 此项更新增强了将 Parquet 类型映射到 Spark SQL 类型的准确度。
因此,如果未启用 timestampNtz
功能,将数据从外部 Parquet 文件读取到 Delta 表中可能会导致错误。 显示的错误如下所示:
Fatal exception of the update:
com.databricks.sql.transaction.tahoe.DeltaTableFeatureException
Your table schema requires manual enablement of the following table feature(s): timestampNtz.
若要维持以前的行为并防止出现此错误,可以将 Spark 配置参数 spark.sql.parquet.inferTimestampNTZ.enabled
设置为 false
。
库升级
- 升级了 Python 库:
- debugpy 已从 1.5.1 升级到 1.6.0
- distlib 已从 0.3.6 升级到 0.3.7
- fastjsonschema 已从 2.16.3 升级到 2.18.0
- filelock 已从 3.12.0 升级到 3.12.2
- 升级了 R 库:
- SparkR 已从 3.4.0 升级到 3.4.1
- 升级了 Java 库:
- org.apache.orc.orc-core 已从 1.8.3-shaded-protobuf 升级到 1.8.4-shaded-protobuf
- org.apache.orc.orc-mapreduce 已从 1.8.3-shaded-protobuf 升级到 1.8.4-shaded-protobuf
- org.apache.orc.orc-shims 已从 1.8.3 升级到 1.8.4
- org.eclipse.jetty.jetty-client 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-continuation 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-http 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-io 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-jndi 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-plus 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-proxy 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-security 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-server 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlet 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlets 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-util 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-util-ajax 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-webapp 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.jetty-xml 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-api 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-client 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-common 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-server 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-servlet 已从 9.4.50.v20221201 升级到 9.4.51.v20230217
- org.xerial.snappy.snappy-java 已从 1.1.8.4 升级到 1.1.10.1
Apache Spark
Databricks Runtime 13.3 包含 Apache Spark 3.4.1。 此版本包括 Databricks Runtime 13.2 (EoS) 中包含的所有 Spark 修复和改进,以及对 Spark 进行的以下其他缺陷修复和改进:
- 现在可以将群集环境变量
SNOWFLAKE_SPARK_CONNECTOR_VERSION=2.12
设置为使用 Spark-snowflake 连接器 v2.12.0。 - [SPARK-43380] [DBRRM-383] 还原“[SC-133100][sql] 修复 Avro 数据类型转换...
- [SPARK-44504] [Backport][13.2][13.x][13.3] 卸载提供程序,从而在维护任务出错时强制关闭 DB 实例并释放资源
- [SPARK-44059] [SC-137023] 为内置函数添加对命名参数的分析器支持
- [SPARK-44485] [SC-137653][sql] 优化 TreeNode.generateTreeString
- [SPARK-42944] [ SC-137164][ss][PYTHON] Python 中的流式处理 ForeachBatch
- [SPARK-44446] [SC-136994][python] 添加对于预期列表类型特殊情况的校验
- [SPARK-44439] [ SC-136973][connect][SS]修复了listListeners仅将IDs返回给客户端的问题
- [SPARK-44216] [SC-136941] [PYTHON] 公开 assertSchemaEqual API
- [SPARK-44201] [SC-136778][connect][SS]在 Spark Connect 的 Scala 中添加对流式侦听器的支持
- [SPARK-43915] [ SC-134766][sql] 将名称分配给错误类 LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43798] 恢复“[SC-133990][sql][PYTHON] 支持 Python 自定义表函数”
- [SPARK-44398] [ SC-136720][connect] Scala foreachBatch API
- [SPARK-44476] [ SC-137169][core][CONNECT] 修复 JobArtifactState 的工件填充,针对没有关联工件的情况
- [SPARK-44269] [ SC-135817][sql] 将名称分配给错误类 LEGACY_ERROR_TEMP[2310-2314]
- [SPARK-44395] [ SC-136744][sql] 更新 TVF 参数,要求在关键字后的标识符周围加上括号。
- [SPARK-43915] [ SC-134766][sql] 将名称分配给错误类 LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43995] [ SC-136794][spark-43996][CONNECT] 向 Connect Scala 客户端添加对 UDFRegistration 的支持
- [SPARK-44109] [ SC-134755][core] 删除每个 RDD 分区的重复首选位置
- [SPARK-44169] [ SC-135497][sql] 将名称分配给错误类 LEGACY_ERROR_TEMP[2300-2304]
- [SPARK-41487] [ SC-135636][sql] 将名称分配给_LEGACY_ERROR_TEMP_1020
- [SPARK-44398] [ SC-136720][connect] Scala foreachBatch API
-
[SPARK-44153] [SC-134977][core][UI] 选项卡中的支持
Heap Histogram
列Executors
- [SPARK-44044] [ SC-135695][ss] 使用流式处理改进窗口函数的错误消息
- [SPARK-43914] [ SC-135414][sql] 将名称分配给错误类 LEGACY_ERROR_TEMP[2433-2437]
- [SPARK-44217] [ SC-136805][python] 允许 fp 近似相等的自定义精度
- [SPARK-44370] [SC-136575][connect] 将 Buf 的远程生成 alpha 迁移到远程插件
- [SPARK-44410] [ SC-136930][python][CONNECT] 在 create 中设置活动会话,而不仅仅是 getOrCreate
- [SPARK-44348] [ SAS-1910][sc-136644][13.X][core][CONNECT][python] 通过相关更改重新实现test_artifact
- [SPARK-44145] [ SC-136698][sql] 执行准备就绪时的回调
- [SPARK-44264] [SC-136870][python][ML] FunctionPickler 类
- [SPARK-43986] [ SC-135623][sql] 为 HyperLogLog 函数调用失败创建错误类
- [SPARK-44139] [ SC-134967][sql] 放弃基于组的 MERGE作中完全向下推送的筛选器
- [SPARK-44338] [SC-136718][sql] 修复视图架构不匹配错误消息
- [SPARK-44208] [ SC-135505][core][SQL] 为直接使用异常的某些逻辑分配明确的错误类名
- [SPARK-44364] [SC-136773] [PYTHON] 添加对预期的 List[Row] 数据类型的支持
- [SPARK-44180] [SC-136792][sql] DistributionAndOrderingUtils 应当应用 ResolveTimeZone
- [SPARK-43389] [ SC-136772][sql] 为 lineSep 选项添加了空值检查
- [SPARK-44388] [ SC-136695][connect] 修复更新 UDF 实例时的 protobuf 转换问题
- [SPARK-44352] [ SC-136373][connect] 在 DataType 中放回 sameType 和好友。
- [SPARK-43975] [ SC-134265][sql] DataSource V2:处理针对组式数据源的命令
- [SPARK-44360] [ SC-136461][sql] 支持在基于Delta的MERGE操作中进行模式修剪
- [SPARK-44138] [ SC-134907][sql] 禁止合并条件中的非确定性表达式、子查询和聚合
- [SPARK-43321] [SC-136678][connect][Followup] 为 Scala Client 的 joinWith 所用 API 提供更好的名称
- [SPARK-44263] [SC-136447][connect] 自定义侦听器支持
- [SPARK-39851] [ SC-123383][sql] 如果一侧可以保持唯一性,请改进联接统计信息估计
-
[SPARK-44390] [ SC-136677][core][SQL] 重命名
SparkSerDerseUtils
为SparkSerDeUtils
- [SPARK-44004] [ SC-134751][sql] 命名并改进常见遗留错误的错误信息。
- [SPARK-44322] [ SC-136204][connect] 使分析器使用 SqlApiConf 而不是 SQLConf。
- [SPARK-44271] [ SC-136347][sql] 将默认值函数从 StructType 移动到 ResolveDefaultColumns
- [SPARK-44332] [ SC-136413][core][WEBUI] 修复执行程序 UI 页上执行程序 ID 列的排序错误
- [SPARK-44282] [SC-135948][connect] 准备用于 Spark Connect Scala 客户端的 DataType 解析
- [SPARK-44349] [SC-136581][r] 向 SparkR 添加数学函数
- [SPARK-44397] [ SC-136647][python] 在 pyspark.testing.utils 模块中开放 assertDataFrameEqual
- [SPARK-42981] [SC-136620][connect] 添加直接箭头序列化
- [SPARK-44373] [ SC-136577][sql] 为数据集API添加活跃的包装,并使用解析逻辑使解析器相关配置生效
- [SPARK-44340] [ SC-136574][sql] 通过 PartitionEvaluator API 定义计算逻辑并将其用于 WindowGroupLimitExec
- [SPARK-43665] [ SC-136573][connect][PS] 启用 PandasSQLStringFormatter.vformat 以使用 Spark Connect
- [SPARK-44325] [ SC-136572][sql] 在 SortMergeJoinExec 中使用 PartitionEvaluator API
- [SPARK-44315] [ SC-136171][sql][CONNECT] 将 DefinedByConstructorParams 移动到 sql/api
- [SPARK-44275] [ SC-136184][connect] 向 Scala Spark Connect 添加可配置的重试机制
- [SPARK-44326] [SC-136208][sql][CONNECT] 将 Scala 客户端中使用的工具移动到公用模块
- [SPARK-43321] [SC-136156][connect] 数据集#Joinwith
- [SPARK-44343] [SC-136372][connect] 为 ScalaReflection 迁移到 SQL/API 做准备
- [SPARK-44313] [ SC-136081][sql] 修复架构中含有 char/varchar 列时生成列表达式的验证问题
- [SPARK-43963] [ SC-134145][sql] DataSource V2:处理基于组的源的 MERGE 命令
- [SPARK-44363] [SC-136433] [PYTHON] 在 DataFrame 比较中显示不相等行的百分比
- [SPARK-44251] [ SC-136432][sql] 在完全外部 USING 连接中正确设置合并的连接键的可为 null 属性
- [SPARK-43948] [ SC-133366][sql] 将名称分配给错误类 LEGACY_ERROR_TEMP[0050|0057|0058|0059]
- [SPARK-44329] [ SC-136326][connect][PYTHON] 向 Scala 和 Python 添加hll_sketch_agg、hll_union_agg、to_varchar、try_aes_decrypt
- [SPARK-44351] [ SC-136353][sql] 进行一些语法简化
- [SPARK-44281] [ SC-135963][sql] 将 DataType 使用的 QueryCompilation 错误作为 DataTypeErrors 移动到 sql/api
- [SPARK-44283] [SC-136109][connect] 将源移动到 SQL/API
- [SPARK-43926] [ SC-135590][connect][PYTHON] 向 Scala 和 Python 添加数组agg、array_size、基数、count_min_sketch、mask、named_struct、json*
-
[SPARK-44327] [ SC-136187][sql][CONNECT] 将函数
any
和len
添加到 Scala - [SPARK-44290] [ SC-136300][connect] Spark Connect 中基于会话的文件和存档
- [SPARK-44061] [ SC-136299][python] 添加 assertDataFrameEqual util 函数
- [SPARK-44331] [ SC-136324][connect][PYTHON] 向 Scala 和 Python 添加位图函数
- [SPARK-44342] [SC-136334][sql] 在 GenTPCDSData 中将 SQLContext 替换为 SparkSession
- [SPARK-42583] [ SC-124190][sql] 删除外部联接(如果它们都是不同的聚合函数)
- [SPARK-44333] [ SC-136206][connect][SQL] 将 EnhancedLogicalPlan 移出 ParserUtils
- [SPARK-43824] [SC-132655][spark-43825] [SQL] 为错误类别 _LEGACY_ERROR_TEMP_128[1-2] 分配名称
- [SPARK-43939] [ SC-134602][connect][PYTHON] 向 Scala 和 Python 添加 try_* 函数
- [SPARK-44193] [ SC-135886][connect] 实现 GRPC 异常拦截器以进行转换
- [SPARK-44284] [ SC-136107][connect] 为 sql/api 创建简单的 conf 系统
- [SPARK-43913] [ SC-133368][sql] 将名称分配给错误类 LEGACY_ERROR_TEMP[2426-2432]
- [SPARK-44291] 撤销“[SC-135924][spark-43416][CONNECT] 修复范围查询的错误架构”
- [SPARK-44312] [ SC-136185][connect][PYTHON] 允许使用环境变量设置用户代理
- [SPARK-44154] [SC-136060] 实现位图函数
- [SPARK-43885] [ SC-133996][sql] DataSource V2:处理基于Delta的源的 MERGE 命令
- [SPARK-43924] [ SC-135161][connect][PYTHON] 向 Scala 和 Python 添加 misc 函数
- [SPARK-43969] [SC-134556][sql] 重构并给错误类_LEGACY_ERROR_TEMP_1170分配名称
- [SPARK-44185] [ SC-135730][sql] 修复目录和数据操作之间路径限定不一致问题
- [SPARK-44073] [ SC-134562][sql][PYTHON][connect] 向 Scala、Python 和 Connect 添加日期时间函数 - 第 2 部分
- [SPARK-43942] [ SC-134527][connect][PYTHON] 向 Scala 和 Python 添加字符串函数 - 第 1 部分
- [SPARK-44266] [SC-135813][sql] 将 Util.truncatedString 移动到 sql/api
- [SPARK-44195] [ SC-135722][r] 将 JobTag API 添加到 SparkR SparkContext
- [SPARK-44200] [ SC-135736][sql] 支持 TABLE TableValuedFunction 的参数分析器规则
- [SPARK-44254] [ SC-135709][sql] 将 DataType 所使用的 QueryExecutionErrors 移动到 sql/api 中,并命名为 DataTypeErrors
- [SPARK-44291] [ SC-135924][spark-43416][CONNECT] 修复了范围查询的错误架构
- [SPARK-43922] [ SC-135612][sql] 在函数调用分析器中添加命名参数支持
- [SPARK-44300] [ SC-135882][connect] 修复构件清理,将删除范围限制为仅与会话相关的构件
- [SPARK-44293] [ SC-135849][connect] 修复 Spark Connect 中自定义 JAR 的无效 URI
- [SPARK-44215] [SC-135850][shuffle] 如果 num 数据块为 0,则服务器应该抛出 RuntimeException
- [SPARK-44245] [ SC-135851][python] pyspark.sql.dataframe sample() doctests 应仅用于说明
- [SPARK-44274] [ SC-135814][connect] 将 ArtifactManager 使用的 util 函数移出到 common/utils
- [SPARK-44194] [ SC-135815][python][CORE] 将 JobTag API 添加到 PySpark SparkContext
- [SPARK-42828] [ SC-135733][python][SQL] GroupedData 的更显式 Python 类型注释
-
[SPARK-44079] [SC-135486][sql] 修复在使用 PERMISSIVE 模式和处理损坏的记录时,将数组解析为结构体的问题
ArrayIndexOutOfBoundsException
- [SPARK-44255] [ SC-135809][sql] 将 StorageLevel 重新定位为 common/utils
- [SPARK-42169] [SC-135795] [SQL] 实现 to_csv 函数 (StructsToCsv) 的代码生成
- [SPARK-44249] [ SC-135719][sql][PYTHON] 重构 PythonUDTFRunner 以单独发送其返回类型
- [SPARK-43353] [SC-132734][python] 将剩余会话错误迁移到错误类
- [SPARK-44211] [ SC-135718][python][CONNECT] 实现SparkSession.is_stopped
- [SPARK-42784] [SC-135691] 当合并目录中的子目录数量小于 conf 时,仍应创建子目录
- [SPARK-41599] [SC-135616] 使用 InProcessLauncher 将应用提交到安全群集时,FileSystem.CACHE 内存泄漏
- [SPARK-44241] [ SC-135613][core] 错误地将 io.connectionTimeout/connectionCreationTimeout 设置为零或负数值将导致执行程序的连续创建与销毁。
- [SPARK-44133] [ SC-134795][13.x][PYTHON] 将 MyPy 从 0.920 升级到 0.982
- [SPARK-42941] [ SC-134707][ss][CONNECT][1/2] StreamingQueryListener - JSON 格式的事件 Serde
-
[SPARK-44188] [SC-135173][core] 删除无用
resetAllPartitions
方法在ActiveJob
- [SPARK-43757] [ SC-135418][connect] 将客户端兼容性从允许列表更改为拒绝列表
- [SPARK-43474] [SC-135521] [SS] [CONNECT] 通过 ID 将 spark connect 访问添加到运行时数据帧。
- [SPARK-44183][SC-135209][python] 增加最低版本号至 4.0.0
- [SPARK-44248] [ SC-135554][ss][SQL][kafka] 在 kafka 源 v2 中添加首选位置
- [SPARK-43929] [ SC-134510][sql][PYTHON][connect] 向 Scala、Python 和 Connect API 添加日期时间函数 - 第 1 部分
- [SPARK-44161] [SC-135326][connect] 处理 UDF 的行数据输入
- [SPARK-44227] [SC-135520][sql] 将 SchemaUtils 从 StructField 中提取出来
-
[SPARK-44064] [ SC-135116][core][SQL] 将新
apply
函数添加到NonFateSharingCache
- [SPARK-44171] [ SC-135269][sql] 将名称分配给错误类 LEGACY_ERROR_TEMP[2279-2282] 并删除一些未使用的错误类
- [SPARK-44056] [ SC-134758][sql] 在 UDF 执行失败错误消息中包括 UDF 名称(如果可用)
- [SPARK-44205] [ SC-135422][sql] 从 DecimalType 中提取催化剂代码
- [SPARK-44220] [ SC-135484][sql] 将 StringConcat 移动到 sql/api
- [SPARK-44146] [ SC-135230][connect] 隔离 Spark Connect 会话 jar 和类文件
- [SPARK-44206] [ SC-135411][sql] DataSet.selectExpr scope Session.active
- [SPARK-40850] [ SC-135417][sql] 修复测试用例中被解释的查询可能会调用代码生成
- [SPARK-44204] [SC-135253][sql][HIVE] 为 getPartitionNames 添加缺少的 recordHiveCall
- [SPARK-44237] [SC-135485][core] 简化 DirectByteBuffer 构造函数的查找逻辑
-
[SPARK-44189] [SC-135170][connect][PYTHON] 支持位置参数
sql()
-
[SPARK-44140] [ SC-134893][sql][PYTHON] 支持 Python 中的位置参数
sql()
- [SPARK-44164] [ SC-135158][sql] 将 StructField 中的 toAttribute 方法提取到 Util 类中
-
[SPARK-44178] [ SC-135113][connect] 支持位置参数
sql()
- [SPARK-43208] [SC-128955][sql][HIVE] IsolatedClassLoader 在读取后应关闭屏障类的 InputStream
-
[SPARK-43063] [ SC-128382][sql]
df.show
句柄 null 应打印 NULL 而不是 null - [SPARK-42539] [ SC-124464][sql][HIVE] 在元数据客户端使用“builtin”Hive 版本时消除单独的类加载程序
- [SPARK-43992] [ SC-133645][sql][PYTHON][connect] 为 Catalog.listFunctions 添加可选模式
-
[SPARK-44066] [ SC-134878][sql] 支持 Scala/Java 中的位置参数
sql()
- [SPARK-44078] [ SC-134869][connect][CORE] 添加对类加载器/资源隔离的支持
- [SPARK-43470] [ SC-135187][core] 将 OS、Java、Python 版本信息添加到应用程序日志
- [SPARK-43136] [ SC-135238][connect][后续] 添加对 KeyAs 的测试
- [SPARK-39740] [ SC-135093][ui]:将 vis timeline 升级到 7.7.2 以修复 CVE-2020-28487
- [SPARK-42298] [ SC-133952][sql] 为_LEGACY_ERROR_TEMP_2132 分配名称
- [SPARK-43961] [ SC-133459][sql][PYTHON][connect] 为 Catalog.listTables 添加可选模式
- [SPARK-44026] [SC-135181] 允许为 SQLMetrics 提供初始值
- [SPARK-44202] [ SC-135244][core] 将 JobTag API 添加到 JavaSparkContext
- [SPARK-44030] [ SC-135237][sql] 实现 DataTypeExpression,以实现对表达式的非应用功能
- [SPARK-43876] 还原“[SC-134603][sql] 为非重复查询启用快速哈希映射”
- [SPARK-40082] [SC-126437] 当推送合并 shuffleMapStage 重试但没有运行任务时计划 mergeFinalize
- [SPARK-43888] [SC-132893][core] 将日志记录重新定位到 common/utils
- [SPARK-43474] [SC-134400] [SS] [CONNECT] 将 SessionHolder 添加到 SparkConnectPlanner
- [SPARK-43944] [ SC-134490][connect][PYTHON] 向 Scala 和 Python 添加字符串函数 - 第 2 部分
- [SPARK-44134] [ SC-134954][core] 修复了在 spark-defaults.conf 中设置资源(GPU/FPGA)时,将资源错误地设为 0 的问题
- [SPARK-44142] [SC-134947][python] 在实用工具中将 type 替换为 tpe,以便将 python 类型转换为 spark 类型
- [SPARK-43952] [ SC-134695][core][CONNECT][sql] 添加 SparkContext API 以按标记取消查询
- [SPARK-44000] [ SC-133634][sql] 添加提示以禁用广播和复制联接的一端
- [SPARK-43937] [SC-134362 ][connect][PYTHON] 添加 ifnull,isnotnull,equal_null,nullif,nvl,nvl2 到 Scala 和 Python
-
[SPARK-43624] [13.x][sc-134557][PS][connect] 将
EWM
添加到SparkConnectPlanner。 - [SPARK-44040] [ SC-134366][sql] 修复当 AggregateExec 节点位于 QueryStageExec 之上时的计算统计信息问题。
-
[SPARK-43485] [SC-131264][sql] 修复 datetime add/diff 函数的参数的错误消息
unit
- [SPARK-43794] [SC-132561][sql] 为错误类 _LEGACY_ERROR_TEMP_1335 分配一个名称
- [SPARK-43511] [SC-134749][connect][SS]实现了 Spark Connect 的 MapGroupsWithState 和 FlatMapGroupsWithState API
- [SPARK-43529] [SQL] 支持 CREATE/REPLACE OPTIONS 表达式 + 代码优化整理
-
[SPARK-44106] [SC-134750][python][CONNECT] 添加
__repr__
GroupedData
- [SPARK-42299] [SC-133190] 将名称分配到 _LEGACY_ERROR_TEMP_2206
- [SPARK-43290] [ SC-134388][sql] 添加了对 aes_encrypt IV 和 AAD 的支持
-
[SPARK-43932] [ SC-134138][sql][PYTHON][connect] 向 Scala 和 Python 添加
current
类似函数 - [SPARK-43934] [ SC-134108][sql][PYTHON][connect] 向 Scala 和 Python 添加 regexp_* 函数
- [SPARK-44107] [SC-134746][connect][PYTHON] 在自动完成时隐藏不支持的列方法
- [SPARK-42941] [ SC-134707][ss][CONNECT][1/2] StreamingQueryListener - JSON 格式的事件 Serde
- [SPARK-43773] [ SC-132659][connect][PYTHON] 在 python 客户端中实现“levenshtein(str1, str2[, threshold])”函数
- [SPARK-44125] [ SC-134745][r] 在 SparkR 中支持 Java 21
- [SPARK-43919] [ SC-133374][sql] 从行中提取 JSON 功能
- [SPARK-43769] [SC-132520][connect] 实现'levenshtein(str1, str2[, threshold])'函数
- [SPARK-44012] [SC-134662][ss] KafkaDataConsumer 输出一些读取状态信息
- [SPARK-43876] [ SC-134603][sql] 为非重复查询启用快速哈希映射
-
[SPARK-44024] [SC-134497][sql] 更改为使用
map
仅在unzip
用于提取单个元素时 - [SPARK-43928] [ SC-134467][sql][PYTHON][connect] 向 Scala、Python 和 Connect API 添加位操作
-
[SPARK-44092] [SC-134506][core] 使用 Java 21 添加
Utils.isJavaVersionAtLeast21
并使core
模块通过测试 - [SPARK-44018] [ SC-134512][sql] 改进某些 DS V2 表达式的 hashCode 和 toString
-
[SPARK-44105] [SC-134582][sql]
LastNonNull
应采用惰性解析 - [SPARK-44081] [SC-134434] 稍微简化 PartitionedFileUtil API
- [SPARK-43791] [SC-132531][sql] 为错误类_LEGACY_ERROR_TEMP_1336分配一个名称
- [SPARK-44071] [SC-134435] 定义并使用未解析的 Unresolved[Leaf|Unary]Node 特征。
- [SPARK-43852][SC-132890][spark-43853][SPARK-43854][spark-43855][SPARK-43856] 将名称分配给错误类 _LEGACY_ERROR_TEMP_2418-2425
- [SPARK-43742] [ SC-132684][sql] 重构默认列值解析
- [SPARK-43493] [SC-132063 ][sql] 向 levenshtein() 函数添加最大距离参数
-
[SPARK-44075] [SC-134382][connect] 使
transformStatCorr
惰性 - [SPARK-43925] [ SC-134381][sql][PYTHON][connect] 将 some、bool_or、bool_and 和 every 添加到 Scala、Python 和 Connect
- [SPARK-43931] [ SC-134158][sql][PYTHON][connect] 向 Scala 和 Python 添加 make_* 函数
- [SPARK-43762] [SC-132602][spark-43763][SPARK-43764][spark-43765][SPARK-43766][sql] 将名称分配给错误类_LEGACY_ERROR_TEMP_24[06-10]
-
[SPARK-43962] [SC-133367][sql] 改进错误消息:
CANNOT_DECODE_URL
、、CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
CANNOT_PARSE_DECIMAL
、CANNOT_READ_FILE_FOOTER
、 。CANNOT_RECOGNIZE_HIVE_TYPE
- [SPARK-43938] [ SC-133887][connect][PYTHON] 向 Scala 和 Python 添加 to_* 函数
-
[SPARK-44055] [SC-134321][core] 删除冗余函数
override
来自CheckpointRDD
- [SPARK-43802] [ SC-132597][sql] 修复用于 unhex 和 unbase64 且 failOnError=true 的 codegen
- [SPARK-43798] [ SC-133990][sql][PYTHON] 支持 Python 用户定义的表函数
- [SPARK-43941] [ SC-134286][sql][PYTHON][connect] 添加 any_value、approx_percentile、count_if、first_value、histogram_numeric、last_value、reduce 到 Scala、Python 和 Connect API
- [SPARK-43380] [ SC-133100][sql] 修复 Avro 数据类型转换问题,以避免产生不正确的结果
- [SPARK-43803] [SC-133729] [SS] [CONNECT] 改进 awaitTermination() 以处理客户端断开连接
- [SPARK-43179] [SC-129070][shuffle] 允许应用程序决定其元数据是否由外部洗牌服务保存在数据库中
Databricks ODBC/JDBC 驱动程序支持
Databricks 支持过去 2 年发布的 ODBC/JDBC 驱动程序。 请下载最近发布的驱动程序并升级(下载 ODBC,下载 JDBC)。
请参阅 Databricks Runtime 13.3 维护更新。
系统环境
-
操作系统:Ubuntu 22.04.2 LTS
- 注意:这是 Databricks Runtime 容器使用的 Ubuntu 版本。 DBR 容器在云提供程序的虚拟机上运行,该虚拟机可能使用不同的 Ubuntu 版本或 Linux 分发版。
- Java:Zulu 8.70.0.23-CA-linux64
- Scala:2.12.15
- Python:3.10.12
- R:4.2.2
- Delta Lake:2.4.0
已安装的 Python 库
库 | 版本 | 库 | 版本 | 库 | 版本 |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | 属性 | 21.4.0 | 回调 | 0.2.0 |
beautifulsoup4 | 4.11.1 | 黑色 | 22.6.0 | 漂白剂 | 4.1.0 |
闪烁器 | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer (字符集正常化工具) | 2.0.4 | 单击 | 8.0.4 | 密码系统 | 37.0.1 |
骑行者 | 0.11.0 | Cython | 0.29.32 | Databricks软件开发工具包 (databricks-sdk) | 0.1.6 |
dbu-python | 1.2.18 | debugpy | 1.6.0 | 装饰师 | 5.1.1 |
defusedxml | 0.7.1 | distlib | 0.3.7 | 从文档字符串到Markdown | 0.12 |
入口点 | 0.4 | 执行 | 1.2.0 | 各个方面概述 | 1.0.3 |
fastjsonschema | 2.18.0 | 文件锁 (filelock) | 3.12.2 | fonttools(字体工具) | 4.25.0 |
googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
httplib2 | 0.20.2 | IDNA | 3.3 | importlib-metadata | 4.6.4 |
ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils(IPython通用工具) | 0.2.0 |
ipywidgets | 7.7.2 | jedi | 0.18.1 | 吉普尼 | 0.7.1 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
jsonschema | 4.16.0 | Jupyter客户端 | 7.3.4 | jupyter_core(Jupyter核心) | 4.11.2 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | 钥匙圈 | 23.5.0 |
kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
matplotlib-inline | 0.1.6 | 麦卡贝 | 0.7.0 | mistune | 0.8.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
nodeenv | 1.8.0 | 笔记本 | 6.4.12 | numpy | 1.21.5 |
oauthlib | 3.2.0 | 打包 | 21.3 | 熊猫 | 1.4.4 |
pandocfilters | 1.5.0 | 帕尔索 | 0.8.3 | pathspec | 0.9.0 |
替罪羊 | 0.5.2 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
枕头 | 9.2.0 | 果仁 | 22.2.2 | platformdirs | 2.5.2 |
plotly | 5.9.0 | Pluggy (Python库) | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | Python代码解析器 | 2.21 | pydantic | 1.10.6 |
pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
pyright | 1.1.294 | pyrsistent(持久性,类似于 persistent 的 Python 包) | 0.18.0 | python-dateutil | 2.8.2 |
python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 |
pytz | 2022年1月 | pyzmq | 23.2.0 | 请求 | 2.28.1 |
绳子 | 1.7.0 | s3transfer | 0.6.0 | scikit-learn | 1.1.1 |
scipy | 1.9.1 | seaborn | 0.11.2 | SecretStorage | 3.3.1 |
Send2Trash | 1.8.0 | setuptools | 63.4.1 | 6 | 1.16.0 |
汤滤器 | 2.3.1 | ssh-import-id | 5.11 | 堆栈数据 | 0.6.2 |
statsmodels | 0.13.2 | 毅力 | 8.1.0 | 完成 | 0.13.1 |
测试路径 | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
tomli | 2.0.1 | 龙卷风 | 6.1 | Traitlets | 5.1.1 |
输入扩展 (typing_extensions) | 4.3.0 | ujson | 5.4.0 | 无人参与升级 | 0.1 |
urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
wcwidth | 0.2.5 | Web编码 | 0.5.1 | whatthepatch | 1.0.2 |
轮子 | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
齐普 | 1.0.0 |
已安装的 R 库
R 库通过 2023-02-10 的 Posit 包管理器 CRAN 快照安装:https://packagemanager.posit.co/cran/__linux__/jammy/2023-02-10/
库 | 版本 | 库 | 版本 | 库 | 版本 |
---|---|---|---|---|---|
箭头 | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
回移补丁 | 1.4.1 | 基础 | 4.2.2 | base64enc | 0.1-3 |
位 | 4.0.5 | bit64 | 4.0.5 | 团状物 | 1.2.3 |
启动 | 1.3-28 | 酿造/冲泡 | 1.0-8 | 活力 | 1.1.3 |
扫帚 | 1.0.3 | bslib | 0.4.2 | 卡齐姆 | 1.0.6 |
调用方 | 3.7.3 | 插入符号 | 6.0-93 | cellranger (细胞测序工具) | 1.1.0 |
chron | 2.3-59 | 班级 | 7.3-21 | cli | 3.6.0 |
剪辑器 | 0.8.0 | 时钟 | 0.6.1 | 集群 | 2.1.4 |
codetools | 0.2至19 | 色彩空间 | 2.1-0 | commonmark | 1.8.1 |
编译器 | 4.2.2 | 配置 | 0.3.1 | cpp11 | 0.4.3 |
蜡笔 | 1.5.2 | 凭据 | 1.3.2 | 卷曲 | 5.0.0 |
数据表 (data.table) | 1.14.6 | 数据集 | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | 摘要 | 0.6.31 | 向下照明 | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
省略号 | 0.3.2 | 评估 | 0.20 | fansi | 1.0.4 |
颜色 | 2.1.1 | 快速映射 | 1.1.0 | fontawesome | 0.5.0 |
猫咪 | 1.0.0 | foreach | 1.5.2 | 外国 | 0.8-82 |
锻造 | 0.2.0 | 文件系统 (if fs stands for "file system") | 1.6.1 | 未来 | 1.31.0 |
future.apply | 1.10.0 | 漱口 | 1.3.0 | 泛 型 | 0.1.3 |
格尔特 | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | 全局变量 | 0.16.2 |
胶水 | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
高尔 | 1.0.1 | 图形 | 4.2.2 | grDevices | 4.2.2 |
“业务流程参数” 网格 | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | 安全帽 | 1.2.0 | 避风港 | 2.5.1 |
更高 | 0.10 | 赫姆斯 | 1.1.2 | HTML工具 | 0.5.4 |
HTML小插件 | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | 迭代器 | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | 针织器 | 1.42 |
标记 | 0.4.2 | 稍后 | 1.3.0 | 格子 | 0.20-45 |
熔岩 | 1.7.1 | 生命周期 | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1.5 |
质量 | 7.3-58.2 | 矩阵 | 1.5-1 | 缓存 | 2.0.1 |
方法 | 4.2.2 | mgcv | 1.8-41 | 默剧 | 0.12 |
迷你用户界面 | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
蒙塞尔 | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016年8月至1月1日 | openssl(开放SSL) | 2.0.5 | 平行 | 4.2.2 |
并行 | 1.34.0 | 柱子 | 1.8.1 | pkgbuild (软件包构建工具) | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
普洛格 | 0.2.0 | 普莱尔 | 1.8.8 | 赞美 | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | 进度 | 1.2.2 |
progressr | 0.13.0 | 承诺 | 1.2.0.1 | 原型 (proto) | 1.0.0 |
代理服务器 | 0.4-27 | 附注 (ps) | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
随机森林 (randomForest) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr(阅读器) | 2.1.3 | readxl | 1.4.2 | 食谱 | 1.0.4 |
重赛 | 1.0.1 | rematch2 | 2.1.2 | 遥控器 | 2.4.2 |
可复现示例 | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown(R语言动态文档生成工具) | 2.20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.5 | 磅秤 | 1.2.1 |
selectr | 0.4-2 | 会话信息 | 1.2.2 | 形状 | 1.4.6 |
光亮 | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.1 | 空间 | 7.3-15 | 样 条 | 4.2.2 |
sqldf(R环境中的数据库操作软件包) | 0.4-11 | SQUAREM | 2021年1月 | 统计数据 | 4.2.2 |
统计数据4 | 4.2.2 | 字符串 | 1.7.12 | stringr | 1.5.0 |
生存 | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | 文本整形 | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse(数据分析工具包) | 1.3.2 | 时间变化 | 0.2.0 | 时间日期 | 4022.108 |
tinytex | 0.44 | 工具 | 4.2.2 | tzdb | 0.3.0 |
URL检查器 | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
实用工具 | 4.2.2 | UUID(通用唯一识别码) | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | 瓦尔多 | 0.4.0 |
晶 须 | 0.4.1 | 无改动(具体含义和背景需要更多信息) | 2.5.0 | xfun | 0.37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | 压缩包 | 2.2.2 |
已安装的 Java 库和 Scala 库(Scala 2.12 群集版本)
组 ID | 项目 ID | 版本 |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | Amazon Kinesis 客户端 | 1.12.0 |
com.amazonaws | AWS Java SDK 自动扩展 | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | AWS Java SDK CloudFront | 1.12.390 |
com.amazonaws | AWS-Java-SDK-云HSM | 1.12.390 |
com.amazonaws | AWS Java SDK 云搜索 | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | AWS Java SDK CodeDeploy(AWS Java 软件开发工具包 CodeDeploy) | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config(AWS Java SDK 配置) | 1.12.390 |
com.amazonaws | aws-java-sdk-core (AWS Java软件开发工具包核心) | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | AWS Java SDK Direct Connect(直连) | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk(AWS Java 开发工具包 - Elastic Beanstalk) | 1.12.390 |
com.amazonaws | aws-java-sdk-弹性负载均衡 | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder(AWS Java SDK弹性转码器) | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | AWS Java SDK Glacier | 1.12.390 |
com.amazonaws | AWS Java SDK Glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | AWS Java SDK 导入导出 (aws-java-sdk-importexport) | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | AWS Java 软件开发工具包 - KMS | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs(AWS Java开发包日志) | 1.12.390 |
com.amazonaws | AWS-Java-SDK-机器学习 | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | AWS Java SDK 存储网关 | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | AWS Java SDK支持 | 1.12.390 |
com.amazonaws | AWS-Java-SDK-SWF-库 | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | 流 (stream) | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.2.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | 请参阅当前使用说明以确定"kryo-shaded"的中文翻译如果有区别。 | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | 同学 | 1.3.4 |
com.fasterxml.jackson.core | Jackson注解 | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor(Jackson的CBOR数据格式) | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda(杰克逊数据类型-Joda) | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.咖啡因 | 咖啡因 | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-原住民 |
com.github.fommil.netlib | 原生系统-Java | 1.1 |
com.github.fommil.netlib | 原生系统-Java | 1.1-原住民 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-原住民 |
com.github.fommil.netlib | netlib-本地系统-linux-x86_64 | 1.1-原住民 |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | 丁克 | 1.7.0 |
com.google.errorprone | 易出错的注释 | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | 番石榴 | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | 分析器 | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | 源代码_2.12 | 0.1.9 |
com.microsoft.azure | Azure 数据湖存储 SDK | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | 镜头_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | 配置 | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers解析器 | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec(公共编解码器) | commons-codec(公共编解码器) | 1.15 |
commons-collections (通用集合库) | commons-collections (通用集合库) | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
公共文件上传 | 公共文件上传 | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging(日志库) | commons-logging(日志库) | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | BLAS | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | 空气压缩机 | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.7.1 |
io.dropwizard.metrics | 度量核心 | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | 指标-健康检查 | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | 指标-JMX | 4.2.10 |
io.dropwizard.metrics | 指标-json | 4.2.10 |
io.dropwizard.metrics | 指标-JVM | 4.2.10 |
io.dropwizard.metrics | 指标-Servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer(Netty缓存) | 4.1.87.Final |
io.netty | Netty编解码器 | 4.1.87.Final |
io.netty | Netty HTTP 编解码器 | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | Netty-Common(网络通用组件) | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy(Netty 处理器代理) | 4.1.87.Final |
io.netty | netty-resolver (Netty 解析器) | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | Netty传输-本机-Unix-通用 | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | 简单客户端通用 | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | 收集器 | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | 激活 | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | 交易接口 (transaction-api) | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | 泡菜 | 1.3 |
net.sf.jpam | 杰潘 | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | Snowflake 数据导入 SDK | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.33 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc(远程调用协议库) | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate (字符串模板) | 3.2.1 |
org.apache.ant | 蚂蚁 | 1.9.16 |
org.apache.ant | ant-jsch(Java的SSH库) | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | 箭头格式 | 11.0.0 |
org.apache.arrow | 箭头内存核心 | 11.0.0 |
org.apache.arrow | 箭头内存网状系统 | 11.0.0 |
org.apache.arrow | 箭头向量 | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4(通用集合库) | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | 策展人与客户 | 2.13.0 |
org.apache.curator | Curator框架 | 2.13.0 |
org.apache.curator | 策展人食谱 | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | 数据草图内存 | 2.0.0 |
org.apache.derby | 德比 | 10.14.2.0 |
org.apache.hadoop | Hadoop 客户端运行时 | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-垫片 | 2.3.9 |
org.apache.hive | 蜂巢存储API | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | 常春藤 | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
\ org.apache.orc | orc-core | 1.8.4-shaded-protobuf |
\ org.apache.orc | orc-mapreduce | 1.8.4-shaded-protobuf |
\ org.apache.orc | orc-shims | 1.8.4 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | 听众批注 | 0.13.0 |
org.apache.zookeeper | 动物园管理员 | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl (Jackson核心库 - ASL) | 1.9.13 |
org.codehaus.jackson | 杰克逊映射器-ASL | 1.9.13 |
org.codehaus.janino | commons-compiler(通用编译器) | 3.0.16 |
org.codehaus.janino | 雅尼诺 | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-continuation | 9.4.51.v20230217 |
org.eclipse.jetty | Jetty-HTTP | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-io | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-jndi | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-plus | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-proxy | 9.4.51.v20230217 |
org.eclipse.jetty | 码头安全 | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-server(Jetty服务器) | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlet | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlets | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util(Jetty工具库) | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util-ajax | 9.4.51.v20230217 |
org.eclipse.jetty | Jetty 网页应用 | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-xml | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | WebSocket API | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | WebSocket客户端 | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | WebSocket-通用 | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | WebSocket服务器 | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.51.v20230217 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-定位器 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator (OSGi 资源定位器) | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | Jersey容器Servlet核心 | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | Hibernate验证器 | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss 日志 | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | 注释 | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | 垫片 | 0.9.39 |
.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | 测试界面 | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | 与Scalatest兼容 | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.1 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
斯塔克斯 | stax-api | 1.0.1 |