注释
对此 Databricks Runtime 版本的支持已结束。 有关终止支持日期,请参阅终止支持历史记录。 有关所有受支持的 Databricks Runtime 版本,请参阅 Databricks Runtime 发行说明版本和兼容性。
以下发行说明提供了由 Apache Spark 3.5.0 提供支持的 Databricks Runtime 15.2 的相关信息。
Databricks 于 2024 年 5 月发布此版本。
小窍门
若要查看已终止支持 (EoS) 的 Databricks Runtime 版本的发行说明,请参阅终止支持 Databricks Runtime 发行说明。 EoS Databricks Runtime 版本已停用,可能不会更新。
行为变更
清空清理 COPY INTO 元数据文件
在写入的表中运行 VACUUM , COPY INTO
现在清理与跟踪引入的文件关联的未推理元数据。 对 COPY INTO
的操作语义没有影响。
Lakehouse Federation 已正式发布 (GA)
在 Databricks Runtime 15.2 及更高版本中,Lakehouse Federation 连接器已正式发布 (GA),支持以下数据库类型:
- MySQL
- PostgreSQL
- Amazon Redshift
- 雪花
- Microsoft SQL Server
- Azure Synapse (SQL 数据仓库)
- Databricks
此版本还引入了以下改进:
- 支持 Snowflake 和 Microsoft SQL Server 连接器中的单一登录 (SSO) 身份验证。
- 对无服务器计算环境中的 SQL Server 连接器的 Azure 专用链接支持。 请参阅步骤 3:创建专用终结点规则。
- 支持更多下推操作(字符串、数学和其他函数)。
- 改进了不同查询形状的下推成功率。
- 其他下推调试功能:
-
EXPLAIN FORMATTED
输出显示下推查询文本。 - 查询配置文件界面显示下推查询文本、联合节点标识符和 JDBC 查询执行时间(在详细模式下)。 请参阅查看系统生成的联合查询。
-
使用 BY POSITION
与无标头 CSV 文件进行列映射的 COPY INTO
在 Databricks Runtime 15.2 及更高版本中,可以将 BY POSITION
关键字(或替代语法 ( col_name [ , <col_name> ... ] )
)与 COPY INTO
用于无标头 CSV 文件,以简化源列到目标表列的映射。 请参阅参数。
当 Spark 任务失败并出现 Resubmitted
错误时减少内存消耗
在 Databricks Runtime 15.2 及更高版本中,当任务失败并出现 TaskInfo.accumulables()
错误时,Spark Resubmitted
方法的返回值为空。 以前,该方法会返回先前成功任务尝试的值。 此行为更改会影响以下使用者:
- 使用
EventLoggingListener
类的 Spark 任务。 - 自定义 Spark 侦听器。
若要还原以前的行为,请将 spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled
设置为 false
。
禁用自适应查询执行计划版本查看功能
为了减少内存消耗,现在在 Spark UI 中默认禁用自适应查询执行 (AQE) 计划版本。 若要在 Spark UI 中启用查看 AQE 计划版本,请将 spark.databricks.sql.aqe.showPlanChangesInUI.enabled
设置为 true
。
降低了对保留查询的限制以减少 Spark UI 内存使用量
在 Databricks Runtime 15.2 及更高版本中,为了减少 Azure Databricks 计算中 Spark UI 消耗的内存,UI 中可见的查询数限制从 1000 降低到 100。 若要更改限制,请使用 spark.sql.ui.retainedExecutions
Spark 配置设置新值。
DESCRIBE HISTORY
现在会显示使用流动聚类分析的表的聚类分析列
运行 DESCRIBE HISTORY
查询时,operationParameters
列默认显示 clusterBy
和 CREATE OR REPLACE
操作的 OPTIMIZE
字段。 对于使用液体聚类的 Delta 表,clusterBy
字段将填充表的聚类列。 如果表不使用液体聚类分析,则字段为空。
新功能和改进
对主键和外键的支持已正式发布
Databricks Runtime 中的主键和外键支持现已普遍可用。 GA 版本包括对使用主键和外键所需权限的如下更改:
- 若要定义外键,必须对外键所引用的主键所属的表具有
SELECT
权限。 不需要拥有具有主键的表,这在以前是必需的。 - 使用
CASCADE
子句删除主键不需要对定义引用主键的外键的表具有权限。 以前,你需要拥有引用表。 - 现在,删除包含约束的表需要与删除不包含约束的表相同的权限。
若要了解如何对表或视图使用主键和外键,请参阅 CONSTRAINT 子句、 ADD CONSTRAINT 子句和 DROP CONSTRAINT 子句。
液体聚类状态为GA
现已广泛推出对液体聚类功能的支持,适用于 Databricks Runtime 15.2 及更高版本。 请参阅 对表使用液体聚类分析。
类型扩展目前为公共预览版
现在可以在由 Delta Lake 支持的表上启用类型扩展。 启用了类型加宽的表允许在不重写基础数据文件的情况下将列的类型更改为更广泛的数据类型。 请参阅类型拓宽。
在 SQL 合并语法中添加了架构演变子句
现在可以将 WITH SCHEMA EVOLUTION
子句添加到 SQL 合并语句,以便为操作启用架构演变。 请参阅用于合并的架构演变语法。
PySpark 自定义数据源以公共预览版提供
PySpark DataSource 可以使用 Python (PySpark) DataSource API 创建,其允许使用 Python 从自定义数据源进行读取并在 Apache Spark 中的自定义数据接收器中进行写入。 请参阅 PySpark 自定义数据源
applyInPandas 和 mapInPandas 现在在 Unity Catalog 计算中可用,并支持共享访问模式。
作为 Databricks Runtime 14.3 LTS 维护版本的一部分,applyInPandas
和 mapInPandas
UDF 类型现在在运行 Databricks Runtime 14.3 及更高版本的共享访问模式计算上受支持。
使用 dbutils.widgets.getAll() 获取笔记本中的所有小组件
使用 dbutils.widgets.getAll()
获取笔记本中的所有小组件。 当将多个小组件值传递给 Spark SQL 查询时,这尤其有用。
真空库存支持
现在可以指定在 Delta 表上运行 VACUUM
命令时要考虑的文件清单。 请参阅 OSS Delta 文档。
支持 Zstandard 压缩功能
现在可以使用 zst_compress、 zstd_decompress和 try_zstd_decompress 函数来压缩和解压缩 BINARY
数据。
故障修复
SQL UI 中的查询计划现在正确显示 PhotonWriteStage
在 SQL UI 中显示时,查询计划中 write
命令错误地显示为运算符 PhotonWriteStage
。 在此版本中,UI 已更新,将 PhotonWriteStage
显示为一个阶段。 这只是 UI 更改,不会影响查询的运行方式。
Ray 已更新以修复启动 Ray 群集的问题
此版本包含 Ray 的修补版本,修复了阻止 Ray 群集启动 Databricks Runtime 进行机器学习的中断性变更。 此更改可确保 Ray 功能与 15.2 之前的 Databricks Runtime 版本相同。
更正了 DataFrame.sort()
和 DataFrame.sortWithinPartitions()
函数的错误类
此版本加入了对 PySpark DataFrame.sort()
和 DataFrame.sortWithinPartitions()
函数的更新,以确保当 ZERO_INDEX
作为索引参数传递时会引发 0
错误类。 以前会引发错误类别 INDEX_NOT_POSITIVE
。
ipywidgets 已从 8.0.4 降级到 7.7.2
为了修复 Databricks Runtime 15.0 中由 ipywidgets 升级到 8.0.4 引入的错误,ipywidgets 已在 Databricks Runtime 15.2 中降级到 7.7.2。 这与以前 Databricks Runtime 版本中包含的版本相同。
图书馆升级
- 升级后的 Python 库:
- GitPython 已从 3.1.42 升级到 3.1.43
- google-api-core 已从 2.17.1 升级到 2.18.0
- google-auth 已从 2.28.1 升级到 2.29.0
- google-cloud-storage 已从 2.15.0 升级到 2.16.0
- googleapis-common-protos 已从 1.62.0 升级到 1.63.0
- ipywidgets 已从 8.0.4 升级到 7.7.2
- mlflow-skinny 从 2.11.1 升级到 2.11.3
- s3transfer 已从 0.10.0 升级到 0.10.1
- sqlparse 已从 0.4.4 升级到 0.5.0
- typing_extensions 已从 4.7.1 升级到 4.10.0
- 升级后的 R 库:
- 升级后的 Java 库:
- com.amazonaws.aws-java-sdk-autoscaling 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-config 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-core 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-directconnect 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-directory 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-ec2 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-ecs 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-efs 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-elasticache 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder,从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-emr 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-glacier 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-glue 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-iam 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-importexport 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-kinesis 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-kms 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-lambda 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-logs 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-opsworks 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-rds 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-redshift 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-route53 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-s3 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-ses 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-simpledb 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-sns 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-sqs 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-ssm 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-sts 已从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-support 从 1.12.390 升级到 1.12.610
- com.amazonaws.aws-java-sdk-workspaces 已从 1.12.390 升级到 1.12.610
- com.amazonaws.jmespath-java 从 1.12.390 升级到 1.12.610
Apache Spark
Databricks Runtime 15.2 包含 Apache Spark 3.5.0。 此版本包括 Databricks Runtime 15.1 (EoS) 中包含的所有 Spark 修复和改进,以及对 Spark 进行的以下其他缺陷修复和改进:
- [SPARK-47941] [SC-163568] [SS] [Connect] 将 ForeachBatch 工作线程初始化错误传播给 PySpark 用户
- [SPARK-47412] [SC-163455][sql] 添加对 LPad/RPad 的字符排序支持。
- [SPARK-47907] [ SC-163408][sql] 将 bang 设置为配置项
-
[SPARK-46820] [ SC-157093][python] 通过还原修复错误信息回归问题
new_msg
- [SPARK-47602] [SPARK-47577][spark-47598][SPARK-47577]Core/MLLib/资源管理器:结构化日志记录迁移
- [SPARK-47890] [ SC-163324][connect][PYTHON] 向 Scala 和 Python 添加变体函数。
-
[SPARK-47894] [SC-163086][core][WEBUI] 向主控制界面 UI 添加
Environment
页面 - [SPARK-47805] [SC-163459][ss] 实现 MapState 的 TTL
- [SPARK-47900] [SC-163326] 修复对隐式 (UTF8_BINARY) 排序规则的检查
- [SPARK-47902] [SC-163316][sql]使计算当前时间* 表达式可折叠
- [SPARK-47845] [ SC-163315][sql][PYTHON][connect] 支持 scala 和 python 拆分函数中的列类型
- [SPARK-47754] [ SC-162144][sql] Postgres:支持读取多维数组
- [SPARK-47416] [ SC-163001][sql] 向 CollationBenchmark 添加新函数 #90339
- [SPARK-47839] [ SC-163075][sql] 修复 RewriteWithExpression 中的聚合 bug
- [SPARK-47821] [SC-162967][sql] 实现is_variant_null表达式
-
[SPARK-47883] [SC-163184][sql] 使用 RowQueue 实现
CollectTailExec.doExecute
懒加载 - [SPARK-47390] [ SC-163306][sql] PostgresDialect 区分 TIMESTAMP 与 TIMESTAMP_TZ
-
[SPARK-47924] [ SC-163282][core] 将 DEBUG 日志添加到
DiskStore.moveFileToBlock
- [SPARK-47897] [ SC-163183][sql][3.5] 修复 scala 2.12 中的 ExpressionSet 性能回归
- [SPARK-47565] [SC-161786][python] PySpark 工作池崩溃恢复能力
- [SPARK-47885] [ SC-162989][python][CONNECT] 使 pyspark.resource 与 pyspark-connect 兼容
-
[SPARK-47887] [SC-163122][connect] 删除
spark/connect/common.proto
spark/connect/relations.proto
中的未使用导入 - [SPARK-47751] [ SC-161991][python][CONNECT] 使pyspark.worker_utils与 pyspark-connect 兼容
- [SPARK-47691] [ SC-161760][sql] Postgres:支持写入端的多维数组
- [SPARK-47617] [ SC-162513][sql] 为排序规则添加 TPC-DS 测试基础结构
- [SPARK-47356] [ SC-162858][sql] 添加对 ConcatWs 和 Elt 的支持(所有排序规则)
-
[SPARK-47543] [SC-161234][connect][PYTHON] 从 Pandas 数据帧中推断
dict
为MapType
,以允许创建数据帧 - [SPARK-47863] [SC-162974][sql] 修复了 ICU 的 startsWith 和 endsWith 排序规则感知实现
- [SPARK-47867] [ SC-162966][sql] 支持 JSON 扫描中的变体。
- [SPARK-47366] [ SC-162475][sql][PYTHON] 为PySpark添加VariantVal
- [SPARK-47803] [ SC-162726][sql] 支持转换为变体。
- [SPARK-47769] [ SC-162841][sql] 添加schema_of_variant_agg表达式。
- [SPARK-47420] [SC-162842][sql] 修复测试输出
- [SPARK-47430] [SC-161178][sql] 对 MapType 的支持GROUP BY
- [SPARK-47357] [ SC-162751][sql] 添加对 Upper、Lower 和 InitCap 支持(适用于所有排序规则)
- [SPARK-47788] [ SC-162729][ss] 确保流式处理有状态的操作具有相同的哈希分区
- [SPARK-47776] [ SC-162291][ss] 禁止在有状态操作符的关键架构中使用二进制不等关系排序规则
- [SPARK-47673] [SC-162824][ss] 为 ListState 实现 TTL
- [SPARK-47818] [ SC-162845][connect] 引入 SparkConnectPlanner 中的计划缓存以提高分析请求的性能
- [SPARK-47694] [SC-162783][connect] 将最大消息大小设置为客户端可配置
- [SPARK-47274] 还原“[SC-162479][python][SQL] 提供更多有用的...
- [SPARK-47616] [ SC-161193][sql] 添加用于映射 MySQL 中的 Spark SQL 数据类型的用户文档
- [SPARK-47862] [ SC-162837][python][CONNECT]修复 proto 文件的生成
- [SPARK-47849] [ SC-162724][python][CONNECT] 更改发布脚本以发布 pyspark-connect
- [SPARK-47410] [SC-162518][sql] 重构 UTF8String 和 CollationFactory
- [SPARK-47807] [ SC-162505][python][ML] 使 pyspark.ml 与 pyspark-connect 兼容
- [SPARK-47707] [ SC-161768][sql] MySQL Connector/J 5.x 的 JSON 类型特殊处理
- [SPARK-47765] 恢复“[SC-162636][sql] 添加 SET COLLATION以进行解析...
- [SPARK-47081] [ SC-162151][connect][FOLLOW] 提升进度处理程序的易用性
- [SPARK-47289] [ SC-161877][sql] 允许扩展功能在解释计划中记录详细信息
- [SPARK-47274] [ SC-162479][python][SQL] 为 PySpark 数据帧 API 错误提供更有用的上下文
- [SPARK-47765] [SC-162636][sql] 向分析程序规则添加 SET COLLATION
-
[SPARK-47828] [SC-162722][connect][PYTHON]
DataFrameWriterV2.overwrite
因计划无效而失败 - [SPARK-47812] [ SC-162696][connect] 支持 ForEachBatch 辅助角色的 SparkSession 序列化
- [SPARK-47253] [ SC-162698][core] 允许 LiveEventBus 停止而不完全清空事件队列
- [SPARK-47827] [ SC-162625][python] 缺少对已弃用功能的警告
- [SPARK-47733] [ SC-162628][ss] 为查询进度的 transformWithState 运算符部分添加自定义指标
- [SPARK-47784] [ SC-162623][ss] 将 TTLMode 和 TimeoutMode 合并为单个 TimeMode。
- [SPARK-47775] [ SC-162319][sql] 支持变体规格中的剩余标量类型。
- [SPARK-47736] [SC-162503][sql] 添加对 AbstractArrayType 的支持
- [SPARK-47081] [SC-161758][connect] 支持查询执行进度
- [SPARK-47682] [ SC-162138][sql] 支持从变体转换。
- [SPARK-47802] [ SC-162478][sql] 从含义结构() 还原回含义 *
- [SPARK-47680] [ SC-162318][sql] 添加variant_explode表达式。
-
[SPARK-47809] [SC-162511][sql]
checkExceptionInExpression
应检查每个代码生成模式的错误 -
[SPARK-41811] [ SC-162470][python][CONNECT] 实现
SQLStringFormatter
和WithRelations
- [SPARK-47693] [ SC-162326][sql] 添加对在UTF8_BINARY_LCASE排序规则中使用的UTF8String的小写字符比较的优化
- [SPARK-47541] [ SC-162006][sql] 复杂类型中的排序字符串支持的操作:reverse、array_join、concat、map
- [SPARK-46812] [ SC-161535][connect][PYTHON] 让 mapInPandas 和 mapInArrow 支持 ResourceProfile
- [SPARK-47727] [ SC-161982][python] 将 SparkConf 设置为 SparkSession 和 SparkContext 的根级别
- [SPARK-47406] [ SC-159376][sql] 在 MYSQLDialect 中处理 TIMESTAMP 和 DATETIME
- [SPARK-47081] 还原“[SC-161758][connect] 支持查询执行...”
- [SPARK-47681] [ SC-162043][sql] 添加schema_of_variant表达式。
- [SPARK-47783] [SC-162222] 添加一些缺失的 SQLSTATE 并清理 YY000 以使用…
- [SPARK-47634] [ SC-161558][sql] 添加旧版支持以禁用映射密钥规范化
- [SPARK-47746] [SC-162022] 在 RocksDBStateEncoder 中实现基于序数的范围编码
- [SPARK-47285] [ SC-158340][sql] AdaptiveSparkPlanExec 应始终使用 context.session
- [SPARK-47643] [ SC-161534][ss][PYTHON] 为 python 流源添加 pyspark 测试
- [SPARK-47582] [ SC-161943][sql] 将具有变量的 Catalyst logInfo 迁移到结构化日志记录框架
- [SPARK-47558] [SC-162007][ss] 对 ValueState 的状态 TTL 支持
- [SPARK-47358] [ SC-160912][sql][COLLATION] 改进重复表达式支持以返回正确的数据类型
- [SPARK-47504] [SC-162044][sql] 解析 StringTypeCollated 的 AbstractDataType simpleStrings
- [SPARK-47719] 恢复“[SC-161909][sql] 更改 spark.sql.legacy.t...
- [SPARK-47657] [ SC-162010][sql] 实现每个文件源的排序规则筛选器下推支持
- [SPARK-47081] [SC-161758][connect] 支持查询执行进度
- [SPARK-47744] [SC-161999] 添加对范围编码器中负值字节的支持
- [SPARK-47713] [ SC-162009][sql][CONNECT] 修复自联接失败
- [SPARK-47310] [ SC-161930][ss] 为状态存储的值部分中的多个值添加合并作的微基准
- [SPARK-47700] [SC-161774][sql] 修复错误消息中 treeNode 的格式设置
- [SPARK-47752] [ SC-161993][ps][CONNECT] 使 pyspark.pandas 与 pyspark-connect 兼容
- [SPARK-47575] [ SC-161402][spark-47576][SPARK-47654] 在结构化日志记录框架中实现 logWarning/logInfo API
- [SPARK-47107] [ SC-161201][ss][PYTHON] 为 Python 流数据源实现分区读取器
- [SPARK-47553] [ SC-161772][ss] 添加对 transformWithState 运算符 API 的 Java 支持
- [SPARK-47719] [ SC-161909][sql] 更改 spark.sql.legacy.timeParserPolicy 默认值为 CORRECTED
- [SPARK-47655] [ SC-161761][ss] 将计时器与 State-v2 的初始状态处理进行集成
- [SPARK-47665] [ SC-161550][sql] 使用 SMALLINT 将 ShortType 写入 MYSQL
- [SPARK-47210] [SC-161777][sql] 添加不支持不确定结果的隐式转换
- [SPARK-47653] [ SC-161767][ss] 添加对负数值类型和范围扫描密钥编码器的支持
- [SPARK-46743] [SC-160777][sql] 常量折叠后计数错误
- [SPARK-47525] [ SC-154568][sql] 支持映射属性上的子查询关联联接
- [SPARK-46366] [ SC-151277][sql] 在 BETWEEN 中使用 WITH 表达式以避免重复表达式
- [SPARK-47563] [ SC-161183][sql] 在创建时添加映射规范化
- [SPARK-42040] [ SC-161171][sql] SPJ:为 V2 输入分区引入新的 API 来报告分区统计信息
-
[SPARK-47679] [ SC-161549][sql] 直接使用
HiveConf.getConfVars
或 Hive conf 名称 -
[SPARK-47685] [ SC-161566][sql] 恢复在
Stream
中的Dataset#groupBy
类型的支持 - [SPARK-47646] [ SC-161352][sql] 使try_to_number为格式不正确的输入返回 NULL
- [SPARK-47366] [SC-161324][python] 添加 pyspark 和 数据帧 parse_json 别名
-
[SPARK-47491] [ SC-161176][core] 先将 jar 添加到类路径,优先于
slf4j-api
目录中的其他内容 - [SPARK-47270] [ SC-158741][sql] Dataset.isEmpty projects CommandResults 本地
-
[SPARK-47364] [SC-158927][core] 在插件回复单向消息时发出
PluginEndpoint
警告 - [SPARK-47280] [ SC-158350][sql] 删除 ORACLE TIMESTAMP WITH 的时区限制 TIMEZONE
- [SPARK-47551] [SC-161542][sql] 添加variant_get表达式。
-
[SPARK-47559][SC-161255][sql] 对变体的 Codegen 支持
parse_json
- [SPARK-47572] [ SC-161351][sql] 强制确保 Window partitionSpec 可以排序。
- [SPARK-47546] [ SC-161241][sql] 从 Parquet 读取 Variant 时改进验证
-
[SPARK-47543] [SC-161234][connect][PYTHON] 从 Pandas 数据帧中推断
dict
为MapType
,以允许创建数据帧 - [SPARK-47485] [SC-161194][sql][PYTHON][connect] 在数据帧 API 中使用排序规则创建列
-
[SPARK-47641] [SC-161376][sql] 提高
UnaryMinus
和Abs
的性能 -
[SPARK-47631] [SC-161325][sql] 删除未使用的
SQLConf.parquetOutputCommitterClass
方法 -
[SPARK-47674] [SC-161504][core] 默认启用
spark.metrics.appStatusSource.enabled
- [SPARK-47273] [ SC-161162][ss][PYTHON] 实现 Python 数据流编写器接口。
- [SPARK-47637] [ SC-161408][sql] 在更多地方使用错误捕获标识符
- [SPARK-47497] 还原“还原”[SC-160724][sql] 使to_csv支持数组/结构/映射/二进制作为漂亮的字符串的输出”
- [SPARK-47492] [SC-161316][sql] 扩展词法器中的空白规则
- [SPARK-47664] [ SC-161475][python][CONNECT] 使用缓存架构验证列名
- [SPARK-47638] [ SC-161339][ps][CONNECT] 跳过 PS 中的列名称验证
- [SPARK-47363] [ SC-161247][ss] 状态 API v2 的初始状态缺少状态读取器实现。
- [SPARK-47447] [SC-160448][sql] 允许将 Parquet TimestampLTZ 读取为 TimestampNTZ
-
[SPARK-47497] 还原“[SC-160724][sql] 使
to_csv
支持输出array/struct/map/binary
为格式优美的字符串” -
[SPARK-47434] [SC-160122][webui] 修复
statistics
中的链接StreamingQueryPage
- [SPARK-46761] [ SC-159045][sql] JSON 路径中带引号的字符串应支持? 字符
-
[SPARK-46915] [ SC-155729][sql] 简化
UnaryMinus
Abs
并使错误类别统一 - [SPARK-47431] [SC-160919][sql] 引入会话级默认排序规则
- [SPARK-47620] [ SC-161242][python][CONNECT] 添加帮助程序函数以对列进行排序
- [SPARK-47570] [ SC-161165][ss] 将范围扫描编码器的更改与计时器实现进行集成
-
[SPARK-47497] [ SC-160724][sql] 使
to_csv
支持array/struct/map/binary
作为美观字符串输出 -
[SPARK-47562] [ SC-161166][connect] 从中分离出文本处理
plan.py
- [SPARK-47509] [ SC-160902][sql] 阻止 lambda 和高阶函数中的子查询表达式
-
[SPARK-47539] [ SC-160750][sql] 使方法
castToString
的返回值成为Any => UTF8String
- [SPARK-47372] [ SC-160905][ss] 添加支持用于状态存储提供者的基于范围扫描的密钥状态编码器
- [SPARK-47517] [ SC-160642][core][SQL] 优先使用 Utils.bytesToString 显示大小
-
[SPARK-47243] [ SC-158059][ss] 更正包名称
StateMetadataSource.scala
- [SPARK-47367] [ SC-160913][python][CONNECT] 使用 Spark Connect 支持 Python 数据源
-
[SPARK-47521] [SC-160666][core] 从外部存储读取洗牌数据时使用
Utils.tryWithResource
- [SPARK-47474] [ SC-160522][core] 还原 SPARK-47461 并添加一些注释
- [SPARK-47560] [ SC-160914][python][CONNECT] 避免 RPC 使用缓存架构验证列名
- [SPARK-47451] [SC-160749][sql] 支持 to_json(variant)。
- [SPARK-47528] [ SC-160727][sql] 向 DataTypeUtils.canWrite 添加 UserDefinedType 支持
- [SPARK-44708] 回滚“[SC-160734][python] 将 test_reset_index 的 assert_eq 迁移为 assertDataFrameEqual”
- [SPARK-47506] [SC-160740][sql] 为所有文件源格式添加对排序数据类型的支持
- [SPARK-47256] [SC-160784][sql] 给错误类 _LEGACY_ERROR_TEMP_102[4-7] 分配名称
- [SPARK-47495] [ SC-160720][core] 修正主要资源 JAR 包在 k8s 群集模式下被两次添加到 spark.jars
- [SPARK-47398] [ SC-160572][sql] 提取 InMemoryTableScanExec 的特征以允许扩展功能
- [SPARK-47479] [SC-160623][sql] 优化无法将数据写入多个路径的数据关系的错误日志
- [SPARK-47483] [ SC-160629][sql] 添加对排序字符串数组的聚合和联接作的支持
- [SPARK-47458] [ SC-160237][core] 修复了在屏障阶段计算最大并发任务时出现的问题
-
[SPARK-47534] [SC-160737][sql] 将
o.a.s.variant
移动到o.a.s.types.variant
- [SPARK-47396] [ SC-159312][sql] 将 TIME WITHOUT TIME ZONE 的常规映射添加到 TimestampNTZType
- [SPARK-44708] [SC-160734][python] 将 test_reset_index 的 assert_eq 迁移以使用 assertDataFrameEqual
- [SPARK-47309] [ SC-157733][sc-160398][SQL] XML: 为值标记添加架构推理测试
-
[SPARK-47007] [SC-160630][sql] 添加
MapSort
表达式 -
[SPARK-47523] [SC-160645][sql] 将弃用
JsonParser#getCurrentName
替换为JsonParser#currentName
- [SPARK-47440] [SC-160635][sql] 修复将不支持的语法推送到 Microsoft SQL Server
- [SPARK-47512] [SC-160617][ss] 用于 RocksDB 状态存储实例锁定获取/释放的标签操作类型
- [SPARK-47346] [ SC-159425][python] 创建 Python Planner 辅助角色时,使守护程序模式可配置
-
[SPARK-47446] [SC-160163][core] 在
BlockManager
之前发出警告removeBlockInternal
- [SPARK-46526] [ SC-156099][sql] 支持 LIMIT 相关子查询,其中谓词仅引用外部表
-
[SPARK-47461] [SC-160297][core] 移除
totalRunningTasksPerResourceProfile
ExecutorAllocationManager
中的私有函数 - [SPARK-47422] [ SC-160219][sql] 支持数组操作中的按规则排列的字符串
-
[SPARK-47500] [ SC-160627][python][CONNECT] 因列名称处理不足
plan.py
-
[SPARK-47383] [SC-160144][core] 支持
spark.shutdown.timeout
配置 - [SPARK-47342] [SC-159049]恢复“[SQL] 添加对 DB2 TIMESTAMP WITH TIME ZONE 的 TimestampNTZ 的支持”
-
[SPARK-47486] [SC-160491][connect] 删除未使用的专用
ArrowDeserializers.getString
方法 - [SPARK-47233] [ SC-154486][connect][SS][2/2] 客户端流式查询监听器的客户端和服务器逻辑
- [SPARK-47487] [SC-160534][sql] 简化 AnsiTypeCoercion 中的代码
- [SPARK-47443] [ SC-160459][sql] 对排序规则的窗口聚合支持
- [SPARK-47296] [SC-160457][sql][COLLATION] 对于非二进制排序规则,禁止不支持的函数
- [SPARK-47380] [ SC-160164][connect] 确保服务器端 SparkSession 相同
- [SPARK-47327] [ SC-160069][sql] 将排序键并发测试移动到 CollationFactorySuite
- [SPARK-47494] [SC-160495][doc] 添加迁移文档以处理自 Spark 3.3 以来 Parquet 时间戳推理行为的更改。
- [SPARK-47449] [SC-160372][ss] 重构和拆分列表/计时器单元测试
-
[SPARK-46473] [SC-155663][sql] 重用
getPartitionedFile
方法 - [SPARK-47423] [ SC-160068][sql] 排序规则 - 为具有排序规则的字符串提供集合操作支持
- [SPARK-47439] [ SC-160115][python] 在 API 参考页中记录 Python 数据源 API
-
[SPARK-47457] [ SC-160234][sql] 修复
IsolatedClientLoader.supportsHadoopShadedClient
处理 Hadoop 3.4+ - [SPARK-47366] [ SC-159348][sql] 实现parse_json。
- [SPARK-46331] [ SC-152982][sql] 从 DateTime 表达式和 version() 表达式的子集中删除 CodegenFallback
- [SPARK-47395] [SC-159404] 将整理和排序规则添加到其他 API
-
[SPARK-47437] [ SC-160117][python][CONNECT] 纠正错误类别
DataFrame.sort*
- [SPARK-47174] [ SC-154483][connect][SS][1/2] 服务器端 SparkConnectListenerBusListener 用于客户端流式查询监听器
- [SPARK-47324] [ SC-158720][sql] 为 JDBC 嵌套类型添加缺少的时间戳转换
- [SPARK-46962] [ SC-158834][ss][PYTHON] 为 python 流数据源 API 添加接口并实现 python 辅助角色以运行 python 流数据源
- [SPARK-45827] [SC-158498][sql] 将数据类型检查移动到 CreatableRelationProvider
- [SPARK-47342] [ SC-158874][sql] 为 DB2 的 TIMESTAMP WITH TIME ZONE 提供 TimestampNTZ 支持
- [SPARK-47399] [ SC-159378][sql] 对具有排序规则的表达式禁用生成的列
- [SPARK-47146] [ SC-158247][core] 执行排序合并联接时可能的线程泄漏
- [SPARK-46913] [ SC-159149][ss] 添加对使用 transformWithState 运算符的基于处理/事件时间的计时器的支持
-
[SPARK-47375] [ SC-159063][sql] 添加时间戳映射指南
JdbcDialect#getCatalystType
- [SPARK-47394] [ SC-159282][sql] 支持适用于 H2Dialect 的 TIMESTAMP WITH TIME ZONE
- [SPARK-45827] 撤销“[SC-158498][sql] 将数据类型检查移动到 ...
- [SPARK-47208] [SC-159279][core] 允许重写基本开销内存
- [SPARK-42627] [SC-158021][spark-26494][SQL] 支持 Oracle TIMESTAMP WITH LOCAL TIME ZONE。
- [SPARK-47055] [ SC-156916][python] 升级 MyPy 1.8.0
- [SPARK-46906] [ SC-157205][ss] 为流式传输添加有状态运算符更改的检查
- [SPARK-47391] [ SC-159283][sql] 删除 JDK 8 的测试用例解决方法
- [SPARK-47272] [ SC-158960][ss] 为 State API v2 添加 MapState 实现。
- [SPARK-47375] [ SC-159278][doc][FollowUp] 修复了 JDBC 的 preferTimestampNTZ 选项文档中的错误
- [SPARK-42328] [ SC-157363][sql] 从错误类中删除_LEGACY_ERROR_TEMP_1175
- [SPARK-47375] [SC-159261][doc][FollowUp] 更正 JDBC 文档中 preferTimestampNTZ 选项说明
- [SPARK-47344] [ SC-159146] 扩展INVALID_IDENTIFIER错误,无法捕获未带引号的标识符中的“-”并修复“IS! NULL“ et al.
- [SPARK-47340] [ SC-159039][sql] 将 StringType typename 中的“collate”更改为小写
- [SPARK-47087] [ SC-157077][sql] 在配置值检查过程中通过错误类引发 Spark 异常
- [SPARK-47327] [ SC-158824][sql] 修复 ICU 排序器中的线程安全问题
- [SPARK-47082] [ SC-157058][sql] 修复边界外错误条件
- [SPARK-47331] [ SC-158719][ss] 使用 SQL 编码器通过 case 类/基元/POJO 对任意状态 API v2 进行序列化。
- [SPARK-47250] [ SC-158840][ss] 为 RocksDB 状态提供者和列族的使用添加其他验证和 NERF 更改
- [SPARK-47328] [ SC-158745][sql] 将UCS_BASIC排序规则重命名为UTF8_BINARY
-
[SPARK-47207] [SC-157845][core] 支持
spark.driver.timeout
和DriverTimeoutPlugin
- [SPARK-47370] [SC-158956][doc] 添加迁移文档:对 Parquet 文件进行 TimestampNTZ 类型推断
- [SPARK-47309] [ SC-158827][sql][XML] 添加架构推理单元测试
-
[SPARK-47295] [ SC-158850][sql] 为
startsWith
和endsWith
函数添加了 ICU StringSearch - [SPARK-47343] [ SC-158851][sql] 修复在执行立即语句时变量值为空字符串导致的 NPE问题
- [SPARK-46293] [SC-150117][connect][PYTHON] 利用传递性依赖项
-
[SPARK-46795] [SC-154143][sql] 将
UnsupportedOperationException
替换为SparkUnsupportedOperationException
在sql/core
中 - [SPARK-46087] [ SC-149023][python] 在文档和开发要求中同步 PySpark 依赖项
- [SPARK-47169] [ SC-158848][sql] 禁用在设置排序顺序的列上的分桶
- [SPARK-42332] [ SC-153996][sql] 将要求更改为 ComplexTypeMergingExpression 中的 SparkException
- [SPARK-45827] [SC-158498][sql] 将数据类型检查移动到 CreatableRelationProvider
- [SPARK-47341] [ SC-158825][connect] 在 SparkConnectClientSuite 中的几个测试中将命令替换为关系
- [SPARK-43255] [SC-158026][sql] 将错误类 _LEGACY_ERROR_TEMP_2020 替换为内部错误
- [SPARK-47248] [ SC-158494][sql][COLLATION] 改进的字符串函数支持:包含
-
[SPARK-47334] [ SC-158716][sql] 使
withColumnRenamed
重用withColumnsRenamed
的实现 - [SPARK-46442] [ SC-153168][sql] DS V2 支持下推PERCENTILE_CONT和PERCENTILE_DISC
- [SPARK-47313] [ SC-158747][sql] 在 QueryExecution.toInternalError 中添加了 scala.MatchError 处理
- [SPARK-45827] [SC-158732][sql] 为 Java 添加变体单例类型
- [SPARK-47337] [ SC-158743][sql][DOCKER] 将 DB2 docker 映像版本升级到 11.5.8.0
- [SPARK-47302] [SC-158609][sql] 将 SQL 关键字整理为标识符
-
[SPARK-46817] [SC-154196][core] 通过添加
spark-daemon.sh
命令修复decommission
使用情况 -
[SPARK-46739] [SC-153553][sql] 添加错误类
UNSUPPORTED_CALL
-
[SPARK-47102] [SC-158253][sql] 添加
COLLATION_ENABLED
配置标志 - [SPARK-46774] [ SC-153925][sql][AVRO] 在 Avro 写作业中使用 mapreduce.output.fileoutputformat.compress 来代替已弃用的 mapred.output.compress
- [SPARK-45245] [ SC-146961][python][CONNECT] PythonWorkerFactory:如果工作进程未建立连接,则超时。
- [SPARK-46835] [ SC-158355][sql][排序规则] 联接对非二进制排序规则的支持
- [SPARK-47131] [ SC-158154][sql][COLLATION] 字符串函数支持:包含、以...开头、以...结尾
- [SPARK-46077] [ SC-157839][sql] 考虑 JdbcDialect.compileValue 中 TimestampNTZConverter 生成的类型。
- [SPARK-47311] [ SC-158465][sql][PYTHON] 禁止显示 PySpark 不在 Python 路径中的 Python 异常
- [SPARK-47319] [SC-158599][sql] 改进 missingInput 的计算
- [SPARK-47316] [SC-158606][sql] 修复 Postgres 数组中的 TimestampNTZ
- [SPARK-47268] [ SC-158158][sql][排序规则] 支持排序规则的重新分区
- [SPARK-47191] [ SC-157831][sql] 在取消缓存表/视图时避免不必要的关系查找
- [SPARK-47168] [SC-158257][sql] 当使用非默认排序字符串时,禁用 Parquet 筛选器下推。
-
[SPARK-47236] [ SC-158015][core] 修复
deleteRecursivelyUsingJavaIO
以跳过非现有文件输入 - [SPARK-47238] [ SC-158466][sql] 通过将 WSCG 中生成的代码转换为广播变量来减少执行器内存使用量
- [SPARK-47249] [ SC-158133][connect] 修复了所有连接操作被视为放弃的 bug,无论其实际状态如何
- [SPARK-47202] [ SC-157828][python] 修复拼写错误造成 tzinfo 相关日期时间数据中断的问题
- [SPARK-46834] [SC-158139][sql][排序规则] 对聚合的支持
- [SPARK-47277] [SC-158351][3.5] PySpark util 函数 assertDataFrameEqual 应不支持流式处理 DF
- [SPARK-47155] [ SC-158473][python] 修复错误类问题
- [SPARK-47245] [SC-158163][sql] 改进“INVALID_PARTITION_COLUMN_DATA_TYPE”的错误代码
-
[SPARK-39771] [ SC-158425][core] 当要创建过多的随机块时添加一个警告消息
Dependency
。 - [SPARK-47277] [SC-158329] PySpark util 函数 assertDataFrameEqual 应不支持流式处理 DF
- [SPARK-47293] [ SC-158356][core] 使用 sparkSchema 生成 batchSchema,而不是逐个追加
- [SPARK-46732] [ SC-153517][connect]使子查询/广播线程与 Connect 的构件管理协同工作
- [SPARK-44746] [ SC-158332][python] 为接受输入表的函数添加更多 Python UDTF 文档
- [SPARK-47120] [ SC-157517][sql] Null 比较从 Parquet 筛选器的 NPE 中生成的子查询向下推送数据筛选器
-
[SPARK-47251] [SC-158291][python] 阻止
args
命令中sql
参数的无效类型 -
[SPARK-47251] 撤销“[SC-158121][python] 阻止
args
参数中的无效类型用于sql
命令” - [SPARK-47015] [ SC-157900][sql] 禁用排序列上的分区
-
[SPARK-46846] [SC-154308][core] 使
WorkerResourceInfo
Serializable
显式扩展 - [SPARK-46641] [SC-156314][ss] 添加 maxBytesPerTrigger 阈值
-
[SPARK-47244] [SC-158122][connect]
SparkConnectPlanner
使内部函数专用 -
[SPARK-47266] [ SC-158146][connect] 使
ProtoUtils.abbreviate
返回与输入相同的类型 - [SPARK-46961] [ SC-158183][ss] 使用 ProcessorContext 存储和检索句柄
- [SPARK-46862] [ SC-154548][sql] 在多行模式下禁用 CSV 列修剪
-
[SPARK-46950] [ SC-155803][core][SQL] 对齐
not available codec
错误类 -
[SPARK-46368] [SC-153236][core] REST 提交 API 中的支持
readyz
- [SPARK-46806] [ SC-154108][python] 在参数类型错误时改进 spark.table 的错误消息
- [SPARK-47211] [ SC-158008][connect][PYTHON] 修复 PySpark Connect 中被忽略的字符串排序规则问题
-
[SPARK-46552] [SC-151366][sql] 在
UnsupportedOperationException
中用SparkUnsupportedOperationException
替换catalyst
- [SPARK-47147] [SC-157842][python][SQL] 修复 PySpark 排序字符串转换错误
- [SPARK-47144] [ SC-157826][connect][SQL][python] 通过添加 collateId protobuf 字段修复 Spark Connect 排序规则错误
- [SPARK-46575] [ SC-153200][sql][HIVE] 使 HiveThriftServer2.startWithContext DevelopApi 可以重试并修复 ThriftServerWithSparkContextInHttpSuite 的不稳定性
- [SPARK-46696] [ SC-153832][core] 在 ResourceProfileManager 中,函数调用应在变量声明后发生
- [SPARK-47214] [ SC-157862][python] 为“analyze”方法创建 UDTF API 以区分常量 NULL 参数和其他类型的参数
- [SPARK-46766] [ SC-153909][sql][AVRO] ZSTD 缓冲池对 AVRO 数据源的支持
- [SPARK-47192] [SC-157819] 转换一些 _LEGACY_ERROR_TEMP_0035 错误
- [SPARK-46928] [ SC-157341][ss] 添加对任意状态 API v2 中的 ListState 的支持。
-
[SPARK-46881] [SC-154612][core] 支持
spark.deploy.workerSelectionPolicy
-
[SPARK-46800] [SC-154107][core] 支持
spark.deploy.spreadOutDrivers
- [SPARK-45484] [ SC-146014][sql] 解决使用不正确的 parquet 压缩编解码器 lz4raw 的问题
- [SPARK-46791] [SC-154018][sql] 支持 JavaTypeInference 中的 Java 集
-
[SPARK-46332] [SC-150224][sql] 将
CatalogNotFoundException
迁移到错误类CATALOG_NOT_FOUND
- [SPARK-47164] [ SC-157616][sql] 使 v2 的较宽类型窄文本的默认值的行为与 v1 相同
-
[SPARK-46664] [ SC-153181][core] 改进
Master
以在没有工作节点和应用的情况下快速恢复 - [SPARK-46759] [ SC-153839][sql][AVRO] Codec xz 和 zstandard 支持在 avro 文件中设置压缩级别
Databricks ODBC/JDBC 驱动程序支持
Databricks 支持在过去 2 年中发布的 ODBC/JDBC 驱动程序。 请下载最近发布的驱动程序并升级(下载 ODBC,下载 JDBC)。
请参阅 Databricks Runtime 15.2 维护更新。
系统环境
- 操作系统:Ubuntu 22.04.4 LTS
- Java:Zulu 8.74.0.17-CA-linux64
- Scala:2.12.15
- Python:3.11.0
- R:4.3.2
- Delta Lake:3.2.0
已安装的 Python 库
图书馆 | 版本 | 图书馆 | 版本 | 图书馆 | 版本 |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
azure-storage-blob | 12.19.1 | Azure存储文件数据湖 | 12.14.0 | 回调 | 0.2.0 |
黑色 | 23.3.0 | 闪烁器 | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools (缓存工具) | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer (字符集正常化工具) | 2.0.4 |
点击 | 8.0.4 | cloudpickle | 2.2.1 | 通讯 | 0.1.2 |
contourpy | 1.0.5 | 密码学 | 41.0.3 | 骑行者 | 0.11.0 |
Cython | 0.29.32 | Databricks软件开发工具包 (databricks-sdk) | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | 装饰师 | 5.1.1 | distlib | 0.3.8 |
入口点 | 0.4 | 正在执行 | 0.8.3 | 各个方面概述 | 1.1.1 |
文件锁 (filelock) | 3.13.1 | fonttools(字体工具) | 4.25.0 | gitdb (Git数据库) | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth (谷歌身份验证) | 2.29.0 |
google-cloud-core (Google云核心) | 2.4.1 | 谷歌云存储 (Google Cloud Storage) | 2.16.0 | google-crc32c | 1.5.0 |
google-resumable-media(谷歌可恢复媒体) | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | IDNA | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils(IPython通用工具) | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | 吉普尼 | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client(Jupyter 客户端) | 7.4.9 |
jupyter_core(Jupyter核心) | 5.3.0 | 钥匙圈 | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | 包装 | 23.2 |
熊猫 | 1.5.3 | 帕尔索 | 0.8.3 | pathspec | 0.10.3 |
替罪羊 | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
枕头 | 9.4.0 | 果仁 | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.23.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
Python代码解析器 | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022年7月 | PyYAML | 6.0 | pyzmq | 23.2.0 |
请求 | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.1 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | 6 | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
堆栈数据 | 0.2.0 | statsmodels | 0.14.0 | 毅力 | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | 龙卷风 | 6.3.2 |
Traitlets | 5.7.1 | 输入扩展 (typing_extensions) | 4.10.0 | tzdata | 2022年1月 |
ujson | 5.4.0 | 无人参与升级 | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
轮子 | 0.38.4 | 齐普 | 3.11.0 |
已安装的 R 库
R 库安装自 Posit 包管理器 CRAN 快照。
图书馆 | 版本 | 图书馆 | 版本 | 图书馆 | 版本 |
---|---|---|---|---|---|
箭头 | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
回移补丁 | 1.4.1 | 基础 | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | 位 | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | 团状物 | 1.2.4 | 靴子 | 1.3-28 |
酿造/冲泡 | 1.0-10 | 活力 | 1.1.4 | 扫帚 | 1.0.5 |
bslib | 0.6.1 | 卡齐姆 | 1.0.8 | Callr | 3.7.3 |
插入符号 | 6.0-94 | cellranger (细胞测序工具) | 1.1.0 | chron | 2.3-61 |
班级 | 7.3-22 | cli | 3.6.2 | 剪辑器 | 0.8.0 |
时钟 | 0.7.0 | 集群 | 2.1.4 | codetools | 0.2至19 |
色彩空间 | 2.1-0 | commonmark | 1.9.1 | 编译器 | 4.3.2 |
配置 | 0.3.2 | 矛盾 | 1.2.0 | cpp11 | 0.4.7 |
蜡笔 | 1.5.2 | 资格证书 | 2.0.1 | 卷曲 | 5.2.0 |
data.table(数据表) | 1.15.0 | 数据集 | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
示意图 | 1.6.5 | diffobj | 0.3.5 | 摘要 | 0.6.34 |
向下照明 | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | 省略号 | 0.3.2 | 评价 | 0.23 |
fansi | 1.0.6 | 颜色 | 2.1.1 | 快速映射 | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
外国 | 0.8-85 | 锻造 | 0.2.0 | 文件系统 (if fs stands for "file system") | 1.6.3 |
未来 | 1.33.1 | future.apply | 1.11.1 | 漱口 | 1.5.2 |
泛 型 | 0.1.3 | 格尔特 | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | 全局变量 | 0.16.2 | 胶水 | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | 戈尔 | 1.0.1 |
图形 | 4.3.2 | grDevices | 4.3.2 | “业务流程参数” 网格 | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | 燃气轮机 | 0.10.1 |
gtable | 0.3.4 | 安全帽 | 1.3.1 | 避风港 | 2.5.4 |
更高 | 0.10 | 赫姆斯 | 1.1.3 | HTML工具 | 0.5.7 |
HTML小插件 | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | 迭代器 | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | 多汁果汁 | 0.1.0 |
KernSmooth | 2.23-21 | 针织器 | 1.45 | 标记 | 0.4.3 |
稍后 | 1.3.2 | 格子 | 0.21-8 | 熔岩 | 1.7.3 |
生命周期 | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.12 | 质量 | 7.3-60 |
矩阵 | 1.5-4.1 | 缓存 | 2.0.1 | 方法 | 4.3.2 |
mgcv | 1.8-42 | 默剧 | 0.12 | 迷你用户界面 | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
蒙塞尔 | 0.5.0 | nlme | 3.1-163 | nnet(神经网络) | 7.3-19 |
numDeriv | 2016年8月至1月1日 | openssl(开放SSL) | 2.1.1 | 平行 | 4.3.2 |
并行 | 1.36.0 | 柱子 | 1.9.0 | pkgbuild (软件包构建工具) | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
普洛格 | 0.2.0 | 普莱尔 | 1.8.9 | 赞美 | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023年08月28日 | profvis | 0.3.8 | 进展 | 1.2.3 |
progressr | 0.14.0 | 承诺 | 1.2.1 | 原型 (proto) | 1.0.0 |
代理服务器 | 0.4-27 | 附注 (ps) | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | 随机森林 (randomForest) | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | 可交互表格 | 0.4.4 |
reactR | 0.5.0 | readr(阅读器) | 2.1.5 | readxl | 1.4.3 |
食谱 | 1.0.9 | 重赛 | 2.0.0 | rematch2 | 2.1.2 |
遥控器 | 2.4.2.1 | 可复现示例 | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown(R语言动态文档生成工具) | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
磅秤 | 1.3.0 | selectr | 0.4-2 | 会话信息 | 1.2.2 |
形状 | 1.4.6 | 光亮 | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | 空间 | 7.3-15 | 样 条 | 4.3.2 |
sqldf(R环境中的数据库操作软件包) | 0.4-11 | SQUAREM | 2021年1月 | 统计数据 | 4.3.2 |
统计数据4 | 4.3.2 | 字符串 | 1.8.3 | stringr | 1.5.1 |
生存 | 3.5-5 | 斯瓦格 | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
文本整形 | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse(数据分析工具包) | 2.0.0 | 时间变化 | 0.3.0 |
时间日期 | 4032.109 | tinytex | 0.49 | 工具 | 4.3.2 |
tzdb | 0.4.0 | URL检查器 | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | 实用工具 | 4.3.2 | UUID(通用唯一识别码) | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | 瓦尔多 | 0.5.2 | 晶 须 | 0.4.1 |
无改动(具体含义和背景需要更多信息) | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | 压缩包 | 2.3.1 |
已安装的 Java 和 Scala 库(Scala 2.12 群集版本)
群组标识符 | 工件编号 | 版本 |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | Amazon Kinesis 客户端 | 1.12.0 |
com.amazonaws | AWS Java SDK 自动扩展 | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | AWS Java SDK CloudFront | 1.12.610 |
com.amazonaws | AWS-Java-SDK-云HSM | 1.12.610 |
com.amazonaws | AWS Java SDK 云搜索 | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | AWS Java SDK CodeDeploy(AWS Java 软件开发工具包 CodeDeploy) | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config(AWS Java SDK 配置) | 1.12.610 |
com.amazonaws | aws-java-sdk-core (AWS Java软件开发工具包核心) | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | AWS Java SDK Direct Connect(直连) | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk(AWS Java 开发工具包 - Elastic Beanstalk) | 1.12.610 |
com.amazonaws | aws-java-sdk-弹性负载均衡 | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder(AWS Java SDK弹性转码器) | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | AWS Java SDK Glacier | 1.12.610 |
com.amazonaws | AWS Java SDK Glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | AWS Java SDK 导入导出 (aws-java-sdk-importexport) | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | AWS Java 软件开发工具包 - KMS | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs(AWS Java开发包日志) | 1.12.610 |
com.amazonaws | AWS-Java-SDK-机器学习 | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | AWS Java SDK 存储网关 | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | AWS Java SDK支持 | 1.12.610 |
com.amazonaws | AWS-Java-SDK-SWF-库 | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | 溪流 | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | 编译器插件_compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | 同学 | 1.3.4 |
com.fasterxml.jackson.core | Jackson注解 | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor(Jackson的CBOR数据格式) | 2.15.2 |
com.fasterxml.jackson.dataformat | Jackson 数据格式 YAML | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda(杰克逊数据类型-Joda) | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.咖啡因 | 咖啡因 | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-原住民 |
com.github.fommil.netlib | 原生系统-Java | 1.1 |
com.github.fommil.netlib | 原生系统-Java | 1.1-原住民 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-原住民 |
com.github.fommil.netlib | netlib-本地系统-linux-x86_64 | 1.1-原住民 |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | 丁克 | 1.9.0 |
com.google.errorprone | 易出错的注释 | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23年5月26日 |
com.google.guava | 番石榴 | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | 分析器 | 1.1.1 |
com.ibm.icu | icu4j | 72.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | 源代码_2.12 | 0.1.9 |
com.microsoft.azure | Azure 数据湖存储 SDK | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | 压缩-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | 镜头_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | 配置 | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers解析器 | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec(公共编解码器) | commons-codec(公共编解码器) | 1.16.0 |
commons-collections (通用集合库) | commons-collections (通用集合库) | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
公共文件上传 | 公共文件上传 | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging(日志库) | commons-logging(日志库) | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | BLAS | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | 空气压缩机 | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.0.5 |
io.dropwizard.metrics | 指标注释 | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | 指标-健康检查 | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | 指标-JMX | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | 指标-JVM | 4.2.19 |
io.dropwizard.metrics | 指标-Servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer(Netty缓存) | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | Netty HTTP 编解码器 | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | Netty-Common(网络通用组件) | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy(Netty 处理器代理) | 4.1.96.Final |
io.netty | netty-resolver (Netty 解析器) | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-Windows操作系统-x86_64 |
io.netty | Netty TcNative 类 | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | Netty传输-本机-Unix-通用 | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | 简单客户端通用 | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | 收藏者 | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | 激活 | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | 交易接口 (transaction-api) | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | 泡菜 | 1.3 |
net.sf.jpam | 杰潘 | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc(远程调用协议库) | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate (字符串模板) | 3.2.1 |
org.apache.ant | 蚂蚁 | 1.10.11 |
org.apache.ant | ant-jsch(Java的SSH库) | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | 箭头格式 | 15.0.0 |
org.apache.arrow | 箭头内存核心 | 15.0.0 |
org.apache.arrow | 箭头内存网状系统 | 15.0.0 |
org.apache.arrow | 箭头向量 | 15.0.0 |
org.apache.avro | Avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4(通用集合库) | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | 策展人与客户 | 2.13.0 |
org.apache.curator | curator-framework (ZooKeeper客户端库) | 2.13.0 |
org.apache.curator | 策展人食谱 | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | 数据草图内存 | 2.0.0 |
org.apache.derby | 德比 | 10.14.2.0 |
org.apache.hadoop | Hadoop 客户端运行时 | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-垫片 | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | 常春藤 | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
\ org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
\ org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
\ org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | 听众批注 | 0.13.0 |
org.apache.zookeeper | 动物园管理员 | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl (Jackson核心库 - ASL) | 1.9.13 |
org.codehaus.jackson | 杰克逊映射器-ASL | 1.9.13 |
org.codehaus.janino | commons-compiler(通用编译器) | 3.0.16 |
org.codehaus.janino | 雅尼诺 | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | 码头安全 | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server(Jetty服务器) | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util(Jetty工具库) | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty 网页应用 | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket API | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket客户端 | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket-通用 | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket服务器 | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-定位器 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator (OSGi 资源定位器) | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | Jersey容器Servlet | 2.40 |
org.glassfish.jersey.containers | Jersey容器Servlet核心 | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | Hibernate验证器 | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss 日志 | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | 注释 | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | 垫片 | 0.9.45-databricks |
.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | 测试界面 | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | 与Scalatest兼容 | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
斯塔克斯 | stax-api | 1.0.1 |