我正在使用melt并遇到以下警告消息: attributes are not identical across measure variables; they will be dropped 环顾四周后,人们提到这是因为variables是不同的类; 但是,我的数据集不是这种情况。 这里是数据集: test <- structure(list(park = structure(c(1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L), .Label = c("miss", "piro", "sacn", "slbe"), class = "factor"), a1.one = structure(c(3L, 1L, 3L, 3L, 3L, 3L, 1L, 3L, 3L, 3L), .Label = c("agriculture", "beaver", "development", […]
在PySpark或者至less在Scala中是否有相当于Apache Spark中的Pandas Melt函数? 我在python中运行一个示例数据集,现在我想为整个数据集使用Spark。 提前致谢。