为什么Spark中的模式匹配与Scala中的模式匹配不一样? 看下面的例子…函数f()尝试模式匹配的类,它在Scala REPL中工作,但在Spark中失败,并导致所有“???”。 f2()是一种解决方法,它使用.isInstanceOf()在Spark中获得所需的结果,但是我明白在Scala中是不好的forms。 任何帮助模式匹配在这种情况下在火花正确的方式将不胜感激。 abstract class a extends Serializable {val a: Int} case class b(a: Int) extends a case class bNull(a: Int=0) extends a val x: List[a] = List(b(0), b(1), bNull()) val xRdd = sc.parallelize(x) 尝试在Scala REPL中工作的模式匹配,但在Spark中失败 def f(x: a) = x match { case b(n) => "b" case bNull(n) => "bnull" case _ […]