Spark教程

Spark groupByKey

Spark groupByKey函数

在Spark 中,groupByKey 函数是一个经常使用的转换操作,它执行数据的混洗。它接收键值对(K, V) 作为输入,根据键对值进行分组并生成(K, Iterable ) 对作为输出。

groupByKey 函数示例

在此示例中,我们根据键对值进行分组。
要在 Scala 模式下打开 Spark,请按照以下命令进行操作。
$ spark-shell
Spark groupByKey Function 使用并行化集合创建 RDD。
scala> val data = sc.parallelize(Seq(("C",3),("A",1),("B",4),("A",2),("B",5)))
现在,我们可以使用以下命令读取生成的结果。
scala> data.collect
Spark groupByKey Function 应用 groupByKey() 函数对值进行分组。
scala> val groupfunc = data.groupByKey()
现在,我们可以使用以下命令读取生成的结果。
scala> groupfunc.collect
Spark groupByKey Function
在这里,我们得到了想要的输出。
昵称: 邮箱:
Copyright © 2022 立地货 All Rights Reserved.
备案号:京ICP备14037608号-4