Spark教程

Spark reduceByKey

Spark reduceByKey 函数

在 Spark 中,reduceByKey 函数是执行数据聚合的常用转换操作。它接收键值对(K, V) 作为输入,根据键聚合值并生成(K, V) 对的数据集作为输出。

示例的reduceByKey 函数

在这个例子中,我们根据key 聚合值。
要在 Scala 模式下打开 Spark,请按照以下命令进行操作。
$ spark-shell
Spark reduceByKey Function 使用并行化集合创建 RDD。
scala> val data = sc.parallelize(Array(("C",3),("A",1),("B",4),("A",2),("B",5)))
现在,我们可以使用以下命令读取生成的结果。
scala> data.collect
Spark reduceByKey 函数 应用 reduceByKey() 函数来聚合值。
scala> val reducefunc = data.reduceByKey((value, x) => (value + x))
现在,我们可以使用以下命令读取生成的结果。
scala> reducefunc.collect
Spark reduceByKey Function
在这里,我们得到了想要的输出。
昵称: 邮箱:
Copyright © 2022 立地货 All Rights Reserved.
备案号:京ICP备14037608号-4