本文共 3862 字,大约阅读时间需要 12 分钟。
1.Map端的Combiner.
通过单词计数WordCountApp.java的例子,如何在Map端设置Combiner...
只附录部分代码:
1 /** 2 * 以文本 3 * hello you 4 * hello me 5 * 为例子. 6 * map方法调用了两次,因为有两行 7 * k2 v2 键值对的数量有几个? 8 * 有4个.有四个单词. 9 * 10 * 会产生几个分组?11 * 产生3个分组.12 * 有3个不同的单词.13 *14 */15 public class WordCountApp {16 public static void main(String[] args) throws Exception {17 //程序在这里运行,要有驱动.18 Configuration conf = new Configuration();19 Job job = Job.getInstance(conf,WordCountApp.class.getSimpleName());20 21 //我们运行此程序通过运行jar包来执行.一定要有这句话.22 job.setJarByClass(WordCountApp.class);23 FileInputFormat.setInputPaths(job,args[0]);24 25 job.setMapperClass(WordCountMapper.class);//设置Map类26 job.setMapOutputKeyClass(Text.class);//设置Map的key27 job.setMapOutputValueClass(LongWritable.class);//设置Map的value28 29 job.setCombinerClass(WordCountReducer.class);//数据在Map端先进行 一次合并.30 /*31 这个setCombinerClass设置参数只能是一个继承了Reduce类的类.直接用我们定义的WordCountReducer.32 在单词技术的例子中,Map端产生了四个键值对,两个hello,you和me各一个.33 这样合并之后Map端最终只产生三个键值对.34 这样在Reduce端也只处理三个键值对,而不是没有合并之前的四个.35 这样Map端最终产生的键值对少了,Map端向Reduce端传递键值对占用的带宽就小.提高网络通信的速度.36 Reduce端接受键值对的数量变少,就减少了Reduce端处理键值对所需要的时间.37 以上就是Combiner的好处(在Map端对数据进行一次合并).38 Map端的合并和Reduce端的合并是不能相互取代的.39 在Map端进行的合并是局部合并,当前Map任务在它之中的合并.40 各个Map任务之间还是会 有相同的数据的.这些相同的数据要到Reduce端进行合并.41 */42 43 job.setReducerClass(WordCountReducer.class);//设置Reduce的类44 job.setOutputKeyClass(Text.class);//设置Reduce的key Reduce这个地方只有输出的参数可以设置. 方法名字也没有Reduce关键字区别于Map45 job.setOutputValueClass(LongWritable.class);//设置Reduce的value.46 47 FileOutputFormat.setOutputPath(job, new Path(args[1]));48 job.waitForCompletion(true);//表示结束了才退出,不结束不退出49 } ......................................................
2.Reduce端的Partitioner.
以流量统计TrafficCountApp.java的例子示例Reduce端设置Partitioner.
只附录部分代码:
1 public class TrafficApp { 2 public static void main(String[] args) throws Exception { 3 Job job = Job.getInstance(new Configuration(), TrafficApp.class.getSimpleName()); 4 job.setJarByClass(TrafficApp.class); 5 6 FileInputFormat.setInputPaths(job, args[0]); 7 8 job.setMapperClass(TrafficMapper.class); 9 job.setMapOutputKeyClass(Text.class);10 job.setMapOutputValueClass(TrafficWritable.class);11 12 job.setNumReduceTasks(2);//设定Reduce的数量为213 job.setPartitionerClass(TrafficPartitioner.class);//设定一个Partitioner的类.14 /*15 *Partitioner是如何实现不同的Map输出分配到不同的Reduce中?16 *在不适用指定的Partitioner时,有 一个默认的Partitioner.17 *就是HashPartitioner. 18 *其只有一行代码,其意思就是过来的key,不管是什么,模numberReduceTasks之后 返回值就是reduce任务的编号.19 *numberReduceTasks的默认值是1. 任何一个数模1(取余数)都是0. 20 *这个地方0就是取编号为0的Reduce.(Reduce从0开始编号.) 21 */22 23 job.setReducerClass(TrafficReducer.class);24 job.setOutputKeyClass(Text.class);25 job.setOutputValueClass(TrafficWritable.class);26 27 FileOutputFormat.setOutputPath(job, new Path(args[1]));28 job.waitForCompletion(true);29 }30 31 public static class TrafficPartitioner extends Partitioner{ //k2,v232 33 @Override34 public int getPartition(Text key, TrafficWritable value,int numPartitions) {35 long phoneNumber = Long.parseLong(key.toString());36 return (int)(phoneNumber%numPartitions);37 }38 39 } .................................................
//============附录MapReduce中Reduce使用默认的HashPartitioner进行分组的源代码==============
本文转自SummerChill博客园博客,原文链接:http://www.cnblogs.com/DreamDrive/p/5503456.html,如需转载请自行联系原作者