<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 2,  comments - 0,  trackbacks - 0
    main:
     1 package com.aamend.hadoop.MapReduce;
     2  
     3 import java.io.IOException;
     4  
     5 import org.apache.hadoop.conf.Configuration;
     6 import org.apache.hadoop.fs.FileSystem;
     7 import org.apache.hadoop.fs.Path;
     8 import org.apache.hadoop.io.IntWritable;
     9 import org.apache.hadoop.io.Text;
    10 import org.apache.hadoop.mapreduce.Job;
    11 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    12 import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
    13 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    14 import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
    15  
    16 public class WordCount {
    17  
    18     public static void main(String[] args) throws IOException,
    19             InterruptedException, ClassNotFoundException {
    20  
    21         Path inputPath = new Path(args[0]);
    22         Path outputDir = new Path(args[1]);
    23  
    24         // Create configuration
    25         Configuration conf = new Configuration(true);
    26  
    27         // Create job
    28         Job job = new Job(conf, "WordCount");
    29         job.setJarByClass(WordCountMapper.class);
    30  
    31         // Setup MapReduce
    32         job.setMapperClass(WordCountMapper.class);
    33         job.setReducerClass(WordCountReducer.class);
    34         job.setNumReduceTasks(1);
    35  
    36         // Specify key / value
    37         job.setOutputKeyClass(Text.class);
    38         job.setOutputValueClass(IntWritable.class);
    39  
    40         // Input
    41         FileInputFormat.addInputPath(job, inputPath);
    42         job.setInputFormatClass(TextInputFormat.class);
    43  
    44         // Output
    45         FileOutputFormat.setOutputPath(job, outputDir);
    46         job.setOutputFormatClass(TextOutputFormat.class);
    47  
    48         // Delete output if exists
    49         FileSystem hdfs = FileSystem.get(conf);
    50         if (hdfs.exists(outputDir))
    51             hdfs.delete(outputDir, true);
    52  
    53         // Execute job
    54         int code = job.waitForCompletion(true? 0 : 1;
    55         System.exit(code);
    56  
    57     }
    58  
    59 }

    mapper class:
     1 package com.aamend.hadoop.MapReduce;
     2  
     3 import java.io.IOException;
     4  
     5 import org.apache.hadoop.io.IntWritable;
     6 import org.apache.hadoop.io.Text;
     7 import org.apache.hadoop.mapreduce.Mapper;
     8  
     9 public class WordCountMapper extends
    10         Mapper<Object, Text, Text, IntWritable> {
    11  
    12     private final IntWritable ONE = new IntWritable(1);
    13     private Text word = new Text();
    14  
    15     public void map(Object key, Text value, Context context)
    16             throws IOException, InterruptedException {
    17  
    18         String[] csv = value.toString().split(",");
    19         for (String str : csv) {
    20             word.set(str);
    21             context.write(word, ONE);
    22         }
    23     }
    24 }

    reducer class:
     1 package com.aamend.hadoop.MapReduce;
     2  
     3 import java.io.IOException;
     4  
     5 import org.apache.hadoop.io.IntWritable;
     6 import org.apache.hadoop.io.Text;
     7 import org.apache.hadoop.mapreduce.Reducer;
     8  
     9 public class WordCountReducer extends
    10         Reducer<Text, IntWritable, Text, IntWritable> {
    11  
    12     public void reduce(Text text, Iterable<IntWritable> values, Context context)
    13             throws IOException, InterruptedException {
    14         int sum = 0;
    15         for (IntWritable value : values) {
    16             sum += value.get();
    17         }
    18         context.write(text, new IntWritable(sum));
    19     }
    20 }




    posted on 2014-09-24 21:48 hqjma 閱讀(85) 評論(0)  編輯  收藏

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    <2025年5月>
    27282930123
    45678910
    11121314151617
    18192021222324
    25262728293031
    1234567

    常用鏈接

    留言簿

    隨筆分類

    隨筆檔案

    文章分類

    文章檔案

    搜索

    •  

    最新評論

    閱讀排行榜

    評論排行榜

    主站蜘蛛池模板: 亚洲精品免费在线| 亚洲国产人成网站在线电影动漫| 亚洲色大成网站www久久九| 国产成人精品免费午夜app | 美女的胸又黄又www网站免费| 成年午夜视频免费观看视频| 国产亚洲精品bv在线观看| 在线免费观看中文字幕| 国产精品亚洲综合一区在线观看| 免费一级毛片不卡在线播放| 亚洲天堂免费在线视频| 亚洲成AV人片在| 猫咪免费人成网站在线观看| 亚洲人成在线中文字幕| 大陆一级毛片免费视频观看i| 免费观看亚洲人成网站| 亚洲乱亚洲乱妇无码麻豆| 99久久免费观看| 亚洲日韩AV无码一区二区三区人| 国产成人免费永久播放视频平台| eeuss影院免费直达入口| 亚洲国产精品久久久久网站| 1024免费福利永久观看网站| 久久亚洲欧美国产精品| 中文字幕第一页亚洲| 最近中文字幕电影大全免费版 | 亚洲中文字幕无码久久精品1| 免费国产成人α片| 亚洲成在人线中文字幕| 午夜一级免费视频| 野花香高清在线观看视频播放免费 | 久久综合亚洲色hezyo| 亚洲国产婷婷六月丁香| 免费国产成人高清在线观看网站| 在线看亚洲十八禁网站| 亚洲AV永久无码精品水牛影视 | 精品国产精品久久一区免费式| 亚洲高清免费视频| 亚洲中文无码线在线观看| 高清在线亚洲精品国产二区| 88xx成人永久免费观看|