<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 495,comments - 227,trackbacks - 0

    http://www.rigongyizu.com/mapreduce-job-one-map-process-one-file/

    有一批數據用hadoop mapreduce job處理時,業務特點要求一個文件對應一個map來處理,如果兩個或多個map處理了同一個文件,可能會有問題。開始想通過設置 dfs.blocksize 或者 mapreduce.input.fileinputformat.split.minsize/maxsize 參數來控制map的個數,后來想到其實不用這么復雜,在自定義的InputFormat里面直接讓文件不要進行split就可以了。

    public class CustemDocInputFormat extends TextInputFormat {
     
        @Override
        public RecordReader<LongWritable, Text> createRecordReader(InputSplit split, TaskAttemptContext context) {
            DocRecordReader reader = null;
            try {
                reader = new DocRecordReader(); // 自定義的reader
            } catch (IOException e) {
                e.printStackTrace();
            }
            return reader;
        }
     
        @Override
        protected boolean isSplitable(JobContext context, Path file) {
            return false;
        }
    }

    這樣,輸入文件有多少個,job就會啟動多少個map了。

    posted on 2014-09-16 09:28 SIMONE 閱讀(526) 評論(0)  編輯  收藏 所屬分類: hadoop
    主站蜘蛛池模板: 亚洲黄色网址在线观看| 国产精品亚洲一区二区在线观看| 91精品视频免费| 亚洲1区2区3区精华液| 亚洲一区二区三区香蕉| 91精品免费在线观看| 免费人成又黄又爽的视频在线电影| 亚洲综合日韩久久成人AV| 最近免费中文字幕mv电影| 337P日本欧洲亚洲大胆艺术图| 亚洲香蕉成人AV网站在线观看| a拍拍男女免费看全片| 香蕉国产在线观看免费| 亚洲国产精品成人综合久久久| 又粗又硬免费毛片| 在线看片韩国免费人成视频| 色爽黄1000部免费软件下载| 亚洲在成人网在线看| 久久激情亚洲精品无码?V| 成人免费一级毛片在线播放视频 | 一个人看的www免费在线视频| 亚洲最大免费视频网| 亚洲熟女乱综合一区二区| 2020久久精品国产免费| 丁香花在线视频观看免费| 亚洲AV第一成肉网| 亚洲国产av美女网站| 国产亚洲免费的视频看| 免费精品国产自产拍观看| 18禁网站免费无遮挡无码中文 | 95老司机免费福利| 一个人看的免费高清视频日本| 亚洲已满18点击进入在线观看| 久久综合日韩亚洲精品色| 亚洲福利精品一区二区三区| 18禁免费无码无遮挡不卡网站 | 一区二区三区免费视频网站| 亚洲精品无码成人| 亚洲另类图片另类电影| 亚洲短视频男人的影院| 亚洲日韩精品一区二区三区|