<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 28,comments - 3,trackbacks - 0
    1、下載并安裝hadoop(需安裝好jdk)
    2、創建文件夾
    ~/dfs/name
    ~/dfs/data
    ~/temp
    3、修改配置文件
    ~/hadoop-2.2.0/etc/hadoop/hadoop-env.sh
    ~/hadoop-2.2.0/etc/hadoop/yarn-env.sh
    ~/hadoop-2.2.0/etc/hadoop/slaves
    ~/hadoop-2.2.0/etc/hadoop/core-site.xml
    ~/hadoop-2.2.0/etc/hadoop/hdfs-site.xml
    ~/hadoop-2.2.0/etc/hadoop/mapred-site.xml
    ~/hadoop-2.2.0/etc/hadoop/yarn-site.xml
    以上個別文件默認不存在的,可以復制相應的template文件獲得。
    --hadoop-env.sh
    修改javahome
    export JAVA_HOME=/home/hduser/jdk1.6.0_45
    --yarn-env.sh
    同上
    --slaves
    增加處理節點機器名即可
    --core-site.xml
    <configuration>
           <property>
    <name>fs.defaultFS</name>
    <value>hdfs://cloudn:9000</value>
           </property>
           <property>
    <name>io.file.buffer.size</name>
    <value>131072</value>
           </property>
           <property>
    <name>hadoop.tmp.dir</name>
    <value>file:/home/hduser/temp</value>
    <description>Abase for other temporary directories.</description>
           </property>
            <property>
                   <name>hadoop.proxyuser.hduser.hosts</name>
                   <value>*</value>
           </property>
           <property>
                   <name>hadoop.proxyuser.hduser.groups</name>
                   <value>*</value>
           </property>
    </configuration>
    --hdfs-site.xml
    <configuration>
           <property>
                   <name>dfs.namenode.secondary.http-address</name>
                   <value>cloudn:9001</value>
           </property>
           <property>
                   <name>dfs.namenode.name.dir</name>
                   <value>file:/home/hduser/dfs/name</value>
           </property>
           <property>
                   <name>dfs.datanode.data.dir</name>
                   <value>file:/home/hduser/dfs/data</value>
           </property>
           <property>
                   <name>dfs.replication</name>
                   <value>2</value>
           </property>
           <property>
                   <name>dfs.webhdfs.enabled</name>
                   <value>true</value>
           </property>
    </configuration>
    --mapred-site.xml
    <configuration>
    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
    <property>
    <name>mapreduce.jobhistory.address</name>
    <value>cloudn:10020</value>
    </property>
            <property>
                   <name>mapreduce.jobhistory.webapp.address</name>
                   <value>cloudn:19888</value>
            </property>
    </configuration>
    --yarn-site.xml
    <configuration>
            <property>
                   <name>yarn.nodemanager.aux-services</name>
                   <value>mapreduce_shuffle</value>
            </property>
            <property>
                   <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                   <value>org.apache.hadoop.mapred.ShuffleHandler</value>
            </property>
            <property>
                   <name>yarn.resourcemanager.address</name>
                   <value>cloudn:8032</value>
            </property>
            <property>
                   <name>yarn.resourcemanager.scheduler.address</name>
                   <value>cloudn:8030</value>
            </property>
            <property>
                   <name>yarn.resourcemanager.resource-tracker.address</name>
                   <value>cloudn:8031</value>
            </property>
            <property>
                   <name>yarn.resourcemanager.admin.address</name>
                   <value>cloudn:8033</value>
            </property>
            <property>
                   <name>yarn.resourcemanager.webapp.address</name>
                   <value>cloudn:8088</value>
           </property>
    </configuration>
    4、復制到其他節點,如有64位,32位,不能復制
    5、啟動準備
    格式化namenode: bin/hdfs namenode -format
    6、啟動hadoop:sbin/start-all.sh
    7、hellocount

    先在hdfs上創建一個文件夾
    ./bin/hdfs dfs -mkdir /input
     ./bin/hdfs dfs -ls /
    在namenode上創建個文件夾
    files,創建2個文件 echo "Hello World" > file1.txt
    more file1.txt file2.txt
    hadoop fs -mkdir  input
    創建輸入文件夾
    ./bin/hdfs dfs -mkdir /input
    ./bin/hdfs dfs -mkdir input
    ./bin/hdfs dfs -ls /
    上傳本地文件到集群的input目錄
    ./bin/hdfs dfs -put ~/files/*.txt /input
    ./bin/hdfs dfs -ls /input
    執行
    ./bin/hadoop jar /home/hduser/hadoop-2.2.0/share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.2.0-sources.jar org.apache.hadoop.examples.WordCount /input /output
    結果
    ./bin/hadoop dfs -cat /output/part-r-00000





    posted on 2014-02-26 16:40 李大嘴 閱讀(261) 評論(0)  編輯  收藏

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 亚洲日韩国产二区无码| 久久精品国产亚洲AV麻豆王友容| 亚洲国产午夜精品理论片| 久久免费观看国产精品| 亚洲天堂中文字幕| 好紧我太爽了视频免费国产 | 女人张开腿给人桶免费视频| 亚洲人成小说网站色| 成人毛片免费观看| 日韩色日韩视频亚洲网站| 五月天婷亚洲天综合网精品偷| 色哟哟国产精品免费观看| 亚洲中文字幕在线观看| 久久午夜无码免费| 亚洲一级毛片在线播放| 永久久久免费浮力影院| japanese色国产在线看免费| 久久久久久a亚洲欧洲AV| 噼里啪啦免费观看高清动漫4| 亚洲综合无码一区二区痴汉| 免费一区二区视频| 本道天堂成在人线av无码免费| 亚洲精品私拍国产福利在线| 亚洲欧洲免费无码| 无码精品人妻一区二区三区免费| 国产亚洲人成网站在线观看不卡| 亚洲无砖砖区免费| 老司机午夜在线视频免费| 亚洲成AV人片一区二区| 国产精品无码免费播放| 一级毛片aaaaaa视频免费看| 亚洲第一精品在线视频| 免费无码不卡视频在线观看| 久久国产精品免费一区二区三区| 亚洲视频在线免费播放| 国产国产成年年人免费看片| 9277手机在线视频观看免费| 免费夜色污私人影院网站电影| 亚洲男人都懂得羞羞网站| 国产精品无码免费视频二三区| 日韩电影免费观看|