插件
話說Hadoop 1.0.2/src/contrib/eclipse-plugin只有插件的源代碼,這里給出一個(gè)我打包好的對(duì)應(yīng)的Eclipse插件:
下載地址
下載后扔到eclipse/dropins目錄下即可,當(dāng)然eclipse/plugins也是可以的,前者更為輕便,推薦;重啟Eclipse,即可在透視圖(Perspective)中看到Map/Reduce。
配置
點(diǎn)擊藍(lán)色的小象圖標(biāo),新建一個(gè)Hadoop連接:
注意,一定要填寫正確,修改了某些端口,以及默認(rèn)運(yùn)行的用戶名等
具體的設(shè)置,可見
正常情況下,可以在項(xiàng)目區(qū)域可以看到
這樣可以正常的進(jìn)行HDFS分布式文件系統(tǒng)的管理:上傳,刪除等操作。
為下面測試做準(zhǔn)備,需要先建了一個(gè)目錄 user/root/input2,然后上傳兩個(gè)txt文件到此目錄:
intput1.txt 對(duì)應(yīng)內(nèi)容:Hello Hadoop Goodbye Hadoop
intput2.txt 對(duì)應(yīng)內(nèi)容:Hello World Bye World
HDFS的準(zhǔn)備工作好了,下面可以開始測試了。
Hadoop工程
新建一個(gè)Map/Reduce Project工程,設(shè)定好本地的hadoop目錄

新建一個(gè)測試類WordCountTest:
右鍵,選擇“Run Configurations”,彈出窗口,點(diǎn)擊“Arguments”選項(xiàng)卡,在“Program argumetns”處預(yù)先輸入?yún)?shù):
hdfs://master:9000/user/root/input2 dfs://master:9000/user/root/output2
備注:參數(shù)為了在本地調(diào)試使用,而非真實(shí)環(huán)境。
然后,點(diǎn)擊“Apply”,然后“Close”?,F(xiàn)在可以右鍵,選擇“Run on Hadoop”,運(yùn)行。
但此時(shí)會(huì)出現(xiàn)類似異常信息:
12/04/24 15:32:44 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
12/04/24 15:32:44 ERROR security.UserGroupInformation: PriviledgedActionException as:Administrator cause:java.io.IOException: Failed to set permissions of path: \tmp\hadoop-Administrator\mapred\staging\Administrator-519341271\.staging to 0700
Exception in thread "main" java.io.IOException: Failed to set permissions of path: \tmp\hadoop-Administrator\mapred\staging\Administrator-519341271\.staging to 0700
at org.apache.hadoop.fs.FileUtil.checkReturnValue(FileUtil.java:682)
at org.apache.hadoop.fs.FileUtil.setPermission(FileUtil.java:655)
at org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:509)
at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:344)
at org.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:189)
at org.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:116)
at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:856)
at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:850)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1093)
at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:850)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:500)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:530)
at com.hadoop.learn.test.WordCountTest.main(WordCountTest.java:85)
這個(gè)是Windows下文件權(quán)限問題,在Linux下可以正常運(yùn)行,不存在這樣的問題。
解決方法是,修改/hadoop-1.0.2/src/core/org/apache/hadoop/fs/FileUtil.java里面的checkReturnValue,注釋掉即可(有些粗暴,在Window下,可以不用檢查):
重新編譯打包hadoop-core-1.0.2.jar,替換掉hadoop-1.0.2根目錄下的hadoop-core-1.0.2.jar即可。
這里提供一份修改版的hadoop-core-1.0.2-modified.jar文件,替換原h(huán)adoop-core-1.0.2.jar即可。
替換之后,刷新項(xiàng)目,設(shè)置好正確的jar包依賴,現(xiàn)在再運(yùn)行WordCountTest,即可。
成功之后,在Eclipse下刷新HDFS目錄,可以看到生成了ouput2目錄:
點(diǎn)擊“ part-r-00000”文件,可以看到排序結(jié)果:
Bye 1
Goodbye 1
Hadoop 2
Hello 2
World 2
嗯,一樣可以正常Debug調(diào)試該程序,設(shè)置斷點(diǎn)(右鍵 –> Debug As – > Java Application),即可(每次運(yùn)行之前,都需要收到刪除輸出目錄)。
另外,該插件會(huì)在eclipse對(duì)應(yīng)的workspace\.metadata\.plugins\org.apache.hadoop.eclipse下,自動(dòng)生成jar文件,以及其他文件,包括Haoop的一些具體配置等。
嗯,更多細(xì)節(jié),慢慢體驗(yàn)吧。
遇到的異常
org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/root/output2/_temporary. Name node is in safe mode.
The ratio of reported blocks 0.5000 has not reached the threshold 0.9990. Safe mode will be turned off automatically.
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirsInternal(FSNamesystem.java:2055)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:2029)
at org.apache.hadoop.hdfs.server.namenode.NameNode.mkdirs(NameNode.java:817)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:563)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1388)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1384)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1093)
at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1382)
在主節(jié)點(diǎn)處,關(guān)閉掉安全模式:
#bin/hadoop dfsadmin –safemode leave
如何打包
將創(chuàng)建的Map/Reduce項(xiàng)目打包成jar包,很簡單的事情,無需多言。保證jar文件的META-INF/MANIFEST.MF文件中存在Main-Class映射:
Main-Class: com.hadoop.learn.test.TestDriver
若使用到第三方j(luò)ar包,那么在MANIFEST.MF中增加Class-Path好了。
另外可使用插件提供的MapReduce Driver向?qū)В梢詭兔ξ覀冊贖adoop中運(yùn)行,直接指定別名,尤其是包含多個(gè)Map/Reduce作業(yè)時(shí),很有用。
一個(gè)MapReduce Driver只要包含一個(gè)main函數(shù),指定別名:
這里有一個(gè)小技巧,MapReduce Driver類上面,右鍵運(yùn)行,Run on Hadoop,會(huì)在Eclipse的workspace\.metadata\.plugins\org.apache.hadoop.eclipse目錄下自動(dòng)生成jar包,上傳到HDFS,或者遠(yuǎn)程hadoop根目錄下,運(yùn)行它:
# bin/hadoop jar LearnHadoop_TestDriver.java-460881982912511899.jar testcount input2 output3
OK,本文結(jié)束。