<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    Change Dir

    先知cd——熱愛生活是一切藝術的開始

    統計

    留言簿(18)

    積分與排名

    “牛”們的博客

    各個公司技術

    我的鏈接

    淘寶技術

    閱讀排行榜

    評論排行榜

    Hadoop fs命令

    最近使用hive做一些etl工作,除了日常sql的編寫,了解hadoop及hive的一些底層原理性質的東西包括調優非常有必要,一次hive調優就把原來的零散文件做了合并。首先記下hadoop常用的命令:(hadoop fs -help列出全部)

    1,hadoop fs –fs [local | <file system URI>]:聲明hadoop使用的文件系統,如果不聲明的話,使用當前配置文件配置的,按如下順序查找:hadoop jar里的hadoop-default.xml->$HADOOP_CONF_DIR下的hadoop-default.xml->$HADOOP_CONF_DIR下的hadoop-site.xml。使用local代表將本地文件系統作為hadoop的DFS。如果傳遞uri做參數,那么就是特定的文件系統作為DFS。

    2,hadoop fs –ls <path>:等同于本地系統的ls,列出在指定目錄下的文件內容,支持pattern匹配。輸出格式如filename(full path)   <r n>  size.其中n代表replica的個數,size代表大小(單位bytes)。

    3,hadoop fs –lsr <path>:遞歸列出匹配pattern的文件信息,類似ls,只不過遞歸列出所有子目錄信息。

    4,hadoop fs –du <path>:列出匹配pattern的指定的文件系統空間總量(單位bytes),等價于unix下的針對目錄的du –sb <path>/*和針對文件的du –b <path> ,輸出格式如name(full path)  size(in bytes)。

    5,hadoop fs –dus <path>:等價于-du,輸出格式也相同,只不過等價于unix的du -sb。

    6,hadoop fs –mv <src> <dst>:將制定格式的文件 move到指定的目標位置。當src為多個文件時,dst必須是個目錄。

    7,hadoop fs –cp <src> <dst>:拷貝文件到目標位置,當src為多個文件時,dst必須是個目錄。

    8,hadoop fs –rm [-skipTrash] <src>:刪除匹配pattern的指定文件,等價于unix下的rm <src>。

    9,hadoop fs –rmr [skipTrash] <src>:遞歸刪掉所有的文件和目錄,等價于unix下的rm –rf <src>。

    10,hadoop fs –rmi [skipTrash] <src>:等價于unix的rm –rfi <src>。

    11,hadoop fs –put <localsrc> … <dst>:從本地系統拷貝文件到DFS。

    12,hadoop fs –copyFromLocal <localsrc> … <dst>:等價于-put。

    13,hadoop fs –moveFromLocal <localsrc> … <dst>:等同于-put,只不過源文件在拷貝后被刪除。

    14,hadoop fs –get [-ignoreCrc] [-crc] <src> <localdst>:從DFS拷貝文件到本地文件系統,文件匹配pattern,若是多個文件,則dst必須是目錄。

    15,hadoop fs –getmerge <src> <localdst>:顧名思義,從DFS拷貝多個文件、合并排序為一個文件到本地文件系統。

    16,hadoop fs –cat <src>:展示文件內容。

    17,hadoop fs –copyToLocal [-ignoreCrc] [-crc] <src> <localdst>:等價于-get。

    18,hadoop fs –mkdir <path>:在指定位置創建目錄。

    19,hadoop fs –setrep [-R] [-w] <rep> <path/file>:設置文件的備份級別,-R標志控制是否遞歸設置子目錄及文件。

    20,hadoop fs –chmod [-R] <MODE[,MODE]…|OCTALMODE> PATH…:修改文件的權限,-R標記遞歸修改。MODE為a+r,g-w,+rwx等,OCTALMODE為755這樣。

    21,hadoop fs -chown [-R] [OWNER][:[GROUP]] PATH…:修改文件的所有者和組。-R表示遞歸。

    22,hadoop fs -chgrp [-R] GROUP PATH…:等價于-chown … :GROUP …。

    23,hadoop fs –count[-q] <path>:計數文件個數及所占空間的詳情,輸出表格的列的含義依次為:DIR_COUNT,FILE_COUNT,CONTENT_SIZE,FILE_NAME或者如果加了-q的話,還會列出QUOTA,REMAINING_QUOTA,SPACE_QUOTA,REMAINING_SPACE_QUOTA。

    最后就是萬能的hadoop fs –help [cmd]啦~~

    posted on 2013-08-12 15:30 changedi 閱讀(15893) 評論(0)  編輯  收藏 所屬分類: 數據

    主站蜘蛛池模板: 国产免费131美女视频| 狼友av永久网站免费观看| 亚洲宅男天堂在线观看无病毒| 国产亚洲欧美在线观看| 女人被男人桶得好爽免费视频| 亚洲专区一路线二| 九九精品免费视频| 亚洲男人的天堂久久精品| 美女视频黄免费亚洲| 亚洲一卡2卡3卡4卡乱码 在线| 成人在线免费看片| 色老板亚洲视频免在线观 | 两个人看的www免费视频| 在线a亚洲v天堂网2019无码| 中文字幕免费播放| 久久精品亚洲中文字幕无码网站| 日韩视频免费在线观看| 亚洲视频在线观看免费视频| 思思re热免费精品视频66| 亚洲国产精品成人综合色在线| 国产青草视频免费观看97| 乱人伦中文视频在线观看免费| 久久影院亚洲一区| 日韩精品免费视频| 亚洲明星合成图综合区在线| A级毛片内射免费视频| 白白色免费在线视频| 亚洲精品视频在线观看你懂的| 中文在线观看国语高清免费| 99ri精品国产亚洲| 大学生高清一级毛片免费| 黄色毛片免费在线观看| 亚洲国产成人片在线观看无码 | 亚洲电影国产一区| 91免费资源网站入口| 国产成人精品亚洲| 亚洲视频.com| 免费一看一级毛片全播放| 久久免费视频99| 爱情岛亚洲论坛在线观看| 亚洲成AV人片在线观看WWW|