<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    隨筆-314  評論-209  文章-0  trackbacks-0

    Hive:

    利用squirrel-sql 連接hive

    add driver -> name&example url(jdbc:hive2://xxx:10000)->extra class path ->Add

    {hive/lib/hive-common-*.jar

    hive/lib/hive-contrib-*.jar

    hive/lib/hive-jdbc-*.jar

    hive/lib/libthrift-*.jar

    hive/lib/hive-service-*.jar

    hive/lib/httpclient-*.jar

    hive/lib/httpcore-*.jar

    hadoop/share/hadoop/common/hadoop-common--*.jar

    hadoop/share/hadoop/common/lib/common-configuration-*.jar

    hadoop/share/hadoop/common/lib/log4j-*.jar

    hadoop/share/hadoop/common/lib/slf4j-api-*.jar

    hadoop/share/hadoop/common/lib/slf4j-log4j-*.jar}

    ->List Drivers(wait ..then class name will auto set org.apache.hive.jdbc/HiveDriver)->OK->Add aliases ->chose the hive driver->done

     

    Hive數據遷移

    1.導出表

    EXPORT TABLE <table_name> TO 'path/to/hdfs';

    2.復制數據到另一個hdfs

    hadoop distcp hdfs://:8020/path/to/hdfs hdfs:///path/to/hdfs

    3.導入表

    IMPORT TABLE <table_name> FROM 'path/to/another/hdfs';

    Hive 輸出查詢結果到文件

    輸出到本地文件:

    insert overwrite local directory './test-04'
    row format delimited
    FIELDS TERMINATED BY '\t'
    COLLECTION ITEMS TERMINATED BY ','
    MAP KEYS TERMINATED BY ':'
    select * from src;

    輸出到hdfs:

    輸出到hdfs好像不支持 row format,只能另辟蹊徑了

    INSERT OVERWRITE DIRECTORY '/outputable.txt'
    select concat(col1, ',', col2, ',', col3) from myoutputtable;

    當然默認的分隔符是\001

    若要直接對文件進行操作課直接用stdin的形式

    eg. hadoop fs -cat ../000000_0 |python doSomeThing.py

    #!/usr/bin/env python

    import sys

    for line in sys.stdin:

        (a,b,c)=line.strip().split('\001')

     

    Hive 語法:

    hive好像不支持select dicstinct col1 as col1 from table group by col1

    需要用grouping sets

    select col1 as col1 from table group by col1 grouping sets((col1))

    Beeline:

    文檔:https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients

    利用jdbc連接hive:

    hive2='JAVA_HOME=/opt/java7 HADOOP_HOME=/opt/hadoop /opt/hive/bin/beeline -u jdbc:hive2://n1.hd2.host.dxy:10000 -n hadoop -p fake -d org.apache.hive.jdbc.HiveDriver --color=true --silent=false --fastConnect=false --verbose=true'

    beeline利用jdbc連接hive若需要執行多條命令使用

    hive2 -e "xxx" -e "yyy"  -e...

    posted on 2015-06-13 16:48 xzc 閱讀(3439) 評論(0)  編輯  收藏 所屬分類: hadoop
    主站蜘蛛池模板: 亚洲AV无码AV男人的天堂| 国产亚洲sss在线播放| 95老司机免费福利| 亚洲国产成人精品激情| 亚洲精品国产自在久久| 日本xxxx色视频在线观看免费| 亚洲人成人网站18禁| 亚洲日韩精品一区二区三区无码| 亚洲AV无码专区国产乱码电影 | 国产免费黄色无码视频| 亚洲成人福利在线观看| 亚洲国产精品成人AV无码久久综合影院| 亚洲日韩国产二区无码| 久久久久噜噜噜亚洲熟女综合| 亚洲一级免费视频| 一本岛v免费不卡一二三区| 亚洲最大的黄色网| 国产亚洲一区二区手机在线观看| a毛片视频免费观看影院| 亚洲人成网站免费播放| 亚洲AV永久无码精品一百度影院| 国产在线观看免费不卡| 最近中文字幕无免费| 黄色视频在线免费观看| 亚洲AV成人片无码网站| 亚洲国产综合在线| 国产亚洲欧洲Aⅴ综合一区| 女人18特级一级毛片免费视频| 久久久久免费精品国产小说| 在线观看免费亚洲| 亚洲一级毛片中文字幕| 在线观看91精品国产不卡免费| 免费的黄色的网站| 亚洲日韩精品国产3区| 亚洲精品电影天堂网| 亚洲av最新在线网址| 亚洲欧洲中文日韩久久AV乱码| 天天看片天天爽_免费播放| 免费A级毛片无码A∨免费| 久草视频在线免费看| 亚洲AV成人影视在线观看|