<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    隨筆-314  評論-209  文章-0  trackbacks-0

    Hive:

    利用squirrel-sql 連接hive

    add driver -> name&example url(jdbc:hive2://xxx:10000)->extra class path ->Add

    {hive/lib/hive-common-*.jar

    hive/lib/hive-contrib-*.jar

    hive/lib/hive-jdbc-*.jar

    hive/lib/libthrift-*.jar

    hive/lib/hive-service-*.jar

    hive/lib/httpclient-*.jar

    hive/lib/httpcore-*.jar

    hadoop/share/hadoop/common/hadoop-common--*.jar

    hadoop/share/hadoop/common/lib/common-configuration-*.jar

    hadoop/share/hadoop/common/lib/log4j-*.jar

    hadoop/share/hadoop/common/lib/slf4j-api-*.jar

    hadoop/share/hadoop/common/lib/slf4j-log4j-*.jar}

    ->List Drivers(wait ..then class name will auto set org.apache.hive.jdbc/HiveDriver)->OK->Add aliases ->chose the hive driver->done

     

    Hive數據遷移

    1.導出表

    EXPORT TABLE <table_name> TO 'path/to/hdfs';

    2.復制數據到另一個hdfs

    hadoop distcp hdfs://:8020/path/to/hdfs hdfs:///path/to/hdfs

    3.導入表

    IMPORT TABLE <table_name> FROM 'path/to/another/hdfs';

    Hive 輸出查詢結果到文件

    輸出到本地文件:

    insert overwrite local directory './test-04'
    row format delimited
    FIELDS TERMINATED BY '\t'
    COLLECTION ITEMS TERMINATED BY ','
    MAP KEYS TERMINATED BY ':'
    select * from src;

    輸出到hdfs:

    輸出到hdfs好像不支持 row format,只能另辟蹊徑了

    INSERT OVERWRITE DIRECTORY '/outputable.txt'
    select concat(col1, ',', col2, ',', col3) from myoutputtable;

    當然默認的分隔符是\001

    若要直接對文件進行操作課直接用stdin的形式

    eg. hadoop fs -cat ../000000_0 |python doSomeThing.py

    #!/usr/bin/env python

    import sys

    for line in sys.stdin:

        (a,b,c)=line.strip().split('\001')

     

    Hive 語法:

    hive好像不支持select dicstinct col1 as col1 from table group by col1

    需要用grouping sets

    select col1 as col1 from table group by col1 grouping sets((col1))

    Beeline:

    文檔:https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients

    利用jdbc連接hive:

    hive2='JAVA_HOME=/opt/java7 HADOOP_HOME=/opt/hadoop /opt/hive/bin/beeline -u jdbc:hive2://n1.hd2.host.dxy:10000 -n hadoop -p fake -d org.apache.hive.jdbc.HiveDriver --color=true --silent=false --fastConnect=false --verbose=true'

    beeline利用jdbc連接hive若需要執行多條命令使用

    hive2 -e "xxx" -e "yyy"  -e...

    posted on 2015-06-13 16:48 xzc 閱讀(3439) 評論(0)  編輯  收藏 所屬分類: hadoop
    主站蜘蛛池模板: 久久精品亚洲男人的天堂| 亚洲精品亚洲人成在线麻豆| 无码精品人妻一区二区三区免费| 免费国产成人午夜私人影视| 丰满人妻一区二区三区免费视频| 亚洲电影一区二区三区| av大片在线无码免费| 色窝窝亚洲AV网在线观看| 亚洲精品国产精品乱码在线观看| 国产h视频在线观看网站免费| 亚洲国产欧美国产综合一区| 久久久久亚洲精品无码网址| 久热中文字幕在线精品免费| 一级毛片免费观看不收费| 中文字幕亚洲色图| 免费一区二区三区四区五区| 久久免费观看国产99精品| 国产午夜亚洲精品不卡免下载| 亚洲成AV人片天堂网无码| 在线观看视频免费国语| 你懂的免费在线观看网站| 在线观看亚洲电影| 亚洲一区二区三区电影| 国产免费观看青青草原网站| 外国成人网在线观看免费视频| 亚洲精品第一国产综合野| 亚洲精品无码专区2| 成年女人免费v片| 久久久久国产精品免费看| 久久水蜜桃亚洲AV无码精品 | 在线看无码的免费网站| 无码 免费 国产在线观看91| 亚洲中文无码线在线观看| 亚洲精品国偷自产在线| 又黄又大又爽免费视频| 67194熟妇在线永久免费观看| 最近免费中文字幕MV在线视频3 | 91丁香亚洲综合社区| 亚洲av午夜成人片精品网站| 亚洲精品国产自在久久 | 插鸡网站在线播放免费观看|