<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    隨筆-314  評(píng)論-209  文章-0  trackbacks-0

    Hive:

    利用squirrel-sql 連接hive

    add driver -> name&example url(jdbc:hive2://xxx:10000)->extra class path ->Add

    {hive/lib/hive-common-*.jar

    hive/lib/hive-contrib-*.jar

    hive/lib/hive-jdbc-*.jar

    hive/lib/libthrift-*.jar

    hive/lib/hive-service-*.jar

    hive/lib/httpclient-*.jar

    hive/lib/httpcore-*.jar

    hadoop/share/hadoop/common/hadoop-common--*.jar

    hadoop/share/hadoop/common/lib/common-configuration-*.jar

    hadoop/share/hadoop/common/lib/log4j-*.jar

    hadoop/share/hadoop/common/lib/slf4j-api-*.jar

    hadoop/share/hadoop/common/lib/slf4j-log4j-*.jar}

    ->List Drivers(wait ..then class name will auto set org.apache.hive.jdbc/HiveDriver)->OK->Add aliases ->chose the hive driver->done

     

    Hive數(shù)據(jù)遷移

    1.導(dǎo)出表

    EXPORT TABLE <table_name> TO 'path/to/hdfs';

    2.復(fù)制數(shù)據(jù)到另一個(gè)hdfs

    hadoop distcp hdfs://:8020/path/to/hdfs hdfs:///path/to/hdfs

    3.導(dǎo)入表

    IMPORT TABLE <table_name> FROM 'path/to/another/hdfs';

    Hive 輸出查詢結(jié)果到文件

    輸出到本地文件:

    insert overwrite local directory './test-04'
    row format delimited
    FIELDS TERMINATED BY '\t'
    COLLECTION ITEMS TERMINATED BY ','
    MAP KEYS TERMINATED BY ':'
    select * from src;

    輸出到hdfs:

    輸出到hdfs好像不支持 row format,只能另辟蹊徑了

    INSERT OVERWRITE DIRECTORY '/outputable.txt'
    select concat(col1, ',', col2, ',', col3) from myoutputtable;

    當(dāng)然默認(rèn)的分隔符是\001

    若要直接對(duì)文件進(jìn)行操作課直接用stdin的形式

    eg. hadoop fs -cat ../000000_0 |python doSomeThing.py

    #!/usr/bin/env python

    import sys

    for line in sys.stdin:

        (a,b,c)=line.strip().split('\001')

     

    Hive 語(yǔ)法:

    hive好像不支持select dicstinct col1 as col1 from table group by col1

    需要用grouping sets

    select col1 as col1 from table group by col1 grouping sets((col1))

    Beeline:

    文檔:https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients

    利用jdbc連接hive:

    hive2='JAVA_HOME=/opt/java7 HADOOP_HOME=/opt/hadoop /opt/hive/bin/beeline -u jdbc:hive2://n1.hd2.host.dxy:10000 -n hadoop -p fake -d org.apache.hive.jdbc.HiveDriver --color=true --silent=false --fastConnect=false --verbose=true'

    beeline利用jdbc連接hive若需要執(zhí)行多條命令使用

    hive2 -e "xxx" -e "yyy"  -e...

    posted on 2015-06-13 16:48 xzc 閱讀(3447) 評(píng)論(0)  編輯  收藏 所屬分類: hadoop
    主站蜘蛛池模板: www在线观看免费视频| 国产精品亚洲lv粉色| 成人电影在线免费观看| 亚洲精品视频免费| 一级特级女人18毛片免费视频| 日本免费人成黄页网观看视频| 亚洲一卡一卡二新区无人区| 成人免费视频试看120秒| 亚洲人成电影网站色| 在线免费观看国产视频| 国产亚洲一卡2卡3卡4卡新区| 国产色爽免费视频| 狠狠热精品免费观看| 中文字幕中韩乱码亚洲大片| 99在线视频免费观看| 亚洲久本草在线中文字幕| 日本免费xxxx| 亚洲字幕AV一区二区三区四区| 午夜a级成人免费毛片| 青青免费在线视频| 亚洲人成亚洲人成在线观看 | 黄色a级免费网站| 亚洲国产综合人成综合网站| 成人免费ā片在线观看| 亚洲国产美国国产综合一区二区 | 国产精品酒店视频免费看| 一级毛片免费播放视频| 久久青草亚洲AV无码麻豆| aⅴ在线免费观看| 99亚洲男女激情在线观看| 亚洲中文字幕无码一区| 午夜免费1000部| 美国免费高清一级毛片| 自拍日韩亚洲一区在线| 午夜毛片不卡免费观看视频| jizz日本免费| 亚洲国产成人精品激情| 4338×亚洲全国最大色成网站| 久久成人国产精品免费软件| 老司机午夜在线视频免费观| 亚洲五月激情综合图片区|