<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 110, comments - 101, trackbacks - 0, articles - 7
      BlogJava :: 首頁 :: 新隨筆 :: 聯系 :: 聚合  :: 管理
    最近使用sqoop把數據從oracle導入到hbase 遇到各種問題 耗了很多時間
    遇到的異常在網上也沒找到過先例 可能有朋友也遇到了這樣的問題
    整理一下 留在這里 歡迎拍磚 看到的朋友 如果有更好的方法 可以回復 一起學習
    使用sqoop 導mysql的數據時 一切順利很方便 
    導oracle的時候 問題就來了
    --query命令: 使用這個命令的時候 需要注意的是 where后面的參數,$CONDITIONS 這個參數必須加上
    而且存在單引號與雙引號的區別,如果--query后面使用的是雙引號 那么需要在$CONDITIONS\ \$CONDITIONS

    ./sqoop import --connect jdbc:oracle:thin:@192.168.8.130:1521:dcshdev --username User_data2 --password yhdtest123qa --query "select * from so_ext t where \$CONDITIONS " -m 4 --hbase-create-table --hbase-table hso --column-family so --hbase-row-key id --split-by id

    如果使用--columns指令來指定字段 也出現了問題
    因為在一行中寫太多命令是不可能的,--columns 如果字段太多在命令中寫也不方便
    所以使用shell腳本要方便的多
    那么在腳本中換行使用 \  來換行

    有個問題就是 使用--columns 指定的字段大小寫要注意 得使用小寫。
    如果使用大寫 導數據不會有異常 會成功的,hbase中表也會創建好,但是scan的時候 你會發現沒有數據 這個蛋疼吧
    --columns id,order_id,order_code
    而且每個字段之間用逗號分隔,但是不能有空格,在sqoop中沒有處理空格,如果在這個命令后的參數有空格的話
    就不能和oracle表中的字段對應上了 結果雖然沒有錯誤能夠顯示成功導入多了條數據,但是scan的時候 會是0條數據

    關于導mysql和oracle的時候 還有個區別:
    導mysql表的數據時 不需要指定太多的命令就可以成功導入,但是oracle就需要很多命令 ,如--split-by 這個切分參數
    在導mysql的時候 就不需要 ,但是如果在導oracle的時候 不加上就會出錯了 不信你試試






    評論

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2012-11-15 16:58 by 風雨無語
    我使用sqoop從oracle導入數據到hbase中,表創建了,但是沒有數據,沒報錯,是什么原因

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2013-05-15 18:29 by 趙坤
    我也是使用sqoop從oracle導入數據到hbase中,表創建了,但是沒有數據,沒報錯,是什么原因

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2014-04-22 13:38 by jacos
    Will not attempt to authenticate using SASL (unknown error)

    "main" java.lang.IncompatibleClassChangeError: Found interface org.apache.hadoop.mapreduce.JobContext, but class was expected
    at org.apache.sqoop.mapreduce.DelegatingOutputFormat.checkOutputSpecs(DelegatingOutputFormat.java:63)
    at org.apache.hadoop.mapreduce.JobSubmitter.checkSpecs(JobSubmitter.java:456)

    這2個異常
    我的報這個錯誤。查詢mysql上的數據可以查詢出來,導入的時候就不行。

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2014-07-02 15:53 by Hartwell
    @jacos
    你這個問題解決了嗎?
    我導入mysql的時候,也是報這個異常

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 亚洲精品无码成人片久久| 91久久成人免费| 久久亚洲精品AB无码播放| ssswww日本免费网站片| 亚洲第一精品福利| 蜜桃精品免费久久久久影院| 一个人看www免费高清字幕| 久久久久亚洲av无码专区| 国产成人免费ā片在线观看| 麻豆精品不卡国产免费看| 亚洲区日韩精品中文字幕| 成**人免费一级毛片| 亚洲欧洲日韩极速播放| 久久综合亚洲色HEZYO国产| aa在线免费观看| 亚洲av无码一区二区三区不卡 | 亚洲高清免费在线观看| 在线看亚洲十八禁网站| 亚洲精品国自产拍在线观看| CAOPORN国产精品免费视频| 亚洲首页国产精品丝袜| 毛片免费观看的视频在线| 日韩成人精品日本亚洲| 亚洲欧洲一区二区三区| 我要看免费的毛片| 久久青草国产免费观看| 亚洲AV成人无码天堂| 免费国产美女爽到喷出水来视频| 无遮挡国产高潮视频免费观看| 亚洲伊人久久大香线蕉综合图片 | 天堂在线免费观看中文版| 国产免费一区二区三区在线观看| 18禁亚洲深夜福利人口| 亚洲一级免费视频| 日韩精品亚洲人成在线观看| JLZZJLZZ亚洲乱熟无码| 999久久久免费精品播放| 国产精品免费久久久久电影网| 久久亚洲精品无码gv| 456亚洲人成影院在线观| 91情国产l精品国产亚洲区|