<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 110, comments - 101, trackbacks - 0, articles - 7
      BlogJava :: 首頁 :: 新隨筆 :: 聯系 :: 聚合  :: 管理
    最近使用sqoop把數據從oracle導入到hbase 遇到各種問題 耗了很多時間
    遇到的異常在網上也沒找到過先例 可能有朋友也遇到了這樣的問題
    整理一下 留在這里 歡迎拍磚 看到的朋友 如果有更好的方法 可以回復 一起學習
    使用sqoop 導mysql的數據時 一切順利很方便 
    導oracle的時候 問題就來了
    --query命令: 使用這個命令的時候 需要注意的是 where后面的參數,$CONDITIONS 這個參數必須加上
    而且存在單引號與雙引號的區別,如果--query后面使用的是雙引號 那么需要在$CONDITIONS\ \$CONDITIONS

    ./sqoop import --connect jdbc:oracle:thin:@192.168.8.130:1521:dcshdev --username User_data2 --password yhdtest123qa --query "select * from so_ext t where \$CONDITIONS " -m 4 --hbase-create-table --hbase-table hso --column-family so --hbase-row-key id --split-by id

    如果使用--columns指令來指定字段 也出現了問題
    因為在一行中寫太多命令是不可能的,--columns 如果字段太多在命令中寫也不方便
    所以使用shell腳本要方便的多
    那么在腳本中換行使用 \  來換行

    有個問題就是 使用--columns 指定的字段大小寫要注意 得使用小寫。
    如果使用大寫 導數據不會有異常 會成功的,hbase中表也會創建好,但是scan的時候 你會發現沒有數據 這個蛋疼吧
    --columns id,order_id,order_code
    而且每個字段之間用逗號分隔,但是不能有空格,在sqoop中沒有處理空格,如果在這個命令后的參數有空格的話
    就不能和oracle表中的字段對應上了 結果雖然沒有錯誤能夠顯示成功導入多了條數據,但是scan的時候 會是0條數據

    關于導mysql和oracle的時候 還有個區別:
    導mysql表的數據時 不需要指定太多的命令就可以成功導入,但是oracle就需要很多命令 ,如--split-by 這個切分參數
    在導mysql的時候 就不需要 ,但是如果在導oracle的時候 不加上就會出錯了 不信你試試






    評論

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2012-11-15 16:58 by 風雨無語
    我使用sqoop從oracle導入數據到hbase中,表創建了,但是沒有數據,沒報錯,是什么原因

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2013-05-15 18:29 by 趙坤
    我也是使用sqoop從oracle導入數據到hbase中,表創建了,但是沒有數據,沒報錯,是什么原因

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2014-04-22 13:38 by jacos
    Will not attempt to authenticate using SASL (unknown error)

    "main" java.lang.IncompatibleClassChangeError: Found interface org.apache.hadoop.mapreduce.JobContext, but class was expected
    at org.apache.sqoop.mapreduce.DelegatingOutputFormat.checkOutputSpecs(DelegatingOutputFormat.java:63)
    at org.apache.hadoop.mapreduce.JobSubmitter.checkSpecs(JobSubmitter.java:456)

    這2個異常
    我的報這個錯誤。查詢mysql上的數據可以查詢出來,導入的時候就不行。

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2014-07-02 15:53 by Hartwell
    @jacos
    你這個問題解決了嗎?
    我導入mysql的時候,也是報這個異常

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 亚洲高清中文字幕免费| 九九九国产精品成人免费视频| 毛片免费观看网址| 青草青草视频2免费观看| 亚洲毛片αv无线播放一区| 久久精品国产免费观看三人同眠| 亚洲av最新在线观看网址| 亚洲人成色7777在线观看| 皇色在线视频免费网站| 国产精品免费久久| 亚洲色偷偷av男人的天堂| 国产成人aaa在线视频免费观看| 国产一精品一AV一免费| 亚洲欧美日韩综合久久久| 亚洲精品无码午夜福利中文字幕| 性生交片免费无码看人| 丰满人妻一区二区三区免费视频| 亚洲最大的视频网站| 啊v在线免费观看| 最近中文字幕电影大全免费版| 免费大片av手机看片| 亚洲13又紧又嫩又水多| 国产AV无码专区亚洲AV毛网站| 日韩成人在线免费视频| 99热免费在线观看| 一级做a爰性色毛片免费| 亚洲国产超清无码专区| 最近中文字幕免费mv视频7| 九一在线完整视频免费观看 | 又黄又大的激情视频在线观看免费视频社区在线| 亚洲av手机在线观看| 99热免费在线观看| 日本亚洲精品色婷婷在线影院| 中文字幕免费在线| 亚洲AV成人无码久久WWW| 日本久久久久亚洲中字幕| 免费一级做a爰片性色毛片| 亚洲免费网站在线观看| 国产福利电影一区二区三区,免费久久久久久久精 | 亚洲精品高清在线| 久久午夜免费视频|