<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    隨筆-7  評論-23  文章-0  trackbacks-0
      2011年2月14日

    去年年底,團隊內部成員分享了這篇google論文,初讀了下,發現其有蠻多有意思的東西,就想把他翻譯下來,但是翻譯了一小部分,明顯感覺如果這樣的翻譯發出去,很可能誤人子弟,所以改成了概要式的博文,這篇文章會將原論文最核心的幾個部分做不完全的翻譯和個人理解,如有不解或者錯誤的地方,請查看原論文,并希望能夠指正,謝謝.

    正文

    Megastore是谷歌一個內部的存儲系統,它的底層數據存儲依賴Bigtable,也就是基于NoSql實現的,但是和傳統的NoSql不同的是,它實現了類似RDBMS的數據模型(便捷性),同時提供數據的強一致性解決方案(同一個datacenter,基于MVCC的事務實現),并且將數據進行細顆粒度的分區(這里的分區是指在同一個datacenter,所有datacenter都有相同的分區數據),然后將數據更新在機房間進行同步復制(這個保證所有datacenter中的數據一致).

    ...

    中文翻譯地址: http://wenku.baidu.com/view/a465cc260722192e4536f671.html#

    原文地址: http://wenku.baidu.com/view/2ddeb1afdd3383c4bb4cd2bb.html

    posted @ 2011-02-14 12:44 BucketLI 閱讀(3189) | 評論 (1)編輯 收藏
      2010年12月21日

    zookeeper介紹
    zookeeper是一個為分布式應用提供一致性服務的軟件,它是開源的Hadoop項目中的一個子項目,并且根據google發表的<The Chubby lock service for loosely-coupled distributed systems>論文來實現的,接下來我們首先來安裝使用下這個軟件,然后再來探索下其中比較重要一致性算法。  

    zookeeper安裝和使用
    zookeeper的安裝基本上可以按照 http://hadoop.apache.org/zookeeper/docs/current/ zookeeperStarted.html 這個頁面上的步驟完成安裝,這里主要介紹下部署一個集群的步驟,因為這個官方頁面似乎講得并不是非常詳細(Running Replicated Zookeeper)

    由于手頭機器不足,所以在一臺機器上部署了
    3server,如果你手頭也比較緊,也可以這么做。那么我建了3個文件夾,如下
    server1   server2   server3

    然后每個文件夾里面解壓一個
    zookeeper的下載包,并且還建了幾個文件夾,總體結構如下,最后那個是下載過來壓縮包的解壓文件
    data dataLog logs zookeeper-3.3.2

    那么首先進入data目錄,創建一個myid的文件,里面寫入一個數字,比如我這個是server1,那么就寫一個1server2對應myid文件就寫入2server3對應myid文件就寫個3

    然后進入zookeeper-3.3.2/conf目錄,那么如果是剛下過來,會有3個文件,configuration.xml, log4j.properties,zoo_sample.cfg,3個文件我們首先要做的就是在這個目錄創建一個zoo.cfg的配置文件,當然你可以把zoo_sample.cfg文件改成zoo.cfg,配置的內容如下所示: 
    tickTime=2000
    initLimit=5
    syncLimit=2
    dataDir=xxxx/zookeeper/server1/data
    dataLogDir=xxx/zookeeper/server1/dataLog
    clientPort=2181
    server.1=127.0.0.1:2888:3888
    server.2=127.0.0.1:2889:3889
    server.3=127.0.0.1:2890:3890

    標紅的幾個配置應該官網講得很清楚了,只是需要注意的是clientPort這個端口如果你是在1臺機器上部署多個server,那么每臺機器都要不同的clientPort,比如我server12181,server22182server32183dataDirdataLogDir也需要區分下。

    最后幾行唯一需要注意的地方就是 server.X 這個數字就是對應 data/myid中的數字。你在3servermyid文件中分別寫入了123,那么每個server中的zoo.cfg都配server.1,server.2,server.3OK了。因為在同一臺機器上,后面連著的2個端口3server都不要一樣,否則端口沖突,其中第一個端口用來集群成員的信息交換,第二個端口是在leader掛掉時專門用來進行選舉leader所用。

    進入zookeeper-3.3.2/bin 目錄中./zkServer.sh start啟動一個server,這時會報大量錯誤?其實沒什么關系,因為現在集群只起了1serverzookeeper服務器端起來會根據zoo.cfg的服務器列表發起選舉leader的請求,因為連不上其他機器而報錯,那么當我們起第二個zookeeper實例后,leader將會被選出,從而一致性服務開始可以使用,這是因為3臺機器只要有2臺可用就可以選出leader并且對外提供服務(2n+1臺機器,可以容n臺機器掛掉)

    接下來就可以使用了,我們可以先通過 zookeeper自帶的客戶端交互程序來簡單感受下zookeeper到底做一些什么事情。進入zookeeper-3.3.2/bin3server中任意一個)下,./zkCli.sh –server 127.0.0.1:2182,我連的是開著2182端口的機器。

    那么,首先我們隨便打個命令,因為zookeeper不認識,他會給出命令的help,如下圖
      
      
    ls(查看當前節點數據),
    ls2(查看當前節點數據并能看到更新次數等數據) ,
    create(創建一個節點) ,
    get(得到一個節點,包含數據和更新次數等數據),
    set(修改節點)
    delete(刪除一個節點)

    通過上述命令實踐,我們可以發現,zookeeper使用了一個類似文件系統的樹結構,數據可以掛在某個節點上,可以對這個節點進行刪改。另外我們還發現,當改動一個節點的時候,集群中活著的機器都會更新到一致的數據。

    zookeeper的數據模型
    在簡單使用了zookeeper之后,我們發現其數據模型有些像操作系統的文件結構,結構如下圖所示



    (1)     每個節點在zookeeper中叫做znode,并且其有一個唯一的路徑標識,如/SERVER2節點的標識就為/APP3/SERVER2
    (2)     Znode可以有子znode,并且znode里可以存數據,但是EPHEMERAL類型的節點不能有子節點
    (3)     Znode中的數據可以有多個版本,比如某一個路徑下存有多個數據版本,那么查詢這個路徑下的數據就需要帶上版本。
    (4)     znode 可以是臨時節點,一旦創建這個 znode 的客戶端與服務器失去聯系,這個 znode 也將自動刪除,Zookeeper 的客戶端和服務器通信采用長連接方式,每個客戶端和  服務器通過心跳來保持連接,這個連接狀態稱為 session,如果 znode 是臨時節點,這個 session 失效,znode 也就刪除了
    (5)     znode 的目錄名可以自動編號,如 App1 已經存在,再創建的話,將會自動命名為 App2 
    (6)     znode 可以被監控,包括這個目錄節點中存儲的數據的修改,子節點目錄的變化等,一旦變化可以通知設置監控的客戶端,這個功能是zookeeper對于應用最重要的特性,通過這個特性可以實現的功能包括配置的集中管理,集群管理,分布式鎖等等。
     

    通過java代碼使用zookeeper 
    Zookeeper的使用主要是通過創建其jar包下的Zookeeper實例,并且調用其接口方法進行的,主要的操作就是對znode的增刪改操作,監聽znode的變化以及處理。 

    以下為主要的API使用和解釋

    //創建一個Zookeeper實例,第一個參數為目標服務器地址和端口,第二個參數為Session超時時間,第三個為節點變化時的回調方法
    ZooKeeper zk = new ZooKeeper("127.0.0.1:2181"500000,new Watcher() {
               
    // 監控所有被觸發的事件
                 public void process(WatchedEvent event) {
               
    //dosomething
               }

          }
    );
    //創建一個節點root,數據是mydata,不進行ACL權限控制,節點為永久性的(即客戶端shutdown了也不會消失)
    zk.create("/root""mydata".getBytes(),Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);

    //在root下面創建一個childone znode,數據為childone,不進行ACL權限控制,節點為永久性的
    zk.create("/root/childone","childone".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);

    //取得/root節點下的子節點名稱,返回List<String>
    zk.getChildren("/root",true);

    //取得/root/childone節點下的數據,返回byte[]
    zk.getData("/root/childone"truenull);

    //修改節點/root/childone下的數據,第三個參數為版本,如果是-1,那會無視被修改的數據版本,直接改掉
    zk.setData("/root/childone","childonemodify".getBytes(), -1);

    //刪除/root/childone這個節點,第二個參數為版本,-1的話直接刪除,無視版本
    zk.delete("/root/childone"-1);
          
    //關閉session
    zk.close();
     
    Zookeeper的主流應用場景實現思路(除去官方示例)

    (1)
    配置管理
    集中式的配置管理在應用集群中是非常常見的,一般商業公司內部都會實現一套集中的配置管理中心,應對不同的應用集群對于共享各自配置的需求,并且在配置變更時能夠通知到集群中的每一個機器。

    Zookeeper
    很容易實現這種集中式的配置管理,比如將APP1的所有配置配置到/APP1 znode下,APP1所有機器一啟動就對/APP1這個節點進行監控(zk.exist("/APP1",true)),并且實現回調方法Watcher,那么在zookeeper/APP1 znode節點下數據發生變化的時候,每個機器都會收到通知,Watcher方法將會被執行,那么應用再取下數據即可(zk.getData("/APP1",false,null));

    以上這個例子只是簡單的粗顆粒度配置監控,細顆粒度的數據可以進行分層級監控,這一切都是可以設計和控制的。
        
    (2)集群管理
    應用集群中,我們常常需要讓每一個機器知道集群中(或依賴的其他某一個集群)哪些機器是活著的,并且在集群機器因為宕機,網絡斷鏈等原因能夠不在人工介入的情況下迅速通知到每一個機器。

    Zookeeper
    同樣很容易實現這個功能,比如我在zookeeper服務器端有一個znode/APP1SERVERS,那么集群中每一個機器啟動的時候都去這個節點下創建一個EPHEMERAL類型的節點,比如server1創建/APP1SERVERS/SERVER1(可以使用ip,保證不重復)server2創建/APP1SERVERS/SERVER2,然后SERVER1SERVER2watch /APP1SERVERS這個父節點,那么也就是這個父節點下數據或者子節點變化都會通知對該節點進行watch的客戶端。因為EPHEMERAL類型節點有一個很重要的特性,就是客戶端和服務器端連接斷掉或者session過期就會使節點消失,那么在某一個機器掛掉或者斷鏈的時候,其對應的節點就會消失,然后集群中所有對/APP1SERVERS進行watch的客戶端都會收到通知,然后取得最新列表即可。

    另外有一個應用場景就是集群選
    master,一旦master掛掉能夠馬上能從slave中選出一個master,實現步驟和前者一樣,只是機器在啟動的時候在APP1SERVERS創建的節點類型變為EPHEMERAL_SEQUENTIAL類型,這樣每個節點會自動被編號,例如
              
    zk.create("/testRootPath/testChildPath1","1".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL_SEQUENTIAL);
            
    zk.create(
    "/testRootPath/testChildPath2","2".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL_SEQUENTIAL);
            
    zk.create(
    "/testRootPath/testChildPath3","3".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL_SEQUENTIAL);
            
    // 創建一個子目錄節點
    zk.create("/testRootPath/testChildPath4","4".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL_SEQUENTIAL);

    System.out.println(zk.getChildren(
    "/testRootPath"false));
     打印結果:[testChildPath10000000000, testChildPath20000000001, testChildPath40000000003, testChildPath30000000002]

    zk.create("/testRootPath""testRootData".getBytes(),Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);

    // 創建一個子目錄節點
    zk.create("/testRootPath/testChildPath1","1".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL);
            
    zk.create(
    "/testRootPath/testChildPath2","2".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL);
            
    zk.create(
    "/testRootPath/testChildPath3","3".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL);
            
    // 創建一個子目錄節點
    zk.create("/testRootPath/testChildPath4","4".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL);

    System.out.println(zk.getChildren(
    "/testRootPath"false));
    打印結果:[testChildPath2, testChildPath1, testChildPath4, testChildPath3]

    我們默認規定編號最小的為
    master,所以當我們對/APP1SERVERS節點做監控的時候,得到服務器列表,只要所有集群機器邏輯認為最小編號節點為master,那么master就被選出,而這個master宕機的時候,相應的znode會消失,然后新的服務器列表就被推送到客戶端,然后每個節點邏輯認為最小編號節點為master,這樣就做到動態master選舉。


    總結 

    我們初步使用了一下zookeeper并且嘗試著描述了幾種應用場景的具體實現思路,接下來的文章,我們會嘗試著去探究一下zookeeper的高可用性與leaderElection算法。

    參考http://www.ibm.com/developerworks/cn/opensource/os-cn-zookeeper/

          http://hadoop.apache.org/zookeeper/docs/current/

          http://rdc.taobao.com/team/jm/archives/448

    posted @ 2010-12-21 18:58 BucketLI 閱讀(118567) | 評論 (15)編輯 收藏
      2010年12月16日
         摘要:  1.       ExecutorService  Java從1.5開始正式提供了并發包,而這個并發包里面除了原子變量,synchronizer,并發容器,另外一個非常重要的特性就是線程池.對于線程池的意義,我們這邊不再多說. 上圖是線程池的主體類圖,ThreadPoolExecutor是應用最為廣泛的一個...  閱讀全文
    posted @ 2010-12-16 13:57 BucketLI 閱讀(5071) | 評論 (0)編輯 收藏
      2010年11月25日
         摘要: 1.       java.util.concurrent所提供的并發容器 java.util.concurrent提供了多種并發容器,總體上來說有4類,隊列類型的BlockingQueue和 ConcurrentLinkedQueue,Map類型的ConcurrentMap,Set類型的ConcurrentSkipListSet和Co...  閱讀全文
    posted @ 2010-11-25 13:43 BucketLI 閱讀(5171) | 評論 (3)編輯 收藏
      2010年10月22日
         摘要: 最近需要用到log4j動態定制Logger的場景,然后加上以前對于這個日志工具拿來就用而不知其原理的原因,所以決定花點時間看下它的源碼,如果你還對log4j如何使用感到困惑,那么請首先簡要瀏覽下它的官網http://logging.apache.org/log4j/ Log4j總體來說是一個可定制,支持同時多種形式輸出日志,并且高度結構化的日志庫。可定制,也就是既可以通過log4j.prop...  閱讀全文
    posted @ 2010-10-22 10:40 BucketLI 閱讀(4284) | 評論 (1)編輯 收藏
      2010年9月30日
         摘要: JAVA LOCK總體來說關鍵要素主要包括3點: 1.unsafe.compareAndSwapXXX(Object o,long offset,int expected,int x) 2.unsafe.park() 和 unsafe.unpark() 3.單向鏈表結構或者說存儲線程的數據結構 第1點主要為了保證鎖的原子性,相當于一個鎖是否正在被使用的標記,并且比較和設置這個標記的操...  閱讀全文
    posted @ 2010-09-30 12:05 BucketLI 閱讀(13156) | 評論 (2)編輯 收藏
      2010年9月25日
         摘要: Netty提供異步的、事件驅動的網絡應用程序框架和工具,用以快速開發高性能、高可靠性的網絡服務器和客戶端程序[官方定義],整體來看其包含了以下內容:1.提供了豐富的協議編解碼支持,2.實現自有的buffer系統,減少復制所帶來的消耗,3.整套channel的實現,4.基于事件的過程流轉以及完整的網絡事件響應與擴展,5.豐富的example。本文并不對Netty實際使用中可能出現的問題做分析,只是從...  閱讀全文
    posted @ 2010-09-25 12:10 BucketLI 閱讀(3514) | 評論 (1)編輯 收藏
    僅列出標題  
    主站蜘蛛池模板: 久久精品国产亚洲AV| 中文有码亚洲制服av片| 色婷婷综合缴情综免费观看| 成人毛片18岁女人毛片免费看| 亚洲精品综合久久中文字幕 | 久久亚洲美女精品国产精品| 国产一精品一AV一免费| 久久精品国产亚洲av四虎| 日本视频在线观看永久免费| 久久精品国产亚洲77777| 1000部羞羞禁止免费观看视频 | 国产成人精品免费视频大全五级| 风间由美在线亚洲一区| 高清在线亚洲精品国产二区| 一本一道dvd在线观看免费视频| 自拍偷自拍亚洲精品情侣| 国产在线精品免费aaa片| 亚洲视频国产视频| 成人毛片18女人毛片免费96| 国产亚洲人成在线播放| 在线亚洲人成电影网站色www| 久久国产免费一区| 亚洲中文无码永久免费| 亚洲国产精品成人久久蜜臀| 免费毛片a线观看| 亚洲一久久久久久久久| 亚洲国产中文字幕在线观看| 免费精品一区二区三区第35| 亚洲人成小说网站色| 亚洲一区二区三区国产精品| 性xxxx视频免费播放直播| 一区二区亚洲精品精华液| 久久久久亚洲精品天堂久久久久久| 国产成人AV片无码免费| 亚洲美国产亚洲AV| 亚洲av无码一区二区三区网站 | 亚洲成AV人片在线观看无| 国语成本人片免费av无码| 一级片在线免费看| 亚洲精品视频免费看| 亚洲 另类 无码 在线|