<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    Jack Jiang

    我的最新工程MobileIMSDK:http://git.oschina.net/jackjiang/MobileIMSDK
    posts - 494, comments - 13, trackbacks - 0, articles - 1

    1、引言

    相信看到這個(gè)標(biāo)題,很多人的第一反應(yīng)就是:對數(shù)據(jù)庫進(jìn)行分庫分表啊!但是實(shí)際上,數(shù)據(jù)庫層面的分庫分表到底是用來干什么的,其不同的作用如何應(yīng)對不同的場景,我覺得很多同學(xué)可能都沒搞清楚。

    本篇文章我們一起來學(xué)習(xí)一下,對于一個(gè)支撐日活百萬用戶的高并發(fā)系統(tǒng),數(shù)據(jù)庫架構(gòu)應(yīng)該如何設(shè)計(jì)呢?

    本文的討論和分享,將用一個(gè)創(chuàng)業(yè)公司的發(fā)展作為背景引入,方便大家理解。

    (本文同步發(fā)布于:http://www.52im.net/thread-2510-1-1.html

    2、相關(guān)文章

    高性能數(shù)據(jù)庫方面的文章:


    分布式架構(gòu)方面的入門文章:

    3、小型系統(tǒng)的典型數(shù)據(jù)庫單機(jī)架構(gòu)和明顯的瓶頸

    假如我們現(xiàn)在是一個(gè)小創(chuàng)業(yè)公司,注冊用戶就 20 萬,每天活躍用戶就 1 萬,每天單表數(shù)據(jù)量就 1000,然后高峰期每秒鐘并發(fā)請求最多就 10。

    天吶!就這種系統(tǒng),隨便找一個(gè)有幾年工作經(jīng)驗(yàn)的高級(jí)工程師,然后帶幾個(gè)年輕工程師,隨便干干都可以做出來。

    因?yàn)檫@樣的系統(tǒng),實(shí)際上主要就是在前期進(jìn)行快速的業(yè)務(wù)功能開發(fā),搞一個(gè)單塊系統(tǒng)部署在一臺(tái)服務(wù)器上,然后連接一個(gè)數(shù)據(jù)庫就可以了。

    接著大家就是不停地在一個(gè)工程里填充進(jìn)去各種業(yè)務(wù)代碼,盡快把公司的業(yè)務(wù)支撐起來。

    如下圖所示:

    結(jié)果呢,沒想到我們運(yùn)氣這么好,碰上個(gè)優(yōu)秀的 CEO 帶著我們走上了康莊大道!

    公司業(yè)務(wù)發(fā)展迅猛,過了幾個(gè)月,注冊用戶數(shù)達(dá)到了 2000 萬!每天活躍用戶數(shù) 100 萬!每天單表新增數(shù)據(jù)量達(dá)到 50 萬條!高峰期每秒請求量達(dá)到 1 萬!

    同時(shí)公司還順帶著融資了兩輪,估值達(dá)到了驚人的幾億美金!一只朝氣蓬勃的幼年獨(dú)角獸的節(jié)奏!

    好吧,現(xiàn)在大家感覺壓力已經(jīng)有點(diǎn)大了,為啥呢?因?yàn)槊刻靻伪硇略?50 萬條數(shù)據(jù),一個(gè)月就多 1500 萬條數(shù)據(jù),一年下來單表會(huì)達(dá)到上億條數(shù)據(jù)。

    經(jīng)過一段時(shí)間的運(yùn)行,現(xiàn)在咱們單表已經(jīng)兩三千萬條數(shù)據(jù)了,勉強(qiáng)還能支撐著。

    但是,眼見著系統(tǒng)訪問數(shù)據(jù)庫的性能怎么越來越差呢,單表數(shù)據(jù)量越來越大,拖垮了一些復(fù)雜查詢 SQL 的性能啊!

    然后高峰期請求現(xiàn)在是每秒 1 萬,咱們的系統(tǒng)在線上部署了 20 臺(tái)機(jī)器,平均每臺(tái)機(jī)器每秒支撐 500 請求,這個(gè)還能抗住,沒啥大問題。但是數(shù)據(jù)庫層面呢? 

    如果說此時(shí)你還是一臺(tái)數(shù)據(jù)庫服務(wù)器在支撐每秒上萬的請求,負(fù)責(zé)任的告訴你,每次高峰期會(huì)出現(xiàn)下述問題:

    1)你的數(shù)據(jù)庫服務(wù)器的磁盤 IO、網(wǎng)絡(luò)帶寬、CPU 負(fù)載、內(nèi)存消耗,都會(huì)達(dá)到非常高的情況,數(shù)據(jù)庫所在服務(wù)器的整體負(fù)載會(huì)非常重,甚至都快不堪重負(fù)了;

    2)高峰期時(shí),本來你單表數(shù)據(jù)量就很大,SQL 性能就不太好,這時(shí)加上你的數(shù)據(jù)庫服務(wù)器負(fù)載太高導(dǎo)致性能下降,就會(huì)發(fā)現(xiàn)你的 SQL 性能更差了;

    3)最明顯的一個(gè)感覺,就是你的系統(tǒng)在高峰期各個(gè)功能都運(yùn)行的很慢,用戶體驗(yàn)很差,點(diǎn)一個(gè)按鈕可能要幾十秒才出來結(jié)果;

    4)如果你運(yùn)氣不太好,數(shù)據(jù)庫服務(wù)器的配置不是特別的高的話,弄不好你還會(huì)經(jīng)歷數(shù)據(jù)庫宕機(jī)的情況,因?yàn)樨?fù)載太高對數(shù)據(jù)庫壓力太大了。

    4、多臺(tái)服務(wù)器分庫支撐高并發(fā)讀寫

    首先我們先考慮第一個(gè)問題,數(shù)據(jù)庫每秒上萬的并發(fā)請求應(yīng)該如何來支撐呢?

    要搞清楚這個(gè)問題,先得明白一般數(shù)據(jù)庫部署在什么配置的服務(wù)器上。通常來說,假如你用普通配置的服務(wù)器來部署數(shù)據(jù)庫,那也起碼是 16 核 32G 的機(jī)器配置。

    這種非常普通的機(jī)器配置部署的數(shù)據(jù)庫,一般線上的經(jīng)驗(yàn)是:不要讓其每秒請求支撐超過 2000,一般控制在 2000 左右。

    控制在這個(gè)程度,一般數(shù)據(jù)庫負(fù)載相對合理,不會(huì)帶來太大的壓力,沒有太大的宕機(jī)風(fēng)險(xiǎn)。

    所以首先第一步,就是在上萬并發(fā)請求的場景下,部署個(gè) 5 臺(tái)服務(wù)器,每臺(tái)服務(wù)器上都部署一個(gè)數(shù)據(jù)庫實(shí)例。

    然后每個(gè)數(shù)據(jù)庫實(shí)例里,都創(chuàng)建一個(gè)一樣的庫,比如說訂單庫。此時(shí)在 5 臺(tái)服務(wù)器上都有一個(gè)訂單庫,名字可以類似為:db_order_01、db_order_02 等等。

    然后每個(gè)訂單庫里,都有一個(gè)相同的表,比如說訂單庫里有訂單信息表,那么此時(shí) 5 個(gè)訂單庫里都有一個(gè)訂單信息表。

    比如:db_order_01 庫里就有一個(gè) tb_order_01 表,db_order_02 庫里就有一個(gè) tb_order_02 表。

    這就實(shí)現(xiàn)了一個(gè)基本的分庫分表的思路,原來的一臺(tái)數(shù)據(jù)庫服務(wù)器變成了 5 臺(tái)數(shù)據(jù)庫服務(wù)器,原來的一個(gè)庫變成了 5 個(gè)庫,原來的一張表變成了 5 個(gè)表。

    然后你在寫入數(shù)據(jù)的時(shí)候,需要借助數(shù)據(jù)庫中間件,比如 Sharding-JDBC,或者是 MyCAT,都可以。

    你可以根據(jù)比如訂單 ID 來 Hash 后按 5 取模,比如每天訂單表新增 50 萬數(shù)據(jù),此時(shí)其中 10 萬條數(shù)據(jù)會(huì)落入 db_order_01 庫的 tb_order_01 表,另外 10 萬條數(shù)據(jù)會(huì)落入 db_order_02 庫的 tb_order_02 表,以此類推。

    這樣就可以把數(shù)據(jù)均勻分散在 5 臺(tái)服務(wù)器上了,查詢的時(shí)候,也可以通過訂單ID 來 hash 取模,去對應(yīng)的服務(wù)器上的數(shù)據(jù)庫里,從對應(yīng)的表里查詢那條數(shù)據(jù)出來即可。

    依據(jù)這個(gè)思路畫出的圖如下所示,大家可以看看:

    做這一步有什么好處呢?第一個(gè)好處,原來比如訂單表就一張表,這個(gè)時(shí)候不就成了 5 張表了么,那么每個(gè)表的數(shù)據(jù)就變成 1/5 了。

    假設(shè)訂單表一年有 1 億條數(shù)據(jù),此時(shí) 5 張表里每張表一年就 2000 萬數(shù)據(jù)了。

    那么假設(shè)當(dāng)前訂單表里已經(jīng)有 2000 萬數(shù)據(jù)了,此時(shí)做了上述拆分,每個(gè)表里就只有 400 萬數(shù)據(jù)了。

    而且每天新增 50 萬數(shù)據(jù)的話,那么每個(gè)表才新增 10 萬數(shù)據(jù),這樣是不是初步緩解了單表數(shù)據(jù)量過大影響系統(tǒng)性能的問題?

    另外就是每秒 1 萬請求到 5 臺(tái)數(shù)據(jù)庫上,每臺(tái)數(shù)據(jù)庫就承載每秒 2000 的請求,是不是一下子把每臺(tái)數(shù)據(jù)庫服務(wù)器的并發(fā)請求降低到了安全范圍內(nèi)?

    這樣,降低了數(shù)據(jù)庫的高峰期負(fù)載,同時(shí)還保證了高峰期的性能。

    5、大量分表來保證海量數(shù)據(jù)下的查詢性能

    但是上述的數(shù)據(jù)庫架構(gòu)還有一個(gè)問題,那就是單表數(shù)據(jù)量還是過大,現(xiàn)在訂單表才分為了 5 張表,那么如果訂單一年有 1 億條,每個(gè)表就有 2000 萬條,這也還是太大了。

    所以還應(yīng)該繼續(xù)分表,大量分表。比如可以把訂單表一共拆分為 1024 張表,這樣 1 億數(shù)據(jù)量的話,分散到每個(gè)表里也就才 10 萬量級(jí)的數(shù)據(jù)量,然后這上千張表分散在 5 臺(tái)數(shù)據(jù)庫里就可以了。

    在寫入數(shù)據(jù)的時(shí)候,需要做兩次路由,先對訂單 ID Hash 后對數(shù)據(jù)庫的數(shù)量取模,可以路由到一臺(tái)數(shù)據(jù)庫上,然后再對那臺(tái)數(shù)據(jù)庫上的表數(shù)量取模,就可以路由到數(shù)據(jù)庫上的一個(gè)表里了。

    通過這個(gè)步驟,就可以讓每個(gè)表里的數(shù)據(jù)量非常小,每年 1 億數(shù)據(jù)增長,但是到每個(gè)表里才 10 萬條數(shù)據(jù)增長,這個(gè)系統(tǒng)運(yùn)行 10 年,每個(gè)表里可能才百萬級(jí)的數(shù)據(jù)量。

    這樣可以一次性為系統(tǒng)未來的運(yùn)行做好充足的準(zhǔn)備,看下面的圖,一起來感受一下:

    6、如何解決分布數(shù)據(jù)庫架構(gòu)中全局唯一ID的生成?

    6.1 概述

    在分庫分表之后你必然要面對的一個(gè)問題,就是 ID 咋生成?因?yàn)橐且粋€(gè)表分成多個(gè)表之后,每個(gè)表的 ID 都是從 1 開始累加自增長,那肯定不對啊。

    舉個(gè)例子,你的訂單表拆分為了 1024 張訂單表,每個(gè)表的 ID 都從 1 開始累加,這個(gè)肯定有問題了!

    你的系統(tǒng)就沒辦法根據(jù)表主鍵來查詢訂單了,比如 ID = 50 這個(gè)訂單,在每個(gè)表里都有!

    所以此時(shí)就需要分布式架構(gòu)下的全局唯一 ID 生成的方案了,在分庫分表之后,對于插入數(shù)據(jù)庫中的核心 ID,不能直接簡單使用表自增 ID,要全局生成唯一 ID,然后插入各個(gè)表中,保證每個(gè)表內(nèi)的某個(gè) ID,全局唯一。

    比如說訂單表雖然拆分為了 1024 張表,但是 ID = 50 這個(gè)訂單,只會(huì)存在于一個(gè)表里。

    那么如何實(shí)現(xiàn)全局唯一 ID 呢?有以下幾種方案,我們一一一來看看。

    6.2 方案一:獨(dú)立數(shù)據(jù)庫自增 ID

    這個(gè)方案就是說你的系統(tǒng)每次要生成一個(gè) ID,都是往一個(gè)獨(dú)立庫的一個(gè)獨(dú)立表里插入一條沒什么業(yè)務(wù)含義的數(shù)據(jù),然后獲取一個(gè)數(shù)據(jù)庫自增的一個(gè) ID。拿到這個(gè) ID 之后再往對應(yīng)的分庫分表里去寫入。

    比如說你有一個(gè) auto_id 庫,里面就一個(gè)表,叫做 auto_id 表,有一個(gè) ID 是自增長的。

    那么你每次要獲取一個(gè)全局唯一 ID,直接往這個(gè)表里插入一條記錄,獲取一個(gè)全局唯一 ID即可,然后這個(gè)全局唯一 ID 就可以插入訂單的分庫分表中。

    這個(gè)方案的好處就是方便簡單,誰都會(huì)用。缺點(diǎn)就是單庫生成自增 ID,要是高并發(fā)的話,就會(huì)有瓶頸的,因?yàn)?auto_id 庫要是承載個(gè)每秒幾萬并發(fā),肯定是不現(xiàn)實(shí)的了。

    6.3 方案二:UUID

    這個(gè)每個(gè)人都應(yīng)該知道吧,就是用 UUID 生成一個(gè)全局唯一的 ID。

    好處就是每個(gè)系統(tǒng)本地生成,不要基于數(shù)據(jù)庫來了。不好之處就是,UUID 太長了,作為主鍵性能太差了,不適合用于主鍵。

    如果你是要隨機(jī)生成個(gè)什么文件名了,編號(hào)之類的,你可以用 UUID,但是作為主鍵是不能用 UUID 的。

    6.4 方案三:獲取系統(tǒng)當(dāng)前時(shí)間

    這個(gè)方案的意思就是獲取當(dāng)前時(shí)間作為全局唯一的 ID。但是問題是,并發(fā)很高的時(shí)候,比如一秒并發(fā)幾千,會(huì)有重復(fù)的情況,這個(gè)肯定是不合適的。

    一般如果用這個(gè)方案,是將當(dāng)前時(shí)間跟很多其他的業(yè)務(wù)字段拼接起來,作為一個(gè) ID,如果業(yè)務(wù)上你覺得可以接受,那么也是可以的。

    你可以將別的業(yè)務(wù)字段值跟當(dāng)前時(shí)間拼接起來,組成一個(gè)全局唯一的編號(hào),比如說訂單編號(hào):時(shí)間戳 + 用戶 ID + 業(yè)務(wù)含義編碼。

    6.5 方案四:SnowFlake 算法的思想分析

    SnowFlake 算法,是 Twitter 開源的分布式 ID 生成算法。其核心思想就是:使用一個(gè) 64 bit 的 long 型的數(shù)字作為全局唯一 ID。

    這 64 個(gè) bit 中,其中 1 個(gè) bit 是不用的,然后用其中的 41 bit 作為毫秒數(shù),用 10 bit 作為工作機(jī)器 ID,12 bit 作為序列號(hào)。

    給大家舉個(gè)例子吧,如上圖所示,比如下面那個(gè) 64 bit 的 long 型數(shù)字:

    1)第一個(gè)部分,是 1 個(gè) bit:0,這個(gè)是無意義的;

    2)第二個(gè)部分,是 41 個(gè) bit:表示的是時(shí)間戳;

    3)第三個(gè)部分,是 5 個(gè) bit:表示的是機(jī)房 ID,10001;

    4)第四個(gè)部分,是 5 個(gè) bit:表示的是機(jī)器 ID,1 1001;

    5)第五個(gè)部分,是 12 個(gè) bit:表示的序號(hào),就是某個(gè)機(jī)房某臺(tái)機(jī)器上這一毫秒內(nèi)同時(shí)生成的 ID 的序號(hào),0000 00000000。

    ① 1 bit:是不用的,為啥呢?

    因?yàn)槎M(jìn)制里第一個(gè) bit 為如果是 1,那么都是負(fù)數(shù),但是我們生成的 ID 都是正數(shù),所以第一個(gè) bit 統(tǒng)一都是 0。

    ② 41 bit:表示的是時(shí)間戳,單位是毫秒。

    41 bit 可以表示的數(shù)字多達(dá) 2^41 - 1,也就是可以標(biāo)識(shí) 2 ^ 41 - 1 個(gè)毫秒值,換算成年就是表示 69 年的時(shí)間。

    ③ 10 bit:記錄工作機(jī)器 ID,代表的是這個(gè)服務(wù)最多可以部署在 2^10 臺(tái)機(jī)器上,也就是 1024 臺(tái)機(jī)器。

    但是 10 bit 里 5 個(gè) bit 代表機(jī)房 id,5 個(gè) bit 代表機(jī)器 ID。意思就是最多代表 2 ^ 5 個(gè)機(jī)房(32 個(gè)機(jī)房),每個(gè)機(jī)房里可以代表 2 ^ 5 個(gè)機(jī)器(32 臺(tái)機(jī)器)。

    ④12 bit:這個(gè)是用來記錄同一個(gè)毫秒內(nèi)產(chǎn)生的不同 ID。

    12 bit 可以代表的最大正整數(shù)是 2 ^ 12 - 1 = 4096,也就是說可以用這個(gè) 12 bit 代表的數(shù)字來區(qū)分同一個(gè)毫秒內(nèi)的 4096 個(gè)不同的 ID。

    簡單來說,你的某個(gè)服務(wù)假設(shè)要生成一個(gè)全局唯一 ID,那么就可以發(fā)送一個(gè)請求給部署了 SnowFlake 算法的系統(tǒng),由這個(gè) SnowFlake 算法系統(tǒng)來生成唯一 ID。

    這個(gè) SnowFlake 算法系統(tǒng)首先肯定是知道自己所在的機(jī)房和機(jī)器的,比如機(jī)房 ID = 17,機(jī)器 ID = 12。

    接著 SnowFlake 算法系統(tǒng)接收到這個(gè)請求之后,首先就會(huì)用二進(jìn)制位運(yùn)算的方式生成一個(gè) 64 bit 的 long 型 ID,64 個(gè) bit 中的第一個(gè) bit 是無意義的。

    接著 41 個(gè) bit,就可以用當(dāng)前時(shí)間戳(單位到毫秒),然后接著 5 個(gè) bit 設(shè)置上這個(gè)機(jī)房 id,還有 5 個(gè) bit 設(shè)置上機(jī)器 ID。

    最后再判斷一下,當(dāng)前這臺(tái)機(jī)房的這臺(tái)機(jī)器上這一毫秒內(nèi),這是第幾個(gè)請求,給這次生成 ID 的請求累加一個(gè)序號(hào),作為最后的 12 個(gè) bit。

    最終一個(gè) 64 個(gè) bit 的 ID 就出來了,類似于:

    這個(gè)算法可以保證說,一個(gè)機(jī)房的一臺(tái)機(jī)器上,在同一毫秒內(nèi),生成了一個(gè)唯一的 ID。可能一個(gè)毫秒內(nèi)會(huì)生成多個(gè) ID,但是有最后 12 個(gè) bit 的序號(hào)來區(qū)分開來。

    下面我們簡單看看這個(gè) SnowFlake 算法的一個(gè)代碼實(shí)現(xiàn),這就是個(gè)示例,大家如果理解了這個(gè)意思之后,以后可以自己嘗試改造這個(gè)算法。

    總之就是用一個(gè) 64 bit 的數(shù)字中各個(gè) bit 位來設(shè)置不同的標(biāo)志位,區(qū)分每一個(gè) ID。

    SnowFlake 算法的實(shí)現(xiàn)代碼如下:

    public class IdWorker {

      private long workerId; // 這個(gè)就是代表了機(jī)器id

      private long datacenterId; // 這個(gè)就是代表了機(jī)房id

      private long sequence; // 這個(gè)就是代表了一毫秒內(nèi)生成的多個(gè)id的最新序號(hào)

      public IdWorker(long workerId, long datacenterId, long sequence) {

        // sanity check for workerId

        // 這兒不就檢查了一下,要求就是你傳遞進(jìn)來的機(jī)房id和機(jī)器id不能超過32,不能小于0

        if(workerId > maxWorkerId || workerId < 0) {

          thrownewIllegalArgumentException(

            String.format("worker Id can't be greater than %d or less than 0",maxWorkerId));

        }

        if(datacenterId > maxDatacenterId || datacenterId < 0) {


          throw new IllegalArgumentException(

            String.format("datacenter Id can't be greater than %d or less than 0",maxDatacenterId));

        }

        this.workerId = workerId;

        this.datacenterId = datacenterId;

        this.sequence = sequence;

      }

      private long twepoch = 1288834974657L;

      private long workerIdBits = 5L;

      private long datacenterIdBits = 5L;


      // 這個(gè)是二進(jìn)制運(yùn)算,就是5 bit最多只能有31個(gè)數(shù)字,也就是說機(jī)器id最多只能是32以內(nèi)

      private long maxWorkerId = -1L ^ (-1L << workerIdBits);

      // 這個(gè)是一個(gè)意思,就是5 bit最多只能有31個(gè)數(shù)字,機(jī)房id最多只能是32以內(nèi)

      private long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);

      private long sequenceBits = 12L;

      private long workerIdShift = sequenceBits;

      private long datacenterIdShift = sequenceBits + workerIdBits;

      private long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;

      private long sequenceMask = -1L ^ (-1L << sequenceBits);

      private long lastTimestamp = -1L;

      public long getWorkerId(){

        return workerId;

      }

      public long getDatacenterId() {

        return datacenterId;

      }

      public long getTimestamp() {

        return System.currentTimeMillis();

      }

      // 這個(gè)是核心方法,通過調(diào)用nextId()方法,讓當(dāng)前這臺(tái)機(jī)器上的snowflake算法程序生成一個(gè)全局唯一的id

      public synchronized long nextId() {

        // 這兒就是獲取當(dāng)前時(shí)間戳,單位是毫秒

        long timestamp = timeGen();

        if(timestamp < lastTimestamp) {

          System.err.printf(

            "clock is moving backwards. Rejecting requests until %d.", lastTimestamp);

          thrownewRuntimeException(

            String.format("Clock moved backwards. Refusing to generate id for %d milliseconds",

                   lastTimestamp - timestamp));

        }

        // 下面是說假設(shè)在同一個(gè)毫秒內(nèi),又發(fā)送了一個(gè)請求生成一個(gè)id

        // 這個(gè)時(shí)候就得把seqence序號(hào)給遞增1,最多就是4096

        if(lastTimestamp == timestamp) {

          // 這個(gè)意思是說一個(gè)毫秒內(nèi)最多只能有4096個(gè)數(shù)字,無論你傳遞多少進(jìn)來,

          //這個(gè)位運(yùn)算保證始終就是在4096這個(gè)范圍內(nèi),避免你自己傳遞個(gè)sequence超過了4096這個(gè)范圍

          sequence = (sequence + 1) & sequenceMask;

          if(sequence == 0) {

            timestamp = tilNextMillis(lastTimestamp);

          }

        } else{

          sequence = 0;

        }

        // 這兒記錄一下最近一次生成id的時(shí)間戳,單位是毫秒

        lastTimestamp = timestamp;

        // 這兒就是最核心的二進(jìn)制位運(yùn)算操作,生成一個(gè)64bit的id

        // 先將當(dāng)前時(shí)間戳左移,放到41 bit那兒;將機(jī)房id左移放到5 bit那兒;將機(jī)器id左移放到5 bit那兒;將序號(hào)放最后12 bit

        // 最后拼接起來成一個(gè)64 bit的二進(jìn)制數(shù)字,轉(zhuǎn)換成10進(jìn)制就是個(gè)long型

        return((timestamp - twepoch) << timestampLeftShift) |

            (datacenterId << datacenterIdShift) |

            (workerId << workerIdShift) | sequence;

      }

      private long tilNextMillis(long lastTimestamp) {

        long timestamp = timeGen();

        while(timestamp <= lastTimestamp) {

          timestamp = timeGen();

        }

        returntimestamp;

      }

      private long timeGen(){

        returnSystem.currentTimeMillis();

      }

      //---------------測試---------------

      public static void main(String[] args) {

        IdWorker worker = newIdWorker(1,1,1);

        for(int i = 0; i < 30; i++) {

          System.out.println(worker.nextId());

        }

      }

    }

    SnowFlake 算法一個(gè)小小的改進(jìn)思路:其實(shí)在實(shí)際的開發(fā)中,這個(gè)SnowFlake算法可以做一點(diǎn)點(diǎn)改進(jìn)。

    因?yàn)榇蠹铱梢钥紤]一下,我們在生成唯一 ID 的時(shí)候,一般都需要指定一個(gè)表名,比如說訂單表的唯一 ID。

    所以上面那 64 個(gè) bit 中,代表機(jī)房的那 5 個(gè) bit,可以使用業(yè)務(wù)表名稱來替代,比如用 00001 代表的是訂單表。

    因?yàn)槠鋵?shí)很多時(shí)候,機(jī)房并沒有那么多,所以那 5 個(gè) bit 用做機(jī)房 ID 可能意義不是太大。

    這樣就可以做到:SnowFlake 算法系統(tǒng)的每一臺(tái)機(jī)器,對一個(gè)業(yè)務(wù)表,在某一毫秒內(nèi),可以生成一個(gè)唯一的 ID,一毫秒內(nèi)生成很多 ID,用最后 12 個(gè) bit 來區(qū)分序號(hào)對待。

    7、讀寫分離來支撐按需擴(kuò)容以及性能提升

    這個(gè)時(shí)候整體效果已經(jīng)挺不錯(cuò)了,大量分表的策略保證可能未來 10 年,每個(gè)表的數(shù)據(jù)量都不會(huì)太大,這可以保證單表內(nèi)的 SQL 執(zhí)行效率和性能。

    然后多臺(tái)數(shù)據(jù)庫的拆分方式,可以保證每臺(tái)數(shù)據(jù)庫服務(wù)器承載一部分的讀寫請求,降低每臺(tái)服務(wù)器的負(fù)載。

    但是此時(shí)還有一個(gè)問題,假如說每臺(tái)數(shù)據(jù)庫服務(wù)器承載每秒 2000 的請求,然后其中 400 請求是寫入,1600 請求是查詢。

    也就是說,增刪改的 SQL 才占到了 20% 的比例,80% 的請求是查詢。此時(shí)假如說隨著用戶量越來越大,又變成每臺(tái)服務(wù)器承載 4000 請求了。

    那么其中 800 請求是寫入,3200 請求是查詢,如果說你按照目前的情況來擴(kuò)容,就需要增加一臺(tái)數(shù)據(jù)庫服務(wù)器。

    但是此時(shí)可能就會(huì)涉及到表的遷移,因?yàn)樾枰w移一部分表到新的數(shù)據(jù)庫服務(wù)器上去,是不是很麻煩?

    其實(shí)完全沒必要,數(shù)據(jù)庫一般都支持讀寫分離,也就是做主從架構(gòu)。

    寫入的時(shí)候?qū)懭胫鲾?shù)據(jù)庫服務(wù)器,查詢的時(shí)候讀取從數(shù)據(jù)庫服務(wù)器,就可以讓一個(gè)表的讀寫請求分開落地到不同的數(shù)據(jù)庫上去執(zhí)行。

    這樣的話,假如寫入主庫的請求是每秒 400,查詢從庫的請求是每秒 1600。

    那么圖大概如下所示:

    寫入主庫的時(shí)候,會(huì)自動(dòng)同步數(shù)據(jù)到從庫上去,保證主庫和從庫數(shù)據(jù)一致。

    然后查詢的時(shí)候都是走從庫去查詢的,這就通過數(shù)據(jù)庫的主從架構(gòu)實(shí)現(xiàn)了讀寫分離的效果了。

    現(xiàn)在的好處就是,假如說現(xiàn)在主庫寫請求增加到 800,這個(gè)無所謂,不需要擴(kuò)容。然后從庫的讀請求增加到了 3200,需要擴(kuò)容了。

    這時(shí),你直接給主庫再掛載一個(gè)新的從庫就可以了,兩個(gè)從庫,每個(gè)從庫支撐 1600 的讀請求,不需要因?yàn)樽x請求增長來擴(kuò)容主庫。

    實(shí)際上線上生產(chǎn)你會(huì)發(fā)現(xiàn),讀請求的增長速度遠(yuǎn)遠(yuǎn)高于寫請求,所以讀寫分離之后,大部分時(shí)候就是擴(kuò)容從庫支撐更高的讀請求就可以了。

    而且另外一點(diǎn),對同一個(gè)表,如果你既寫入數(shù)據(jù)(涉及加鎖),還從該表查詢數(shù)據(jù),可能會(huì)牽扯到鎖沖突等問題,無論是寫性能還是讀性能,都會(huì)有影響。

    所以一旦讀寫分離之后,對主庫的表就僅僅是寫入,沒任何查詢會(huì)影響他,對從庫的表就僅僅是查詢。

    8、高并發(fā)下的數(shù)據(jù)庫架構(gòu)設(shè)計(jì)總結(jié)

    從大的一個(gè)簡化的角度來說,高并發(fā)的場景下,數(shù)據(jù)庫層面的架構(gòu)肯定是需要經(jīng)過精心的設(shè)計(jì)的。

    尤其是涉及到分庫來支撐高并發(fā)的請求,大量分表保證每個(gè)表的數(shù)據(jù)量別太大,讀寫分離實(shí)現(xiàn)主庫和從庫按需擴(kuò)容以及性能保證。

    這篇文章就是從一個(gè)大的角度來梳理了一下思路,各位同學(xué)可以結(jié)合自己公司的業(yè)務(wù)和項(xiàng)目來考慮自己的系統(tǒng)如何做分庫分表。

    另外就是,具體的分庫分表落地的時(shí)候,需要借助數(shù)據(jù)庫中間件來實(shí)現(xiàn)分庫分表和讀寫分離,大家可以自己參考 Sharding-JDBC,或者是 MyCAT 的官網(wǎng)即可,里面的文檔都有詳細(xì)的使用描述。

    附錄:更多架構(gòu)設(shè)計(jì)的文章

    淺談IM系統(tǒng)的架構(gòu)設(shè)計(jì)
    簡述移動(dòng)端IM開發(fā)的那些坑:架構(gòu)設(shè)計(jì)、通信協(xié)議和客戶端
    一套海量在線用戶的移動(dòng)端IM架構(gòu)設(shè)計(jì)實(shí)踐分享(含詳細(xì)圖文)
    一套原創(chuàng)分布式即時(shí)通訊(IM)系統(tǒng)理論架構(gòu)方案
    從零到卓越:京東客服即時(shí)通訊系統(tǒng)的技術(shù)架構(gòu)演進(jìn)歷程
    蘑菇街即時(shí)通訊/IM服務(wù)器開發(fā)之架構(gòu)選擇
    騰訊QQ1.4億在線用戶的技術(shù)挑戰(zhàn)和架構(gòu)演進(jìn)之路PPT
    微信后臺(tái)基于時(shí)間序的海量數(shù)據(jù)冷熱分級(jí)架構(gòu)設(shè)計(jì)實(shí)踐
    微信技術(shù)總監(jiān)談架構(gòu):微信之道——大道至簡(演講全文)
    如何解讀《微信技術(shù)總監(jiān)談架構(gòu):微信之道——大道至簡》
    快速裂變:見證微信強(qiáng)大后臺(tái)架構(gòu)從0到1的演進(jìn)歷程(一)
    17年的實(shí)踐:騰訊海量產(chǎn)品的技術(shù)方法論
    移動(dòng)端IM中大規(guī)模群消息的推送如何保證效率、實(shí)時(shí)性?
    現(xiàn)代IM系統(tǒng)中聊天消息的同步和存儲(chǔ)方案探討
    IM開發(fā)基礎(chǔ)知識(shí)補(bǔ)課(二):如何設(shè)計(jì)大量圖片文件的服務(wù)端存儲(chǔ)架構(gòu)?
    IM開發(fā)基礎(chǔ)知識(shí)補(bǔ)課(三):快速理解服務(wù)端數(shù)據(jù)庫讀寫分離原理及實(shí)踐建議
    IM開發(fā)基礎(chǔ)知識(shí)補(bǔ)課(四):正確理解HTTP短連接中的Cookie、Session和Token
    WhatsApp技術(shù)實(shí)踐分享:32人工程團(tuán)隊(duì)創(chuàng)造的技術(shù)神話
    微信朋友圈千億訪問量背后的技術(shù)挑戰(zhàn)和實(shí)踐總結(jié)
    王者榮耀2億用戶量的背后:產(chǎn)品定位、技術(shù)架構(gòu)、網(wǎng)絡(luò)方案等
    IM系統(tǒng)的MQ消息中間件選型:Kafka還是RabbitMQ?
    騰訊資深架構(gòu)師干貨總結(jié):一文讀懂大型分布式系統(tǒng)設(shè)計(jì)的方方面面
    以微博類應(yīng)用場景為例,總結(jié)海量社交系統(tǒng)的架構(gòu)設(shè)計(jì)步驟
    快速理解高性能HTTP服務(wù)端的負(fù)載均衡技術(shù)原理
    子彈短信光鮮的背后:網(wǎng)易云信首席架構(gòu)師分享億級(jí)IM平臺(tái)的技術(shù)實(shí)踐
    知乎技術(shù)分享:從單機(jī)到2000萬QPS并發(fā)的Redis高性能緩存實(shí)踐之路
    IM開發(fā)基礎(chǔ)知識(shí)補(bǔ)課(五):通俗易懂,正確理解并用好MQ消息隊(duì)列
    微信技術(shù)分享:微信的海量IM聊天消息序列號(hào)生成實(shí)踐(算法原理篇)
    微信技術(shù)分享:微信的海量IM聊天消息序列號(hào)生成實(shí)踐(容災(zāi)方案篇)
    新手入門:零基礎(chǔ)理解大型分布式架構(gòu)的演進(jìn)歷史、技術(shù)原理、最佳實(shí)踐
    一套高可用、易伸縮、高并發(fā)的IM群聊、單聊架構(gòu)方案設(shè)計(jì)實(shí)踐
    阿里技術(shù)分享:深度揭秘阿里數(shù)據(jù)庫技術(shù)方案的10年變遷史
    阿里技術(shù)分享:阿里自研金融級(jí)數(shù)據(jù)庫OceanBase的艱辛成長之路
    >> 更多同類文章 ……

    (本文同步發(fā)布于:http://www.52im.net/thread-2510-1-1.html



    作者:Jack Jiang (點(diǎn)擊作者姓名進(jìn)入Github)
    出處:http://www.52im.net/space-uid-1.html
    交流:歡迎加入即時(shí)通訊開發(fā)交流群 215891622
    討論:http://www.52im.net/
    Jack Jiang同時(shí)是【原創(chuàng)Java Swing外觀工程BeautyEye】【輕量級(jí)移動(dòng)端即時(shí)通訊框架MobileIMSDK】的作者,可前往下載交流。
    本博文 歡迎轉(zhuǎn)載,轉(zhuǎn)載請注明出處(也可前往 我的52im.net 找到我)。


    只有注冊用戶登錄后才能發(fā)表評論。


    網(wǎng)站導(dǎo)航:
     
    Jack Jiang的 Mail: jb2011@163.com, 聯(lián)系QQ: 413980957, 微信: hellojackjiang
    主站蜘蛛池模板: a级特黄毛片免费观看| 亚洲视频在线观看免费视频| 日韩插啊免费视频在线观看| 女人18特级一级毛片免费视频| 国产成人精品日本亚洲专区| 亚洲福利视频一区二区三区| 免费无码午夜福利片 | 国产成人午夜精品免费视频| 亚洲av无码成人精品区在线播放 | 亚洲av再在线观看| 亚洲视频在线观看| 337p日本欧洲亚洲大胆人人| 国产亚洲成人久久| 亚洲成av人片在线看片| 一本久久免费视频| 在线看免费观看AV深夜影院| 搡女人真爽免费视频大全| 国产亚洲情侣一区二区无| 日本亚洲免费无线码| 黄色免费在线网站| 国产在线观看免费视频播放器| 亚洲精品无码激情AV| 亚洲一区二区三区免费在线观看| 人妻仑乱A级毛片免费看| 很黄很色很刺激的视频免费| 亚洲精品无码高潮喷水在线| 亚洲国产精品无码中文lv| 久久精品私人影院免费看| 免费成人黄色大片| 亚洲jizzjizz在线播放久| 久久精品成人免费看| 亚洲国产精品成人久久蜜臀| 亚洲 欧洲 日韩 综合在线| 日本视频免费高清一本18| 亚洲天堂免费在线视频| 亚洲日韩av无码中文| 无码国产精品一区二区免费| 亚洲欧洲日产国码无码网站| 亚洲国产成人精品久久| 久久国产精品国产自线拍免费| 亚洲视频在线免费|