<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    上善若水
    In general the OO style is to use a lot of little objects with a lot of little methods that give us a lot of plug points for overriding and variation. To do is to be -Nietzsche, To bei is to do -Kant, Do be do be do -Sinatra
    posts - 146,comments - 147,trackbacks - 0
    轉自:http://blog.csdn.net/chen77716/article/details/6618779

       目前在Java中存在兩種鎖機制:synchronized和Lock,Lock接口及其實現類是JDK5增加的內容,其作者是大名鼎鼎的并發專家Doug Lea。本文并不比較synchronized與Lock孰優孰劣,只是介紹二者的實現原理。

       數據同步需要依賴鎖,那鎖的同步又依賴誰?synchronized給出的答案是在軟件層面依賴JVM,而Lock給出的方案是在硬件層面依賴特殊的CPU指令,大家可能會進一步追問:JVM底層又是如何實現synchronized的?

       本文所指說的JVM是指Hotspot的6u23版本,下面首先介紹synchronized的實現:

       synrhronized關鍵字簡潔、清晰、語義明確,因此即使有了Lock接口,使用的還是非常廣泛。其應用層的語義是可以把任何一個非null對象作為"鎖",當synchronized作用在方法上時,鎖住的便是對象實例(this);當作用在靜態方法時鎖住的便是對象對應的Class實例,因為Class數據存在于永久帶,因此靜態方法鎖相當于該類的一個全局鎖;當synchronized作用于某一個對象實例時,鎖住的便是對應的代碼塊。在HotSpot JVM實現中,鎖有個專門的名字:對象監視器。

      1. 線程狀態及狀態轉換

        當多個線程同時請求某個對象監視器時,對象監視器會設置幾種狀態用來區分請求的線程:

    • Contention List:所有請求鎖的線程將被首先放置到該競爭隊列
    • Entry List:Contention List中那些有資格成為候選人的線程被移到Entry List
    • Wait Set:那些調用wait方法被阻塞的線程被放置到Wait Set
    • OnDeck:任何時刻最多只能有一個線程正在競爭鎖,該線程稱為OnDeck
    • Owner:獲得鎖的線程稱為Owner
    • !Owner:釋放鎖的線程
    下圖反映了個狀態轉換關系:
    新請求鎖的線程將首先被加入到ConetentionList中,當某個擁有鎖的線程(Owner狀態)調用unlock之后,如果發現EntryList為空則從ContentionList中移動線程到EntryList,下面說明下ContentionList和EntryList的實現方式:

    1.1 ContentionList虛擬隊列

    ContentionList并不是一個真正的Queue,而只是一個虛擬隊列,原因在于ContentionList是由Node及其next指針邏輯構成,并不存在一個Queue的數據結構。ContentionList是一個后進先出(LIFO)的隊列,每次新加入Node時都會在隊頭進行,通過CAS改變第一個節點的的指針為新增節點,同時設置新增節點的next指向后續節點,而取得操作則發生在隊尾。顯然,該結構其實是個Lock-Free的隊列。

    因為只有Owner線程才能從隊尾取元素,也即線程出列操作無爭用,當然也就避免了CAS的ABA問題。

    1.2 EntryList

    EntryList與ContentionList邏輯上同屬等待隊列,ContentionList會被線程并發訪問,為了降低對ContentionList隊尾的爭用,而建立EntryList。Owner線程在unlock時會從ContentionList中遷移線程到EntryList,并會指定EntryList中的某個線程(一般為Head)為Ready(OnDeck)線程。Owner線程并不是把鎖傳遞給OnDeck線程,只是把競爭鎖的權利交給OnDeck,OnDeck線程需要重新競爭鎖。這樣做雖然犧牲了一定的公平性,但極大的提高了整體吞吐量,在Hotspot中把OnDeck的選擇行為稱之為“競爭切換”。
     
    OnDeck線程獲得鎖后即變為owner線程,無法獲得鎖則會依然留在EntryList中,考慮到公平性,在EntryList中的位置不發生變化(依然在隊頭)。如果Owner線程被wait方法阻塞,則轉移到WaitSet隊列;如果在某個時刻被notify/notifyAll喚醒,則再次轉移到EntryList。

    2. 自旋鎖

    那些處于ContetionList、EntryList、WaitSet中的線程均處于阻塞狀態,阻塞操作由操作系統完成(在Linxu下通過pthread_mutex_lock函數)。線程被阻塞后便進入內核(Linux)調度狀態,這個會導致系統在用戶態與內核態之間來回切換,嚴重影響鎖的性能
    緩解上述問題的辦法便是自旋,其原理是:當發生爭用時,若Owner線程能在很短的時間內釋放鎖,則那些正在爭用線程可以稍微等一等(自旋),在Owner線程釋放鎖后,爭用線程可能會立即得到鎖,從而避免了系統阻塞。但Owner運行的時間可能會超出了臨界值,爭用線程自旋一段時間后還是無法獲得鎖,這時爭用線程則會停止自旋進入阻塞狀態(后退)。基本思路就是自旋,不成功再阻塞,盡量降低阻塞的可能性,這對那些執行時間很短的代碼塊來說有非常重要的性能提高。自旋鎖有個更貼切的名字:自旋-指數后退鎖,也即復合鎖。很顯然,自旋在多處理器上才有意義。
    還有個問題是,線程自旋時做些啥?其實啥都不做,可以執行幾次for循環,可以執行幾條空的匯編指令,目的是占著CPU不放,等待獲取鎖的機會。所以說,自旋是把雙刃劍,如果旋的時間過長會影響整體性能,時間過短又達不到延遲阻塞的目的。顯然,自旋的周期選擇顯得非常重要,但這與操作系統、硬件體系、系統的負載等諸多場景相關,很難選擇,如果選擇不當,不但性能得不到提高,可能還會下降,因此大家普遍認為自旋鎖不具有擴展性。
     
    對自旋鎖周期的選擇上,HotSpot認為最佳時間應是一個線程上下文切換的時間,但目前并沒有做到。經過調查,目前只是通過匯編暫停了幾個CPU周期,除了自旋周期選擇,HotSpot還進行許多其他的自旋優化策略,具體如下:
    • 如果平均負載小于CPUs則一直自旋
    • 如果有超過(CPUs/2)個線程正在自旋,則后來線程直接阻塞
    • 如果正在自旋的線程發現Owner發生了變化則延遲自旋時間(自旋計數)或進入阻塞
    • 如果CPU處于節電模式則停止自旋
    • 自旋時間的最壞情況是CPU的存儲延遲(CPU A存儲了一個數據,到CPU B得知這個數據直接的時間差)
    • 自旋時會適當放棄線程優先級之間的差異
    那synchronized實現何時使用了自旋鎖?答案是在線程進入ContentionList時,也即第一步操作前。線程在進入等待隊列時首先進行自旋嘗試獲得鎖,如果不成功再進入等待隊列。這對那些已經在等待隊列中的線程來說,稍微顯得不公平。還有一個不公平的地方是自旋線程可能會搶占了Ready線程的鎖。自旋鎖由每個監視對象維護,每個監視對象一個。

    3. 偏向鎖

    在JVM1.6中引入了偏向鎖,偏向鎖主要解決無競爭下的鎖性能問題,首先我們看下無競爭下鎖存在什么問題:
    現在幾乎所有的鎖都是可重入的,也即已經獲得鎖的線程可以多次鎖住/解鎖監視對象,按照之前的HotSpot設計,每次加鎖/解鎖都會涉及到一些CAS操作(比如對等待隊列的CAS操作),CAS操作會延遲本地調用,因此偏向鎖的想法是一旦線程第一次獲得了監視對象,之后讓監視對象“偏向”這個線程,之后的多次調用則可以避免CAS操作,說白了就是置個變量,如果發現為true則無需再走各種加鎖/解鎖流程。但還有很多概念需要解釋、很多引入的問題需要解決:

    3.1 CAS及SMP架構

    CAS為什么會引入本地延遲?這要從SMP(對稱多處理器)架構說起,下圖大概表明了SMP的結構:
    其意思是所有的CPU會共享一條系統總線(BUS),靠此總線連接主存。每個核都有自己的一級緩存,各核相對于BUS對稱分布,因此這種結構稱為“對稱多處理器”。
     
    而CAS的全稱為Compare-And-Swap,是一條CPU的原子指令,其作用是讓CPU比較后原子地更新某個位置的值,經過調查發現,其實現方式是基于硬件平臺的匯編指令,就是說CAS是靠硬件實現的,JVM只是封裝了匯編調用,那些AtomicInteger類便是使用了這些封裝后的接口。
     
    Core1和Core2可能會同時把主存中某個位置的值Load到自己的L1 Cache中,當Core1在自己的L1 Cache中修改這個位置的值時,會通過總線,使Core2中L1 Cache對應的值“失效”,而Core2一旦發現自己L1 Cache中的值失效(稱為Cache命中缺失)則會通過總線從內存中加載該地址最新的值,大家通過總線的來回通信稱為“Cache一致性流量”,因為總線被設計為固定的“通信能力”,如果Cache一致性流量過大,總線將成為瓶頸。而當Core1和Core2中的值再次一致時,稱為“Cache一致性”,從這個層面來說,鎖設計的終極目標便是減少Cache一致性流量。
     
    而CAS恰好會導致Cache一致性流量,如果有很多線程都共享同一個對象,當某個Core CAS成功時必然會引起總線風暴,這就是所謂的本地延遲,本質上偏向鎖就是為了消除CAS,降低Cache一致性流量。
     
    Cache一致性:
    上面提到Cache一致性,其實是有協議支持的,現在通用的協議是MESI(最早由Intel開始支持),具體參考:http://en.wikipedia.org/wiki/MESI_protocol,以后會仔細講解這部分。
    Cache一致性流量的例外情況:
    其實也不是所有的CAS都會導致總線風暴,這跟Cache一致性協議有關,具體參考:http://blogs.oracle.com/dave/entry/biased_locking_in_hotspot
    NUMA(Non Uniform Memory Access Achitecture)架構:
    與SMP對應還有非對稱多處理器架構,現在主要應用在一些高端處理器上,主要特點是沒有總線,沒有公用主存,每個Core有自己的內存,針對這種結構此處不做討論。

    3.2 偏向解除

    偏向鎖引入的一個重要問題是,在多爭用的場景下,如果另外一個線程爭用偏向對象,擁有者需要釋放偏向鎖,而釋放的過程會帶來一些性能開銷,但總體說來偏向鎖帶來的好處還是大于CAS代價的。

    4. 總結

    關于鎖,JVM中還引入了一些其他技術比如鎖膨脹等,這些與自旋鎖、偏向鎖相比影響不是很大,這里就不做介紹。
    通過上面的介紹可以看出,synchronized的底層實現主要依靠Lock-Free的隊列,基本思路是自旋后阻塞,競爭切換后繼續競爭鎖,稍微犧牲了公平性,但獲得了高吞吐量。下面會繼續介紹JVM鎖中的Lock(深入JVM鎖2-Lock)。
    posted on 2014-07-22 21:38 DLevin 閱讀(495) 評論(0)  編輯  收藏 所屬分類: MultiThreading
    主站蜘蛛池模板: 久久久久久av无码免费看大片| 免费中文熟妇在线影片 | 亚洲国产精品无码久久九九| 亚洲欧洲国产综合AV无码久久| 最近免费中文字幕大全| 国产亚洲精品VA片在线播放| 无码少妇一区二区浪潮免费| 亚洲人成在久久综合网站| 我的小后妈韩剧在线看免费高清版| 亚洲大尺码专区影院| 久久国内免费视频| 中文字幕在线日亚洲9| 免费无码看av的网站| 欧美激情综合亚洲一二区| 免费大香伊蕉在人线国产| 免费国产黄网站在线看| 亚洲中文字幕无码专区| 中文字幕乱理片免费完整的| 亚洲国产精品一区二区第一页 | 蜜芽亚洲av无码精品色午夜| 99re6在线视频精品免费下载| 亚洲码在线中文在线观看| 在线看片无码永久免费视频| 亚洲精品美女久久久久久久| 哒哒哒免费视频观看在线www| 一级女性全黄久久生活片免费| 337p日本欧洲亚洲大胆裸体艺术| 免费看男人j放进女人j免费看| 久久亚洲精精品中文字幕| 2020久久精品国产免费| 亚洲精品国产第一综合99久久| 国产又黄又爽又猛的免费视频播放| 男女交性无遮挡免费视频| 亚洲情综合五月天| 99久久精品国产免费| 亚洲中文字幕日本无线码| 国产成人高清精品免费软件| eeuss在线兵区免费观看| 亚洲成在人天堂在线| 欧亚精品一区三区免费| 真人无码作爱免费视频|