<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    隨筆-13  評論-22  文章-0  trackbacks-0

    Java LinkedHashMapHashMap有什么區別和聯系?為什么LinkedHashMap會有著更快的迭代速度?LinkedHashSetLinkedHashMap有著怎樣的內在聯系?本文從數據結構和算法層面,結合生動圖解為讀者一一解答。

    本文github地址

    總體介紹

    如果你已看過前面關于HashSetHashMap,以及TreeSetTreeMap的講解,一定能夠想到本文將要講解的LinkedHashSetLinkedHashMap其實也是一回事。LinkedHashSetLinkedHashMap在Java里也有著相同的實現,前者僅僅是對后者做了一層包裝,也就是說LinkedHashSet里面有一個LinkedHashMap(適配器模式)。因此本文將重點分析LinkedHashMap

    LinkedHashMap實現了Map接口,即允許放入keynull的元素,也允許插入valuenull的元素。從名字上可以看出該容器是linked listHashMap的混合體,也就是說它同時滿足HashMaplinked list的某些特性。可將LinkedHashMap看作采用linked list增強的HashMap

    LinkedHashMap_base.png

    事實上LinkedHashMapHashMap的直接子類,二者唯一的區別是LinkedHashMapHashMap的基礎上,采用雙向鏈表(doubly-linked list)的形式將所有entry連接起來,這樣是為保證元素的迭代順序跟插入順序相同。上圖給出了LinkedHashMap的結構圖,主體部分跟HashMap完全一樣,多了header指向雙向鏈表的頭部(是一個啞元),該雙向鏈表的迭代順序就是entry的插入順序

    除了可以保迭代歷順序,這種結構還有一個好處:迭代LinkedHashMap時不需要像HashMap那樣遍歷整個table,而只需要直接遍歷header指向的雙向鏈表即可,也就是說LinkedHashMap的迭代時間就只跟entry的個數相關,而跟table的大小無關。

    有兩個參數可以影響LinkedHashMap的性能:初始容量(inital capacity)和負載系數(load factor)。初始容量指定了初始table的大小,負載系數用來指定自動擴容的臨界值。當entry的數量超過capacity*load_factor時,容器將自動擴容并重新哈希。對于插入元素較多的場景,將初始容量設大可以減少重新哈希的次數。

    將對象放入到LinkedHashMapLinkedHashSet中時,有兩個方法需要特別關心:hashCode()equals()hashCode()方法決定了對象會被放到哪個bucket里,當多個對象的哈希值沖突時,equals()方法決定了這些對象是否是“同一個對象”。所以,如果要將自定義的對象放入到LinkedHashMapLinkedHashSet中,需要*@Override*hashCode()equals()方法。

    通過如下方式可以得到一個跟源Map迭代順序一樣的LinkedHashMap

    void foo(Map m) {
        Map copy = new LinkedHashMap(m);
        
    }

    出于性能原因,LinkedHashMap是非同步的(not synchronized),如果需要在多線程環境使用,需要程序員手動同步;或者通過如下方式將LinkedHashMap包裝成(wrapped)同步的:

    Map m = Collections.synchronizedMap(new LinkedHashMap(...));

    方法剖析

    get()

    get(Object key)方法根據指定的key值返回對應的value。該方法跟HashMap.get()方法的流程幾乎完全一樣,讀者可自行參考前文,這里不再贅述。

    put()

    put(K key, V value)方法是將指定的key, value對添加到map里。該方法首先會對map做一次查找,看是否包含該元組,如果已經包含則直接返回,查找過程類似于get()方法;如果沒有找到,則會通過addEntry(int hash, K key, V value, int bucketIndex)方法插入新的entry

    注意,這里的插入有兩重含義

    1. table的角度看,新的entry需要插入到對應的bucket里,當有哈希沖突時,采用頭插法將新的entry插入到沖突鏈表的頭部。
    2. header的角度看,新的entry需要插入到雙向鏈表的尾部。

    LinkedHashMap_addEntry.png

    addEntry()代碼如下:

    // LinkedHashMap.addEntry()
    void addEntry(int hash, K key, V value, int bucketIndex) {
        if ((size >= threshold) && (null != table[bucketIndex])) {
            resize(2 * table.length);// 自動擴容,并重新哈希
            hash = (null != key) ? hash(key) : 0;
            bucketIndex = hash & (table.length-1);// hash%table.length
        }
        // 1.在沖突鏈表頭部插入新的entry
        HashMap.Entry<K,V> old = table[bucketIndex];
        Entry<K,V> e = new Entry<>(hash, key, value, old);
        table[bucketIndex] = e;
        // 2.在雙向鏈表的尾部插入新的entry
        e.addBefore(header);
        size++;
    }

    上述代碼中用到了addBefore()方法將新entry e插入到雙向鏈表頭引用header的前面,這樣e就成為雙向鏈表中的最后一個元素。addBefore()的代碼如下:

    // LinkedHashMap.Entry.addBefor(),將this插入到existingEntry的前面
    private void addBefore(Entry<K,V> existingEntry) {
        after  = existingEntry;
        before = existingEntry.before;
        before.after = this;
        after.before = this;
    }

    上述代碼只是簡單修改相關entry的引用而已。

    remove()

    remove(Object key)的作用是刪除key值對應的entry,該方法的具體邏輯是在removeEntryForKey(Object key)里實現的。removeEntryForKey()方法會首先找到key值對應的entry,然后刪除該entry(修改鏈表的相應引用)。查找過程跟get()方法類似。

    注意,這里的刪除也有兩重含義

    1. table的角度看,需要將該entry從對應的bucket里刪除,如果對應的沖突鏈表不空,需要修改沖突鏈表的相應引用。
    2. header的角度來看,需要將該entry從雙向鏈表中刪除,同時修改鏈表中前面以及后面元素的相應引用。

    LinkedHashMap_removeEntryForKey.png

    removeEntryForKey()對應的代碼如下:

    // LinkedHashMap.removeEntryForKey(),刪除key值對應的entry
    final Entry<K,V> removeEntryForKey(Object key) {
        
        int hash = (key == null) ? 0 : hash(key);
        int i = indexFor(hash, table.length);// hash&(table.length-1)
        Entry<K,V> prev = table[i];// 得到沖突鏈表
        Entry<K,V> e = prev;
        while (e != null) {// 遍歷沖突鏈表
            Entry<K,V> next = e.next;
            Object k;
            if (e.hash == hash &&
                ((k = e.key) == key || (key != null && key.equals(k)))) {// 找到要刪除的entry
                modCount++; size--;
                // 1. 將e從對應bucket的沖突鏈表中刪除
                if (prev == e) table[i] = next;
                else prev.next = next;
                // 2. 將e從雙向鏈表中刪除
                e.before.after = e.after;
                e.after.before = e.before;
                return e;
            }
            prev = e; e = next;
        }
        return e;
    }

    LinkedHashSet

    前面已經說過LinkedHashSet是對LinkedHashMap的簡單包裝,對LinkedHashSet的函數調用都會轉換成合適的LinkedHashMap方法,因此LinkedHashSet的實現非常簡單,這里不再贅述。

    public class LinkedHashSet<E>
        extends HashSet<E>
        implements Set<E>, Cloneable, java.io.Serializable {
        
        // LinkedHashSet里面有一個LinkedHashMap
        public LinkedHashSet(int initialCapacity, float loadFactor) {
            map = new LinkedHashMap<>(initialCapacity, loadFactor);
        }
        
        public boolean add(E e) {//簡單的方法轉換
            return map.put(e, PRESENT)==null;
        }
        
    }
    posted on 2016-05-30 09:19 CarpenterLee 閱讀(1112) 評論(0)  編輯  收藏

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 四虎成人精品在永久免费| 在线视频免费观看爽爽爽| 国产一区视频在线免费观看| 亚洲中文字幕一二三四区苍井空| 免费人成视频在线观看网站| 久久久久久亚洲精品中文字幕| 精品视频一区二区三区免费| 亚洲精品国产精品乱码视色| 嫩草在线视频www免费观看| 亚洲宅男永久在线| 最近免费中文在线视频| 国产色在线|亚洲| 精品国产免费观看| 九九免费久久这里有精品23| 红杏亚洲影院一区二区三区| 成人黄网站片免费视频| 666精品国产精品亚洲| 免费做爰猛烈吃奶摸视频在线观看| 伊人久久五月丁香综合中文亚洲 | 亚洲天堂免费在线| 亚洲中文无码永久免| 日本一区二区三区日本免费| 黄色一级免费网站| 亚洲国产精品无码久久一线| 99视频免费播放| 亚洲色一区二区三区四区| 亚洲 无码 在线 专区| a级黄色毛片免费播放视频| 亚洲精品自在线拍| 日本不卡高清中文字幕免费| 久久国产精品免费一区二区三区| 亚洲日本一区二区| 国产色婷婷精品免费视频| 久久毛片免费看一区二区三区| 久久夜色精品国产噜噜噜亚洲AV| 香蕉高清免费永久在线视频| 一级毛片成人免费看a| 亚洲视频小说图片| 亚洲国产成人精品女人久久久| 99精品热线在线观看免费视频 | 亚洲av无码不卡久久|