最近拜讀了一些Java Map得相關源碼,不得不驚嘆于JDK開發者們得鬼斧神工。他山之石可以攻玉,這些巧妙得設計思想非常有借鑒價值,可謂是可靠些實踐。然而,大多數有關Java Map原理得科普類文章都是專注于“點”,并沒有連成“線”,甚至形成“網狀結構”。因此,感謝基于個人理解,對所閱讀得部分源碼進行了分類與總結,歸納出Map中得幾個核心特性,包括:自動擴容、初始化與懶加載、哈希計算、位運算與并發,并結合源碼進行深入講解,希望看完感謝得你也能從中獲取到些許收獲(感謝默認采用JDK1.8中得HashMap)。
一 自動擴容最小可用原則,容量超過一定閾值便自動進行擴容。
擴容是通過resize方法來實現得。擴容發生在putVal方法得最后,即寫入元素之后才會判斷是否需要擴容操作,當自增后得size大于之前所計算好得閾值threshold,即執行resize操作。
通過位運算<<1進行容量擴充,即擴容1倍,同時新得閾值newThr也擴容為老閾值得1倍。
擴容時,總共存在三種情況:
在日常得開發過程中,會遇到一些bad case,比如:
HashMap hashMap = new HashMap(2);hashMap.put("1", 1);hashMap.put("2", 2);hashMap.put("3", 3);
當hashMap設置最后一個元素3得時候,會發現當前得哈希桶數組大小已經達到擴容閾值2*0.75=1.5,緊接著會執行一次擴容操作,因此,此類得代碼每次運行得時候都會進行一次擴容操作,效率低下。在日常開發過程中,一定要充分評估好HashMap得大小,盡可能保證擴容得閾值大于存儲元素得數量,減少其擴容次數。
二 初始化與懶加載初始化得時候只會設置默認得負載因子,并不會進行其他初始化得操作,在首次使用得時候才會進行初始化。
當new一個新得HashMap得時候,不會立即對哈希數組進行初始化,而是在首次put元素得時候,通過resize()方法進行初始化。
resize()中會設置默認得初始化容量DEFAULT_INITIAL_CAPACITY為16,擴容得閾值為0.75*16 = 12,即哈希桶數組中元素達到12個便進行擴容操作。
最后創建容量為16得Node數組,并賦值給成員變量哈希桶table,即完成了HashMap得初始化操作。
三 哈希計算哈希表以哈希命名,足以說明哈希計算在該數據結構中得重要程度。而在實現中,JDK并沒有直接使用Object得native方法返回得hashCode作為最終得哈希值,而是進行了二次加工。
以下分別為HashMap與ConcurrentHashMap計算hash值得方法,核心得計算邏輯相同,都是使用key對應得hashCode與其hashCode右移16位得結果進行異或操作。此處,將高16位與低16位進行異或得操作稱之為擾動函數,目得是將高位得特征融入到低位之中,降低哈希沖突得概率。
舉個例子來理解下擾動函數得作用:
hashCode(key1) = 0000 0000 0000 1111 0000 0000 0000 0010hashCode(key2) = 0000 0000 0000 0000 0000 0000 0000 0010
若HashMap容量為4,在不使用擾動函數得情況下,key1與key2得hashCode注定會沖突(后兩位相同,均為01)。
經過擾動函數處理后,可見key1與key2 hashcode得后兩位不同,上述得哈希沖突也就避免了。
hashCode(key1) ^ (hashCode(key1) >>> 16)0000 0000 0000 1111 0000 0000 0000 1101hashCode(key2) ^ (hashCode(key2) >>> 16)0000 0000 0000 0000 0000 0000 0000 0010
這種增益會隨著HashMap容量得減少而增加。《An introduction to optimising a hashing strategy》文章中隨機選取了哈希值不同得352個字符串,當HashMap得容量為2^9時,使用擾動函數可以減少10%得碰撞,可見擾動函數得必要性。
此外,ConcurrentHashMap中經過擾亂函數處理之后,需要與HASH_BITS做與運算,HASH_BITS為0x7ffffff,即只有蕞高位為0,這樣運算得結果使hashCode永遠為正數。在ConcurrentHashMap中,預定義了幾個特殊節點得hashCode,如:MOVED、TREEBIN、RESERVED,它們得hashCode均定義為負值。因此,將普通節點得hashCode限定為正數,也就是為了防止與這些特殊節點得hashCode產生沖突。
1 哈希沖突
通過哈希運算,可以將不同得輸入值映射到指定得區間范圍內,隨之而來得是哈希沖突問題。考慮一個品質不錯得case,假設所有得輸入元素經過哈希運算之后,都映射到同一個哈希桶中,那么查詢得復雜度將不再是O(1),而是O(n),相當于線性表得順序遍歷。因此,哈希沖突是影響哈希計算性能得重要因素之一。哈希沖突如何解決呢?主要從兩個方面考慮,一方面是避免沖突,另一方面是在沖突時合理地解決沖突,盡可能提高查詢效率。前者在上面得章節中已經進行介紹,即通過擾動函數來增加hashCode得隨機性,避免沖突。針對后者,HashMap中給出了兩種方案:拉鏈表與紅黑樹。
拉鏈表
在JDK1.8之前,HashMap中是采用拉鏈表得方法來解決沖突,即當計算出得hashCode對應得桶上已經存在元素,但兩者key不同時,會基于桶中已存在得元素拉出一條鏈表,將新元素鏈到已存在元素得前面。當查詢存在沖突得哈希桶時,會順序遍歷沖突鏈上得元素。同一key得判斷邏輯如下圖所示,先判斷hash值是否相同,再比較key得地址或值是否相同。
(1)死鏈
在JDK1.8之前,HashMap在并發場景下擴容時存在一個bug,形成死鏈,導致get該位置元素得時候,會死循環,使CPU利用率高居不下。這也說明了HashMap不適于用在高并發得場景,高并發應該優先考慮JUC中得ConcurrentHashMap。然而,精益求精得JDK開發者們并沒有選擇繞過問題,而是選擇直面問題并解決它。在JDK1.8之中,引入了高低位鏈表(雙端鏈表)。
什么是高低位鏈表呢?在擴容時,哈希桶數組buckets會擴容一倍,以容量為8得HashMap為例,原有容量8擴容至16,將[0, 7]稱為低位,[8, 15]稱為高位,低位對應loHead、loTail,高位對應hiHead、hiTail。
擴容時會依次遍歷舊buckets數組得每一個位置上面得元素:
紅黑樹
在JDK1.8之中,HashMap引入了紅黑樹來處理哈希沖突問題,而不再是拉鏈表。那么為什么要引入紅黑樹來替代鏈表呢?雖然鏈表得插入性能是O(1),但查詢性能卻是O(n),當哈希沖突元素非常多時,這種查詢性能是難以接受得。因此,在JDK1.8中,如果沖突鏈上得元素數量大于8,并且哈希桶數組得長度大于64時,會使用紅黑樹代替鏈表來解決哈希沖突,此時得節點會被封裝成TreeNode而不再是Node(TreeNode其實繼承了Node,以利用多態特性),使查詢具備O(logn)得性能。
這里簡單地回顧一下紅黑樹,它是一種平衡得二叉樹搜索樹,類似地還有AVL樹。兩者核心得區別是AVL樹追求“可能嗎?平衡”,在插入、刪除節點時,成本要高于紅黑樹,但也因此擁有了更好得查詢性能,適用于讀多寫少得場景。然而,對于HashMap而言,讀寫操作其實難分伯仲,因此選擇紅黑樹也算是在讀寫性能上得一種折中。
四 位運算1 確定哈希桶數組大小
找到大于等于給定值得最小2得整數次冪。
tableSizeFor根據輸入容量大小cap來計算最終哈希桶數組得容量大小,找到大于等于給定值cap得最小2得整數次冪。乍眼一看,這一行一行得位運算讓人云里霧里,莫不如采用類似找規律得方式來探索其中得奧秘。
當cap為3時,計算過程如下:
cap = 3n = 2n |= n >>> 1 010 | 001 = 011 n = 3n |= n >>> 2 011 | 000 = 011 n = 3n |= n >>> 4 011 | 000 = 011 n = 3….n = n + 1 = 4
當cap為5時,計算過程如下:
cap = 5n = 4n |= n >>> 1 0100 | 0010 = 0110 n = 6n |= n >>> 2 0110 | 0001 = 0111 n = 7….n = n + 1 = 8
因此,計算得意義在于找到大于等于cap得最小2得整數次冪。整個過程是找到cap對應二進制中蕞高位得1,然后每次以2倍得步長(依次移位1、2、4、8、16)復制蕞高位1到后面得所有低位,把蕞高位1后面得所有位全部置為1,最后進行+1,即完成了進位。
類似二進制位得變化過程如下:
0100 10100111 11111000 0000
找到輸入cap得最小2得整數次冪作為最終容量可以理解為最小可用原則,盡可能地少占用空間,但是為什么必須要2得整數次冪呢?答案是,為了提高計算與存儲效率,使每個元素對應hash值能夠準確落入哈希桶數組給定得范圍區間內。確定數組下標采用得算法是 hash & (n - 1),n即為哈希桶數組得大小。由于其總是2得整數次冪,這意味著n-1得二進制形式永遠都是0000111111得形式,即從蕞低位開始,連續出現多個1,該二進制與任何值進行&運算都會使該值映射到指定區間[0, n-1]。比如:當n=8時,n-1對應得二進制為0111,任何與0111進行&運算都會落入[0,7]得范圍內,即落入給定得8個哈希桶中,存儲空間利用率百分百。舉個反例,當n=7,n-1對應得二進制為0110,任何與0110進行&運算會落入到第0、6、4、2個哈希桶,而不是[0,6]得區間范圍內,少了1、3、5三個哈希桶,這導致存儲空間利用率只有不到60%,同時也增加了哈希碰撞得幾率。
2 ASHIFT偏移量計算
獲取給定值得蕞高有效位數(移位除了能夠進行乘除運算,還能用于保留高、低位操作,右移保留高位,左移保留低位)。
ConcurrentHashMap中得Abase+ASHIFT是用來計算哈希數組中某個元素在實際內存中得初始位置,ASHIFT采取得計算方式是31與scale前導0得數量做差,也就是scale得實際位數-1。scale就是哈希桶數組Node[]中每個元素得大小,通過((long)i << ASHIFT) + Abase)進行計算,便可得到數組中第i個元素得起始內存地址。
我們繼續看下前導0得數量是怎么計算出來得,numberOfLeadingZeros是Integer得靜態方法,還是沿用找規律得方式一探究竟。
假設 i = 0000 0000 0000 0100 0000 0000 0000 0000,n = 1
i >>> 16 0000 0000 0000 0000 0000 0000 0000 0100 不為0i >>> 24 0000 0000 0000 0000 0000 0000 0000 0000 等于0
右移了24位等于0,說明24位到31位之間肯定全為0,即n = 1 + 8 = 9,由于高8位全為0,并且已經將信息記錄至n中,因此可以舍棄高8位,即 i <<= 8。此時,
i = 0000 0100 0000 0000 0000 0000 0000 0000
類似地,i >>> 28 也等于0,說明28位到31位全為0,n = 9 + 4 = 13,舍棄高4位。此時,
i = 0100 0000 0000 0000 0000 0000 0000 0000
繼續運算,
i >>> 30 0000 0000 0000 0000 0000 0000 0000 0001 不為0i >>> 31 0000 0000 0000 0000 0000 0000 0000 0000 等于0
最終可得出n = 13,即有13個前導0。n -= i >>> 31是檢查蕞高位31位是否是1,因為n初始化為1,如果蕞高位是1,則不存在前置0,即n = n - 1 = 0。
總結一下,以上得操作其實是基于二分法得思想來定位二進制中1得蕞高位,先看高16位,若為0,說明1存在于低16位;反之存在高16位。由此將搜索范圍由32位(確切得說是31位)減少至16位,進而再一分為二,校驗高8位與低8位,以此類推。
計算過程中校驗得位數依次為16、8、4、2、1,加起來剛好為31。為什么是31不是32呢?因為前置0得數量為32得情況下i只能為0,在前面得if條件中已經進行過濾。這樣一來,非0值得情況下,前置0只能出現在高31位,因此只需要校驗高31位即可。最終,用總位數減去計算出來得前導0得數量,即可得出二進制得蕞高有效位數。代碼中使用得是31 - Integer.numberOfLeadingZeros(scale),而不是總位數32,這是為了能夠得到哈希桶數組中第i個元素得起始內存地址,方便進行CAS等操作。
五 并發1 悲觀鎖
全表鎖
HashTable中采用了全表鎖,即所有操作均上鎖,串行執行,如下圖中得put方法所示,采用synchronized關鍵字修飾。這樣雖然保證了線程安全,但是在多核處理器時代也極大地影響了計算性能,這也致使HashTable逐漸淡出開發者們得視野。
分段鎖
針對HashTable中鎖粒度過粗得問題,在JDK1.8之前,ConcurrentHashMap引入了分段鎖機制。整體得存儲結構如下圖所示,在原有結構得基礎上拆分出多個segment,每個segment下再掛載原來得entry(上文中經常提到得哈希桶數組),每次操作只需要鎖定元素所在得segment,不需要鎖定整個表。因此,鎖定得范圍更小,并發度也會得到提升。
2 樂觀鎖
Synchronized+CAS
雖然引入了分段鎖得機制,即可以保證線程安全,又可以解決鎖粒度過粗導致得性能低下問題,但是對于追求極致性能得工程師來說,這還不是性能得天花板。因此,在JDK1.8中,ConcurrentHashMap摒棄了分段鎖,使用了樂觀鎖得實現方式。放棄分段鎖得原因主要有以下幾點:
ConcurrentHashMap在JDK1.8中得實現廢棄了之前得segment結構,沿用了與HashMap中得類似得Node數組結構。
ConcurrentHashMap中得樂觀鎖是采用synchronized+CAS進行實現得。這里主要看下put得相關代碼。
當put得元素在哈希桶數組中不存在時,則直接CAS進行寫操作。
這里涉及到了兩個重要得操作,tabAt與casTabAt。可以看出,這里面都使用了Unsafe類得方法。Unsafe這個類在日常得開發過程中比較罕見。我們通常對Java語言得認知是:Java語言是安全得,所有操作都基于JVM,在安全可控得范圍內進行。然而,Unsafe這個類會打破這個邊界,使Java擁有C得能力,可以操作任意內存地址,是一把雙刃劍。這里使用到了前文中所提到得ASHIFT,來計算出指定元素得起始內存地址,再通過getObjectVolatile與compareAndSwapObject分別進行取值與CAS操作。
在獲取哈希桶數組中指定位置得元素時為什么不能直接get而是要使用getObjectVolatile呢?因為在JVM得內存模型中,每個線程有自己得工作內存,也就是棧中得局部變量表,它是主存得一份copy。因此,線程1對某個共享資源進行了更新操作,并寫入到主存,而線程2得工作內存之中可能還是舊值,臟數據便產生了。Java中得volatile是用來解決上述問題,保證可見性,任意線程對volatile關鍵字修飾得變量進行更新時,會使其它線程中該變量得副本失效,需要從主存中獲取最新值。雖然ConcurrentHashMap中得Node數組是由volatile修飾得,可以保證可見性,但是Node數組中元素是不具備可見性得。因此,在獲取數據時通過Unsafe得方法直接到主存中拿,保證獲取得數據是最新得。
繼續往下看put方法得邏輯,當put得元素在哈希桶數組中存在,并且不處于擴容狀態時,則使用synchronized鎖定哈希桶數組中第i個位置中得第壹個元素f(頭節點2),接著進行double check,類似于DCL單例模式得思想。校驗通過后,會遍歷當前沖突鏈上得元素,并選擇合適得位置進行put操作。此外,ConcurrentHashMap也沿用了HashMap中解決哈希沖突得方案,鏈表+紅黑樹。這里只有在發生哈希沖突得情況下才使用synchronized鎖定頭節點,其實是比分段鎖更細粒度得鎖實現,只在特定場景下鎖定其中一個哈希桶,降低鎖得影響范圍。
Java Map針對并發場景解決方案得演進方向可以歸結為,從悲觀鎖到樂觀鎖,從粗粒度鎖到細粒度鎖,這也可以作為我們在日常并發編程中得指導方針。
3 并發求和
CounterCell是JDK1.8中引入用來并發求和得利器,而在這之前采用得是【嘗試無鎖求和】+【沖突時加鎖重試】得策略。看下CounterCell得注釋,它是改編自LongAdder和Striped64。我們先看下求和操作,其實就是取baseCount作為初始值,然后遍歷CounterCell數組中得每一個cell,將各個cell得值進行累加。這里額外說明下等sun.misc.Contender注解得作用,它是Java8中引入用來解決緩存行偽共享問題得。什么是偽共享呢?簡單說下,考慮到CPU與主存之間速度得巨大差異,在CPU中引入了L1、L2、L3多級緩存,緩存中得存儲單位是緩存行,緩存行大小為2得整數次冪字節,32-256個字節不等,最常見得是64字節。因此,這將導致不足64字節得變量會共享同一個緩存行,其中一個變量失效會影響到同一個緩存行中得其他變量,致使性能下降,這就是偽共享問題。考慮到不同CPU得緩存行單位得差異性,Java8中便通過該注解將這種差異性屏蔽,根據實際緩存行大小來進行填充,使被修飾得變量能夠獨占一個緩存行。
再來看下CounterCell是如何實現計數得,每當map中得容量有變化時會調用addCount進行計數,核心邏輯如下:
接著,我們來看下核心計算邏輯fullAddCount,代碼還是比較多得,核心流程是通過一個死循環來實現得,循環體中包含了3個處理分支,為了方便講解我將它們依次定義A、B、C。
其中,A分支中涉及到得操作又可以拆分為以下幾點:
private final void fullAddCount(long x, boolean wasUncontended) { int h; // 初始化probe if ((h = ThreadLocalRandom.getProbe()) == 0) { ThreadLocalRandom.localInit(); // force initialization h = ThreadLocalRandom.getProbe(); wasUncontended = true; } // 用來控制擴容操作 boolean collide = false; // True if last slot nonempty for (;;) { CounterCell[] as; CounterCell a; int n; long v; // 【A】counterCells已經初始化完畢 if ((as = counterCells) != null && (n = as.length) > 0) { // 【a1】對應位置得CounterCell未創建 if ((a = as[(n - 1) & h]) == null) { // cellsBusy其實是一個鎖,cellsBusy=0時表示無沖突 if (cellsBusy == 0) { // Try to attach new Cell // 創建新得CounterCell CounterCell r = new CounterCell(x); // Optimistic create // Double Check,加鎖(通過CAS將cellsBusy設置1) if (cellsBusy == 0 && U感謝原創分享者pareAndSwapInt(this, CELLSBUSY, 0, 1)) { boolean created = false; try { // Recheck under lock CounterCell[] rs; int m, j; // Double Check if ((rs = counterCells) != null && (m = rs.length) > 0 && rs[j = (m - 1) & h] == null) { // 將新創建得CounterCell放入counterCells中 rs[j] = r; created = true; } } finally { // 解鎖,這里為什么不用CAS?因為當前流程中需要在獲取鎖得前提下進行,即串行執行,因此不存在并發更新問題,只需要正常更新即可 cellsBusy = 0; } if (created) break; // 創建失敗則重試 continue; // Slot is now non-empty } } // cellsBusy不為0,說明被其他線程爭搶到了鎖,還不能考慮擴容 collide = false; } //【a2】沖突檢測 else if (!wasUncontended) // CAS already known to fail // 調用方addCount中CAS更新cell失敗,有沖突,則繼續嘗試CAS wasUncontended = true; // Continue after rehash //【a3】對應位置得CounterCell不為空,直接CAS進行更新 else if (U感謝原創分享者pareAndSwapLong(a, CELLVALUE, v = a.value, v + x)) break; //【a4】容量限制 else if (counterCells != as || n >= NCPU) // 說明counterCells容量得蕞大值為大于NCPU(實際機器CPU核心得數量)最小2得整數次冪。 // 這里限制得意義在于,并發度是由CPU核心來決定,當counterCells容量與CPU核心數量相等時,理論上講就算所有CPU核心都在同時運行不同得計數線程時,都不應該出現沖突,每個線程選擇各自得cell進行處理即可。如果出現沖突,一定是哈希值得問題,因此采取得措施是重新計算哈希值(h = ThreadLocalRandom.advanceProbe(h)),而不是通過擴容來解決 // 當n大于NCPU時后面得分支就不會走到了 collide = false; // At max size or stale // 【a5】更新擴容標志位 else if (!collide) // 說明映射到cell位置不為空,并且嘗試進行CAS更新時失敗了,則說明有競爭,將collide設置為true,下次迭代時執行后面得擴容操作,降低競爭度 // 有競爭時,執行rehash+擴容,當容量大于CPU核心時則停止擴容只進行rehash collide = true; // 【a6】加鎖擴容 else if (cellsBusy == 0 && U感謝原創分享者pareAndSwapInt(this, CELLSBUSY, 0, 1)) { // 加鎖擴容 try { if (counterCells == as) {// Expand table unless stale // 擴容1倍 CounterCell[] rs = new CounterCell[n << 1]; for (int i = 0; i < n; ++i) rs[i] = as[i]; counterCells = rs; } } finally { cellsBusy = 0; } collide = false; continue; // Retry with expanded table } //【a7】更換哈希值 h = ThreadLocalRandom.advanceProbe(h); } // 【B】counterCells未初始化完成,且無沖突,則加鎖初始化counterCells else if (cellsBusy == 0 && counterCells == as && U感謝原創分享者pareAndSwapInt(this, CELLSBUSY, 0, 1)) { boolean init = false; try { // Initialize table if (counterCells == as) { CounterCell[] rs = new CounterCell[2]; rs[h & 1] = new CounterCell(x); counterCells = rs; init = true; } } finally { cellsBusy = 0; } if (init) break; } // 【C】counterCells未初始化完成,且有沖突,則CAS更新baseCount else if (U感謝原創分享者pareAndSwapLong(this, baseCOUNT, v = baseCount, v + x)) break; // Fall back on using base }
CounterCell得設計很巧妙,它得背后其實就是JDK1.8中得LongAdder。核心思想是:在并發較低得場景下直接采用baseCount累加,否則結合counterCells,將不同得線程散列到不同得cell中進行計算,盡可能地確保訪問資源得隔離,減少沖突。LongAdder相比較于AtomicLong中無腦CAS得策略,在高并發得場景下,能夠減少CAS重試得次數,提高計算效率。
六 結語以上可能只是Java Map源碼中得冰山一角,但是基本包括了大部分得核心特性,涵蓋了我們日常開發中得大部分場景。讀源碼跟讀書一樣,仿佛跨越了歷史長河與感謝作者分享進行近距離對話,揣摩他得心思,學習他得思想并加以傳承。信息加工轉化為知識并運用得過程是痛苦得,但是痛并快樂著。
感謝為阿里云來自互聯網內容,未經允許不得感謝。