JDK1.7中HashMap死环问题及JDK1.8中对HashMap的优化源码详解

一、JDK1.7中HashMap扩容死锁问题

我们首先来看一下JDK1.7中put方法的源码
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-xRsl0rfz-1569993533374)(assets/1569744986598.png)]
我们打开addEntry方法如下,它会判断数组当前容量是否已经超过的阈值,例如假设当前的数组容量是16,加载因子为0.75,即超过了12,并且刚好要插入的索引处有元素,这时候就需要进行扩容操作,可以看到resize扩容大小是原数组的两倍,仍然符合数组的长度是2的指数次幂
在这里插入图片描述
我们再进入resize方法如下,它首先会对之前的数组容量进行判断,看是否已经达到了数组最大容量,如果没有,后面会进行数组的转移操作,即transfer方法
在这里插入图片描述
我们先来看一下进行转移操作的方法,JDK1.7中HashMap存在死锁问题的原因也主要集中在这在这里插入图片描述
假设我们有这样一个HashMap,如下
在这里插入图片描述
现在需要对其进行扩容操作(假设已经达到扩容阈值,忽略其他元素)

根据源码中,此时会产生连个指针,一个e指针,指向当前节点,另一个节点为next,指向e的下一个节点,即e.next,如下图所示

在这里插入图片描述
源码中的if判断实现的是重哈希,indexFor操作实现的是重新定位当前节点在新数组中的位置,我们来看一下新数组
在这里插入图片描述
假设此时还是定位到数组3号位

接着看源码e.next = newTable[i],即将e.next节点指向了扩容后数组的的3号位,因为这是刚创建的新数组,还是空数组,因此e.next = null,此时指向如下图所示
在这里插入图片描述
接着执行下一步newTable[i] = e,即将当前节点e赋值给刚在新数组找到的新节点,如下图所示
在这里插入图片描述
最后一步e = next,即:
在这里插入图片描述
至此,while循环的第一遍结束,此时e指向杨过这个节点,很明显不为空,会进行第二次循环,重复以上操作,最后产生的效果为:
在这里插入图片描述
可以杨过和小龙女两个节点的位置发生了改变了(这也是HashMap为什么无序的原因)

以上为单线程下进行扩容,并不会产生线程安全问题,但是如果是多线程进行扩容呢

我们假设现在有两个线程同时对数组扩容,每个线程都存在两个指针,线程1为e和next,线程2为e2和next2
在这里插入图片描述
假设此时线程2运行到如下红色框中的代码时线程阻塞了,对应上图则是e2指向了小龙女,next2指向了杨过
在这里插入图片描述
因为线程2被阻塞了,其后面的代码就没法继续执行了,而此时线程1也进入方法进行扩容,扩容后的结果就是单线程时扩容后的结果,如上图所示,此时相比于扩容前的HashMap,杨过和小龙女位置已经调换

此时刚刚被阻塞的的线程2被唤醒了,注意此时线程2中两个指针的指向,如下图所示
在这里插入图片描述
此时线程2执行e.next = newTable[i]这一行,即e2的下一个节点指向其扩容的新数组,如下图所示:
在这里插入图片描述
再执行下面的newTable[i] = e,即将小龙女这个节点填入数组中,如下
在这里插入图片描述
现在指向最后一步e = next,由于此时next2还指向线程1扩容后数组中的杨过节点,因此现在e2和next2都指向杨过节点
在这里插入图片描述
接着第二次循环,结果如下:
在这里插入图片描述
现在进行第三次循环,仍然是e.next = newTable[i]这一行,此时的newTable[i]是杨过节点,因此这步的结果就是小龙女节点又指回了杨过节点
在这里插入图片描述
此时又执行e = newTable[i],结果如下:
在这里插入图片描述
最后一步执行完后两个指针都指向了空
在这里插入图片描述
此时新扩容的数组也形成了一个环
在这里插入图片描述
以上就是HashMap扩容时死锁的原因

二、JDK1.8中对HashMap的优化

先看一下JDK8中HashMap源码

    public V put(K key, V value) {return putVal(hash(key), key, value, false, true);
    }    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,   boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;// 容量为空时重新赋值
if ((tab = table) == null || (n = tab.length) == 0)
    n = (tab = resize()).length;// 元素不存在,则直接插入数组即可
if ((p = tab[i = (n - 1) & hash]) == null)
    tab[i] = newNode(hash, key, value, null);else {
    Node<K,V> e; K k;    // 原值已存在,直接替换
    if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;    // 如果是 LinkedHashMap 实现的话,会使用红黑树作为数据结构,调用其 putTreeVal()
    else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);    else {for (int binCount = 0; ; ++binCount) {    // 找到最后一个 next 不会 null 的位置,插入元素
    if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);// 如果树的深度大于阀值-1, 则重新调整,平衡二叉树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
    treeifyBin(tab, hash);break;
    }    // 找到元素存在,直接进入后续更新
    if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))break;
    p = e;
}
    }    // 当元素存在时,更新,并返回旧值
    if (e != null) { // existing mapping for key
V oldValue = e.value;// 存在才添加判定
if (!onlyIfAbsent || oldValue == null)
    e.value = value;// LinkedHashMap 预留
afterNodeAccess(e);return oldValue;
    }
}// 修改+1
++modCount;// 容量超过阀值,扩容
if (++size > threshold)
    resize();// LinkedHashMap 预留
afterNodeInsertion(evict);return null;
    }

当容量超过阈值时进行扩容操作,我们进入resize方法,源码如下

    /**
     * Initializes or doubles table size.  If null, allocates in
     * accord with initial capacity target held in field threshold.
     * Otherwise, because we are using power-of-two expansion, the
     * elements from each bin must either stay at same index, or move
     * with a power of two offset in the new table.
     *
     * @return the table
     */
    final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;int oldCap = (oldTab == null) ? 0 : oldTab.length;int oldThr = threshold;int newCap, newThr = 0;if (oldCap > 0) {    if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;return oldTab;
    }    else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
     oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}else if (oldThr > 0) // initial capacity was placed in threshold
    newCap = oldThr;else {       // zero initial threshold signifies using defaults
    newCap = DEFAULT_INITIAL_CAPACITY;
    newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}if (newThr == 0) {    float ft = (float)newCap * loadFactor;
    newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
      (int)ft : Integer.MAX_VALUE);
}
threshold = newThr;@SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;if (oldTab != null) {    for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;if ((e = oldTab[j]) != null) {
    oldTab[j] = null;    if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;    else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);    else { // preserve order
//这里定义了两组头和尾指针
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;do {
    next = e.next;    //使用当前结点的hash值与就数组的长度做与运算,如果是0则是低位
    if ((e.hash & oldCap) == 0) {if (loTail == null)
    loHead = e;else
    loTail.next = e;
loTail = e;
    }    else {//如果是16则是高位
if (hiTail == null)
    hiHead = e;else
    hiTail.next = e;
hiTail = e;
    }
} while ((e = next) != null);if (loTail != null) {
    loTail.next = null;
    newTab[j] = loHead;
}if (hiTail != null) {
    hiTail.next = null;
    newTab[j + oldCap] = hiHead;
}
    }
}
    }
}return newTab;
    }

可以看出,当对数组进行迁移时,这里定义了两组指针,分别是低位头和尾、高位头和尾,举个例子就能看出为什么要这么做,假设旧数组的长度为16

数组长度       0000 0000 0000 1000hash值0101 1011 1111 1011 (随机)
与运算结果只有两种      0000 0000 0000 1000 ---------16
      0000 0000 0000 0000 ---------0

与运算的结果只存在0和16两种可能,接着往下面的源码看,如果是0则是低位,如果是16则是高位
在这里插入图片描述
这里就假设与运算的结果为0,那么数组的指向则变成这样:
在这里插入图片描述
接着执行下面的代码,将低位头部loHead赋值给新数组,在前面我们可以看到j为遍历旧数组的索引,这样,就将高位的所有结点都移动到了新数组

接下来,newTable[j] = loHead将高位的尾部置空,再将高位的头部放到新数组的j + oldCap索引处(当前索引+旧数组的长度),比如说现在的索引是3,再加上数组长度16,最后就是将高位放到新数组的索引为19的地方去,这样,位置图就成了如下:
在这里插入图片描述
到此,转移结束,避免了JDK1.7的使用两个指针可能出现的死环问题

总结:在JDK1.8之后,HashMap底层的数组扩容后迁移的方法进行了优化。把一个链表分成了两组,分成高为和低位分别去迁移,避免了死环问题。而且在迁移的过程中并没有进行任何的rehash(重新记算hash),提高了性能。它是直接将链表给断掉,进行几乎是一个均等的拆分,然后通过头指针的指向将整体给迁移过去,这样就减小了链表的长度。

~阅读全文~人机检测~

关注下方微信公众号“Java精选”(w_z90110),回复关键词领取资料:如Mysql、Hadoop、Dubbo、Spring Boot等,免费领取视频教程、资料文档和项目源码。

Java精选专注程序员推送一些Java开发知识,包括基础知识、各大流行框架(Mybatis、Spring、Spring Boot等)、大数据技术(Storm、Hadoop、MapReduce、Spark等)、数据库(Mysql、Oracle、NoSQL等)、算法与数据结构、面试专题、面试技巧经验、职业规划以及优质开源项目等。其中一部分由小编总结整理,另一部分来源于网络上优质资源,希望对大家的学习和工作有所帮助。

评论

  1. #1

    访客 (2020/02/13 10:32:14)回复
    每天都是无所事事,看看代码。浏览浏览新技术。

分享:

支付宝

微信