不论是android面试还是java面试,都会问到hashmap的原理和怎么实现的,今天我们就来总结下;
HashMap底层使用数组,每个数组元素存的是Node类型(或者TreeNode),table的每一个位置,又可以称为Hash桶,也就是说,会将相同hash值的元素存放到一个Hash桶中(这里的hash值,是指对key计算的hash值),也就是在Table的下标中相同,为了解决同一个位置有多个元素(冲突),HashMap用来拉链法和红黑树两种数据结构来解决冲突
复制
// 阈值(容量*加载因子)。当HashMap中的键值对超过了该值,HashMap就会进行扩容 int threshold; // 哈希表的加载因子,描述的是HashMap满的程度。接近0表示很空,1表示填满了 final float loadFactor; // 默认的初始容量-必须是2的幂,默认值是16。 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 能存的最大元素数量。默认值是1 << 30 static final int MAXIMUM_CAPACITY = 1 << 30; // 默认的加载因子0.75,当map中的元素个数达到容量的75%时会触发扩容 static final float DEFAULT_LOAD_FACTOR = 0.75f; // 桶的树化阈值:即链表转成红黑树的阈值,在存储数据时,当链表长度 > 该值时,则将链表转换成红黑树 static final int TREEIFY_THRESHOLD = 8; // 桶的链表还原阈值:即红黑树转为链表的阈值,当原有的红黑树内数量 < 6 时,则将红黑树转换成链表 static final int UNTREEIFY_THRESHOLD = 6; // 最小树形化容量阈值:即当哈希表中的容量 > 该值时,允许链表转换成红黑树,否则直接扩容 static final int MIN_TREEIFY_CAPACITY = 64;
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
复制
// 构造一个空的HashMap,具有默认的初始容量 public HashMap() { // 负载系数,默认值是0.75f this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted } // 使用指定的初始值构造一个空的HashMap public HashMap(int initialCapacity) { // 初始容量和负载系数 this(initialCapacity, DEFAULT_LOAD_FACTOR); } // 使用指定的初始值构造一个空的HashMap public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); // 初始容量大于最大初始容量时,初始容量为最大初始容量 if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity); } // 返回大于输入参数且最近的2的整数次幂的数 static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
在HashMap中,存的value不是put的K-V,而是一个Node类型,还有一个TreeNode类型,可以和Node类型相关转换
复制
static class Node<K,V> implements Map.Entry<K,V> { final int hash; final K key; V value; Node<K,V> next; Node(int hash, K key, V value, Node<K,V> next) { this.hash = hash; this.key = key; this.value = value; this.next = next; } }
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
复制
/** * 计算key的hash值: * 1.如果key为null,则hash值为0 * 2.如果key不为null,将key的hashCode值和高16位进行异或计算(异或:相同为0,不同为1) */ static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
1.
2.
3.
4.
5.
6.
7.
8.
9.
复制
final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; // threshold表示触发扩容的阈值(size >= capacity * loadfactor时会扩容) int oldThr = threshold; int newCap, newThr = 0; // oldCap大于0证明已经对map进行过操作,并非刚创建map的时候 if (oldCap > 0) { // 如果当前容量允许的大于最大容量,则将阈值设置为整数最大值,不会进行复制操作 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) // 如果2倍旧容量未超过允许的最大容量,并且旧容量达到了默认的初始容量16,则新的扩容阈值设置2倍的旧容量 newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold // 使用HashMap(capacity)或者HashMap(capacity, loadFactor)创建map // 这是初次扩容,新容量设置为threshold,也就是capacity*loadFactor newCap = oldThr; else { // zero initial threshold signifies using defaults // 第一次扩容,使用new HashMap()这种方式创建map,容量和负载因子都使用默认 newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } // 设置下一次进行扩容的阈值 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) // 申请一个新的数组 Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; // 下面是将旧数组中的元素复制到新申请的数组中 // 因为在旧数组中节点的索引计算方式:oldIndex=(oldCapacity - 1) & key.hash, // 当数组的容量发生变化后,需要重新确定节点的索引,新的节点位置有两种可能: // 1.newIndex=oldIndex,索引不变,前提是key.hash & oldCapacity结果为0 // 2.newIndex=oldIndex+oldCapacity,不是第一种情况,就是第二种情况 if (oldTab != null) { // 遍历旧数组(oldCap长度) for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) // 确定新的位置,存入 newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) // 将红黑树的节点进行拆分,将树中的每个节点都存入新位置,同时判断是否需要进行树转链表 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order // 遍历链表,将链表分为两部分,一部分(loHead)是索引不变,一部分(hiHead)的新索引是 oldIndex+oldCapacity // 然后将链表放入对应的数组中 Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
62.
63.
64.
65.
66.
67.
68.
69.
70.
71.
72.
73.
74.
75.
76.
77.
78.
79.
80.
81.
82.
83.
84.
85.
86.
87.
88.
89.
90.
91.
92.
关于扩容,在Java7的HashMap中,如果发生多线程更改HashMap(同时扩容),则可能会引起链表产生环的问题,这是因为Java7只是使用了数组加链表,插入链表的时候使用头插法,并且在扩容的时候链表节点的顺序会发生改变;而Java8在插入节点时使用是尾插法,在扩容的时候链表节点的顺序不会发生改变,可以避免出现环的问题。但这并不能说明Java8的HashMap就可以支持并发修改,因为其内部很多操作都没有保证原子性(比如两个线程同时插入元素,size++,都未做原子性保证。
和链表一样,红黑树中的元素也需要挨个确定新索引位置,同样是分为2部分,一部分是索引不变,一部分的新索引为oldIndex+oldCapacity。
注意:split是HashMap中的内部类TreeNode的方法,而不是HashMap的方法。
复制
/** * 扩容时,对同一个hash桶中的元素(红黑树)进行拆分,有可能拆分为两部分 * part1.节点的hash和原数组的容量与之后为0 -> 移到新表后,索引和旧表保持不变 * part2.节点的hash和原数组的容量与之后不为0 -> 移到新表后,新索引为"oldIndex+oldCapacity" * 这两部分,在做完拆分后,判断是否需要将树转换为链表,如果各自的数量未超过UNTREEIFY_THRESHOLD(默认为6),则需转换为链表 * * @param map hashMap实例本身 * @param tab 扩容新申请的数组 * @param index 本次要拆分的下标索引(对应旧数组) * @param bit 旧数组的容量 */ final void split(HashMap<K,V> map, Node<K,V>[] tab, int index, int bit) { TreeNode<K,V> b = this; // Relink into lo and hi lists, preserving order // loHead链着索引不变的节点 TreeNode<K,V> loHead = null, loTail = null; // hiHead链着索引改变的节点 TreeNode<K,V> hiHead = null, hiTail = null; int lc = 0, hc = 0; for (TreeNode<K,V> e = b, next; e != null; e = next) { next = (TreeNode<K,V>)e.next; e.next = null; // 如果当前节点和原数组的容量与之后为0,则扩容后的索引位置和与在旧表保持一致 if ((e.hash & bit) == 0) { if ((e.prev = loTail) == null) loHead = e; else loTail.next = e; loTail = e; ++lc; } else { // 如果当前节点和原数组的容量与之后不为0,则扩容后的索引位置为"oldIndex+oldCapacity" if ((e.prev = hiTail) == null) hiHead = e; else hiTail.next = e; hiTail = e; ++hc; } } if (loHead != null) { if (lc <= UNTREEIFY_THRESHOLD) tab[index] = loHead.untreeify(map); else { tab[index] = loHead; // 高位节点不为空,说明原链表元素被拆分了,切地位红黑树节点个数大于6,不满足转链表条件,需要重新树化 if (hiHead != null) // (else is already treeified) loHead.treeify(tab); } } if (hiHead != null) { if (hc <= UNTREEIFY_THRESHOLD) tab[index + bit] = hiHead.untreeify(map); else { tab[index + bit] = hiHead; // 低位节点不为空,说明原链表元素被拆分了,切地位红黑树节点个数大于6,不满足转链表条件,需要重新树化 if (loHead != null) hiHead.treeify(tab); } } }
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
复制
final void treeifyBin(Node<K,V>[] tab, int hash) { int n, index; Node<K,V> e; // 如果map的容量(数组的长度)为0,或者小于MIN_TREEIFY_CAPACITY(默认64),则进行扩容操作,而不进行转换红黑树 // 底层数组,也称为hash桶,也就是说hash桶的数量小于64时,则会进行扩容操作 if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) resize(); else if ((e = tab[index = (n - 1) & hash]) != null) { TreeNode<K,V> hd = null, tl = null; do { // 将链表节点转换为红黑树节点 TreeNode<K,V> p = replacementTreeNode(e, null); if (tl == null) hd = p; else { p.prev = tl; tl.next = p; } tl = p; } while ((e = e.next) != null); // 转换红黑树的操作 if ((tab[index] = hd) != null) hd.treeify(tab); } }
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
复制
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; // 初始状态,HashMap为空,则需要扩容,n为扩容后的容量 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; if ((p = tab[i = (n - 1) & hash]) == null) // 要放入的位置没有其他项(没有冲突),则直接放入该位置 tab[i] = newNode(hash, key, value, null); else { // 计算后,要放入的位置已经有了其他项,需要解决冲突(拉链法或者红黑树) Node<K,V> e; K k; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) // 上一步操作后,p指向的该"桶"的第一个Node,判断位置是否匹配,如果位置匹配,且key相同,表示是put的数据已经存在,直接覆盖即可 e = p; else if (p instanceof TreeNode) // 如果p指向的是TreeNode,也就是红黑树存储的节点,那么就将新增元素加入到红黑树中 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { // p指向的是链表头结点,则利用尾插法,将新节点插入到末尾(遍历过程中发现相同节点则进行覆盖) for (int binCount = 0; ; ++binCount) { // 走到尾节点 if ((e = p.next) == null) { // 将新节点插到末尾 p.next = newNode(hash, key, value, null); // 判断链表的长度是否达到树化的阈值,如果是,则将链表转换为红黑树 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st // 注意并不一定会转换为红黑树,还与tab的长度有关,tab.length<MIN_TREEIFY_CAPACITY时,仍旧采取扩容,而非树化 treeifyBin(tab, hash); break; } // 如果是已经存在的节点,则中断循环,后面将进行覆盖value if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } // 数据已经存在,则进行覆盖操作 if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } // 计数加一(用来快速失败) ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
复制
public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } /** * get的时候,最关键的就是,先根据key的hash值找到桶位置,然后在根据key来查找 */ final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; // 根据key进行hash后的位置存在数据,如果不存在,则直接返回null if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { // 根据hash和key进行判断第一个节点是否为要找的元素,如果是,则返回第一个节点 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; if ((e = first.next) != null) { // 如果节点时红黑树的节点类型,则遍历红黑树,进行查找 if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); // 遍历链表进行查找 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
remove有两个接口,remove(key)、remove(key,value),内部都是调用一个removeNode方法,如下:
复制
public V remove(Object key) { Node<K,V> e; return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value; } // 实现了Map接口中的remove方法 @Override public boolean remove(Object key, Object value) { return removeNode(hash(key), key, value, true, true) != null; } final Node<K,V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) { Node<K,V>[] tab; Node<K,V> p; int n, index; // map不为空,且hash对应的位置不为空,才进行查找,否则认为未找到,返回null if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) { Node<K,V> node = null, e; K k; V v; // 匹配hash地址的第一个节点是否匹配,hash和key都匹配,则证明找到了要删除的元素 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) node = p; else if ((e = p.next) != null) { // 遍历红黑树 if (p instanceof TreeNode) node = ((TreeNode<K,V>)p).getTreeNode(hash, key); else { // 遍历链表 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { node = e; break; } p = e; } while ((e = e.next) != null); } } // 如果node为null,证明未找到key对应的元素 // node不为null,则根据调用的remove(key)还是remove(key,value)来判断 if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) { // 要删除的节点匹配,如果是树节点类型,则从树中删除节点 if (node instanceof TreeNode) ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable); else if (node == p) // 要删除的节点时第一个节点时,直接将头结点的下一个节点往前提一个位置(旧头节点被删除) tab[index] = node.next; else // 非头结点,修改指针,将下一个节点赋给父节点的next p.next = node.next; // 修改次数加一,元素数量减一 ++modCount; --size; afterNodeRemoval(node); return node; } } return null; }
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
HashMap 存储的是键值对 key - value,key 具有唯一性,采用了链地址法来处理哈希冲突。当往 HashMap 中添加元素时,会计算 key 的 hash 值取余得出元素在数组中的的存放位置。
HashMap底层的数据结构在 JDK1.8 中有了较大的变化,1.8之前采用数组加链表的数据结构,1.8采用数组加链表加红黑树的数据结构。
HashMap 是线程不安全的,线程安全可以使用 HashTable 和 ConcurrentHashMap 。
在 1.8 版本的中 hash() 和 resize( ) 方法也有了很大的改变,提升了性能。
键和值都可存放null,键只能存放一个null,键为null时存放入table[0]。
复制
//HashMap的默认初始长度16 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; //HashMap的最大长度2的30次幂 static final int MAXIMUM_CAPACITY = 1 << 30; //HashMap的默认加载因子0.75 static final float DEFAULT_LOAD_FACTOR = 0.75f; //HashMap链表升级成红黑树的临界值 static final int TREEIFY_THRESHOLD = 8; //HashMap红黑树退化成链表的临界值 static final int UNTREEIFY_THRESHOLD = 6; //HashMap链表升级成红黑树第二个条件:HashMap数组(桶)的长度大于等于64 static final int MIN_TREEIFY_CAPACITY = 64; //HashMap底层Node桶的数组 transient Node<K,V>[] table; //扩容阈值,当你的hashmap中的元素个数超过这个阈值,便会发生扩容 //threshold = capacity * loadFactor int threshold;
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
在计算存入结点下标时,会利用 key 的 hsah 值进行取余操作,而计算机计算时,并没有取余等运算,会将取余转化为其他运算
当n为2次幂时,会满足一个公式:(n - 1) & hash = hash % n,就可以用位运算代替取余运算,计算更加高效
换种问法:能不能直接使用key的hashcode值计算下标存储?
复制
static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
1.
2.
3.
4.
如果使用直接使用hashCode对数组大小取余,那么相当于参与运算的只有hashCode的低位,高位是没有起到任何作用的,所以我们的思路就是让 hashCode取值出的高位也参与运算,进一步降低hash碰撞的概率,使得数据分布更平均,我们把这样的操作称为扰动。
(h >>> 16)是无符号右移16位的运算,右边补0,得到 hashCode 的高16位。
(h = key.hashCode()) ^ (h >>> 16) 把 hashCode 和它的高16位进行异或运算,可以使得到的 hash 值更加散列,尽可能减少哈希冲突,提升性能。
而这么来看 hashCode 被散列 (异或) 的是低16位,而 HashMap 数组长度一般不会超过2的16次幂,那么高16位在大多数情况是用不到的,所以只需要拿 key 的 HashCode 和它的低16位做异或即可利用高位的hash值,降低哈希碰撞概率也使数据分布更加均匀。
在Java中,保存数据有两种比较简单的数据结构:数组和链表。数组的特点是:寻址容易,插入和删除困难;链表的特点是:寻址困难,但插入和删除容易;所以我们将数组和链表结合在一起,发挥两者各自的优势,使用一种叫做拉链法的方式可以解决哈希冲突。
JDK1.8主要解决或优化了以下问题:
resize 扩容和 计算hash 优化
引入了红黑树,目的是避免单条链表过长而影响查询效率,红黑树算法请参考;
解决了多线程死循环问题,但仍是非线程安全的,多线程时可能会造成数据丢失问题
源码,上面有代码
HashMap是懒加载,只有在第一次put时才会创建数组。
判断键值对数组table[i]是否为空或为null,否则执行resize()进行扩容;
根据键值key计算hash值得到插入的数组索引i,如果table[i]==null,直接新建节点添加,转向⑥,如果table[i]不为空,转向③;
判断table[i]的首个元素是否和key一样,如果相同直接覆盖value,否则转向④,这里的相同指的是hashCode以及equals;
判断table[i] 是否为treeNode,即table[i] 是否是红黑树,如果是红黑树,则直接在树中插入键值对,否则转向⑤;
遍历table[i],并记录遍历长度,如果遍历过程中发现key值相同的,则直接覆盖value,没有相同的key则在链表尾部插入结点,插入后判断该链表长度是否大等于8,大等于则考虑树化,如果数组的元素个数小于64,则只是将数组resize,大等于才树化该链表;
插入成功后,判断数组中的键值对数量size是否超过了阈值threshold,如果超过,进行扩容。
源码,上面有代码
首先根据 hash 方法获取到 key 的 hash 值;
然后通过 hash & (length - 1) 的方式获取到 key 所对应的Node数组下标 ( length对应数组长度 );
首先判断此结点是否为空,是否就是要找的值,是则返回空,否则判断第二个结点是否为空,是则返回空,不是则判断此时数据结构是链表还是红黑树
链表结构进行顺序遍历查找操作,每次用 == 符号 和 equals( ) 方法来判断 key 是否相同,满足条件则直接返回该结点。链表遍历完都没有找到则返回空;
红黑树结构执行相应的 getTreeNode( ) 查找操作;
不管是JDK1.7或者JDK1.8 当put方法执行的时候,如果table为空,则执行resize()方法扩容,默认长度为16;
条件:发生扩容的条件必须同时满足两点
当前存储的数量大于等于阈值;
发生hash碰撞;
特点:先扩容,再添加(扩容使用的头插法),头插法会使链表发生反转,多线程环境下可能会死循环
条件:
当前存储的数量大于等于阈值
当某个链表长度>=8,但是数组存储的结点数size() < 64时
特点:先插后判断是否需要扩容(扩容时是尾插法)
缺点:多线程下,1.8会有数据覆盖
链表长度大于8时才会考虑升级成红黑树,是有一个条件是 HashMap 的 Node 数组长度大于等于64(不满足则会进行一次扩容替代升级);
扩容 resize( ) 时,红黑树拆分成的 树的结点数小于等于临界值6个,则退化成链表;
删除元素 remove( ) 时,在 removeTreeNode( ) 方法会检查红黑树是否满足退化条件,与结点数无关。如果红黑树根 root 为空,或者 root 的左子树/右子树为空,root.left.left 根的左子树的左子树为空,都会发生红黑树退化成链表;
使用链地址法(使用散列表)来链接拥有相同下标的数据;
使用2次扰动函数(hash函数)来降低哈希冲突的概率,使得数据分布更平均;
引入红黑树进一步降低遍历的时间复杂度,使得遍历更快;