你好,我是朱晔。今天,我从设计的角度,与你聊聊缓存。
通常我们会使用更快的介质(比如内存)作为缓存,来解决较慢介质(比如磁盘)读取数据慢的问题,缓存是用空间换时间,来解决性能问题的一种架构设计模式。更重要的是,磁盘上存储的往往是原始数据,而缓存中保存的可以是面向呈现的数据。这样一来,缓存不仅仅是加快了IO,还可以减少原始数据的计算工作。
此外,缓存系统一般设计简单,功能相对单一,所以诸如Redis这种缓存系统的整体吞吐量,能达到关系型数据库的几倍甚至几十倍,因此缓存特别适用于互联网应用的高并发场景。
使用Redis做缓存虽然简单好用,但使用和设计缓存并不是set一下这么简单,需要注意缓存的同步、雪崩、并发、穿透等问题。今天,我们就来详细聊聊。
通常,我们会使用Redis等分布式缓存数据库来缓存数据,但是**千万别把Redis当做数据库来使用。**我就见过许多案例,因为Redis中数据消失导致业务逻辑错误,并且因为没有保留原始数据,业务都无法恢复。
Redis的确具有数据持久化功能,可以实现服务重启后数据不丢失。这一点,很容易让我们误认为Redis可以作为高性能的KV数据库。
其实,从本质上来看,Redis(免费版)是一个内存数据库,所有数据保存在内存中,并且直接从内存读写数据响应操作,只不过具有数据持久化能力。所以,Redis的特点是,处理请求很快,但无法保存超过内存大小的数据。
备注:VM模式虽然可以保存超过内存大小的数据,但是因为性能原因从2.6开始已经被废弃。此外,Redis企业版提供了Redis on Flash可以实现Key+字典+热数据保存在内存中,冷数据保存在SSD中。
因此,把Redis用作缓存,我们需要注意两点。
第一,从客户端的角度来说,缓存数据的特点一定是有原始数据来源,且允许丢失,即使设置的缓存时间是1分钟,在30秒时缓存数据因为某种原因消失了,我们也要能接受。当数据丢失后,我们需要从原始数据重新加载数据,不能认为缓存系统是绝对可靠的,更不能认为缓存系统不会删除没有过期的数据。
第二,从Redis服务端的角度来说,缓存系统可以保存的数据量一定是小于原始数据的。首先,我们应该限制Redis对内存的使用量,也就是设置maxmemory参数;其次,我们应该根据数据特点,明确Redis应该以怎样的算法来驱逐数据。
从Redis的文档可以看到,常用的数据淘汰策略有:
其实,这些算法是Key范围+Key选择算法的搭配组合,其中范围有allkeys和volatile两种,算法有LRU、TTL和LFU三种。接下来,我就从Key范围和算法角度,和你说说如何选择合适的驱逐算法。
首先,从算法角度来说,Redis 4.0以后推出的LFU比LRU更“实用”。试想一下,如果一个Key访问频率是1天一次,但正好在1秒前刚访问过,那么LRU可能不会选择优先淘汰这个Key,反而可能会淘汰一个5秒访问一次但最近2秒没有访问过的Key,而LFU算法不会有这个问题。而TTL会比较“头脑简单”一点,优先删除即将过期的Key,但有可能这个Key正在被大量访问。
然后,从Key范围角度来说,allkeys可以确保即使Key没有TTL也能回收,如果使用的时候客户端总是“忘记”设置缓存的过期时间,那么可以考虑使用这个系列的算法。而volatile会更稳妥一些,万一客户端把Redis当做了长效缓存使用,只是启动时候初始化一次缓存,那么一旦删除了此类没有TTL的数据,可能就会导致客户端出错。
所以,不管是使用者还是管理者都要考虑Redis的使用方式,使用者需要考虑应该以缓存的姿势来使用Redis,管理者应该为Redis设置内存限制和合适的驱逐策略,避免出现OOM。
由于缓存系统的IOPS比数据库高很多,因此要特别小心短时间内大量缓存失效的情况。这种情况一旦发生,可能就会在瞬间有大量的数据需要回源到数据库查询,对数据库造成极大的压力,极限情况下甚至导致后端数据库直接崩溃。这就是我们常说的缓存失效,也叫作缓存雪崩。
从广义上说,产生缓存雪崩的原因有两种:
第一种原因,主要涉及缓存系统本身高可用的配置,不属于缓存设计层面的问题,所以今天我主要和你说说如何确保大量Key不在同一时间被动过期。
程序初始化的时候放入1000条城市数据到Redis缓存中,过期时间是30秒;数据过期后从数据库获取数据然后写入缓存,每次从数据库获取数据后计数器+1;在程序启动的同时,启动一个定时任务线程每隔一秒输出计数器的值,并把计数器归零。
压测一个随机查询某城市信息的接口,观察一下数据库的QPS:
@Autowiredprivate StringRedisTemplate stringRedisTemplate;private AtomicInteger atomicInteger = new AtomicInteger();@PostConstructpublic void wrongInit() {//初始化1000个城市数据到Redis,所有缓存数据有效期30秒IntStream.rangeClosed(1, 1000).forEach(i -> stringRedisTemplate.opsForValue().set("city" + i, getCityFromDb(i), 30, TimeUnit.SECONDS));log.info("Cache init finished");//每秒一次,输出数据库访问的QPSExecutors.newSingleThreadScheduledExecutor().scheduleAtFixedRate(() -> {log.info("DB QPS : {}", atomicInteger.getAndSet(0));}, 0, 1, TimeUnit.SECONDS);}@GetMapping("city")public String city() {//随机查询一个城市int id = ThreadLocalRandom.current().nextInt(1000) + 1;String key = "city" + id;String data = stringRedisTemplate.opsForValue().get(key);if (data == null) {//回源到数据库查询data = getCityFromDb(id);if (!StringUtils.isEmpty(data))//缓存30秒过期stringRedisTemplate.opsForValue().set(key, data, 30, TimeUnit.SECONDS);}return data;}private String getCityFromDb(int cityId) {//模拟查询数据库,查一次增加计数器加一atomicInteger.incrementAndGet();return "citydata" + System.currentTimeMillis();}
使用wrk工具,设置10线程10连接压测city接口:
wrk -c10 -t10 -d 100s http://localhost:45678/cacheinvalid/city
启动程序30秒后缓存过期,回源的数据库QPS最高达到了700多:
解决缓存Key同时大规模失效需要回源,导致数据库压力激增问题的方式有两种。
方案一,差异化缓存过期时间,不要让大量的Key在同一时间过期。比如,在初始化缓存的时候,设置缓存的过期时间是30秒+10秒以内的随机延迟(扰动值)。这样,这些Key不会集中在30秒这个时刻过期,而是会分散在30~40秒之间过期:
@PostConstructpublic void rightInit1() {//这次缓存的过期时间是30秒+10秒内的随机延迟IntStream.rangeClosed(1, 1000).forEach(i -> stringRedisTemplate.opsForValue().set("city" + i, getCityFromDb(i), 30 + ThreadLocalRandom.current().nextInt(10), TimeUnit.SECONDS));log.info("Cache init finished");//同样1秒一次输出数据库QPS:Executors.newSingleThreadScheduledExecutor().scheduleAtFixedRate(() -> {log.info("DB QPS : {}", atomicInteger.getAndSet(0));}, 0, 1, TimeUnit.SECONDS);}
修改后,缓存过期时的回源不会集中在同一秒,数据库的QPS从700多降到了最高100左右:
方案二,让缓存不主动过期。初始化缓存数据的时候设置缓存永不过期,然后启动一个后台线程30秒一次定时把所有数据更新到缓存,而且通过适当的休眠,控制从数据库更新数据的频率,降低数据库压力:
@PostConstructpublic void rightInit2() throws InterruptedException {CountDownLatch countDownLatch = new CountDownLatch(1);//每隔30秒全量更新一次缓存Executors.newSingleThreadScheduledExecutor().scheduleAtFixedRate(() -> {IntStream.rangeClosed(1, 1000).forEach(i -> {String data = getCityFromDb(i);//模拟更新缓存需要一定的时间try {TimeUnit.MILLISECONDS.sleep(20);} catch (InterruptedException e) { }if (!StringUtils.isEmpty(data)) {//缓存永不过期,被动更新stringRedisTemplate.opsForValue().set("city" + i, data);}});log.info("Cache update finished");//启动程序的时候需要等待首次更新缓存完成countDownLatch.countDown();}, 0, 30, TimeUnit.SECONDS);Executors.newSingleThreadScheduledExecutor().scheduleAtFixedRate(() -> {log.info("DB QPS : {}", atomicInteger.getAndSet(0));}, 0, 1, TimeUnit.SECONDS);countDownLatch.await();}
这样修改后,虽然缓存整体更新的耗时在21秒左右,但数据库的压力会比较稳定:
关于这两种解决方案,我们需要特别注意以下三点:
之前我就遇到过这样一个重大事故,某系统会在缓存中对基础数据进行长达半年的缓存,在某个时间点DBA把数据库中的原始数据进行了归档(可以认为是删除)操作。因为缓存中的数据一直在所以一开始没什么问题,但半年后的一天缓存中数据过期了,就从数据库中查询到了空数据加入缓存,爆发了大面积的事故。
这个案例说明,缓存会让我们更不容易发现原始数据的问题,所以在把数据加入缓存之前一定要校验数据,如果发现有明显异常要及时报警。
说到这里,我们再仔细看一下回源QPS超过700的截图,可以看到在并发情况下,总共1000条数据回源达到了1002次,说明有一些条目出现了并发回源。这,就是我后面要讲到的缓存并发问题。
在某些Key属于极端热点数据,且并发量很大的情况下,如果这个Key过期,可能会在某个瞬间出现大量的并发请求同时回源,相当于大量的并发请求直接打到了数据库。这种情况,就是我们常说的缓存击穿或缓存并发问题。
我们来重现下这个问题。在程序启动的时候,初始化一个热点数据到Redis中,过期时间设置为5秒,每隔1秒输出一下回源的QPS:
@PostConstructpublic void init() {//初始化一个热点数据到Redis中,过期时间设置为5秒stringRedisTemplate.opsForValue().set("hotsopt", getExpensiveData(), 5, TimeUnit.SECONDS);//每隔1秒输出一下回源的QPSExecutors.newSingleThreadScheduledExecutor().scheduleAtFixedRate(() -> {log.info("DB QPS : {}", atomicInteger.getAndSet(0));}, 0, 1, TimeUnit.SECONDS);}@GetMapping("wrong")public String wrong() {String data = stringRedisTemplate.opsForValue().get("hotsopt");if (StringUtils.isEmpty(data)) {data = getExpensiveData();//重新加入缓存,过期时间还是5秒stringRedisTemplate.opsForValue().set("hotsopt", data, 5, TimeUnit.SECONDS);}return data;}
可以看到,每隔5秒数据库都有20左右的QPS:
如果回源操作特别昂贵,那么这种并发就不能忽略不计。这时,我们可以考虑使用锁机制来限制回源的并发。比如如下代码示例,使用Redisson来获取一个基于Redis的分布式锁,在查询数据库之前先尝试获取锁:
@Autowiredprivate RedissonClient redissonClient;@GetMapping("right")public String right() {String data = stringRedisTemplate.opsForValue().get("hotsopt");if (StringUtils.isEmpty(data)) {RLock locker = redissonClient.getLock("locker");//获取分布式锁if (locker.tryLock()) {try {data = stringRedisTemplate.opsForValue().get("hotsopt");//双重检查,因为可能已经有一个B线程过了第一次判断,在等锁,然后A线程已经把数据写入了Redis中if (StringUtils.isEmpty(data)) {//回源到数据库查询data = getExpensiveData();stringRedisTemplate.opsForValue().set("hotsopt", data, 5, TimeUnit.SECONDS);}} finally {//别忘记释放,另外注意写法,获取锁后整段代码try+finally,确保unlock万无一失locker.unlock();}}}return data;}
这样,可以把回源到数据库的并发限制在1:
在真实的业务场景下,不一定要这么严格地使用双重检查分布式锁进行全局的并发限制,因为这样虽然可以把数据库回源并发降到最低,但也限制了缓存失效时的并发。可以考虑的方式是:
在之前的例子中,缓存回源的逻辑都是当缓存中查不到需要的数据时,回源到数据库查询。这里容易出现的一个漏洞是,缓存中没有数据不一定代表数据没有缓存,还有一种可能是原始数据压根就不存在。
比如下面的例子。数据库中只保存有ID介于0(不含)和10000(包含)之间的用户,如果从数据库查询ID不在这个区间的用户,会得到空字符串,所以缓存中缓存的也是空字符串。如果使用ID=0去压接口的话,从缓存中查出了空字符串,认为是缓存中没有数据回源查询,其实相当于每次都回源:
@GetMapping("wrong")public String wrong(@RequestParam("id") int id) {String key = "user" + id;String data = stringRedisTemplate.opsForValue().get(key);//无法区分是无效用户还是缓存失效if (StringUtils.isEmpty(data)) {data = getCityFromDb(id);stringRedisTemplate.opsForValue().set(key, data, 30, TimeUnit.SECONDS);}return data;}private String getCityFromDb(int id) {atomicInteger.incrementAndGet();//注意,只有ID介于0(不含)和10000(包含)之间的用户才是有效用户,可以查询到用户信息if (id > 0 && id <= 10000) return "userdata";//否则返回空字符串return "";}
压测后数据库的QPS达到了几千:
如果这种漏洞被恶意利用的话,就会对数据库造成很大的性能压力。这就是缓存穿透。
这里需要注意,缓存穿透和缓存击穿的区别:
解决缓存穿透有以下两种方案。
方案一,对于不存在的数据,同样设置一个特殊的Value到缓存中,比如当数据库中查出的用户信息为空的时候,设置NODATA这样具有特殊含义的字符串到缓存中。这样下次请求缓存的时候还是可以命中缓存,即直接从缓存返回结果,不查询数据库:
@GetMapping("right")public String right(@RequestParam("id") int id) {String key = "user" + id;String data = stringRedisTemplate.opsForValue().get(key);if (StringUtils.isEmpty(data)) {data = getCityFromDb(id);//校验从数据库返回的数据是否有效if (!StringUtils.isEmpty(data)) {stringRedisTemplate.opsForValue().set(key, data, 30, TimeUnit.SECONDS);}else {//如果无效,直接在缓存中设置一个NODATA,这样下次查询时即使是无效用户还是可以命中缓存stringRedisTemplate.opsForValue().set(key, "NODATA", 30, TimeUnit.SECONDS);}}return data;}
但,这种方式可能会把大量无效的数据加入缓存中,如果担心大量无效数据占满缓存的话还可以考虑方案二,即使用布隆过滤器做前置过滤。
布隆过滤器是一种概率型数据库结构,由一个很长的二进制向量和一系列随机映射函数组成。它的原理是,当一个元素被加入集合时,通过k个散列函数将这个元素映射成一个m位bit数组中的k个点,并置为1。
检索时,我们只要看看这些点是不是都是1就(大概)知道集合中有没有它了。如果这些点有任何一个0,则被检元素一定不在;如果都是1,则被检元素很可能在。
原理如下图所示:
布隆过滤器不保存原始值,空间效率很高,平均每一个元素占用2.4字节就可以达到万分之一的误判率。这里的误判率是指,过滤器判断值存在而实际并不存在的概率。我们可以设置布隆过滤器使用更大的存储空间,来得到更小的误判率。
你可以把所有可能的值保存在布隆过滤器中,从缓存读取数据前先过滤一次:
要用上布隆过滤器,我们可以使用Google的Guava工具包提供的BloomFilter类改造一下程序:启动时,初始化一个具有所有有效用户ID的、10000个元素的BloomFilter,在从缓存查询数据之前调用其mightContain方法,来检测用户ID是否可能存在;如果布隆过滤器说值不存在,那么一定是不存在的,直接返回:
private BloomFilter<Integer> bloomFilter;@PostConstructpublic void init() {//创建布隆过滤器,元素数量10000,期望误判率1%bloomFilter = BloomFilter.create(Funnels.integerFunnel(), 10000, 0.01);//填充布隆过滤器IntStream.rangeClosed(1, 10000).forEach(bloomFilter::put);}@GetMapping("right2")public String right2(@RequestParam("id") int id) {String data = "";//通过布隆过滤器先判断if (bloomFilter.mightContain(id)) {String key = "user" + id;//走缓存查询data = stringRedisTemplate.opsForValue().get(key);if (StringUtils.isEmpty(data)) {//走数据库查询data = getCityFromDb(id);stringRedisTemplate.opsForValue().set(key, data, 30, TimeUnit.SECONDS);}}return data;}
对于方案二,我们需要同步所有可能存在的值并加入布隆过滤器,这是比较麻烦的地方。如果业务规则明确的话,你也可以考虑直接根据业务规则判断值是否存在。
其实,方案二可以和方案一同时使用,即将布隆过滤器前置,对于误判的情况再保存特殊值到缓存,双重保险避免无效数据查询请求打到数据库。
前面提到的3个案例,其实都属于缓存数据过期后的被动删除。在实际情况下,修改了原始数据后,考虑到缓存数据更新的及时性,我们可能会采用主动更新缓存的策略。这些策略可能是:
那么,我们应该选择哪种更新策略呢?我来和你逐一分析下这4种策略:
“先更新缓存再更新数据库”策略不可行。数据库设计复杂,压力集中,数据库因为超时等原因更新操作失败的可能性较大,此外还会涉及事务,很可能因为数据库更新失败,导致缓存和数据库的数据不一致。
“先更新数据库再更新缓存”策略不可行。一是,如果线程A和B先后完成数据库更新,但更新缓存时却是B和A的顺序,那很可能会把旧数据更新到缓存中引起数据不一致;二是,我们不确定缓存中的数据是否会被访问,不一定要把所有数据都更新到缓存中去。
“先删除缓存再更新数据库,访问的时候按需加载数据到缓存”策略也不可行。在并发的情况下,很可能删除缓存后还没来得及更新数据库,就有另一个线程先读取了旧值到缓存中,如果并发量很大的话这个概率也会很大。
“先更新数据库再删除缓存,访问的时候按需加载数据到缓存”策略是最好的。虽然在极端情况下,这种策略也可能出现数据不一致的问题,但概率非常低,基本可以忽略。举一个“极端情况”的例子,比如更新数据的时间节点恰好是缓存失效的瞬间,这时A先读取到了旧值,随后在B操作数据库完成更新并且删除了缓存之后,A再把旧值加入缓存。
需要注意的是,更新数据库后删除缓存的操作可能失败,如果失败则考虑把任务加入延迟队列进行延迟重试,确保数据可以删除,缓存可以及时更新。因为删除操作是幂等的,所以即使重复删问题也不是太大,这又是删除比更新好的一个原因。
因此,针对缓存更新更推荐的方式是,缓存中的数据不由数据更新操作主动触发,统一在需要使用的时候按需加载,数据更新后及时删除缓存中的数据即可。
今天,我主要是从设计的角度,和你分享了数据缓存的三大问题。
第一,我们不能把诸如Redis的缓存数据库完全当作数据库来使用。我们不能假设缓存始终可靠,也不能假设没有过期的数据必然可以被读取到,需要处理好缓存的回源逻辑;而且要显式设置Redis的最大内存使用和数据淘汰策略,避免出现OOM的问题。
第二,缓存的性能比数据库好很多,我们需要考虑大量请求绕过缓存直击数据库造成数据库瘫痪的各种情况。对于缓存瞬时大面积失效的缓存雪崩问题,可以通过差异化缓存过期时间解决;对于高并发的缓存Key回源问题,可以使用锁来限制回源并发数;对于不存在的数据穿透缓存的问题,可以通过布隆过滤器进行数据存在性的预判,或在缓存中也设置一个值来解决。
第三,当数据库中的数据有更新的时候,需要考虑如何确保缓存中数据的一致性。我们看到,“先更新数据库再删除缓存,访问的时候按需加载数据到缓存”的策略是最为妥当的,并且要尽量设置合适的缓存过期时间,这样即便真的发生不一致,也可以在缓存过期后数据得到及时同步。
最后,我要提醒你的是,在使用缓存系统的时候,要监控缓存系统的内存使用量、命中率、对象平均过期时间等重要指标,以便评估系统的有效性,并及时发现问题。
今天用到的代码,我都放在了GitHub上,你可以点击这个链接查看。
关于缓存设计,你还遇到过哪些坑呢?我是朱晔,欢迎在评论区与我留言分享你的想法,也欢迎你把今天的内容分享给你的朋友或同事,一起交流。