文章很长,而且持续更新,建议收藏起来,慢慢读!疯狂创客圈总目录 博客园版 为您奉上珍贵的学习资源 :
免费赠送 :《尼恩Java面试宝典》 持续更新+ 史上最全 + 面试必备 2000页+ 面试必备 + 大厂必备 +涨薪必备
免费赠送 经典图书:《Java高并发核心编程(卷1)加强版》 面试必备 + 大厂必备 +涨薪必备 加尼恩免费领
免费赠送 经典图书:《Java高并发核心编程(卷2)加强版》 面试必备 + 大厂必备 +涨薪必备 加尼恩免费领
免费赠送 经典图书:《Java高并发核心编程(卷3)加强版》 面试必备 + 大厂必备 +涨薪必备 加尼恩免费领
免费赠送 经典图书:《尼恩Java面试宝典 V11》 面试必备 + 大厂必备 +涨薪必备 加尼恩免费领
免费赠送 资源宝库: Java 必备 百度网盘资源大合集 价值>10000元 加尼恩领取
一个普通系统,假设10W人同时访问,如何保证不 雪崩?
这个,是面试当中,一道非常场景的: 场景题。
如果面试遇到这个问题,很多小伙伴的第一反应:
怎么可能,我们的系统,总体的用户量,不到1万, 怎么可能会有10W人同时访问。
这个问题,如果遇到了,只能会硬着头皮作答。
如果直接用这个疑问,去反问面试官,那么 ,面试官一定会说这小子 没有遇到过事情。
为啥呢?
因为哪怕用户不到1万,还是可能会有10W人同时访问。
这些人包括:
- 爬虫
- 刷子(羊毛党)
爬虫对访问量的贡献
大家应该听过一句话吧,整个互联网上大概有 50%以上的流量其实是爬虫。
一个做反爬虫哥们,发现了一个极端案例,
某个页面12000次点击里边,98%的点击率,是爬虫贡献的。
爬虫和用户的比例是 19比1.
那么 1W用户, 可能会对应到19W 爬虫,
那么 1W用户, 有没有 10W的 同时访问的可能呢?
因为 大量爬虫的存着, 当然有的。
刷子用户(羊毛党)对访问量的贡献
“羊毛党”战术之一:开启机器人批量注册新账号,招募“新兵”。
“这是个‘昏招’,批量注册的账号很容易识别。
“羊毛党”战术之二:提前囤积账号,囤积的老账号”。
但通过注册时间、注册地与下单地比对等方式,很快识别出来。
某年的“618”电商节活动期间,某电商公司,平均每天拦截“羊毛党”账号2000万个。
那么 1W用户, 可能会对应到多少羊毛党用户呢?
其中,可能会包含部分 提前囤积账号
另外,在 活动执行的过程中, 还是有 可能 批量注册大量的新账号
那么 1W用户, 有没有 10W的 同时访问的可能呢?
只要有利可图,就会有 刷子用户(羊毛党),他们会通过群体人手,或者 自动化工具,制造大量的瞬间流量。
这些自动化工具,在 1s之内, 尝试10W次。
所以,只要是有利可图,如 秒杀等, 那么 1W用户, 有没有 10W的 同时访问的可能呢?
当然有的。
假设10W人突然访问,现有架构能否扛住?
按照之前尼恩和大家分析的架构理论
一个系统10W人同时访问 , 也就是:并发量为 10w Qps
那么 10w Qps ,对应到多少用户量呢 ?
是 一个1亿的用户量。
而 ,我们很多同学手上的 系统, 总体的用户量 不到1万,
不到1万的用户,对应到多少 的 吞吐量呢?
是 10。
没错,如果 总体的用户量 不到1万,按照 正常估算, 吞吐量就只有 10。
也就是说, 如果我们按照 1万 做系统架构
这种架构,对于 qps 为10 的小流量来说,可以说是 小菜一碟。
可以说,用牛刀 在 杀鸡。
那么,如果发生突发情况,
假设10W人突然访问,我们的架构,如何抵抗?
大家看看,上面的架构, 能抵抗吗?
接入层和服务层如何抵抗?
方式之一: 扩容
方式之二:限流
首先能用到的策略: 扩容
大家首先会想到的策略,就是扩容。
但是,如果流量是突发的, 又不知道什么时候扩, 怎么办呢?
那么就是自动扩容。
自动扩容虽然比较难,办法总是有的,只要稍微想想,就出来了。
大致有两种自动扩容方式,具体请参见 《java 高并发核心编程 卷3》 第 1.5.3 小节。
其次能用到的策略: 限流
- nginx 限流
- SpringCloud gateway 限流
接入层限流可以进行 nginx 限流
微服务 SpringCloud gateway 里边,
还 可以使用 redis lua进行分布式限流, 或者使用 sentinel 进行 限流,
经过 扩容和限流, 咱们的系统,应该可以扛住 10Wqps, 因为可以把流量限制到 1Wqps,甚至是 1 K qps。
谁怪 有那么多刷子流量,或者 爬虫流量呢。
但是,限流是无奈之举。
或者说,如果10Wqps,都是有效流量, 不能使用限流这 简单粗暴的方式 , 而是这个 10Wqps 必须进入到服务层。
分布式Redis集群如何抵抗?
这个 10Wqps 必须进入到服务层。
怎么办?
服务层 倒是好说,和网关一样, 可以通过扩容解决。
所以,后面的 流量就进入 redis集群。
redis 集群一般搭建的是 3主3从:
一般来说,主节点提供服务, 从节点是做冗余的, 并不提供数据的写入服务。
redis cluster模式官方默认主节点提供读写, 从节点提供slot数据备份以及故障转移。默认情况下,从节点并不提供数据读写服务。
单个redis 的吞吐量,一般就是 2W左右。
那么 10Wqps,访问 redis cluster,分布到 3个节点, 还是不够。
如果 10Wqps 访问的是同一个key, 那就问题更大了。
因为 单个redis 的吞吐量,一般就是 2W左右。 怎么可能扛住 5倍的吞吐量。
于是就很容易出现 redis cpu 100%, 请求排队, 没有响应,严重的情况 出现 redis 雪崩。
于是乎,改怎么办” />
先发问一级缓存caffeine ,如果 没有找到,再访问 二级缓存 redis 集群
三级缓存架构:
nginx本地缓存+ java 本地缓存+ redis 分布式缓存,具体如下图:
本地缓存的优缺点
1. 快但是量少:访问速度快,但无法进行大数据存储
本地缓存相对于分布式缓存的好处是,由于数据不需要跨网络传输,故性能更好,
但是由于占用了应用进程的内存空间,如 Java 进程的 JVM 内存空间,故不能进行大数据量的数据存储。
2. 需要解决数据一致性问题:本地缓存、分布式缓存、DB数据一致性问题
与此同时,本地缓存只支持被该应用进程访问,一般无法被其他应用进程访问,故在应用进程的集群部署当中,
如果对应的数据库数据,存在数据更新,则需要同步更新不同部署节点的缓存数据来包保证数据一致性,
复杂度较高并且容易出错,如基于 rocketmq 的发布订阅机制来同步更新各个部署节点。
3.未持久化,容易丢失: 数据随应用进程的重启而丢失
由于本地缓存的数据是存储在应用进程的内存空间的,所以当应用进程重启时,本地缓存的数据会丢失。
所以对于需要更改然后持久化的数据,需要注意及时保存,否则可能会造成数据丢失。
4.需要尽量缓存热点key,而提升缓存的命中率
由于本地缓存太小,从而很容易被淘汰,
如果还没有来得及访问,本地缓存中的数据,就被淘汰了,那就失去了本地缓存的价值, 当然,本地缓存的命中率也会很低。
如何提升缓存的命中率?
方式1: 采用更好的 缓存淘汰策略
比如caffeine中,使用了 w-tinylfu 策略。
这种策略的 缓存的命中率,比较简单的 lfu、lru 都 高出很多。
有测试表明: caffeine 比 guava 的命中率,不同场景,都会高出10%以上。
方式2: 尽量识别和缓存 热点数据
简单的说,把热点数据, 加载到本地缓存。
什么是HotKey?
在某个Key接收到的访问次数、显著高于其它Key时,我们可以将其称之为HotKey,
从访问量上来说,常见的HotKey如:
- 某Redis实例的每秒总访问量为10000,而其中一个Key的每秒访问量达到了7000(访问次数显著高于其它Key)
- 对一个拥有上千个成员且总大小为1MB的HASH Key每秒发送大量的HGETALL(带宽占用显著高于其它Key)
- 对一个拥有数万个成员的ZSET Key每秒发送大量的ZRANGE(CPU时间占用显著高于其它Key)
从业务上来说, 常见的HotKey如:
1 、MySQL等数据库会被频繁访问的热数据
如爆款商品的skuId。
2 、redis的被密集访问的key
如爆款商品的各维度信息,skuId、shopId等。
3 、机器人、爬虫、刷子用户
如用户的userId、uuid、ip等。
4 、某个接口地址
如/sku/query或者更精细维度的。
注意,我们的HotKey探测框架只关心key,其实就是一个字符串,
HotKey对服务层和数据层的风险
在拥有大量并发用户的系统中,HotKey一直以来都是一个不可避免的问题。
或许是突然某些商品成了爆款,
或许是海量用户突然涌入某个店铺,
或许是秒杀时瞬间大量开启的爬虫用户,
突发大批机器人以远超正常用户的速度发起极其密集的请求,这些机器人只需要很小的代价,就能发出百倍于普通用户的请求量,从而大幅挤占正常用户的资源。
以京东为例的这些头部互联网公司,动辄某个爆品,会瞬间引入每秒上百万甚至数百万的请求,当然流量多数会在几秒内就消失。
但就是这短短的几秒的HotKey,就会瞬间造成其所在redis分片集群瘫痪。
原因也很简单,redis作为一个单线程的结构,所有的请求到来后都会去排队,当请求量远大于自身处理能力时,后面的请求会陷入等待、超时。
由于该redis分片完全被这个key的请求给打满,导致该分片上所有其他数据操作都无法继续提供服务,也就是HotKey不仅仅影响自己,还会影响和它合租的数据。
这样,redis 缓存没有响应之后,相当于 redis 击穿, 请求直接转向DB
DB的吞吐量,比如会低很多,DB 就会雪崩。
总结一下,HotKey带来的常见问题
- HotKey占用大量的Redis CPU时间,使其性能变差并影响其它请求;
- Redis Cluster中各node流量不均衡造成Redis Cluster的分布式优势无法被Client利用,一个分片负载很高而其它分片十分空闲从而产生读/写热点问题;
- 在抢购、秒杀活动中,由于商品对应库存Key的请求量过大,超出Redis处理能力造成超卖;
- HotKey的请求压力数量超出Redis的承受能力造成缓存击穿,此时大量强求将直接指向后端存储,将后端存储打挂并影响到其它业务;
HotKey问题的根本:
HotKey问题归根到底就是如何找到HotKey,并将HotKey放到本地内存的问题。
只要该key在内存里,我们就能极快地来对它做逻辑,内存访问和redis访问的速度不在一个量级。
如果该key是在本地内存中,读取一个内存中的值,每秒多少个万次都是很正常的,不存在任何数据层的瓶颈。
但问题是事先不知道HotKey在哪里?
那么,问题就来了,如何进行 HotKey的探测?
HotKey探测关键指标
1、实时性
这个很容易理解,key往往是突发性瞬间就热了,根本不给你再慢悠悠手工去配置中心添加HotKey再推送到jvm的机会。
它大部分时间不可预知,来得也非常迅速,可能某个商家上个活动,瞬间HotKey就出现了。如果短时间内没能进到内存,就有redis集群被打爆的风险。
所以HotKey探测框架最重要的就是实时性,最好是某个key刚有热的苗头,在1秒内它就已经进到整个服务集群的内存里了,1秒后就不会再去密集访问redis了。
同理,对于刷子用户也一样,刚开始刷,1秒内我就把它给禁掉了。
2、准确性
这个很重要,也容易实现,累加数量,做到不误探,精准探测,保证探测出的HotKey是完全符合用户自己设定的阈值。
3、集群一致性
这个比较重要,尤其是某些带删除key的场景,要能做到删key时整个集群内的该key都会删掉,以避免数据的错误。
4、高性能
这个是核心之一,高性能带来的就是低成本,做HotKey探测目的就是为了降低数据层的负载,提升应用层的性能,节省服务器资源。不然,大家直接去整体扩充redis集群规模就好了。
理论上,在不影响实时性的情况下,要完成实时HotKey探测,所消耗的机器资源越少,那么经济价值就越大。
如何实现HotKey探测?
HotKey探测方案1: 流计算集群
通过 流式计算集群 storm/ flink 集群,进行 topkey
java 应用将访问 记录发送到 消息队列,如 kafka
storm、flink 集群,进行top N 的计算,把top N 结果存在 redis
其中的 top N 的key,就是热点 key
HotKey探测方案2: 流计算集群
有赞透明多级缓存解决方案
HotKey探测方案3: 结合开源hotkey,做热点探测
比如:结合京东开源hotkey,做热点探测
HotKey探测方案2:有赞透明多级缓存解决方案(TMC)
一、TMC简介
1-1. TMC 是什么
TMC ,即“透明多级缓存( Transparent Multilevel Cache )”,是有赞 PaaS 团队给公司内应用提供的整体缓存解决方案。
TMC 在通用“分布式缓存解决方案(如 CodisProxy + Redis ,如有赞自研分布式缓存系统 zanKV )”基础上,增加了以下功能:
- 应用层热点探测
- 应用层本地缓存
- 应用层缓存命中统计
以帮助应用层解决缓存使用过程中出现的热点访问问题。
1-2. 为什么要做 TMC
使用有赞服务的电商商家数量和类型很多,商家会不定期做一些“商品秒杀”、“商品推广”活动,导致“营销活动”、“商品详情”、“交易下单”等链路应用出现 缓存热点访问 的情况:
- 活动时间、活动类型、活动商品之类的信息不可预期,导致 缓存热点访问 情况不可提前预知;
- 缓存热点访问 出现期间,应用层少数 热点访问 key 产生大量缓存访问请求:冲击分布式缓存系统,大量占据内网带宽,最终影响应用层系统稳定性;
为了应对以上问题,需要一个能够 自动发现热点 并 将热点缓存访问请求前置在应用层本地缓存 的解决方案,这就是 TMC 产生的原因。
1-3. 多级缓存解决方案的痛点
基于上述描述,我们总结了下列 多级缓存解决方案 需要解决的需求痛点:
- 热点探测:如何快速且准确的发现 热点访问 key ?
- 数据一致性:前置在应用层的本地缓存,如何保障与分布式缓存系统的数据一致性?
- 效果验证:如何让应用层查看本地缓存命中率、热点 key 等数据,验证多级缓存效果?
- 透明接入:整体解决方案如何减少对应用系统的入侵,做到快速平滑接入?
TMC 聚焦上述痛点,设计并实现了整体解决方案。
以支持“热点探测”和“本地缓存”,减少热点访问时对下游分布式缓存服务的冲击,避免影响应用服务的性能及稳定性。
二、 TMC 整体架构
TMC 整体架构如上图,共分为三层:
- 存储层:提供基础的kv数据存储能力,针对不同的业务场景选用不同的存储服务( codis / zankv / aerospike );
- 代理层:为应用层提供统一的缓存使用入口及通信协议,承担分布式数据水平切分后的路由功能转发工作;
- 应用层:提供统一客户端给应用服务使用,内置“热点探测”、“本地缓存”等功能,对业务透明;
三、 TMC 本地缓存
3-1. 如何透明
TMC 是如何减少对业务应用系统的入侵,做到透明接入的?
对于公司 Java 应用服务,在缓存客户端使用方式上分为两类:
- 基于
spring.data.redis
包,使用RedisTemplate
编写业务代码; - 基于
youzan.framework.redis
包,使用RedisClient
编写业务代码;
不论使用以上那种方式,最终通过JedisPool
创建的Jedis
对象与缓存服务端代理层做请求交互。
TMC 对原生jedis包的JedisPool
和Jedis
类做了改造,
在JedisPool初始化过程中, 集成TMC“热点发现”+“本地缓存”功能Hermes-SDK
包的初始化逻辑,
使Jedis
客户端与缓存服务端代理层交互时, 先与Hermes-SDK
交互,从而完成 “热点探测”+“本地缓存”功能的透明接入。
对于 Java 应用服务,只需使用特定版本的 jedis-jar 包,无需修改代码,即可接入 TMC 使用“热点发现”+“本地缓存”功能,做到了对应用系统的最小入侵。
3-2. 整体结构
3-2-1. 模块划分
TMC 本地缓存整体结构分为如下模块:
- Jedis-Client: Java 应用与缓存服务端交互的直接入口,接口定义与原生 Jedis-Client 无异;
- Hermes-SDK:自研“热点发现+本地缓存”功能的SDK封装, Jedis-Client 通过与它交互来集成相应能力;
- Hermes服务端集群:接收 Hermes-SDK 上报的缓存访问数据,进行热点探测,将热点 key 推送给 Hermes-SDK 做本地缓存;
- 缓存集群:由代理层和存储层组成,为应用客户端提供统一的分布式缓存服务入口;
- 基础组件: etcd 集群、 Apollo 配置中心,为 TMC 提供“集群推送”和“统一配置”能力;
3-2-2. 基本流程
1) key 值获取
- Java 应用调用 Jedis-Client 接口获取key的缓存值时,Jedis-Client 会询问 Hermes-SDK 该 key 当前是否是 热点key;
- 对于 热点key ,直接从 Hermes-SDK 的 热点模块 获取热点 key 在本地缓存的 value 值,不去访问 缓存集群 ,从而将访问请求前置在应用层;
- 对于非 热点key ,Hermes-SDK 会通过
Callable
回调 Jedis-Client 的原生接口,从 缓存集群 拿到 value 值; - 对于 Jedis-Client 的每次 key 值访问请求,Hermes-SDK 都会通过其 通信模块 将 key访问事件 异步上报给 Hermes服务端集群 ,以便其根据上报数据进行“热点探测”;
2)key值过期
- Java 应用调用 Jedis-Client 的
set()
del()
expire()
接口时会导致对应 key 值失效,Jedis-Client 会同步调用 Hermes-SDK 的invalid()
方法告知其“ key 值失效”事件; - 对于 热点key ,Hermes-SDK 的 热点模块 会先将 key 在本地缓存的 value 值失效,以达到本地数据强一致。同时 通信模块 会异步将“ key 值失效”事件通过 etcd集群 推送给 Java 应用集群中其他 Hermes-SDK 节点;
- 其他Hermes-SDK节点的 通信模块 收到 “ key 值失效”事件后,会调用 热点模块 将 key 在本地缓存的 value 值失效,以达到集群数据最终一致;
3)热点发现
- Hermes服务端集群 不断收集 Hermes-SDK上报的 key访问事件,对不同业务应用集群的缓存访问数据进行周期性(3s一次)分析计算,以探测业务应用集群中的热点key列表;
- 对于探测到的热点key列表,Hermes服务端集群 将其通过 etcd集群 推送给不同业务应用集群的 Hermes-SDK 通信模块,通知其对热点key列表进行本地缓存;
4)配置读取
- Hermes-SDK 在启动及运行过程中,会从 Apollo配置中心 读取其关心的配置信息(如:启动关闭配置、黑白名单配置、etcd地址…);
- Hermes服务端集群 在启动及运行过程中,会从 Apollo配置中心 读取其关心的配置信息(如:业务应用列表、热点阈值配置、 etcd 地址…);
3-2-3. 稳定性
TMC本地缓存稳定性表现在以下方面:
- 数据上报异步化:Hermes-SDK 使用
rsyslog技术
对“ key 访问事件”进行异步化上报,不会阻塞业务; - 通信模块线程隔离:Hermes-SDK 的 通信模块 使用独立线程池+有界队列,保证事件上报&监听的I/O操作与业务执行线程隔离,即使出现非预期性异常也不会影响基本业务功能;
- 缓存管控:Hermes-SDK 的 热点模块 对本地缓存大小上限进行了管控,使其占用内存不超过 64MB(LRU),杜绝 JVM 堆内存溢出的可能;
3-2-4. 一致性
TMC 本地缓存一致性表现在以下方面:
- Hermes-SDK 的 热点模块 仅缓存 热点key 数据,绝大多数非热点 key 数据由 缓存集群 存储;
- 热点key 变更导致 value 失效时,Hermes-SDK 同步失效本地缓存,保证 本地强一致;
- 热点key 变更导致 value 失效时,Hermes-SDK 通过 etcd集群 广播事件,异步失效业务应用集群中其他节点的本地缓存,保证 集群最终一致;
四、TMC热点发现
4-1. 整体流程
TMC 热点发现流程分为四步:
- 数据收集:收集 Hermes-SDK 上报的 key访问事件;
- 热度滑窗:对 App 的每个 Key ,维护一个时间轮,记录基于当前时刻滑窗的访问热度;
- 热度汇聚:对 App 的所有 Key ,以
的形式进行 热度排序汇总;
- 热点探测:对 App ,从 热Key排序汇总 结果中选出 TopN的热点Key ,推送给 Hermes-SDK;
4-2. 数据收集
Hermes-SDK 通过本地rsyslog
将 key访问事件 以协议格式放入 kafka ,Hermes服务端集群 的每个节点消费 kafka 消息,实时获取 key访问事件。
访问事件协议格式如下:
- appName:集群节点所属业务应用
- uniqueKey:业务应用 key访问事件 的 key
- sendTime:业务应用 key访问事件 的发生时间
- weight:业务应用 key访问事件 的访问权值
Hermes服务端集群 节点将收集到的 key访问事件 存储在本地内存中,
内存数据结构为Map<String, Map>
,
对应业务含义映射为Map< appName , Map>
。
4-3. 热度滑窗
4-3-1. 时间滑窗
Hermes服务端集群 节点,对每个App的每个 key ,维护了一个 时间轮:
- 时间轮中共10个 时间片,每个时间片记录当前 key 对应 3 秒时间周期的总访问次数;
- 时间轮10个时间片的记录累加即表示当前 key 从当前时间向前 30 秒时间窗口内的总访问次数;
4-3-2. 映射任务
Hermes服务端集群 节点,对每个 App 每3秒 生成一个 映射任务 ,交由节点内 “缓存映射线程池” 执行。
映射任务 内容如下:
- 对当前 App ,从
Map< appName , Map>
中取出 appName 对应的MapMap>
; - 遍历
Map>
中的 key ,对每个 key 取出其热度存入其 时间轮 对应的时间片中;
4-4. 热度汇聚
完成第二步“热度滑窗”后,映射任务 继续对当前 App 进行“热度汇聚”工作:
- 遍历 App 的 key ,将每个 key 的 时间轮 热度进行汇总(即30秒时间窗口内总热度)得到探测时刻 滑窗总热度;
- 将
以排序集合的方式存入 Redis存储服务 中,即 热度汇聚结果;
4-5. 热点探测
- 在前几步,每3秒 一次的 映射任务 执行,对每个 App 都会产生一份当前时刻的 热度汇聚结果 ;
- Hermes服务端集群 中的“热点探测”节点,对每个 App ,只需周期性从其最近一份 热度汇聚结果 中取出达到热度阈值的 TopN 的 key 列表,即可得到本次探测的 热点key列表;
TMC 热点发现整体流程如下图:
4-6. 特性总结
4-6-1. 实时性
Hermes-SDK基于rsyslog + kafka 实时上报 key访问事件。
映射任务 3秒一个周期完成“热度滑窗” + “热度汇聚”工作,当有 热点访问场景 出现时最长3秒即可探测出对应 热点key。
4-6-2. 准确性
key 的热度汇聚结果由“基于时间轮实现的滑动窗口”汇聚得到,相对准确地反应当前及最近正在发生访问分布。
4-6-3.扩展性
Hermes服务端集群 节点无状态,节点数可基于 kafka 的 partition 数量横向扩展。
“热度滑窗” + “热度汇聚” 过程基于 App 数量,在单节点内多线程扩展。
五、TMC实战效果
5-1. 快手商家某次商品营销活动
有赞商家通过快手直播平台为某商品搞活动,造成该商品短时间内被集中访问产生访问热点,活动期间 TMC 记录的实际热点访问效果数据如下:
5-1-1. 某核心应用的缓存请求&命中率曲线图
- 上图蓝线为应用集群调用
get()
方法访问缓存次数 - 上图绿线为获取缓存操作命中 TMC 本地缓存的次数
- 上图为本地缓存命中率曲线图
可以看出活动期间缓存请求量及本地缓存命中量均有明显增长,本地缓存命中率达到近 80% (即应用集群中 80% 的缓存查询请求被 TMC 本地缓存拦截)。
5-1-2. 热点缓存对应用访问的加速效果
- 上图为应用接口QPS曲线
- 上图为应用接口RT曲线
可以看出活动期间应用接口的请求量有明显增长,由于 TMC 本地缓存的效果应用接口的 RT 反而出现下降。
5-2. 双十一期间部分应用 TMC 效果展示
5-2-1. 商品域核心应用效果
5-2-2. 活动域核心应用效果
六、TMC功能展望
在有赞, TMC 目前已为商品中心、物流中心、库存中心、营销活动、用户中心、网关&消息等多个核心应用模块提供服务,后续应用也在陆续接入中。
TMC 在提供“热点探测” + “本地缓存”的核心能力同时,也为应用服务提供了灵活的配置选择,应用服务可以结合实际业务情况在“热点阈值”、“热点key探测数量”、“热点黑白名单”维度进行自由配置以达到更好的使用效果。
配合三级缓存的使用,需要进行 热key的 探测,有赞平台通过 热key的探测和 支持,
其中:活动期间,本地缓存命中率达到近 80%的命中率, 并且, 响应时间,和平峰时段,没有变化。
HotKey探测方案3: 结合开源hotkey,做热点探测
基于开源hotkey进行 热点探测,有很多小伙伴,在生产系统进行了 缓存系统的重构
下面将重构前与重构后做下对照,来说明这套机制的优缺点。
特性 | 重构系统前 | 使用京东hotkey重构系统后 |
---|---|---|
机器资源 | 高配物理机/虚拟机 | 普通物理机/虚拟机/容器 |
管控复杂 | 无法控制热点,不易监控 | 热点数据可以监控统计,可以手动刷新 |
资源利用率 | 资源利用率低,无论是否是热点数据都占用资源 | 资源利用率高,大部分热点数据持有资源 |
突发流量 | 无法弹性应对突发流量 | 弹性应对突发流量 |
预发流量 | 预设所有数据 | 只提前预设热点数据 |
数据一致性 | 集群内数据不一致情况时常发生,出现“横跳”现象 | 集群内数据一致性高,极少或不发生不一致性情况 |
以上内容的视频介绍,将在 《第26章 百万qps 三级缓存 组件实操》 中 详细介绍。
假设10W人同时访问,如何保证不 雪崩?
扩容
限流
三级缓存
三级缓存 强烈推荐进行 热点探测 相结合, 主要的优势是:
通过热点探测,既能提升 本地缓存命中率,
除此之外,还能识别 刷子用户, 把刷子用户加入 黑名单, 并且利用 bloom 过滤器进行缓存。 从而提升系统的安全性。
以上内容的视频介绍,将在 《第26章 百万qps 三级缓存 组件实操》 中 详细介绍。
参考文献
疯狂创客圈 JAVA 高并发 总目录
ThreadLocal 史上最全
4000页《尼恩 Java 面试宝典 》的 35个面试专题
价值10W的架构师知识图谱
4、尼恩 架构师哲学
5、尼恩 3高架构知识宇宙
https://segmentfault.com/a/1190000017142556
https://gitee.com/jd-platform-opensource/hotkey
推荐阅读:
《尼恩Java面试宝典》
《Springcloud gateway 底层原理、核心实战 (史上最全)》
《Flux、Mono、Reactor 实战(史上最全)》
《sentinel (史上最全)》
《Nacos (史上最全)》
《分库分表 Sharding-JDBC 底层原理、核心实战(史上最全)》
《TCP协议详解 (史上最全)》
《clickhouse 超底层原理 + 高可用实操 (史上最全)》
《nacos高可用(图解+秒懂+史上最全)》
《队列之王: Disruptor 原理、架构、源码 一文穿透》
《环形队列、 条带环形队列 Striped-RingBuffer (史上最全)》
《一文搞定:SpringBoot、SLF4j、Log4j、Logback、Netty之间混乱关系(史上最全)
《单例模式(史上最全)
《红黑树( 图解 + 秒懂 + 史上最全)》
《分布式事务 (秒懂)》
《缓存之王:Caffeine 源码、架构、原理(史上最全,10W字 超级长文)》
《缓存之王:Caffeine 的使用(史上最全)》
《Java Agent 探针、字节码增强 ByteBuddy(史上最全)》
《Docker原理(图解+秒懂+史上最全)》
《Redis分布式锁(图解 – 秒懂 – 史上最全)》
《Zookeeper 分布式锁 – 图解 – 秒懂》
《Zookeeper Curator 事件监听 – 10分钟看懂》
《Netty 粘包 拆包 | 史上最全解读》
《Netty 100万级高并发服务器配置》
《Springcloud 高并发 配置 (一文全懂)》