1. 消息队列
1.0 课程介绍
1.1.MQ 的相关概念
1.1.1.什么是MQ
MQ(message queue:消息队列),从字面意思上看,本质是个队列,FIFO 先入先出,只不过队列中存放的内容是message 而已,还是一种跨进程的通信机制,用于上下游传递消息。在互联网架构中,MQ 是一种非常常见的上下游“逻辑解耦+物理解耦”
的消息通信服务。使用了 MQ 之后,消息发送上游只需要依赖 MQ,不用依赖其他服务。
- 上下游传递消息:例如qq号,同学A发消息给同学B,那么A同学就是上游 ,B同学就是下游,这个传递消息的过程就是上下游传递消息。
1.1.2.为什么要用MQ
1.流量消峰
举个例子,如果订单系统最多能处理一万次订单,这个处理能力应付正常时段的下单时绰绰有余,正常时段我们下单一秒后就能返回结果。但是在高峰期,如果有两万次下单操作系统是处理不了的,只能限制订单超过一万后不允许用户下单。使用消息队列做缓冲,我们可以取消这个限制,把一秒内下的订单分散成一段时间来处理,这时有些用户可能在下单十几秒后才能收到下单成功的操作,但是比不能下单的体验要好。
总结:多出的订单数据会进行排队。
- 优点:系统不会宕机
- 缺点:速度变慢
2.应用解耦
以电商应用为例,应用中有订单系统、库存系统、物流系统、支付系统。用户创建订单后,如果耦合调用库存系统、物流系统、支付系统,任何一个子系统出了故障,都会造成下单操作异常。当转变成基于消息队列的方式后,系统间调用的问题会减少很多,比如物流系统因为发生故障,需要几分钟来修复。在这几分钟的时间里,物流系统要处理的内存被缓存在消息队列中,用户的下单操作可以正常完成。当物流系统恢复后,继续处理订单信息即可,中单用户感受不到物流系统的故障,提升系统的可用性。
总结:
- 不使用之前:订单系统直接调用子系统,一旦子系统出现异常那么整个订单系统也会发生故障。
- 使用之后:订单系统执行完成后才会发消息给队列,后续任务由队列依次分配消息给支付系统、库存系统、物流系统,直到三大子系统执行完毕。执行过程一旦其中任意一个子系统出现异常,队列会监督它继续完成直到完成配送。
3.异步处理
有些服务间调用是异步的,例如 A 调用 B,B 需要花费很长时间执行,但是 A 需要知道 B 什么时候可以执行完,以前一般有两种方式,A 过一段时间去调用 B 的查询 api 查询。或者 A 提供一个 callback api, B 执行完之后调用 api 通知 A 服务。这两种方式都不是很优雅,使用消息总线,可以很方便解决这个问题, A 调用 B 服务后,只需要监听 B 处理完成的消息,当 B 处理完成后,会发送一条消息给 MQ,MQ 会将此消息转发给 A 服务。这样 A 服务既不用循环调用 B 的查询 api,也不用提供 callback api。同样B 服务也不用做这些操作。A 服务还能及时的得到异步处理成功的消息。
场景:A发送消息给B,B 需要花费很长时间执行,但是 A 需要知道 B 什么时候可以执行完。
- 同步处理:A 过一段时间去调用 B 的查询 api 查询。或者 A 提供一个 callback api, B 执行完之后调用 api 通知 A 服务。 这个过程A需要一直等待,不能干其他事情。
- 异步处理:A 调用 B 服务后,只需要监听 B 处理完成的消息,当 B 处理完成后,会发送一条消息给 MQ,MQ 会将此消息转发给 A 服务。 这个过程A不需要一直等待,可以干其他事情。
1.1.3.MQ 的分类
1.ActiveMQ(最先出现的MQ,比较老
)
优点:单机吞吐量万级,时效性 ms 级,可用性高,基于主从架构实现高可用性,消息可靠性较低的概率丢失数据
缺点:官方社区现在对 ActiveMQ 5.x 维护越来越少,高吞吐量场景较少使用。
尚硅谷官网视频: http://www.gulixueyuan.com/course/322
2.Kafka
大数据的杀手锏,谈到大数据领域内的消息传输,则绕不开 Kafka,这款为大数据而生的消息中间件, 以其百万级 TPS 的吞吐量名声大噪,迅速成为大数据领域的宠儿,在数据采集、传输、存储的过程中发挥着举足轻重的作用。目前已经被 LinkedIn,Uber, Twitter, Netflix 等大公司所采纳。
优点: 性能卓越,单机写入 TPS 约在百万条/秒,最大的优点,就是吞吐量高。时效性 ms 级可用性非常高,kafka 是分布式的,一个数据多个副本,少数机器宕机,不会丢失数据,不会导致不可用,消费者采用 Pull 方式获取消息,消息有序,通过控制能够保证所有消息被消费且仅被消费一次;有优秀的第三方Kafka Web 管理界面 Kafka-Manager;在日志领域比较成熟,被多家公司和多个开源项目使用;功能支持: 功能较为简单,主要支持简单的 MQ 功能,在大数据领域的实时计算以及日志采集被大规模使用
缺点:Kafka 单机超过 64 个队列/分区,Load 会发生明显的飙高现象,队列越多,load 越高,发送消息响应时间变长,使用短轮询方式,实时性取决于轮询间隔时间,消费失败不支持重试;支持消息顺序, 但是一台代理宕机后,就会产生消息乱序,社区更新较慢;
3.RocketMQ
RocketMQ 出自阿里巴巴的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并做出了自己的一些改进。被阿里巴巴广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理,binglog 分发等场景。
优点:单机吞吐量十万级,可用性非常高,分布式架构,消息可以做到 0 丢失,MQ 功能较为完善,还是分布式的,扩展性好,支持 10 亿级别的消息堆积,不会因为堆积导致性能下降,源码是 java 我们可以自己阅读源码,定制自己公司的 MQ
缺点:支持的客户端语言不多,目前是 java 及 c++,其中 c++不成熟;社区活跃度一般,没有在MQ核心中去实现 JMS 等接口,有些系统要迁移需要修改大量代码
4.RabbitMQ
2007 年发布,是一个在AMQP(高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。
优点:由于 erlang 语言的高并发特性,性能较好;吞吐量到万级,MQ 功能比较完备,健壮、稳定、易用、跨平台、支持多种语言 如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP 等,支持 AJAX 文档齐全;开源提供的管理界面非常棒,用起来很好用,社区活跃度高;更新频率相当高
官网:https://www.rabbitmq.com/news.html
缺点:商业版需要收费,学习成本较高
1.1.4.MQ 的选择
1.Kafka
Kafka 主要特点是基于Pull 的模式来处理消息消费,追求高吞吐量,一开始的目的就是用于日志收集和传输,适合产生大量数据的互联网服务的数据收集业务。大型公司建议可以选用,如果有日志采集功能, 肯定是首选 kafka 了。尚硅谷官网 kafka 视频连接http://www.gulixueyuan.com/course/330/tasks
2.RocketMQ
天生为金融互联网领域而生,对于可靠性要求很高的场景,尤其是电商里面的订单扣款,以及业务削峰,在大量交易涌入时,后端可能无法及时处理的情况。RoketMQ 在稳定性上可能更值得信赖,这些业务场景在阿里双 11 已经经历了多次考验,如果你的业务有上述并发场景,建议可以选择 RocketMQ。
3.RabbitMQ
结合 erlang 语言本身的并发优势,性能好时效性微秒级,社区活跃度也比较高,管理界面用起来十分方便,如果你的数据量没有那么大,中小型公司优先选择功能比较完备的 RabbitMQ。
1.2.RabbitMQ
1.2.1.RabbitMQ 的概念
RabbitMQ 是一个消息中间件:它接受并转发消息。你可以把它当做一个快递站点,当你要发送一个包裹时,你把你的包裹放到快递站,快递员最终会把你的快递送到收件人那里,按照这种逻辑 RabbitMQ 是一个快递站,一个快递员帮你传递快件。RabbitMQ 与快递站的主要区别在于,它不处理快件而是接收, 存储和转发消息数据。
1.2.2.四大核心概念
- MQ由两部分组成:交换机和队列
- 交换机—-》队列:一对多
- 队列—-》消费者:一对一(不能是一个队列对应多个消费者,因为一个快递不能有2个收件人)
生产者
产生数据发送消息的程序是生产者
交换机
交换机是 RabbitMQ 非常重要的一个部件,一方面它接收来自生产者的消息,另一方面它将消息推送到队列中。交换机必须确切知道如何处理它接收到的消息,是将这些消息推送到特定队列还是推送到多个队列,亦或者是把消息丢弃,这个得有交换机类型决定
队列
队列是 RabbitMQ 内部使用的一种数据结构,尽管消息流经 RabbitMQ 和应用程序,但它们只能存储在队列中。队列仅受主机的内存和磁盘限制的约束,本质上是一个大的消息缓冲区。许多生产者可以将消息发送到一个队列,许多消费者可以尝试从一个队列接收数据。这就是我们使用队列的方式
消费者
消费与接收具有相似的含义。消费者大多时候是一个等待接收消息的程序。请注意生产者,消费者和消息中间件很多时候并不在同一机器上。同一个应用程序既可以是生产者又是可以是消费者。
1.2.3.RabbitMQ 核心部分(六大模式)
- 简单模式
- 工作模式
- 发布/订阅模式
- 路由模式
- 主题模式
- 发布确认模式
1.2.4.各个名词介绍
- Broker:接收和分发消息的应用,RabbitMQ Server 就是 Message Broker
- Virtual host:出于多租户和安全因素设计的,把 AMQP 的基本组件划分到一个虚拟的分组中,类似于网络中的 namespace 概念。当多个不同的用户使用同一个 RabbitMQ server 提供的服务时,可以划分出多个 vhost,每个用户在自己的 vhost 创建 exchange/queue 等
- Connection(连接):publisher/consumer 和 broker 之间的 TCP 连接
- Channel(信道:发消息的通道):如果每一次访问 RabbitMQ 都建立一个 Connection,在消息量大的时候建立 TCP Connection 的开销将是巨大的,效率也较低。Channel 是在 connection 内部建立的逻辑连接,如果应用程序支持多线程,通常每个 thread 创建单独的 channel 进行通讯,AMQP method 包含了 channel id 帮助客户端和 message broker 识别 channel,所以 channel 之间是完全隔离的。Channel 作为轻量级的Connection 极大减少了操作系统建立 TCP connection 的开销
- Exchange:message 到达 broker 的第一站,根据分发规则,匹配查询表中的 routing key,分发消息到 queue 中去。常用的类型有:direct (point-to-point), topic (publish-subscribe) and fanout (multicast)
- Queue:消息最终被送到这里等待 consumer 取走
- Binding:exchange 和queue 之间的虚拟连接,binding 中可以包含 routing key,Binding 信息被保存到 exchange 中的查询表中,用于 message 的分发依据
1.2.5.安装
1)官网地址
https://www.rabbitmq.com/download.html
说明:企业上班一般用都的都是Linux系统。
2)文件上传
说明:
方式一:新建一台虚拟机,详情查看…
方式二:克隆一台虚拟机,详情查看…
修改主机名为node1
,修改ip为192.168.10.120
上传到
/usr/local/software
目录下(如果没有 software 需要自己创建)
- 进入到local目录下新建software 目录
- 之后使用xftp工具把文件上传到对应的目录中
- 进入到local目录下新建software 目录
3)安装文件(按照以下顺序安装)
# 安装erlang环境rpm -ivh erlang-21.3-1.el7.x86_64.rpm # 安装依赖包yum install socat -y# 安装rabbitmqrpm -ivh rabbitmq-server-3.8.8-1.el7.noarch.rpm
步骤:
- 进入到software目录发现文件已经上传好,后缀el7表示支持Linux7版本。
- 依次安装
4)常用命令(按照以下顺序执行)
添加开机启动 RabbitMQ 服务:
chkconfig rabbitmq-server on
启动服务:
/sbin/service rabbitmq-server start
查看服务状态:
/sbin/service rabbitmq-server status
停止服务(选择执行):
# 停止服务/sbin/service rabbitmq-server stop
开启 web 管理插件,之后输入start命令重新启动服务。
说明:为了后期使用方便,可以安装一个RabbitMQ后台管理界面(web 管理插件),可以通过浏览器进行访问,前提需要关闭服务。
# 先开启 web 管理插件rabbitmq-plugins enable rabbitmq_management# 之后再重启服务/sbin/service rabbitmq-server start
来到windows桌面打开浏览器,用默认账号密码(guest)访问地址 http://192.168.10.120:15672/
(主机ip+端口号)出现权限问题,无法正常访问,有可能是防火墙没有关闭。
解决:关闭防火墙,或者开启端口号
- 首先查看防火墙状态,发现防火墙处于开启状态。
systemctl status firewalld
- 关闭防火墙,在关闭防火墙开机自动启动服务:
systemctl stop firewalld
systemctl disable firewalld.service
问题:再次打开Windows页面输入地址进行访问,输入初始化的账户和密码都是guest
,提示guest没有权限登录。
解决:创建一个账户并赋予超级管理员权限。
5)添加一个新的用户
创建账号 :用户名、密码
rabbitmqctl add_user admin 123456
设置用户角色(administrator:管理员)
rabbitmqctl set_user_tags admin administrator
设置用户权限
set_permissions [-p ]
,用户 user_admin 具有/vhost1 这个 virtual host 中所有资源的配置、写、读权限
rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"
查看当前用户和角色
rabbitmqctl list_users
6)再次利用 admin 用户登录
用户名,密码:admin,123456
7)重置命令
关闭应用的命令为
rabbitmqctl stop_app
清除的命令为
rabbitmqctl reset
重新启动命令为
rabbitmqctl start_app
2.Hello World(简单模式)
在本教程的这一部分中,我们将用 Java 编写两个程序。发送单个消息的生产者和接收消息并打印出来的消费者。我们将介绍 Java API 中的一些细节。
在下图中,“ P”是我们的生产者,“ C”是我们的消费者。中间的框是一个队列-RabbitMQ 代表使用者保留的消息缓冲区
说明:现在中间件RabbitMQ已将在Linux系统中安装好,现在只需要在idea中编写java程序(生产者和消费者),测试是否能够发送消息。
2.1.依赖
创建一个maven工程(这里以模块代替)并引入依赖。
<build><plugins><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-compiler-plugin</artifactId><configuration><source>8</source><target>8</target></configuration></plugin></plugins></build><dependencies><dependency><groupId>com.rabbitmq</groupId><artifactId>amqp-client</artifactId><version>5.8.0</version></dependency><dependency><groupId>commons-io</groupId><artifactId>commons-io</artifactId><version>2.6</version></dependency></dependencies>
2.2.消息生产者
package com.atguigu.rabbitmq.one;import com.rabbitmq.client.Channel;import com.rabbitmq.client.Connection;import com.rabbitmq.client.ConnectionFactory;/** * 生产者:发消息 */public class Producer {//队列名称private final static String QUEUE_NAME = "hello";//发消息public static void main(String[] args) throws Exception{//创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();//工厂ip 连接RabbitMQ的队列factory.setHost("192.168.10.120");//用户名factory.setUsername("admin");//密码factory.setPassword("123456");//创建连接Connection connection = factory.newConnection();//获取信道Channel channel = connection.createChannel();//入门级测试,这里直接连接的是队列,没有连接交换机,用的是默认的交换机。/** * 生成一个队列,参数解释: *1.queue:队列名称 *2.durable:是否持久化,当MQ重启后,还在 (true:持久化,保存在磁盘false:不持久化,保存在内存) *3.exclusive: false不独占,可以多个消费者消费。true只能供一个消费者进行消费 *功能1:是否独占。只能有一个消费者监听这个队列 *功能2:当Connection关闭时,是否删除队列 *4.autoDelete:是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 *5.arguments:其它参数,在高级特性中讲,暂时设置为null */channel.queueDeclare(QUEUE_NAME,false,false,false,null);//发消息String message = "hello world"; //初次使用/** *发送一个消息 *1.发送到那个交换机 本次是入门级程序,没有考虑交换机,可以写空串 *2.路由的 key 是哪个 本次是队列的名称 *3.其他的参数信息本次没有 *4.发送消息的消息体不能直接发消息,需要调用它的二进制。 */channel.basicPublish("",QUEUE_NAME,null,message.getBytes());System.out.println("消息发送完毕");}}
运行main方法测试:出现提示消息,说明执行成功。
查看后台管理界面:
2.3.消息消费者
package com.atguigu.rabbitmq.one;import com.rabbitmq.client.*;/** * 消费者:接收消息的 */public class Consumer {//队列名称private final static String QUEUE_NAME = "hello";//接收消息public static void main(String[] args) throws Exception {//创建连接工厂ConnectionFactory factory = new ConnectionFactory();factory.setHost("192.168.10.120");//设置ipfactory.setUsername("admin");//设置用户名factory.setPassword("123456");//设置密码Connection connection = factory.newConnection();//创建连接Channel channel = connection.createChannel();//通过连接创建信道System.out.println("等待接收消息");//推送的消息如何进行消费的接口回调 使用lambda表达式代替匿名内部类的写法DeliverCallback deliverCallback = (consumerTag, message) -> {//直接输出message参数是对象的地址值,通过方法获取message对象的消息体并转化为字符串输出。String mes = new String(message.getBody());System.out.println(mes);};//取消消费的一个回调接口 如在消费的时候队列被删除掉了CancelCallback cancelCallback = (consumerTag) -> {System.out.println("消息消费被中断");};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);}}
3.Work Queues(工作模式)
工作队列(又称任务队列)的主要思想是避免立即执行资源密集型任务,而不得不等待它完成。相反我们安排任务在之后执行。我们把任务封装为消息并将其发送到队列。在后台运行的工作进程将弹出任务并最终执行作业。当有多个工作线程时,这些工作线程将一起处理这些任务。
- 总结:
- 生产者发送大量消息到队列时,如果只有一个工作线程(消费者)一个个的接收处理太慢了,所以使用多个工作线程同时去处理。
- 遵循的原则:
- 生产者发送的消息只能被处理一次,所以工作模式的特点是遵循轮询分发消息,即工作线程是轮流处理消息的。
- 工作线程之间是竞争关系,同一个消息,工作线程1抢到后,别的工作线程就抢不到了。
3.1.轮训分发消息
在这个案例中我们会启动两个工作线程,一个消息发送线程,我们来看看他们两个工作线程是如何工作的。
3.1.1.抽取工具类
package com.atguigu.rabbitmq.utils;import com.rabbitmq.client.Channel;import com.rabbitmq.client.Connection;import com.rabbitmq.client.ConnectionFactory;/** * 此类为连接工厂创建信道的工具类 */public class RabbitMqUtils {//得到一个连接的 channelpublic static Channel getChannel() throws Exception{//创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();factory.setHost("192.168.10.120");factory.setUsername("admin");factory.setPassword("123456");Connection connection = factory.newConnection();Channel channel = connection.createChannel();return channel;}}
3.1.2.启动两个工作线程(消费者)
- 工作线程代码:
package com.atguigu.rabbitmq.two;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.CancelCallback;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;/** * 这是一个工作线程(相当于之前消费者) */public class Worker01 {//队列的名称private static final String QUEUE_NAME="hello";//接收消息public static void main(String[] args) throws Exception {//通过工具类获取信道Channel channel = RabbitMqUtils.getChannel();//消息的接收DeliverCallback deliverCallback=(consumerTag,message)->{String receivedMessage = new String(message.getBody());System.out.println("接收到消息:"+receivedMessage);};//消息接收被取消时 执行下面的内容CancelCallback cancelCallback=(consumerTag)->{System.out.println(consumerTag+"消费者取消消费接口回调逻辑");};System.out.println("C2等待接收消息...");/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);}}
- 说明:2个工作线程的代码是一模一样的,所以没有必要在复制一份了。可以在idea工具中进行配置,允许多个线程进行运转。
- 步骤:
先运行一个消费者,在进行修改,可以定位到运行的是当前程序。
工作线程1运行窗口
配置运行运行多个进行。
之后把提示消息改为工作队列2的提示消息
点击运行,此时运行的就是工作线程2的代码了。
3.1.3.启动一个发送线程(生产者)
package com.atguigu.rabbitmq.two;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import java.util.Scanner;/** * 生产者 发送大量的消息 */public class Task01 {//队列的名称private static final String QUEUE_NAME="hello";//发送大量的消息public static void main(String[] args) throws Exception {//通过工具类创建信道try(Channel channel= RabbitMqUtils.getChannel();) {/** * 生成一个队列,参数解释: *1.queue:队列名称 *2.durable:是否持久化,当MQ重启后,还在 (true:持久化,保存在磁盘false:不持久化,保存在内存) *3.exclusive: false不独占,可以多个消费者消费。true只能供一个消费者进行消费 *功能1:是否独占。只能有一个消费者监听这个队列 *功能2:当Connection关闭时,是否删除队列 *4.autoDelete:是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 *5.arguments:其它参数,在高级特性中讲,暂时设置为null */channel.queueDeclare(QUEUE_NAME,false,false,false,null);//从控制台当中接受信息进行发送,之前是直接定义一个参数写死了Scanner scanner = new Scanner(System.in);while (scanner.hasNext()){ //判断是否还有输入的数据,有才进行循环获取String message = scanner.next();/** *发送一个消息 *1.发送到那个交换机 本次是入门级程序,没有考虑交换机,可以写空串,表示使用默认的交换机 *2.路由的 key 是哪个 本次是队列的名称 *3.其他的参数信息本次没有 *4.发送消息的消息体不能直接发消息,需要调用它的二进制。 */channel.basicPublish("",QUEUE_NAME,null,message.getBytes());System.out.println("发送消息完成:"+message);}}}}
3.1.4.结果展示
通过程序执行发现生产者总共发送 4 个消息,消费者 1 和消费者 2 分别分得两个消息,并且是按照有序的一个接收一次消息
3.2.消息应答
3.2.1.概念
消费者完成一个任务可能需要一段时间,如果其中一个消费者处理一个长的任务并仅只完成了部分突然它挂掉了,会发生什么情况。RabbitMQ 一旦向消费者传递了一条消息,便立即将该消息标记为删除。在这种情况下,突然有个消费者挂掉了,我们将丢失正在处理的消息。以及后续发送给该消费这的消息,因为它无法接收到。
为了保证消息在发送过程中不丢失,rabbitmq 引入消息应答机制,消息应答就是:消费者在接收到消息并且处理该消息之后,告诉 rabbitmq 它已经处理了,rabbitmq 可以把该消息删除了。
消息应答的分类:
- 自动应答
- 手动应答
3.2.2.自动应答(不推荐)
消息发送后立即被认为已经传送成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为这种模式如果消息在接收到之前,消费者那边出现连接或者 channel 关闭,那么消息就丢失了,当然另一方面这种模式消费者那边可以传递过载的消息,没有对传递的消息数量进行限制, 当然这样有可能使得消费者这边由于接收太多还来不及处理的消息,导致这些消息的积压,最终使得内存耗尽,最终这些消费者线程被操作系统杀死,所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用。
总结:
- 自动应答有缺点,必须要保证有一个良好的环境才能使用。
- 自动应答只要接收到消息,马上就给队列说已经完成,实际上并没有完成,一旦后续代码出现问题,消息同样也会丢失。
3.2.3. 手动应答
1)手动消息应答的方法
- A.Channel.basicAck(用于肯定确认)
- RabbitMQ 已知道该消息并且成功的处理消息,可以将其丢弃了
- B.Channel.basicNack(用于否定确认)
- C.Channel.basicReject(用于否定确认)
- 与 Channel.basicNack 相比少一个批量处理参数 (Multiple )
- 不处理该消息了直接拒绝,可以将其丢弃了
2)Multiple 的解释
手动应答的好处是可以批量应答并且减少网络拥堵
multiple 的 true 和 false 代表不同意思
- true 代表批量应答 channel 上未应答的消息
- 比如说 channel 上有传送 tag 的消息 5,6,7,8 当前 tag 是 8 那么此时
- 5-8 的这些还未应答的消息都会被确认收到消息应答
- false 同上面相比 (推荐)
- 只会应答 tag=8 的消息 5,6,7 这三个消息依然不会被确认收到消息应答
- 推荐不使用批量应答,处理完8后处理5 6 7时也可能会导致消息丢失,所以一般不推荐使用批量应答。
3)消息自动重新入队
如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或 TCP 连接丢失),导致消息未发送 ACK 确认,RabbitMQ 将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。
- 总结:
- 消息一点出现丢失,那么该如何保证消息的完整性??
- 答:消息自动重新入队
- 队列检测到哪一个消息断开连接,会马上把消息保存下来并重新放到队列中,由下一个消费者进行处理,以此来保证消息不会丢失。
4)消息手动应答代码
说明:和生产者没有关系,生产者只负责发送消息队列,工作线程来负责应答,因为问题就出现在工作线程这里,工作线程的代码没有执行完就不应该应答,应该等待代码执行完成手动应答,所以代码的修改应该在工作线程中进行修改。
默认消息采用的是自动应答,所以我们要想实现消息消费过程中不丢失,需要把自动应答改为手动应答,消费者在上面代码的基础上增加下面画红色部分代码。
编写一份新的生产者和消费者代码进行测试:
- 消息生产者
package com.atguigu.rabbitmq.three;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import java.util.Scanner;/** * 消息在手动应答时是不丢失、一旦丢失会自动放回队列中重新消费 */public class Task02 {//队列名称private static final String TASK_QUEUE_NAME = "ack_queue";public static void main(String[] argv) throws Exception {//通过工具类获取信道Channel channel = RabbitMqUtils.getChannel();//声明队列channel.queueDeclare(TASK_QUEUE_NAME, false, false, false, null);Scanner sc = new Scanner(System.in);System.out.println("请输入信息");while (sc.hasNext()) {String message = sc.nextLine();/** *发送一个消息 *1.发送到那个交换机 本次是入门级程序,没有考虑交换机,可以写空串,表示使用默认的交换机 *2.路由的 key 是哪个 本次是队列的名称 *3.其他的参数信息本次没有 *4.发送消息的消息体不能直接发消息,需要调用它的二进制。中文汉字有可能是乱码,所以 * 如果发送的是中文,一般需要指定编码格式。 */channel.basicPublish("", TASK_QUEUE_NAME, null, message.getBytes("UTF-8"));System.out.println("生产者发出消息" + message);}}}
消费者 01
package com.atguigu.rabbitmq.three;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.atguigu.rabbitmq.utils.SleepUtils;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;/** * 消息在手动应答时是不丢失、一旦丢失会自动放回队列中重新消费 */public class Work03 {//队列名称private static final String ACK_QUEUE_NAME="ack_queue";//接收消息public static void main(String[] args) throws Exception {//通过工具类获取信道Channel channel = RabbitMqUtils.getChannel();System.out.println("C1 等待接收消息处理时间较短");//接收消息DeliverCallback deliverCallback=(consumerTag, delivery)->{String message= new String(delivery.getBody(),"utf-8");//接收到消息后,沉睡1sSleepUtils.sleep(1);System.out.println("接收到消息:"+message);/** * 确认手动应答: *1.消息标记 tag:每一个消息都有一个唯一的标识,表示应答的是哪一个消息。 *2.是否批量应答未应答消息 false:不批量应答信道中的消息 true:批量 */channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);};//采用手动应答boolean autoAck=false;/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(ACK_QUEUE_NAME,autoAck,deliverCallback,(consumerTag)->{System.out.println(consumerTag+"消费者取消消费接口回调逻辑");});}}
消费者 02
package com.atguigu.rabbitmq.three;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.atguigu.rabbitmq.utils.SleepUtils;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;/** * 消息在手动应答时是不丢失、一旦丢失会自动放回队列中重新消费 */public class Work04 {//队列名称private static final String ACK_QUEUE_NAME="ack_queue";//接收消息public static void main(String[] args) throws Exception {//通过工具类获取信道Channel channel = RabbitMqUtils.getChannel();System.out.println("C2 等待接收消息处理时间较长");//接收消息DeliverCallback deliverCallback=(consumerTag, delivery)->{String message= new String(delivery.getBody(),"utf-8");//接收到消息后,沉睡30sSleepUtils.sleep(30);System.out.println("接收到消息:"+message);/** * 确认手动应答: *1.消息标记 tag:每一个消息都有一个唯一的标识,表示应答的是哪一个消息。 *2.是否批量应答未应答消息 false:不批量应答信道中的消息 true:批量 */channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);};//采用手动应答boolean autoAck=false;/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(ACK_QUEUE_NAME,autoAck,deliverCallback,(consumerTag)->{System.out.println(consumerTag+"消费者取消消费接口回调逻辑");});}}
睡眠工具类
public class SleepUtils { public static void sleep(int second){ try { Thread.sleep(1000*second); } catch (InterruptedException _ignored) { Thread.currentThread().interrupt(); } }}
5)手动应答效果演示
正常情况下消息发送方发送两个消息 C1 和 C2 分别接收到消息并进行处理
在发送者发送消息 dd,发出消息之后的把 C2 消费者停掉,按理说该 C2 来处理该消息,但是由于它处理时间较长,在还未处理完,也就是说 C2 还没有执行 ack 代码的时候,C2 被停掉了, 此时会看到消息被 C1 接收到了,说明消息 dd 被重新入队,然后分配给能处理消息的 C1 处理了
3.3.RabbitMQ 持久化
3.3.1.概念
刚刚我们已经看到了如何处理任务不丢失的情况,但是如何保障当 RabbitMQ 服务停掉以后消息生产者发送过来的消息不丢失。默认情况下 RabbitMQ 退出或由于某种原因崩溃时,它忽视队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化。
3.3.2.队列如何实现持久化
之前我们创建的队列都是非持久化的,rabbitmq 如果重启的化,该队列就会被删除掉,如果要队列实现持久化 需要在声明队列的时候把 durable 参数设置为持久化
在生产者中进行修改:
但是需要注意的就是如果之前声明的队列不是持久化的,需要把原先队列先删除,或者重新创建一个持久化的队列,不然就会出现错误
删除原先的队列:
再次运行生产者 消费者:以下为控制台中持久化与非持久化队列的 UI 显示区、
这个时候即使重启 rabbitmq 队列也依然存在
3.3.3.消息实现持久化
要想让消息实现持久化需要在消息生产者修改代码,MessageProperties.PERSISTENT_TEXT_PLAIN
添加这个属性。
在生产者中进行修改:
将消息标记为持久化并不能完全保证不会丢失消息。尽管它告诉 RabbitMQ 将消息保存到磁盘,但是这里依然存在当消息刚准备存储在磁盘的时候 但是还没有存储完,消息还在缓存的一个间隔点。此时并没有真正写入磁盘。持久性保证并不强,但是对于我们的简单任务队列而言,这已经绰绰有余了。如果需要更强有力的持久化策略,参考后边课件发布确认章节。
3.3.4.不公平分发
在最开始的时候我们学习到 RabbitMQ 分发消息默认采用的轮训分发,但是在某种场景下这种策略并不是很好,比方说有两个消费者在处理任务,其中有个消费者 1 处理任务的速度非常快,而另外一个消费者 2 处理速度却很慢,这个时候我们还是采用轮训分发的化就会到这处理速度快的这个消费者很大一部分时间处于空闲状态,而处理慢的那个消费者一直在干活,这种分配方式在这种情况下其实就不太好,但是RabbitMQ 并不知道这种情况它依然很公平的进行分发。
为了避免这种情况,我们可以设置参数 channel.basicQos(1);
在生产者消费者中进行修改:
测试:发现时间少的干得多,时间长的干的少。(能者多劳)
好处:相比之前的轮询机制,不公平分发可以让空闲的消费者处理更多的消息,充分的利用了消费者的能力,提供了效率。
意思就是如果这个任务我还没有处理完或者我还没有应答你,你先别分配给我,我目前只能处理一个任务,然后 rabbitmq 就会把该任务分配给没有那么忙的那个空闲消费者,当然如果所有的消费者都没有完成手上任务,队列还在不停的添加新任务,队列有可能就会遇到队列被撑满的情况,这个时候就只能添加新的 worker 或者改变其他存储任务的策略。
3.3.5.预取值
本身消息的发送就是异步发送的,所以在任何时候,channel 上肯定不止只有一个消息另外来自消费者的手动确认本质上也是异步的。因此这里就存在一个未确认的消息缓冲区,因此希望开发人员能限制此缓冲区的大小,以避免缓冲区里面无限制的未确认消息问题。这个时候就可以通过使用 basic.qos 方法设置“预取计数”值来完成的。该值定义通道上允许的未确认消息的最大数量。一旦数量达到配置的数量, RabbitMQ 将停止在通道上传递更多消息,除非至少有一个未处理的消息被确认,例如,假设在通道上有未确认的消息 5、6、7,8,并且通道的预取计数设置为 4,此时RabbitMQ 将不会在该通道上再传递任何消息,除非至少有一个未应答的消息被 ack。比方说 tag=6 这个消息刚刚被确认 ACK,RabbitMQ 将会感知这个情况到并再发送一条消息。消息应答和 QoS 预取值对用户吞吐量有重大影响。通常,增加预取将提高向消费者传递消息的速度。虽然自动应答传输消息速率是最佳的,但是,在这种情况下已传递但尚未处理的消息的数量也会增加,从而增加了消费者的 RAM 消耗(随机存取存储器)应该小心使用具有无限预处理的自动确认模式或手动确认模式,消费者消费了大量的消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复试验的过程,不同的负载该值取值也不同 100 到 300 范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。预取值为 1 是最保守的。当然这将使吞吐量变得很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境中。对于大多数应用来说,稍微高一点的值将是最佳的。
总结:
RabbitMQ的预取值(Prefetch Value)是指消费者在从队列中获取消息时,一次性获取的消息数量。通过设置合适的预取值,可以优化消息的分发和消费者的负载均衡。
在RabbitMQ中,预取值是指消费者从队列中获取的消息数量。当消费者处理一条消息时,它可以一次性获取多条消息,而不是每次只获取一条消息。通过设置合适的预取值,可以提高消息处理的效率,减少网络延迟和消费者之间的通信开销。
修改代码测试:在消费者中进行修改
效果:发送7条消息,预计消费者1是2条,消费者2是5条,但实际上消费者1是3条,消费者2是4条.
原因:
- 首先消费者之间是竞争关系,所以消息的顺序并不一致,比如第一条消息发送给消费者1,也有可能发送给消费者2,
- 预取值实际上设置的是信道(队列和消费者之间的管道)的最大堆积消息,并不是你设置多少条,消费者就接受多少条。
- 因为消费者1处理消息只需要1秒,而消费者2处理设置的为30秒,所以有可能当第3条消息发送时,消费者1的第一条消息已经处理掉了,所以之后还会向消费者1发送消息。
- 当超过设置的预取值7时,第8条数据那个会被消费的快的那个消费者处理掉。
4.发布确认
说明:保证生产者发送的消息没有丢失,需要以下三步操作。
- 设置要求队列必须持久化(可以保证一旦RabbitMq服务器一旦宕机,队列也不会丢失)
- 设置要求队列中的消息必须持久化(可以保证队列中的消息不会丢失)
- 发布确认(即使前2条已经设置完成,但是在消息传入到队列还没来得及存储在磁盘上时,就已经宕机了,此时消息仍会丢失,所以要设置发布确认)
发布确认概述:
- 生产者发送消息到队列,并保存到磁盘上之后,MQ会返回给生产者一个提示消息,告诉生产者消息已经保存在磁盘上了,此时才可以保证消息的不会丢失。
4.1.发布确认原理
生产者将信道设置成 confirm 模式,一旦信道进入 confirm 模式,所有在该信道上面发布的消息都将会被指派一个唯一的 ID(从 1 开始),一旦消息被投递到所有匹配的队列之后,broker 就会发送一个确认给生产者(包含消息的唯一 ID),这就使得生产者知道消息已经正确到达目的队列了,如果消息和队列是可持久化的,那么确认消息会在将消息写入磁盘之后发出,broker 回传给生产者的确认消息中 delivery-tag 域包含了确认消息的序列号,此外 broker 也可以设置basic.ack 的 multiple 域,表示到这个序列号之前的所有消息都已经得到了处理。
confirm 模式最大的好处在于他是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认之后,生产者应用便可以通过回调方法来处理该确认消息,如果 RabbitMQ 因为自身内部错误导致消息丢失,就会发送一条 nack 消息,生产者应用程序同样可以在回调方法中处理该 nack 消息。
4.2.发布确认的策略
4.2.1.开启发布确认的方法
发布确认默认是没有开启的,如果要开启需要调用方法 confirmSelect,每当你要想使用发布确认,都需要在 channel 上调用该方法
- 在生产者的创建信道后面调用此方法:
- 测试:
//开启发布确认 channel.confirmSelect();
4.2.2.单个确认发布
这是一种简单的确认方式,它是一种同步确认发布的方式,也就是发布一个消息之后只有它被确认发布,后续的消息才能继续发布,waitForConfirmsOrDie(long)这个方法只有在消息被确认的时候才返回,如果在指定时间范围内这个消息没有被确认那么它将抛出异常。
这种确认方式有一个最大的缺点就是:发布速度特别的慢,因为如果没有确认发布的消息就会阻塞所有后续消息的发布,这种方式最多提供每秒不超过数百条发布消息的吞吐量。当然对于某些应用程序来说这可能已经足够了。
发一条确认一条(同步确认),前一条发布确认完才会发送第二条数据,速度特别慢。
测试:编写一份新的生产者代码进行测试
package com.atguigu.rabbitmq.four;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import java.util.UUID;/** * 发布确认模式 * 使用的时间比较哪种确认方式是最好的 * 1、单个确认 * 2、批量确认 * 3、异步批量确认 */public class ConfirmMessage {//批量发消息的个数public static final int MESSAGE_COUNT = 1000;public static void main(String[] args) throws Exception {//1、单个确认ConfirmMessage.publishMessageIndividually();//发布1000个单独确认消息,耗时989ms//2、批量确认//3、异步批量确认}//1、单个确认public static void publishMessageIndividually() throws Exception {//获取信道Channel channel = RabbitMqUtils.getChannel();//队列的声明String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName, false, false, false, null);//开启发布确认channel.confirmSelect();//开始时间long begin = System.currentTimeMillis();for (int i = 0; i < MESSAGE_COUNT; i++) {String message = i + "";//发送消息channel.basicPublish("", queueName, null, message.getBytes());//单个消息就马上发布确认,如果是true代表发送成功,使用if判断编写提示信息。//服务端返回 false 或超时时间内未返回,生产者可以消息重发boolean flag = channel.waitForConfirms();if (flag) {System.out.println("消息发送成功");}}//结束时间long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_COUNT + "个单独确认消息,耗时" + (end - begin) + "ms");}}
- 效果:发布1000个单独确认消息,耗时989ms
4.2.3.批量确认发布
上面那种方式非常慢,与单个等待确认消息相比,先发布一批消息然后一起确认可以极大地提高吞吐量,当然这种方式的缺点就是:当发生故障导致发布出现问题时,不知道是哪个消息出现问题了,我们必须将整个批处理保存在内存中,以记录重要的信息而后重新发布消息。当然这种方案仍然是同步的,也一样阻塞消息的发布。
- 测试:
package com.atguigu.rabbitmq.four;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import java.util.UUID;/** * 发布确认模式 * 使用的时间比较哪种确认方式是最好的 * 1、单个确认 * 2、批量确认 * 3、异步批量确认 */public class ConfirmMessage {//批量发消息的个数public static final int MESSAGE_COUNT = 1000;public static void main(String[] args) throws Exception {//1、单个确认//ConfirmMessage.publishMessageIndividually();//发布1000个单独确认消息,耗时989ms//2、批量确认ConfirmMessage.publishMessageBatch(); //发布1000个批量确认消息,耗时78ms//3、异步批量确认}//2、批量确认public static void publishMessageBatch() throws Exception {//获取信道Channel channel = RabbitMqUtils.getChannel();//队列的声明String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName, false, false, false, null);//开启发布确认channel.confirmSelect();//开始时间long begin = System.currentTimeMillis();//批量确认消息大小int batchSize = 100;//批量发送消息 批量发布确认for (int i = 0; i < MESSAGE_COUNT; i++) {String message = i + "";//发送消息channel.basicPublish("", queueName, null, message.getBytes());//判断达到100条消息的时候,批量确认一次if(i%batchSize==0){//发布确认channel.waitForConfirms();}}//结束时间long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_COUNT + "个批量确认消息,耗时" + (end - begin) + "ms");}}
- 效果:
4.2.4.异步确认发布
异步确认虽然编程逻辑比上两个要复杂,但是性价比最高,无论是可靠性还是效率都没得说, 他是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功, 下面就让我们来详细讲解异步确认是怎么实现的。
- 测试:
package com.atguigu.rabbitmq.four;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import com.rabbitmq.client.ConfirmCallback;import java.util.UUID;import java.util.concurrent.ConcurrentNavigableMap;import java.util.concurrent.ConcurrentSkipListMap;/** * 发布确认模式 * 使用的时间比较哪种确认方式是最好的 * 1、单个确认 * 2、批量确认 * 3、异步批量确认 */public class ConfirmMessage {//批量发消息的个数public static final int MESSAGE_COUNT = 1000;public static void main(String[] args) throws Exception {//1、单个确认//ConfirmMessage.publishMessageIndividually();//发布1000个单独确认消息,耗时989ms//2、批量确认//ConfirmMessage.publishMessageBatch(); //发布1000个批量确认消息,耗时78ms//3、异步批量确认ConfirmMessage.publishMessageAsync(); //发布1000个异步发布确认消息,耗时52ms}//3、异步批量确认public static void publishMessageAsync() throws Exception {//获取信道Channel channel = RabbitMqUtils.getChannel();//队列的声明String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName, false, false, false, null);//开启发布确认channel.confirmSelect();//开始时间long begin = System.currentTimeMillis();//消息确认成功 回调函数ConfirmCallback ackCallback = (deliveryTag,multiple)->{System.out.println("确认的消息:"+deliveryTag);};//消息确认失败 回调函数/** * 1.消息的标记 * 2.是否为批量确认 */ConfirmCallback nackCallback = (deliveryTag,multiple)->{System.out.println("未确认的消息:"+deliveryTag);};/** * 准备消息的监听器 监听那些消息成功了 那些消息失败了 *位置:监听器要写在发送消息之前,如果写在发消息之后,有可能在发消息的 * 过程中通知你的时候就接收不到消息了。因为你必须发完1000条消息 * 才会触发监听器,所以要把监听器放到前面,在你没有发的时候就准备出来, * 在发的过程中就有可能随时监听到哪些消息成功哪些消息失败。 * 参数1:监听哪些消息成功了 * 参数2:监听哪些消息失败了 * 参数类型:函数式接口,使用lambda代替匿名内部类的写法 * */channel.addConfirmListener(ackCallback,nackCallback);//异步通知for(int i =0;i<MESSAGE_COUNT;i++){String message ="消息"+i;//发送消息channel.basicPublish("", queueName, null, message.getBytes());}//结束时间long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_COUNT + "个异步发布确认消息,耗时" + (end - begin) + "ms");}}
4.2.5.如何处理异步未确认消息
最好的解决的解决方案就是把未确认的消息放到一个基于内存的能被发布线程访问的队列, 比如说用 ConcurrentLinkedQueue(并发链路队列
) 这个队列在 confirm callbacks 与发布线程之间进行消息的传递。
- 问题1:在前面的异步发布确认中,已经使用监听器异步监听到了,哪些消息确认成功,哪些消息确认失败。对于消息确认成功的消息我们不用处理,但是消息确认失败的消息我们要如何处理呢???
- 可以将未确认的消息重新进行发送或者将未确认的消息保存起来,方便以后重新发布。
- 问题2:现在有2个线程,监听器和发送消息的的线程,并且是异步的关系。消息发送完毕监听器还在执行,那么此时该如何找到那些消息未确认???
- 使用ConcurrentLinkedQueue(
并发链路队列
) - 以下测试解决的就是问题2,问题1的没有解决。
- 使用ConcurrentLinkedQueue(
修改异步确认发布的代码:
package com.atguigu.rabbitmq.four;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import com.rabbitmq.client.ConfirmCallback;import java.util.UUID;import java.util.concurrent.ConcurrentNavigableMap;import java.util.concurrent.ConcurrentSkipListMap;/** * 发布确认模式 * 使用的时间比较哪种确认方式是最好的 * 1、单个确认 * 2、批量确认 * 3、异步批量确认 */public class ConfirmMessage {//批量发消息的个数public static final int MESSAGE_COUNT = 1000;public static void main(String[] args) throws Exception {//1、单个确认//ConfirmMessage.publishMessageIndividually();//发布1000个单独确认消息,耗时989ms//2、批量确认//ConfirmMessage.publishMessageBatch(); //发布1000个批量确认消息,耗时78ms//3、异步批量确认ConfirmMessage.publishMessageAsync(); //发布1000个异步发布确认消息,耗时52ms}//3、异步批量确认public static void publishMessageAsync() throws Exception {//获取信道Channel channel = RabbitMqUtils.getChannel();//队列的声明String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName, false, false, false, null);//开启发布确认channel.confirmSelect();/** * 线程安全有序的一个哈希表,适用于高并发的情况(Map集合) * 此哈希表可以做以下3件事: * 1.轻松的将序号与消息进行关联 * 2.轻松批量删除条目 只要给到序列号 * 3.支持并发访问 */ConcurrentSkipListMap<Long, String> outstandingConfirms = newConcurrentSkipListMap<>();/** * 消息确认成功 回调函数 * 1.消息序列号 * 2.true 可以确认小于等于当前序列号的消息 * false 确认当前序列号消息 */ConfirmCallback ackCallback = (deliveryTag,multiple)->{if (multiple) { //判断是否为批量确认,如果是则调用批量删除的方法//2):删除掉已经确认的消息剩下的就是未确认的消息ConcurrentNavigableMap<Long, String> confirmed =outstandingConfirms.headMap(deliveryTag);//返回的是小于等于当前序列号的被确认消息 是一个 map//清除该部分被确认消息confirmed.clear();}else{ //如果不是则调用单个删除的方法//删除当前消息outstandingConfirms.remove(deliveryTag);}System.out.println("确认的消息:"+deliveryTag);};//消息确认失败 回调函数/** * 1.消息的标记 * 2.是否为批量确认 */ConfirmCallback nackCallback = (deliveryTag,multiple)->{//3):打印一下未确认的消息都有哪些 此处测试并没有未被确认的消息String message = outstandingConfirms.get(deliveryTag);System.out.println("未确认的消息是:"+message+"::::未被确认的消息是tag:"+deliveryTag);};/** * 准备消息的监听器 监听那些消息成功了 那些消息失败了 *位置:监听器要写在发送消息之前,如果写在发消息之后,有可能在发消息的 * 过程中通知你的时候就接收不到消息了。因为你必须发完1000条消息 * 才会触发监听器,所以要把监听器放到前面,在你没有发的时候就准备出来, * 在发的过程中就有可能随时监听到哪些消息成功哪些消息失败。 * 参数1:监听哪些消息成功了 * 参数2:监听哪些消息失败了 * 参数类型:函数式接口,使用lambda代替匿名内部类的写法 * */channel.addConfirmListener(ackCallback,nackCallback);//异步通知//开始时间long begin = System.currentTimeMillis();for(int i =0;i<MESSAGE_COUNT;i++){String message ="消息"+i;//1):此处记录下所有要发送的消息消息的总和// 通过put方法向此map集合中添加k,v(通过信道调取发布的序号,发送的信息)outstandingConfirms.put(channel.getNextPublishSeqNo(), message);//发送消息channel.basicPublish("", queueName, null, message.getBytes());}//结束时间long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_COUNT + "个异步发布确认消息,耗时" + (end - begin) + "ms");}}
4.2.6.以上 3 种发布确认速度对比
- 单独发布消息
- 同步等待确认,简单,但吞吐量非常有限。
- 批量发布消息
- 批量同步等待确认,简单,合理的吞吐量,一旦出现问题但很难推断出是那条消息出现了问题。
- 异步处理: (
推荐
)- 最佳性能和资源使用,在出现错误的情况下可以很好地控制,但是实现起来稍微难些
public static void main(String[] args) throws Exception { //这个消息数量设置为 1000 好些 不然花费时间太长 publishMessagesIndividually(); publishMessagesInBatch(); handlePublishConfirmsAsynchronously();}//运行结果发布 1,000 个单独确认消息耗时 50,278 ms发布 1,000 个批量确认消息耗时 635 ms发布 1,000 个异步确认消息耗时 92 ms
5.交换机
在上一节中,我们创建了一个工作队列。我们假设的是工作队列背后,每个任务都恰好交付给一个消费者(工作进程)。在这一部分中,我们将做一些完全不同的事情-我们将消息传达给多个消费者。这种模式称为 ”发布/订阅”.
总结:
之前的队列使用的都是默认的交换机,一个消息只能被一个消费者消费。(
简单模式、工作模式
)
现在想要将一个消息消费2次,可以通过交换机把消息指定给2个队列,一个队列的消息只能被消费一次。(
发布订阅模式
)
为了说明这种模式,我们将构建一个简单的日志系统。它将由两个程序组成:第一个程序将发出日志消息,第二个程序是消费者。其中我们会启动两个消费者,其中一个消费者接收到消息后把日志存储在磁盘,另外一个消费者接收到消息后把消息打印在屏幕上,事实上第一个程序发出的日志消息将广播给所有消费者.
5.1.Exchanges
5.1.1.Exchanges 概念
RabbitMQ 消息传递模型的核心思想是:生产者生产的消息从不会直接发送到队列。实际上,通常生产者甚至都不知道这些消息传递传递到了哪些队列中。
相反,生产者只能将消息发送到交换机(exchange),交换机工作的内容非常简单,一方面它接收来自生产者的消息,另一方面将它们推入队列。交换机必须确切知道如何处理收到的消息。是应该把这些消息放到特定队列还是说把他们到许多队列中还是说应该丢弃它们。这就的由交换机的类型来决定。
5.1.2.Exchanges 的类型
总共有以下类型:
- 直接(direct / 路由类型),
- 主题(topic) ,
- 标题(headers / 头类型) ,
- 扇出(fanout / 发布订阅类型)
5.1.3.无名exchange(默认类型)
在本教程的前面部分我们对 exchange 一无所知,但仍然能够将消息发送到队列。之前能实现的原因是因为我们使用的是默认交换,我们通过空字符串(“”)进行标识
。
第一个参数是交换机的名称。空字符串表示默认或无名称交换机:消息能路由发送到队列中其实是由 routingKey(bindingkey)绑定 key 指定的,如果它存在的话.
- 即:使用默认的交换机,第一个参数写空串,第二个参数写的是队列名称。如果指定交换机那么第二个参数写的是routingKey。
5.2.临时队列
之前的章节我们使用的是具有特定名称的队列(还记得 hello 和 ack_queue 吗?)。队列的名称我们来说至关重要-我们需要指定我们的消费者去消费哪个队列的消息。
每当我们连接到 Rabbit 时,我们都需要一个全新的空队列,为此我们可以创建一个具有随机名称的队列,或者能让服务器为我们选择一个随机队列名称那就更好了。其次一旦我们断开了消费者的连接,队列将被自动删除。
总结:
临时队列就是没有持久化的队列,一旦我们断开了消费者的连接,队列将被自动删除。
创建临时队列的方式如下:
String queueName = channel.queueDeclare().getQueue();
创建出来之后长成这样:
5.3.绑定(bindings)
什么是 bingding 呢,binding 其实是 exchange 和 queue 之间的桥梁,它告诉我们 exchange 和那个队列进行了绑定关系。比如说下面这张图告诉我们的就是 X 与 Q1 和 Q2 进行了绑定。
5.4.Fanout(发布订阅模式)
5.4.1.Fanout 介绍
Fanout 这种类型非常简单。正如从名称中猜到的那样,它是将接收到的所有消息广播到它知道的所有队列中。系统中默认有些 exchange 类型
amq.fanout
:系统默认提供的发布订阅交换机。
5.4.2.Fanout 实战
- 场景:一个生产者把消息发送到交换机,之后交换机绑定2个队列(绑定的条件一样,发送到队列的消息一样),消息1被消费者1接收,消息2被消费者2接收。
Logs 和临时队列的绑定关系如下图
- 交换机名称:logs
- 2个队列名称:随机生成的队列名。
- 绑定关系:空串
ReceiveLogs01 将接收到的消息打印在控制台(消费者1)
package com.atguigu.rabbitmq.five;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;/** * 消息的接收 01 */public class ReceiveLogs01 {//定义交换机的名称private static final String EXCHANGE_NAME = "logs";public static void main(String[] argv) throws Exception {//创建信道Channel channel = RabbitMqUtils.getChannel();//声明一个交换机:名称,类型(fanout:发布订阅类型)channel.exchangeDeclare(EXCHANGE_NAME, "fanout");/** * 生成一个临时的队列 队列的名称是随机的 * 当消费者断开和该队列的连接时 队列自动删除 */String queueName = channel.queueDeclare().getQueue();/** * 绑定交换机与队列: *参数1:队列 *参数2:交换机 *参数3:关键词routingKey为空串 */channel.queueBind(queueName, EXCHANGE_NAME, "");System.out.println("等待接收消息,把接收到的消息打印在屏幕.....");//消费者接收消息的回调DeliverCallback deliverCallback = (consumerTag, delivery) -> {String message = new String(delivery.getBody(), "UTF-8");System.out.println("消费者1:控制台打印接收到的消息"+message);};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(queueName, true, deliverCallback, consumerTag -> { });}}
ReceiveLogs02 将接收到的消息存储在磁盘(消费者2)
package com.atguigu.rabbitmq.five;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;import org.apache.commons.io.FileUtils;import java.io.File;/** * 消息的接收 02 */public class ReceiveLogs02 {//定义交换机的名称private static final String EXCHANGE_NAME = "logs";public static void main(String[] argv) throws Exception {//创建信道Channel channel = RabbitMqUtils.getChannel();//声明一个交换机:名称,类型(fanout:发布订阅类型)channel.exchangeDeclare(EXCHANGE_NAME, "fanout");/** * 生成一个临时的队列 队列的名称是随机的 * 当消费者断开和该队列的连接时 队列自动删除 */String queueName = channel.queueDeclare().getQueue();/** * 绑定交换机与队列: *参数1:队列 *参数2:交换机 *参数3:关键词routingKey为空串 */channel.queueBind(queueName, EXCHANGE_NAME, "");System.out.println("等待接收消息,把接收到的消息打印在屏幕.....");//消费者接收消息的回调DeliverCallback deliverCallback = (consumerTag, delivery) -> {String message = new String(delivery.getBody(), "UTF-8");File file = new File("D:\\work\\rabbitmq_info.txt");/** FileUtils:文件操作工具类*存在于Common工具库中。包含一些工具类,它们基于File对象工作,包括读,写,拷贝和比较文件。* writeStringToFile():把字符串写入文件*参数:file文件名写入文件的内容编码 append为true表示在文本内容后面添加内容而不会覆盖文件中的内容重写。* windows系统换行:\r\n* */FileUtils.writeStringToFile(file,message + "\r\n","UTF-8",true);System.out.println("消费者2:数据写入文件成功");};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调* * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(queueName, true, deliverCallback, consumerTag -> { });}}
EmitLog 发送消息给两个消费者接收(生成者)
package com.atguigu.rabbitmq.five;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import java.util.Scanner;/** * 生成者:发消息给交换机 */public class EmitLog {//交换机的名称private static final String EXCHANGE_NAME = "logs";public static void main(String[] argv) throws Exception {//创建信道try (Channel channel = RabbitMqUtils.getChannel()) {/** * 声明一个 exchange(交换机) * 1.exchange 的名称 * 2.exchange 的类型 */channel.exchangeDeclare(EXCHANGE_NAME, "fanout");//接收键盘输入的消息Scanner sc = new Scanner(System.in);System.out.println("请输入信息");while (sc.hasNext()) {String message = sc.nextLine();/** *发送一个消息 *1.发送到那个交换机 如果是入门级程序,没有考虑交换机,可以写空串,表示使用默认的交换机 *2.路由的 key 是哪个 使用默认的交换机写的是:队列的名称 指定了交换机写的是:routingKey关键词 *3.其他的参数信息本次没有 *4.发送消息的消息体不能直接发消息,需要调用它的二进制。 */channel.basicPublish(EXCHANGE_NAME, "", null, message.getBytes("UTF-8"));System.out.println("生产者发出消息" + message);}}}}
运行:
- 生产者:
- 消费者1:
- 消费者2:
5.5.Direct exchange(路由模式)
5.5.1.回顾
在上一节中,我们构建了一个简单的日志记录系统。我们能够向许多接收者广播日志消息。在本节我们将向其中添加一些特别的功能-比方说我们只让某个消费者订阅发布的部分消息。例如我们只把严重错误消息定向存储到日志文件(以节省磁盘空间),同时仍然能够在控制台上打印所有日志消息。
我们再次来回顾一下什么是 bindings,绑定是交换机和队列之间的桥梁关系。也可以这么理解: 队列只对它绑定的交换机的消息感兴趣。绑定用参数:routingKey 来表示也可称该参数为 binding key, 创建绑定我们用代码:channel.queueBind(queueName, EXCHANGE_NAME, “routingKey”);绑定之后的意义由其交换类型决定。
5.5.2.Direct exchange 介绍
上一节中的我们的日志系统将所有消息广播给所有消费者,对此我们想做一些改变,例如我们希望将日志消息写入磁盘的程序仅接收严重错误(errros),而不存储哪些警告(warning)或信息(info)日志消息避免浪费磁盘空间。Fanout 这种交换类型并不能给我们带来很大的灵活性-它只能进行无意识的广播,在这里我们将使用 direct 这种类型来进行替换,这种类型的工作方式是,消息只去到它绑定的routingKey 队列中去。
在上面这张图中,我们可以看到 X 绑定了两个队列,绑定类型是 direct。队列 Q1 绑定键为 orange, 队列 Q2 绑定键有两个:一个绑定键为 black,另一个绑定键为 green.
在这种绑定情况下,生产者发布消息到 exchange 上,绑定键为 orange 的消息会被发布到队列Q1。绑定键为 blackgreen 和的消息会被发布到队列 Q2,其他消息类型的消息将被丢弃。
总结:
- 发布订阅模式:绑定类型为 Fanult,绑定条件routingKey相同(一个人发消息,多个人都可以接收)
- 路由模式:绑定类型为 direct,绑定条件routingKey不同(一个人发消息,指定给谁接收,别的人不能接收)
5.5.3.多重绑定
当然如果 exchange 的绑定类型是direct,但是它绑定的多个队列的 key 如果都相同,在这种情况下虽然绑定类型是 direct 但是它表现的就和 fanout 有点类似了,就跟广播差不多,如上图所示。
- 绑定类型为 direct,绑定条件routingKey相同:效果和发布订阅模式一致。
5.5.4.实战
- 交换机:direct_logs
- 队列1:console
- 队列2:disk
生产者
package com.atguigu.rabbitmq.six;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.BuiltinExchangeType;import com.rabbitmq.client.Channel;import java.util.HashMap;import java.util.Map;/** * 生产者 */public class EmitLogDirect {//交换机的名称private static final String EXCHANGE_NAME = "direct_logs";public static void main(String[] argv) throws Exception {//创建信道try (Channel channel = RabbitMqUtils.getChannel()) {/** * 声明一个 exchange(交换机) * 1.exchange 的名称 * 2.exchange 的类型 */channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);//创建多个 bindingKeyMap<String, String> bindingKeyMap = new HashMap<>();bindingKeyMap.put("info","普通 info 信息");bindingKeyMap.put("warning","警告 warning 信息");bindingKeyMap.put("error","错误 error 信息");//debug 没有消费这接收这个消息 所有就丢失了bindingKeyMap.put("debug","调试 debug 信息");for (Map.Entry<String, String> bindingKeyEntry: bindingKeyMap.entrySet()){String bindingKey = bindingKeyEntry.getKey();String message = bindingKeyEntry.getValue();/** *发送一个消息 *1.发送到那个交换机 如果是入门级程序,没有考虑交换机,可以写空串,表示使用默认的交换机 *2.路由的 key 是哪个 使用默认的交换机写的是:队列的名称 指定了交换机写的是:routingKey关键词 *3.其他的参数信息本次没有 *4.发送消息的消息体不能直接发消息,需要调用它的二进制。 */channel.basicPublish(EXCHANGE_NAME,bindingKey, null, message.getBytes("UTF-8"));System.out.println("生产者发出消息:" + message);}}}}
消费者1:
package com.atguigu.rabbitmq.six;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.BuiltinExchangeType;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;/** * 消费者1: */public class ReceiveLogsDirect01 {//定义交换机的名称private static final String EXCHANGE_NAME = "direct_logs";public static void main(String[] argv) throws Exception {//创建信道Channel channel = RabbitMqUtils.getChannel();//声明一个交换机:名称,类型(direct:路由类型)channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);/** * 生成一个队列,参数解释: *1.queue:队列名称 *2.durable:是否持久化,当MQ重启后,还在 (true:持久化,保存在磁盘false:不持久化,保存在内存) *3.exclusive: false不独占,可以多个消费者消费。true只能供一个消费者进行消费 *功能1:是否独占。只能有一个消费者监听这个队列 *功能2:当Connection关闭时,是否删除队列 *4.autoDelete:是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 *5.arguments:其它参数,在高级特性中讲,暂时设置为null */String queueName = "console";channel.queueDeclare(queueName, false, false, false, null);/** * 绑定交换机与队列: *参数1:队列 *参数2:交换机 *参数3:关键词routingKey为info,warning */channel.queueBind(queueName, EXCHANGE_NAME, "info");channel.queueBind(queueName, EXCHANGE_NAME, "warning");System.out.println("等待接收消息.....");//消费者接收消息的回调DeliverCallback deliverCallback = (consumerTag, delivery) -> {String message = new String(delivery.getBody(), "UTF-8");System.out.println(" 消费者01 :"+delivery.getEnvelope().getRoutingKey()+",消息:"+message);};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});}}
消费者2:
package com.atguigu.rabbitmq.six;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.BuiltinExchangeType;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;/** * 消费者1: */public class ReceiveLogsDirect02 {//定义交换机的名称private static final String EXCHANGE_NAME = "direct_logs";public static void main(String[] argv) throws Exception {//创建信道Channel channel = RabbitMqUtils.getChannel();//声明一个交换机:名称,类型(direct:路由类型)channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);/** * 生成一个队列,参数解释: *1.queue:队列名称 *2.durable:是否持久化,当MQ重启后,还在 (true:持久化,保存在磁盘false:不持久化,保存在内存) *3.exclusive: false不独占,可以多个消费者消费。true只能供一个消费者进行消费 *功能1:是否独占。只能有一个消费者监听这个队列 *功能2:当Connection关闭时,是否删除队列 *4.autoDelete:是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 *5.arguments:其它参数,在高级特性中讲,暂时设置为null */String queueName = "disk";channel.queueDeclare(queueName, false, false, false, null);/** * 绑定交换机与队列: *参数1:队列 *参数2:交换机 *参数3:关键词routingKey为error */channel.queueBind(queueName, EXCHANGE_NAME, "error");System.out.println("等待接收消息.....");//消费者接收消息的回调DeliverCallback deliverCallback = (consumerTag, delivery) -> {String message = new String(delivery.getBody(), "UTF-8");System.out.println(" 消费者02 :"+delivery.getEnvelope().getRoutingKey()+",消息:"+message);};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});}}
测试:有结果可知交换机类型为路由模式(direct),绑定多个类型只要满足其中一个绑定关系,就可以发送消息到队列。绑定一个关系必须要满足才可以发送。不满足绑定关系不能发送。
- 生产者
- 消费者1:
- 消费者2:
5.6.Topics(主题模式)
5.6.1.之前类型的问题
在上一个小节中,我们改进了日志记录系统。我们没有使用只能进行随意广播的 fanout 交换机,而是使用了 direct 交换机,从而有能实现有选择性地接收日志。
尽管使用direct 交换机改进了我们的系统,但是它仍然存在局限性-比方说我们想接收的日志类型有info.base 和 info.advantage,某个队列只想 info.base 的消息,那这个时候direct 就办不到了。这个时候就只能使用 topic 类型
5.6.2.Topic 的要求
发送到类型是 topic 交换机的消息的 routing_key 不能随意写,必须满足一定的要求,它必须是一个单词列表,以点号分隔开。这些单词可以是任意单词,比如说:“stock.usd.nyse”, “nyse.vmw”, “quick.orange.rabbit”.这种类型的。当然这个单词列表最多不能超过 255 个字节。
在这个规则列表中,其中有两个替换符是大家需要注意的
*(星号)可以代替一个单词
- #(井号)可以替代零个或多个单词
总结:相比发布订阅模式和路由模式更加灵活,既可以按条件发送也可以统一发送,原理是使用通配符描述绑定关系。
5.6.3.Topic 匹配案例
下图绑定关系如下
- Q1–>绑定的是
- 中间带 orange 带 3 个单词的字符串(
*.orange.*
)
- 中间带 orange 带 3 个单词的字符串(
- Q2–>绑定的是
- 最后一个单词是 rabbit 的 3 个单词(
*.*.rabbit
) - 第一个单词是 lazy 的多个单词(lazy.#)
- 最后一个单词是 rabbit 的 3 个单词(
上图是一个队列绑定关系图,我们来看看他们之间数据接收情况是怎么样的
quick.orange.rabbit被队列 Q1Q2 接收到lazy.orange.elephant被队列 Q1Q2 接收到quick.orange.fox被队列 Q1 接收到lazy.brown.fox被队列 Q2 接收到lazy.pink.rabbit虽然满足两个绑定但只被队列 Q2 接收一次quick.brown.fox不匹配任何绑定不会被任何队列接收到会被丢弃quick.orange.male.rabbit是四个单词不匹配任何绑定会被丢弃lazy.orange.male.rabbit是四个单词但匹配 Q2
当队列绑定关系是下列这种情况时需要引起注意
当一个队列绑定键是#,那么这个队列将接收所有数据,就有点像 fanout 了
如果队列绑定键当中没有#和*出现,那么该队列绑定类型就是 direct 了
5.6.4.实战
- 交换机:topic_logs
- 队列1:Q1
- 队列2:Q2
生产者:
package com.atguigu.rabbitmq.seven;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import java.util.HashMap;import java.util.Map;/** * 生产者: */public class EmitLogTopic {//交换机的名称private static final String EXCHANGE_NAME = "topic_logs";public static void main(String[] argv) throws Exception {//创建信道try (Channel channel = RabbitMqUtils.getChannel()) {/** * 声明一个 exchange(交换机) * 1.exchange 的名称 * 2.exchange 的类型 */channel.exchangeDeclare(EXCHANGE_NAME, "topic");/** * Q1-->绑定的是 * 中间带 orange 带 3 个单词的字符串(*.orange.*) * Q2-->绑定的是 * 最后一个单词是 rabbit 的 3 个单词(*.*.rabbit) * 第一个单词是 lazy 的多个单词(lazy.#) * */Map<String, String> bindingKeyMap = new HashMap<>();bindingKeyMap.put("quick.orange.rabbit","被队列 Q1Q2 接收到");bindingKeyMap.put("lazy.orange.elephant","被队列 Q1Q2 接收到");bindingKeyMap.put("quick.orange.fox","被队列 Q1 接收到");bindingKeyMap.put("lazy.brown.fox","被队列 Q2 接收到");bindingKeyMap.put("lazy.pink.rabbit","虽然满足两个绑定但只被队列 Q2 接收一次");bindingKeyMap.put("quick.brown.fox","不匹配任何绑定不会被任何队列接收到会被丢弃");bindingKeyMap.put("quick.orange.male.rabbit","是四个单词不匹配任何绑定会被丢弃");bindingKeyMap.put("lazy.orange.male.rabbit","是四个单词但匹配 Q2");for (Map.Entry<String, String> bindingKeyEntry: bindingKeyMap.entrySet()){String bindingKey = bindingKeyEntry.getKey();String message = bindingKeyEntry.getValue();/** *发送一个消息 *1.发送到那个交换机 如果是入门级程序,没有考虑交换机,可以写空串,表示使用默认的交换机 *2.路由的 key 是哪个 使用默认的交换机写的是:队列的名称 指定了交换机写的是:routingKey关键词 *3.其他的参数信息本次没有 *4.发送消息的消息体不能直接发消息,需要调用它的二进制。 */channel.basicPublish(EXCHANGE_NAME,bindingKey, null, message.getBytes("UTF-8"));System.out.println("生产者发出消息" + message);}}}}
消费者1:
package com.atguigu.rabbitmq.seven;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;/** * 声明主题交换机 以及相关队列 * * 消费者C1 */public class ReceiveLogsTopic01 {//定义交换机的名称private static final String EXCHANGE_NAME = "topic_logs";public static void main(String[] argv) throws Exception {//创建信道Channel channel = RabbitMqUtils.getChannel();//声明一个交换机:名称,类型(topic:主题类型)channel.exchangeDeclare(EXCHANGE_NAME, "topic");/** * 生成一个队列Q1,参数解释: *1.queue:队列名称 *2.durable:是否持久化,当MQ重启后,还在 (true:持久化,保存在磁盘false:不持久化,保存在内存) *3.exclusive: false不独占,可以多个消费者消费。true只能供一个消费者进行消费 *功能1:是否独占。只能有一个消费者监听这个队列 *功能2:当Connection关闭时,是否删除队列 *4.autoDelete:是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 *5.arguments:其它参数,在高级特性中讲,暂时设置为null */String queueName="Q1";channel.queueDeclare(queueName, false, false, false, null);/** * 绑定交换机与队列: *参数1:队列 *参数2:交换机 *参数3:关键词routingKey为 */channel.queueBind(queueName, EXCHANGE_NAME, "*.orange.*");System.out.println("等待接收消息.....");//消费者接收消息的回调DeliverCallback deliverCallback = (consumerTag, delivery) -> {String message = new String(delivery.getBody(), "UTF-8");System.out.println(" 接收队列 :"+queueName+" 绑定键:"+delivery.getEnvelope().getRoutingKey()+",消息:"+message);};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});}}
消费者2:
package com.atguigu.rabbitmq.seven;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;/** * 声明主题交换机 以及相关队列 * * 消费者C2 */public class ReceiveLogsTopic02 {//定义交换机的名称private static final String EXCHANGE_NAME = "topic_logs";public static void main(String[] argv) throws Exception {//创建信道Channel channel = RabbitMqUtils.getChannel();//声明一个交换机:名称,类型(topic:主题类型)channel.exchangeDeclare(EXCHANGE_NAME, "topic");/** * 生成一个队列Q2,参数解释: *1.queue:队列名称 *2.durable:是否持久化,当MQ重启后,还在 (true:持久化,保存在磁盘false:不持久化,保存在内存) *3.exclusive: false不独占,可以多个消费者消费。true只能供一个消费者进行消费 *功能1:是否独占。只能有一个消费者监听这个队列 *功能2:当Connection关闭时,是否删除队列 *4.autoDelete:是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 *5.arguments:其它参数,在高级特性中讲,暂时设置为null */String queueName="Q1";channel.queueDeclare(queueName, false, false, false, null);/** * 绑定交换机与队列: *参数1:队列 *参数2:交换机 *参数3:关键词routingKey为 */channel.queueBind(queueName, EXCHANGE_NAME, "*.*.rabbit");channel.queueBind(queueName, EXCHANGE_NAME, "lazy.#");System.out.println("等待接收消息.....");//消费者接收消息的回调DeliverCallback deliverCallback = (consumerTag, delivery) -> {String message = new String(delivery.getBody(), "UTF-8");System.out.println(" 接收队列 :"+queueName+" 绑定键:"+delivery.getEnvelope().getRoutingKey()+",消息:"+message);};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});}}
测试:
生产者
消费者01
消费者02
6.死信队列
6.1.死信的概念
先从概念解释上搞清楚这个定义,死信,顾名思义就是无法被消费的消息,字面意思可以这样理解,一般来说,producer(生产者) 将消息投递到 broker 或者直接到queue (队列)里了,consumer(消费者) 从 queue 取出消息进行消费,但某些时候由于特定的原因导致 queue 中的某些消息无法被消费,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。
应用场景:
- 为了保证订单业务的消息数据不丢失,需要使用到 RabbitMQ 的死信队列机制,当消息消费发生异常时,将消息投入死信队列中.
- 当消息不能被消费时,把消息放到死信队列中,目的是等到环境变好时,在消费失信队列中的消息。
- 还有比如说: 用户在商城下单成功并点击去支付后在指定时间未支付时自动失效
- 体现了死信队列存在一定的延迟性,死信可以在一定的时间内被消费者所消费。
6.2.死信的来源
- 消息 TTL (存活时间)过期
- 队列达到最大长度(队列满了,无法再添加数据到 mq 中)
- 消息被拒绝(basic.reject 或 basic.nack)并且 requeue=false.
- 解释:消息方在进行应答时,进行了拒绝应答或者否定应答,并且还没有放回到队列中。
6.3.死信实战
6.3.1.代码架构图
- 生产者发送消息到正常的交换机,交换机发送到队列中之后被消费者进行消费。一旦发送的消息为死信消息,那么死信消息就会从正常的队列中发送给死信交换机,在发送给死信队列被消费者2所消费。
6.3.2.消息TTL 过期
- 测试过程:生产者每发生一条消息就会有10s的超时时间,在这10秒内如果没有被消费者所消费,那么死信消息就会转发给死信交换机,最终由消费者2所消费。
- 启动消费者1在关闭掉的目的:启动后会创建普通交换机 普通队列 死信交换机 死信队列,以及普通交换机和死信交换机,死信交换机和rouTingKey之间的关系。关闭后可以保证消费者1死亡后消息在10s内超时,此时死信消息就会转发到死信交换机。
生产者代码
package com.atguigu.rabbitmq.eight;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.AMQP;import com.rabbitmq.client.BuiltinExchangeType;import com.rabbitmq.client.Channel;/** * 死信队列之 生产者代码 */public class Producer {//交换机的名称private static final String NORMAL_EXCHANGE = "normal_exchange";public static void main(String[] argv) throws Exception {//创建信道try (Channel channel = RabbitMqUtils.getChannel()) {/** * 声明一个 exchange(交换机) * 1.exchange 的名称 * 2.exchange 的类型 */channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);//设置消息的 TTL(超时)时间单位是ms毫秒10000ms=10sAMQP.BasicProperties properties = new AMQP.BasicProperties().builder().expiration("10000").build();//该信息是用作演示队列个数限制for (int i = 1; i <11 ; i++) {/** *发送一个消息 *1.发送到那个交换机 如果是入门级程序,没有考虑交换机,可以写空串,表示使用默认的交换机 *2.路由的 key 是哪个 使用默认的交换机写的是:队列的名称 指定了交换机写的是:routingKey关键词 *3.其他的参数信息本次没有 *4.发送消息的消息体不能直接发消息,需要调用它的二进制。 */String message="info"+i;channel.basicPublish(NORMAL_EXCHANGE, "zhangsan", properties, message.getBytes());System.out.println("生产者发送消息:"+message);}}}}
消费者 C1 代码(启动之后关闭该消费者 模拟其接收不到消息
)
package com.atguigu.rabbitmq.eight;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.BuiltinExchangeType;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;import java.util.HashMap;import java.util.Map;/** * 死信队列实战 * * 消费者01 */public class Consumer01 {//普通交换机名称private static final String NORMAL_EXCHANGE = "normal_exchange";//死信交换机名称private static final String DEAD_EXCHANGE = "dead_exchange";public static void main(String[] argv) throws Exception {//创建信道Channel channel = RabbitMqUtils.getChannel();//声明普通和死信交换机: 名称,类型(direct:路由模式)channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);/** * 声明普通队列,参数解释: *1.queue:队列名称 *2.durable:是否持久化,当MQ重启后,还在 (true:持久化,保存在磁盘false:不持久化,保存在内存) *3.exclusive: false不独占,可以多个消费者消费。true只能供一个消费者进行消费 *功能1:是否独占。只能有一个消费者监听这个队列 *功能2:当Connection关闭时,是否删除队列 *4.autoDelete:是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 *5.arguments:其它参数,在高级特性中讲,暂时设置为null *设置消息为死信后转发到死信交换机,参数类型为Map集合 */String normalQueue = "normal-queue";//设置消息为死信后转发到死信交换机,参数类型为Map集合Map<String, Object> arguments = new HashMap<>();//过期时间 10s=10000ms在这个地方设置过期时间直接写死了,可以在生产者发送消息时设置过期时间,这样更灵活。//arguments.put("x-message-ttl",10000);//正常队列设置死信交换机是谁:参数key 是固定值,参数v是死信交换机的名字arguments.put("x-dead-letter-exchange", DEAD_EXCHANGE);//设置死信 routing-key: 参数 key 是固定值,参数v关键词的名字跟图中保持一致arguments.put("x-dead-letter-routing-key", "lisi");channel.queueDeclare(normalQueue, false, false, false, arguments);/** * 绑定普通交换机与普通队列: *参数1:队列 *参数2:交换机 *参数3:关键词routingKey为 */channel.queueBind(normalQueue, NORMAL_EXCHANGE, "zhangsan");//声明死信队列String deadQueue = "dead-queue";channel.queueDeclare(deadQueue, false, false, false, null);//绑定死信交换机与死信队列channel.queueBind(deadQueue, DEAD_EXCHANGE, "lisi");System.out.println("等待接收消息.....");//消费者接收消息的回调DeliverCallback deliverCallback = (consumerTag, delivery) -> {String message = new String(delivery.getBody(), "UTF-8");System.out.println("Consumer01 接收到消息"+message);};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(normalQueue, true, deliverCallback, consumerTag -> {});}}
消费者 C2 代码(以上步骤完成后 启动 C2 消费者 它消费死信队列里面的消息
)
package com.atguigu.rabbitmq.eight;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.BuiltinExchangeType;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;import java.util.HashMap;import java.util.Map;/** * 死信队列实战 * * 消费者02 */public class Consumer02 {//死信交换机名称private static final String deadQueue = "dead-queue";public static void main(String[] argv) throws Exception {//获取信道Channel channel = RabbitMqUtils.getChannel();System.out.println("等待接收死信队列消息.....");//消费者接收消息的回调DeliverCallback deliverCallback = (consumerTag, delivery) -> {String message = new String(delivery.getBody(), "UTF-8");System.out.println("Consumer02 接收死信队列的消息" + message);};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(deadQueue, true, deliverCallback, consumerTag -> {});}}
启动测试:先启动消费者01在关闭掉,之后启动消费者02,在启动生产者。
6.3.3.队列达到最大长度
1.消息生产者代码去掉 TTL 属性
package com.atguigu.rabbitmq.eight;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.AMQP;import com.rabbitmq.client.BuiltinExchangeType;import com.rabbitmq.client.Channel;/** * 死信队列之 生产者代码 */public class Producer {//交换机的名称private static final String NORMAL_EXCHANGE = "normal_exchange";public static void main(String[] argv) throws Exception {//创建信道try (Channel channel = RabbitMqUtils.getChannel()) {/** * 声明一个 exchange(交换机) * 1.exchange 的名称 * 2.exchange 的类型 */channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);//设置消息的 TTL(超时)时间单位是ms毫秒10000ms=10s//AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().expiration("10000").build();//该信息是用作演示队列个数限制for (int i = 1; i <11 ; i++) {/** *发送一个消息 *1.发送到那个交换机 如果是入门级程序,没有考虑交换机,可以写空串,表示使用默认的交换机 *2.路由的 key 是哪个 使用默认的交换机写的是:队列的名称 指定了交换机写的是:routingKey关键词 *3.其他的参数信息本次没有 *4.发送消息的消息体不能直接发消息,需要调用它的二进制。 */String message="info"+i;channel.basicPublish(NORMAL_EXCHANGE, "zhangsan", null, message.getBytes());System.out.println("生产者发送消息:"+message);}}}}
2.C1 消费者修改以下代码(启动之后关闭该消费者 模拟其接收不到消息
)
//设置正常队列的长度限制arguments.put("x-max-length", 6);
- 注意:在过期时间TTL测试时候,已经启动消费者1产生了队列,此时修改参数再次启动会报错。
- 解决:把原先的队列删除,再次启动重新生成队列。
3.C2 消费者代码不变(启动 C2 消费者)
6.3.4.消息被拒
1.消息生产者代码同上生产者一致
2.C1 消费者代码(启动之后关闭该消费者 模拟其接收不到消息
)
package com.atguigu.rabbitmq.eight;import com.atguigu.rabbitmq.utils.RabbitMqUtils;import com.rabbitmq.client.BuiltinExchangeType;import com.rabbitmq.client.Channel;import com.rabbitmq.client.DeliverCallback;import java.util.HashMap;import java.util.Map;/** * 死信队列实战 * * 消费者01 */public class Consumer01 {//普通交换机名称private static final String NORMAL_EXCHANGE = "normal_exchange";//死信交换机名称private static final String DEAD_EXCHANGE = "dead_exchange";public static void main(String[] argv) throws Exception {//创建信道Channel channel = RabbitMqUtils.getChannel();//声明普通和死信交换机: 名称,类型(direct:路由模式)channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);/** * 声明普通队列,参数解释: *1.queue:队列名称 *2.durable:是否持久化,当MQ重启后,还在 (true:持久化,保存在磁盘false:不持久化,保存在内存) *3.exclusive: false不独占,可以多个消费者消费。true只能供一个消费者进行消费 *功能1:是否独占。只能有一个消费者监听这个队列 *功能2:当Connection关闭时,是否删除队列 *4.autoDelete:是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 *5.arguments:其它参数,在高级特性中讲,暂时设置为null *设置消息为死信后转发到死信交换机,参数类型为Map集合 */String normalQueue = "normal-queue";//设置消息为死信后转发到死信交换机,参数类型为Map集合Map<String, Object> arguments = new HashMap<>();//过期时间 10s=10000ms在这个地方设置过期时间直接写死了,可以在生产者发送消息时设置过期时间,这样更灵活。//arguments.put("x-message-ttl",10000);//正常队列设置死信交换机是谁:参数key 是固定值,参数v是死信交换机的名字arguments.put("x-dead-letter-exchange", DEAD_EXCHANGE);//设置死信 routing-key: 参数 key 是固定值,参数v关键词的名字跟图中保持一致arguments.put("x-dead-letter-routing-key", "lisi");//设置正常队列的长度限制//arguments.put("x-max-length", 6);channel.queueDeclare(normalQueue, false, false, false, arguments);/** * 绑定普通交换机与普通队列: *参数1:队列 *参数2:交换机 *参数3:关键词routingKey为 */channel.queueBind(normalQueue, NORMAL_EXCHANGE, "zhangsan");//声明死信队列String deadQueue = "dead-queue";channel.queueDeclare(deadQueue, false, false, false, null);//绑定死信交换机与死信队列channel.queueBind(deadQueue, DEAD_EXCHANGE, "lisi");System.out.println("等待接收消息.....");//消费者接收消息的回调DeliverCallback deliverCallback = (consumerTag, delivery) -> {String message = new String(delivery.getBody(), "UTF-8");if(message.equals("info5")){System.out.println("Consumer01 接收到消息" + message + "并拒绝签收该消息");/** 拒绝应答:* 1.消息标记 tag:每一个消息都有一个唯一的标识,表示应答的是哪一个消息。* 2.是否重新放入队列, false:不放回,消息变为死信,该队列如果配置了死信交换机将发送到死信队列中*true:消息放回队列* */channel.basicReject(delivery.getEnvelope().getDeliveryTag(), false);}else {/** * 确认手动应答: *1.消息标记 tag:每一个消息都有一个唯一的标识,表示应答的是哪一个消息。 *2.是否批量应答未应答消息 false:不批量应答信道中的消息 true:批量 */System.out.println("Consumer01 接收到消息"+message);channel.basicAck(delivery.getEnvelope().getDeliveryTag(), false);}};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(normalQueue, false, deliverCallback, consumerTag -> {});}}
3.C2 消费者代码不变
启动消费者 1 然后再启动消费者 2
7.延迟队列
7.1.延迟队列概念
- 延迟队列就是死信队列中的消息TTL过期。
延时队列,队列内部是有序的,最重要的特性就体现在它的延时属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理,简单来说,延时队列就是用来存放需要在指定时间被处理的元素的队列。
7.2.延迟队列使用场景
- 订单在十分钟之内未支付则自动取消
- 下了订单之后会向延迟队列发送消息,这个消息的过期时间为10分钟,十分钟之后消息从延迟队列中出来后取消尚未被支付的订单。
- 新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。
- 用户注册成功后,如果三天内没有登陆则进行短信提醒。
- 用户发起退款,如果三天内没有得到处理则通知相关运营人员。
- 预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议
这些场景都有一个特点,需要在某个事件发生之后或者之前的指定时间点完成某一项任务,如: 发生订单生成事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭;看起来似乎使用定时任务,一直轮询数据,每秒查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于“如果账单一周内未支付则进行自动结算”这样的需求, 如果对于时间不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是一个可行的方案。但对于数据量比较大,并且时效性较强的场景,如:“订单十分钟内未支付则关闭“,短期内未支付的订单数据可能会有很多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍旧使用轮询的方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大压力,无法满足业务要求而且性能低下。
- 总结:
- 对于数据量比较小,时效性比较宽泛—-可以使用定时器
- 对于数据量比较大,时效性比较强—-可以使用延迟队列
7.3.RabbitMQ 中的 TTL
TTL 是什么呢?TTL 是 RabbitMQ 中一个消息或者队列的属性,表明一条消息或者该队列中的所有消息的最大存活时间,
单位是毫秒。换句话说,如果一条消息设置了 TTL 属性或者进入了设置TTL 属性的队列,那么这条消息如果在TTL 设置的时间内没有被消费,则会成为”死信”。如果同时配置了队列的TTL 和消息的TTL,那么较小的那个值将会被使用,有两种方式设置 TTL。
7.3.1.队列设置TTL
第一种是在创建队列的时候设置队列的“x-message-ttl”属性
7.3.2.消息设置TTL
另一种方式便是针对每条消息设置TTL
7.3.3.两者的区别
如果设置了队列的 TTL 属性,那么一旦消息过期,就会被队列丢弃(如果配置了死信队列被丢到死信队列中),而第二种方式,消息即使过期,也不一定会被马上丢弃,因为消息是否过期是在即将投递到消费者之前判定的,如果当前队列有严重的消息积压情况,则已过期的消息也许还能存活较长时间;另外,还需要注意的一点是,如果不设置 TTL,表示消息永远不会过期,如果将 TTL 设置为 0,则表示除非此时可以直接投递该消息到消费者,否则该消息将会被丢弃。
前一小节我们介绍了死信队列,刚刚又介绍了 TTL,至此利用 RabbitMQ 实现延时队列的两大要素已经集齐,接下来只需要将它们进行融合,再加入一点点调味料,延时队列就可以新鲜出炉了。想想看,延时队列,不就是想要消息延迟多久被处理吗,TTL 则刚好能让消息在延迟多久之后成为死信,另一方面, 成为死信的消息都会被投递到死信队列里,这样只需要消费者一直消费死信队列里的消息就完事了,因为里面的消息都是希望被立即处理的消息。
7.4.整合 springboot
7.4.1.创建项目
7.4.2.添加依赖
<dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-amqp</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>com.alibaba</groupId><artifactId>fastjson</artifactId><version>1.2.47</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId></dependency><dependency><groupId>io.springfox</groupId><artifactId>springfox-swagger2</artifactId><version>2.9.2</version></dependency><dependency><groupId>io.springfox</groupId><artifactId>springfox-swagger-ui</artifactId><version>2.9.2</version></dependency><dependency><groupId>org.springframework.amqp</groupId><artifactId>spring-rabbit-test</artifactId><scope>test</scope></dependency></dependencies>
7.4.3.修改配置文件
#配置连接rabbitmq的信息spring.rabbitmq.host=192.168.10.120#注意15672是访问管理界面的端口号spring.rabbitmq.port=5672spring.rabbitmq.username=adminspring.rabbitmq.password=123456
7.4.4.添加Swagger 配置类
- 访问界面用的。
package com.cn.config;import org.springframework.context.annotation.Bean;import org.springframework.context.annotation.Configuration;import springfox.documentation.builders.ApiInfoBuilder;import springfox.documentation.service.ApiInfo;import springfox.documentation.service.Contact;import springfox.documentation.spi.DocumentationType;import springfox.documentation.spring.web.plugins.Docket;import springfox.documentation.swagger2.annotations.EnableSwagger2;@Configuration@EnableSwagger2public class SwaggerConfig {@Beanpublic Docket webApiConfig(){return new Docket(DocumentationType.SWAGGER_2).groupName("webApi").apiInfo(webApiInfo()).select().build();}private ApiInfo webApiInfo(){return new ApiInfoBuilder().title("rabbitmq 接口文档").description("本文档描述了 rabbitmq 微服务接口定义").version("1.0").contact(new Contact("enjoy6288", "http://atguigu.com","1551388580@qq.com")).build();}}
7.5.队列 TTL
7.5.1.代码架构图
创建两个队列 QA 和 QB,两者队列 TTL 分别设置为 10S 和 40S,然后在创建一个交换机 X 和死信交换机 Y,它们的类型都是direct,创建一个死信队列 QD,它们的绑定关系如下:
7.5.2.配置文件类代码
- 说明:
- 之前没有整合Springboot工程时,把所有的声明包括普通交换机、延迟交换机、普通队列、延迟队列都是放在消费者中进行声明的。
- 整合Springboot工程之后,把这些声明都是统一放在单独的一个类当中,即配置文件类。
package com.cn.config;import org.springframework.amqp.core.*;import org.springframework.amqp.rabbit.core.RabbitTemplate;import org.springframework.beans.factory.annotation.Qualifier;import org.springframework.context.annotation.Bean;import org.springframework.context.annotation.Configuration;import java.util.HashMap;import java.util.Map;/** * TTL队列 配置文件类代码 */@Configurationpublic class TtlQueueConfig {//普通交换机名称public static final String X_EXCHANGE = "X";//死信交换机名称public static final String Y_DEAD_LETTER_EXCHANGE = "Y";//2个普通队列名称public static final String QUEUE_A = "QA";public static final String QUEUE_B = "QB";//1个死信队列名称public static final String DEAD_LETTER_QUEUE = "QD";// 声明 xExchange(普通交换机)@Bean("xExchange")public DirectExchange xExchange(){return new DirectExchange(X_EXCHANGE);}// 声明 yExchange(死信交换机)@Bean("yExchange")public DirectExchange yExchange(){return new DirectExchange(Y_DEAD_LETTER_EXCHANGE);}//声明普通队列Attl过期时间为10s 并绑定到对应的死信交换机@Bean("queueA")public Queue queueA(){//指定map的长度,可以节省创建时间。Map<String, Object> args = new HashMap<>(3);//声明当前队列绑定的死信交换机args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);//声明当前队列的死信路由 keyargs.put("x-dead-letter-routing-key", "YD");//声明队列的 TTL 单位是毫秒args.put("x-message-ttl", 10000);//durable:持久化的队列名withArguments:设置参数return QueueBuilder.durable(QUEUE_A).withArguments(args).build();}//声明普通队列Bttl过期时间为40s 并绑定到对应的死信交换机@Bean("queueB")public Queue queueB(){Map<String, Object> args = new HashMap<>(3);//声明当前队列绑定的死信交换机args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);//声明当前队列的死信路由 keyargs.put("x-dead-letter-routing-key", "YD");//声明队列的 TTLargs.put("x-message-ttl", 40000);return QueueBuilder.durable(QUEUE_B).withArguments(args).build();}//声明死信队列 QD@Bean("queueD")public Queue queueD(){return new Queue(DEAD_LETTER_QUEUE);}// 声明队列 A 绑定 X 交换机@Beanpublic Binding queueaBindingX(@Qualifier("queueA") Queue queueA,@Qualifier("xExchange") DirectExchange xExchange){//根据属性名注入参数//队列交换机关键词return BindingBuilder.bind(queueA).to(xExchange).with("XA");}//声明队列 B 绑定 X 交换机@Beanpublic Binding queuebBindingX(@Qualifier("queueB") Queue queue1B,@Qualifier("xExchange") DirectExchange xExchange){return BindingBuilder.bind(queue1B).to(xExchange).with("XB");}//声明死信队列 QD 绑定关系@Beanpublic Binding deadLetterBindingQad(@Qualifier("queueD") Queue queueD,@Qualifier("yExchange") DirectExchange yExchange){return BindingBuilder.bind(queueD).to(yExchange).with("YD");}}
7.5.3.消息生产者代码
package com.cn.controller;import lombok.extern.slf4j.Slf4j;import org.springframework.amqp.rabbit.core.RabbitTemplate;import org.springframework.beans.factory.annotation.Autowired;import org.springframework.web.bind.annotation.GetMapping;import org.springframework.web.bind.annotation.PathVariable;import org.springframework.web.bind.annotation.RequestMapping;import org.springframework.web.bind.annotation.RestController;import java.util.Date;/** * 发送延迟消息生产者 * * http://localhost:8080/ttl/sendMsg/嘻嘻嘻 */@Slf4j@RequestMapping("/ttl")@RestControllerpublic class SendMsgController {//此对象用来发送消息:Springboot版本过高注入会报错,可以降低版本,在pom文件中修改springboot版本(2.6.0以下),之后重新加载jar包@Autowiredprivate RabbitTemplate rabbitTemplate;@GetMapping("sendMsg/{message}")public void sendMsg(@PathVariable String message){//{}为日志的占位符,后面的参数会替换掉占位符的位置log.info("当前时间:{},发送一条信息给两个TTL队列:{}", new Date(), message);/** 发送消息:*交换机*routingKey*发送的消息* */rabbitTemplate.convertAndSend("X", "XA", "消息来自 ttl 为 10S 的队列: "+message);rabbitTemplate.convertAndSend("X", "XB", "消息来自 ttl 为 40S 的队列: "+message);}}
降低Springboot版本:
7.5.4.消息消费者代码
package com.cn.consumer;import com.rabbitmq.client.Channel;import lombok.extern.slf4j.Slf4j;import org.springframework.amqp.core.Message;import org.springframework.amqp.rabbit.annotation.RabbitListener;import org.springframework.stereotype.Component;import java.io.IOException;import java.util.Date;/** * 队列TTL消费者 */@Slf4j@Component //为了消费者能够实例化public class DeadLetterQueueConsumer {@RabbitListener(queues = "QD")//接收消息:队列名称public void receiveD(Message message, Channel channel) throws IOException {//将消息体转化为字符串String msg = new String(message.getBody());log.info("当前时间:{},收到死信队列信息{}", new Date().toString(), msg);}}
发起一个请求 http://localhost:8080/ttl/sendMsg/嘻嘻嘻
第一条消息在 10S 后变成了死信消息,然后被消费者消费掉,第二条消息在 40S 之后变成了死信消息, 然后被消费掉,这样一个延时队列就打造完成了。
不过,如果这样使用的话,岂不是每增加一个新的时间需求,就要新增一个队列,这里只有 10S 和 40S 两个时间选项,如果需要一个小时后处理,那么就需要增加TTL 为一个小时的队列,如果是预定会议室然后提前通知这样的场景,岂不是要增加无数个队列才能满足需求?
- 总结:现在是延迟10s写一个队列,延迟40s写一个队列,那么以后每次增加一个延迟时间难道都要添加一个队列吗????
- 答:应该进行优化,写一个满足所有要求的队列。
7.6.延时队列优化
7.6.1.代码架构图
在这里新增了一个队列 QC,绑定关系如下,该队列不设置TTL 时间,延迟时间由生产者发消息的时候决定。
7.6.2.配置文件类代码
在配置文件类中添加一个新的队列:
- 定义一个新的队列名
- 创建这个新的队列
- 将这个新创建的队列与x交换机进行绑定。
//普通队列名称public static final String QUEUE_C = "QC";//声明普通队列Cttl没有设置过期时间 并绑定到对应的死信交换机@Bean("queueC")public Queue queueC(){Map<String, Object> args = new HashMap<>(3);//声明当前队列绑定的死信交换机args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);//声明当前队列的死信路由 keyargs.put("x-dead-letter-routing-key", "YD");//没有声明 TTL 属性return QueueBuilder.durable(QUEUE_C).withArguments(args).build();}//声明队列 C 绑定 X 交换机@Beanpublic Binding queuecBindingX(@Qualifier("queueC") Queue queueC,@Qualifier("xExchange") DirectExchange xExchange){return BindingBuilder.bind(queueC).to(xExchange).with("XC");}
7.6.3.消息生产者代码
- 编写发送请求时携带超时时间的新方法。
//开始发消息消息 TTL@GetMapping("sendExpirationMsg/{message}/{ttlTime}")public void sendMsg(@PathVariable String message,@PathVariable String ttlTime) {log.info("当前时间:{},发送一条时长{}毫秒 TTL 信息给队列 C:{}", new Date(),ttlTime, message);/* * 发送消息: *交换机 *routingKey *发送的消息 *设置过期时间:类型为接口类型 * */rabbitTemplate.convertAndSend("X", "XC", message, correlationData ->{//发送消息的时候 延迟时长correlationData.getMessageProperties().setExpiration(ttlTime);return correlationData;});}
发起请求
http://localhost:8080/ttl/sendExpirationMsg/你好 1/20000
http://localhost:8080/ttl/sendExpirationMsg/你好 2/2000
看起来似乎没什么问题,但是在最开始的时候,就介绍过如果使用在消息属性上设置 TTL 的方式(每条消息设置TTL),消息可能并不会按时“死亡“,因为 RabbitMQ 只会检查第一个消息是否过期,如果过期则丢到死信队列, 如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行。
现象:第一条信息设置的20s延迟,第二条信息设置的2s延迟。执行请求后发现第一条数据确实是接近20s延迟执行,但是第二条数据明明设置的2s延迟执行,实际上是14s后才执行。说明第二条数据是等待第一条数据执行完才紧跟着执行。
延迟队列优化的缺陷:延迟队列的优化已经可以满足一个队列适用于任何时间,但是在发送2条信息以上时会有先后顺序,第二条信息只能等第一条发送完毕才能发送。
解决:使用延迟插件
7.7.Rabbitmq 插件实现延迟队列
上文中提到的问题,确实是一个问题,如果不能实现在消息粒度上的 TTL,并使其在设置的TTL 时间及时死亡,就无法设计成一个通用的延时队列。那如何解决呢,接下来我们就去解决该问题。
7.7.1.安装延时队列插件
在官网 https://www.rabbitmq.com/community-plugins.html
上,下载rabbitmq_delayed_message_exchange 插件,然后解压放置到 RabbitMQ 的 plugins插件目录。
- 进入官网
- 使用MobaXterm把下载好的压缩包放到,RabbitMQ的安装目录下的plugins插件目录
首先:进入到插件目录(
cd /usr/lib/rabbitmq/lib/rabbitmq_server-3.8.8/plugins/
)
其次:把插件上传到此目录中:(这里使用的是3.8.0.ez版本,注意插件版本要比安装的Rabbitmq版本低)
进入 RabbitMQ 的安装目录下的 plugins 目录,执行下面命令让该插件生效,然后重启 RabbitMQ
- 进入到插件目录:
cd /usr/lib/rabbitmq/lib/rabbitmq_server-3.8.8/plugins/
- 安装(不需要写版本信息):
rabbitmq-plugins enable rabbitmq_delayed_message_exchange
- 重启 RabbitMQ:
systemctl restart rabbitmq-server
- 效果
- 原来延迟消息的位置在队列处,使用插件后在交换机处进行延迟的。
7.7.2.代码架构图
在这里新增了一个队列delayed.queue,一个自定义交换机 delayed.exchange,绑定关系如下:
7.7.3.配置文件类代码
在我们自定义的交换机中,这是一种新的交换类型,该类型消息支持延迟投递机制 消息传递后并不会立即投递到目标队列中,而是存储在 mnesia(一个分布式数据系统)表中,当达到投递时间时,才投递到目标队列中。
package com.cn.config;import org.springframework.amqp.core.Binding;import org.springframework.amqp.core.BindingBuilder;import org.springframework.amqp.core.CustomExchange;import org.springframework.amqp.core.Queue;import org.springframework.beans.factory.annotation.Qualifier;import org.springframework.context.annotation.Bean;import org.springframework.context.annotation.Configuration;import java.util.HashMap;import java.util.Map;/** * */@Configurationpublic class DelayedQueueConfig {//交换机public static final String DELAYED_EXCHANGE_NAME = "delayed.exchange";//队列public static final String DELAYED_QUEUE_NAME = "delayed.queue";//routingkeypublic static final String DELAYED_ROUTING_KEY = "delayed.routingkey";/** * 声明交换机: * 因为系统没有提供插件使用的交换机类型x-delayed-message, * 所以只能使用自定义交换机来定义一个延迟交换机 */@Beanpublic CustomExchange delayedExchange() {Map<String, Object> args = new HashMap<>();args.put("x-delayed-type", "direct");//延迟类型// 交换机的名称类型是否持久化是否自动删除其它的参数return new CustomExchange(DELAYED_EXCHANGE_NAME, "x-delayed-message", true, false, args);}//声明队列@Beanpublic Queue delayedQueue() {return new Queue(DELAYED_QUEUE_NAME);}//交换机与队列进行绑定@Beanpublic Binding bindingDelayedQueue(@Qualifier("delayedQueue") Queue queue, @Qualifier("delayedExchange") CustomExchange delayedExchange) {//根据属性名注入参数//队列 交换机 关键词 构建return BindingBuilder.bind(queue).to(delayedExchange).with(DELAYED_ROUTING_KEY).noargs();}}
7.7.4.消息生产者代码
//开始发消息基于插件的消息 及 延迟的时间@GetMapping("sendDelayMsg/{message}/{delayTime}")public void sendMsg(@PathVariable String message,@PathVariable Integer delayTime) {log.info(" 当前时间:{},发送一条延迟{}毫秒的信息给队列delayed.queue:{}", new Date(),delayTime, message);/* * 发送消息: *交换机 *routingKey *发送的消息 *设置过期时间:类型为接口类型 * */rabbitTemplate.convertAndSend(DelayedQueueConfig.DELAYED_EXCHANGE_NAME, DelayedQueueConfig.DELAYED_ROUTING_KEY, message,correlationData ->{//发送消息的时候 延迟时长 单位:ms毫秒correlationData.getMessageProperties().setDelay(delayTime);return correlationData;});}
7.7.5.消息消费者代码
package com.cn.consumer;import com.cn.config.DelayedQueueConfig;import lombok.extern.slf4j.Slf4j;import org.springframework.amqp.core.Message;import org.springframework.amqp.rabbit.annotation.RabbitListener;import org.springframework.stereotype.Component;import java.util.Date;/** * 消费者 基于插件的延迟消息 */@Slf4j@Componentpublic class DelayQueueConsumer {//监听消息@RabbitListener(queues = DelayedQueueConfig.DELAYED_QUEUE_NAME) //队列名称public void receiveDelayedQueue(Message message){//将消息体转化为字符串String msg = new String(message.getBody());log.info("当前时间:{},收到延时队列的消息:{}", new Date().toString(), msg);}}
发起请求:
http://localhost:8080/ttl/sendDelayMsg/come on baby1/20000
http://localhost:8080/ttl/sendDelayMsg/come on baby2/2000
第二个消息被先消费掉了,符合预期
7.8.总结
- 延迟消息:2种方式
- 基于死信
- 基于插件
延时队列在需要延时处理的场景下非常有用,使用 RabbitMQ 来实现延时队列可以很好的利用RabbitMQ 的特性,如:消息可靠发送、消息可靠投递、死信队列来保障消息至少被消费一次以及未被正确处理的消息不会被丢弃。另外,通过 RabbitMQ 集群的特性,可以很好的解决单点故障问题,不会因为单个节点挂掉导致延时队列不可用或者消息丢失。
当然,延时队列还有很多其它选择,比如利用 Java 的 DelayQueue,利用 Redis 的 zset,利用 Quartz或者利用 kafka 的时间轮,这些方式各有特点,看需要适用的场景
8.发布确认高级
在生产环境中由于一些不明原因,导致 rabbitmq 重启,在 RabbitMQ 重启期间生产者消息投递失败, 导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行 RabbitMQ 的消息可靠投递呢? 特别是在这样比较极端的情况,RabbitMQ 集群不可用的时候,无法投递的消息该如何处理呢:
- 异常举例:
应 用 [xxx] 在 [08-1516:36:04] 发 生 [ 错误日志异常 ] , alertId=[xxx] 。 由[org.springframework.amqp.rabbit.listener.BlockingQueueConsumer:start:620] 触发。 应用 xxx 可能原因如下服务名为: 异常为: org.springframework.amqp.rabbit.listener.BlockingQueueConsumer:start:620, 产 生 原 因 如 下 :1.org.springframework.amqp.rabbit.listener.QueuesNotAvailableException: Cannot prepare queue for listener. Either the queue doesn't exist or the broker will not allow us to use it.||Consumer received fatal=false exception on startup:
8.1.发布确认 springboot 版本
8.1.1.确认机制方案
- 交换机、队列只要其中一个不存在消息就会丢失,
8.1.2.代码架构图
8.1.3.配置文件
在配置文件当中需要添加
spring.rabbitmq.publisher-confirm-type=correlated
- NONE
禁用发布确认模式,是默认值 - CORRELATED(推荐)
发布消息成功到交换器后会触发回调方法 - SIMPLE(相当于之前学习的单个同步确认,速度比较慢)
经测试有两种效果:- 其一效果和 CORRELATED 值一样会触发回调方法
- 其二在发布消息成功后使用 rabbitTemplate 调用 waitForConfirms 或 waitForConfirmsOrDie 方法等待 broker 节点返回发送结果,根据返回结果来判定下一步的逻辑,要注意的点是waitForConfirmsOrDie 方法如果返回 false 则会关闭 channel,则接下来无法发送消息到 broker
- NONE
#配置连接rabbitmq的信息spring.rabbitmq.host=192.168.10.120#注意15672是访问管理界面的端口号spring.rabbitmq.port=5672spring.rabbitmq.username=adminspring.rabbitmq.password=123456spring.rabbitmq.publisher-confirm-type=correlated
8.1.4.添加配置类
package com.cn.config;import org.springframework.amqp.core.*;import org.springframework.beans.factory.annotation.Qualifier;import org.springframework.context.annotation.Bean;import org.springframework.context.annotation.Configuration;/** * 配置类 发布确认(高级) */@Configurationpublic class ConfirmConfig {//交换机public static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";//队列public static final String CONFIRM_QUEUE_NAME = "confirm.queue";//routingkeypublic static final String CONFIRM_ROUTING_KEY = "key1";//声明交换机@Bean("confirmExchange")public DirectExchange confirmExchange(){return new DirectExchange(CONFIRM_EXCHANGE_NAME);}// 声明确认队列@Bean("confirmQueue")public Queue confirmQueue(){//return new Queue(CONFIRM_QUEUE_NAME); //方式一return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build(); //方式二}// 声明确认队列绑定关系@Beanpublic Binding queueBinding(@Qualifier("confirmQueue") Queue queue,@Qualifier("confirmExchange") DirectExchange exchange){//根据属性名注入参数//队列交换机关键词return BindingBuilder.bind(queue).to(exchange).with("key1");}}
8.1.5.消息生产者
package com.cn.controller;import com.cn.config.ConfirmConfig;import lombok.extern.slf4j.Slf4j;import org.springframework.amqp.rabbit.connection.CorrelationData;import org.springframework.amqp.rabbit.core.RabbitTemplate;import org.springframework.beans.factory.annotation.Autowired;import org.springframework.web.bind.annotation.GetMapping;import org.springframework.web.bind.annotation.PathVariable;import org.springframework.web.bind.annotation.RequestMapping;import org.springframework.web.bind.annotation.RestController;import javax.annotation.PostConstruct;/** * 开始发消息发布确认(高级) * http://localhost:8080/confirm/sendMessage/大家好 */@RestController@RequestMapping("/confirm")@Slf4jpublic class ProducerController {//此对象用来发送消息:Springboot版本过高注入会报错,可以降低版本,在pom文件中修改springboot版本(2.6.0以下),之后重新加载jar包@Autowiredprivate RabbitTemplate rabbitTemplate;//发送消息@GetMapping("sendMessage/{message}")public void sendMessage(@PathVariable String message){/* * 正常情况下发送消息:交换机正常+队列正常 *交换机 *routingKey *发送的消息 *填写回调消息的ID及相关信息(有不同重载的构造方法) * *///指定消息 id 为 1CorrelationData correlationData1 = new CorrelationData("1");rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME,ConfirmConfig.CONFIRM_ROUTING_KEY,message, correlationData1);log.info("发送消息内容:{}",message);//指定消息 id 为 2CorrelationData correlationData2 = new CorrelationData("2");//异常情况下发送消息交换机错误(写错交换机名字)+队列正常rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME+"123",ConfirmConfig.CONFIRM_ROUTING_KEY,message, correlationData2);log.info("发送消息内容:{}",message);//指定消息 id 为 3CorrelationData correlationData3 = new CorrelationData("3");//异常情况下发送消息交换机正常+队列错误(交换机绑定队列需要正确的关键词,写错routingKey,这样队列就接收不到消息了)rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME,ConfirmConfig.CONFIRM_ROUTING_KEY+"2",message, correlationData3);log.info("发送消息内容:{}",message);}}
8.1.6.回调接口
package com.cn.config;import lombok.extern.slf4j.Slf4j;import org.springframework.amqp.rabbit.connection.CorrelationData;import org.springframework.amqp.rabbit.core.RabbitTemplate;import org.springframework.beans.factory.annotation.Autowired;import org.springframework.stereotype.Component;import javax.annotation.PostConstruct;/** * 回调接口 */@Component@Slf4jpublic class MyCallBack implements RabbitTemplate.ConfirmCallback {//实现的是RabbitTemplate的一个内部接口/** * 问题:当前类实现的的是RabbitTemplate的一个内部接口,这样会导致当前 *类MyCallBack不在这个RabbitTemplate接口对象中,所以导致RabbitTemplate *在调用自身接口ConfirmCallback时,根本调不到这个实现类MyCallBack。 * * 解决:把这个实现类在注入到RabbitTemplate接口中 */@Autowiredprivate RabbitTemplate rabbitTemplate;/** * 此方法并没有被调用,所以加上@PostConstruct注解,作用是: * @PostConstruct是Java自带的注解,在方法上加该注解会在项目启动的时候执行该方法, * 也可以理解为在spring容器初始化的时候执行该方法。 */@PostConstructpublic void init(){//注入rabbitTemplate.setConfirmCallback(this);}/*** 交换机确认回调方法* 1.发消息交换机接收到了回调*1.1 correlationData 保存回调消息的ID及相关信息 它是来自于生成者发送消息时自己填写的*1.2 交换机是否收到消息ack = true表示收到消息*1.3 失败的原因:如果发送成功,则此参数为null** 2.发消息交换机接收失败了回调*2.1 correlationData 保存回调消息的ID及相关信息*2.2 交交换机是否收到消息ack = false 表示没有收到消息*2.3 cause 失败的原因*/@Overridepublic void confirm(CorrelationData correlationData, boolean ack, String cause) {//获取idString id=correlationData!=null" />.getId():"";if(ack){log.info("交换机已经收到 id 为:{}的消息",id);}else{log.info("交换机还未收到 id 为:{}消息,由于原因:{}",id,cause);}}}
8.1.7.消息消费者
package com.cn.consumer;import com.cn.config.ConfirmConfig;import lombok.extern.slf4j.Slf4j;import org.springframework.amqp.core.Message;import org.springframework.amqp.rabbit.annotation.RabbitListener;import org.springframework.stereotype.Component;/** * 接收消息发布确认(高级) */@Component@Slf4jpublic class ConfirmConsumer {//监听消息@RabbitListener(queues = ConfirmConfig.CONFIRM_QUEUE_NAME) //队列名称public void receiveMsg(Message message){//将消息体转化为字符串String msg=new String(message.getBody());log.info("接受到队列 confirm.queue 消息:{}",msg);}}
8.1.8.结果分析
- 发送请求:
http://localhost:8080/confirm/sendMessage/大家好
- 情况1:正常情况下发送消息:交换机正常+队列正常
效果:交换机,队列都接收到消息
- 情况2:异常情况下发送消息 交换机错误(写错交换机名字)+队列正常
效果:交换机 队列都收不到消息
- 情况3:异常情况下发送消息 交换机正常+队列错误(交换机绑定队列需要正确的关键词,写错routingKey,这样队列就接收不到消息了)
效果:交换机接收到消息,队列收不到消息。(因为消息的 RoutingKey 与队列的 BindingKey 不一致,也没有其它队列能接收这个消息,所以消息被直接丢弃了。)
- 情况1:正常情况下发送消息:交换机正常+队列正常
问题:在交换机处出现异常,通过回调接口可以知道在那处出现异常情况(交换机进行了确认,进行了应答)。如果在队列处出现异常,消息就直接丢失了,连提示错误信息也没有(队列没有进行确认,应答),那么如何解决队列处出现异常出现提示信息呢???
解决:使用Mandatory 参数设置回退消息。
8.2.回退消息
8.2.1.Mandatory 参数
在仅开启了生产者确认机制的情况下,交换机接收到消息后,会直接给消息生产者发送确认消息,如果发现该消息不可路由(交换机无法发送消息到队列),那么消息会被直接丢弃,此时生产者是不知道消息被丢弃这个事件的。那么如何让无法被路由的消息帮我想办法处理一下?最起码通知我一声,我好自己处理啊。通过设置 mandatory 参数可以在当消息传递过程中不可达目的地时将消息返回给生产者。
- 总结:上面在交换机处出现异常,通过回调接口可以回退消息,但是在队列出出现异常消息直接丢失了,想要在队列处出现异常同样进行回退消息,可以设置 mandatory 参数来实现。
8.2.2.在配置类中添加配置
#发布退回消息:一旦消息发送不到队列,它会回退消息给生产者spring.rabbitmq.publisher-returns=true
8.2.3.消息生产者代码
同上 8.1.5
8.2.4.修改回调接口
package com.cn.config;import lombok.extern.slf4j.Slf4j;import org.springframework.amqp.core.ReturnedMessage;import org.springframework.amqp.rabbit.connection.CorrelationData;import org.springframework.amqp.rabbit.core.RabbitTemplate;import org.springframework.beans.factory.annotation.Autowired;import org.springframework.stereotype.Component;import javax.annotation.PostConstruct;/** * 回调接口 */@Component@Slf4j//实现的是RabbitTemplate的两个内部接口//ConfirmCallback:交换机确认回调接口//ReturnsCallback:消息发送失败,回退消息接口public class MyCallBack implements RabbitTemplate.ConfirmCallback,RabbitTemplate.ReturnsCallback {/** * 问题:当前类实现的的是RabbitTemplate的一个内部接口,这样会导致当前 *类MyCallBack不在这个RabbitTemplate接口对象中,所以导致RabbitTemplate *在调用自身接口ConfirmCallback时,根本调不到这个实现类MyCallBack。 * * 解决:把这个实现类在注入到RabbitTemplate接口中 */@Autowiredprivate RabbitTemplate rabbitTemplate;/** * 此方法并没有被调用,所以加上@PostConstruct注解,作用是: * @PostConstruct是Java自带的注解,在方法上加该注解会在项目启动的时候执行该方法, * 也可以理解为在spring容器初始化的时候执行该方法。 */@PostConstructpublic void init(){//注入rabbitTemplate.setConfirmCallback(this);rabbitTemplate.setReturnsCallback(this);}/*** 交换机确认回调方法* 1.发消息交换机接收到了回调*1.1 correlationData 保存回调消息的ID及相关信息 它是来自于生成者发送消息时自己填写的*1.2 交换机是否收到消息ack = true表示收到消息*1.3 失败的原因:如果发送成功,则此参数为null** 2.发消息交换机接收失败了回调*2.1 correlationData 保存回调消息的ID及相关信息*2.2 交交换机是否收到消息ack = false 表示没有收到消息*2.3 cause 失败的原因*/@Overridepublic void confirm(CorrelationData correlationData, boolean ack, String cause) {//获取idString id=correlationData!=null" />.getId():"";if(ack){log.info("交换机已经收到 id 为:{}的消息",id);}else{log.info("交换机还未收到 id 为:{}消息,由于原因:{}",id,cause);}}//可以在当消息传递过程中不可达目的地时 将消息返回给生产者// 只有不可达目的地的时候才进行回退@Overridepublic void returnedMessage(ReturnedMessage returnedMessage) {log.error(" 消息:{},被交换机:{}退回,退回原因:{},路由key:{}",new String(returnedMessage.getMessage().getBody()),returnedMessage.getExchange(),returnedMessage.getReplyText(),returnedMessage.getRoutingKey());}}
8.2.5.结果分析
- 发送请求:
http://localhost:8080/confirm/sendMessage/大家好
- 效果:即使消息发送不到队列,依然可以进行回退处理,保证了消息不丢失。
8.3.备份交换机
有了 mandatory 参数和回退消息,我们获得了对无法投递消息的感知能力,有机会在生产者的消息无法被投递时发现并处理。但有时候,我们并不知道该如何处理这些无法路由的消息,最多打个日志,然后触发报警,再来手动处理。而通过日志来处理这些无法路由的消息是很不优雅的做法,特别是当生产者所在的服务有多台机器的时候,手动复制日志会更加麻烦而且容易出错。而且设置 mandatory 参数会增加生产者的复杂性,需要添加处理这些被退回的消息的逻辑。如果既不想丢失消息,又不想增加生产者的复杂性,该怎么做呢?前面在设置死信队列的文章中,我们提到,可以为队列设置死信交换机来存储那些处理失败的消息,可是这些不可路由消息根本没有机会进入到队列,因此无法使用死信队列来保存消息。在 RabbitMQ 中,有一种备份交换机的机制存在,可以很好的应对这个问题。什么是备份交换机呢?备份交换机可以理解为 RabbitMQ 中交换机的“备胎”,当我们为某一个交换机声明一个对应的备份交换机时, 就是为它创建一个备胎,当交换机接收到一条不可路由消息时,将会把这条消息转发到备份交换机中,由备份交换机来进行转发和处理,通常备份交换机的类型为 Fanout ,这样就能把所有消息都投递到与其绑定的队列中,然后我们在备份交换机下绑定一个队列,这样所有那些原交换机无法被路由的消息,就会都进入这个队列了。当然,我们还可以建立一个报警队列,用独立的消费者来进行监测和报警。
总结:
- 之前:如果交换机出现问题接收不到消息,要求交换机进行消息的发布确认,让生产者重新发送消息。如果队列出现问题,同样要进行回退消息,之后重新发送。
- 现在:还可以使用备份交换机,使用备份交换机消息就不需要回退给生产者了。一旦消息无法投递到交换机,让交换机发送给备份交换机,让备份交换机在通过路由队列,发送给消费者,这样也能达到消息不丢失的目的。
- 好处:消息可以进行监测和报警
8.3.1.代码架构图
- 生产者、确认交换机、确认队列、绑定关系、消费者都写过了,现在只需要添加备份交换机、2个队列(备份队列、报警队列)、2个消费者(备份消费者、报警消费者,其中报警消费者可以不用写,因为只要报警消费者能够收到那么备份消费者也能收到。)
8.3.2.修改配置类
package com.cn.config;import org.springframework.amqp.core.*;import org.springframework.beans.factory.annotation.Qualifier;import org.springframework.context.annotation.Bean;import org.springframework.context.annotation.Configuration;/** * 配置类 发布确认(高级) */@Configurationpublic class ConfirmConfig {//交换机public static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";//队列public static final String CONFIRM_QUEUE_NAME = "confirm.queue";//routingkeypublic static final String CONFIRM_ROUTING_KEY = "key1";//备份交换机public static final String BACKUP_EXCHANGE_NAME = "backup.exchange";//备份队列public static final String BACKUP_QUEUE_NAME = "backup.queue";//警告队列public static final String WARNING_QUEUE_NAME = "warning.queue";//声明确认交换机,以及确认交换机无法投递的消息将发送给备份交换机@Bean("confirmExchange")public DirectExchange confirmExchange(){ //确认交换机持久化参数(备份交换机) 构建return ExchangeBuilder.directExchange(CONFIRM_EXCHANGE_NAME).durable(true).withArgument("alternate-exchange",BACKUP_EXCHANGE_NAME).build();}// 声明确认队列@Bean("confirmQueue")public Queue confirmQueue(){//return new Queue(CONFIRM_QUEUE_NAME); //方式一return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build(); //方式二}// 声明确认队列绑定关系@Beanpublic Binding queueBinding(@Qualifier("confirmQueue") Queue queue,@Qualifier("confirmExchange") DirectExchange exchange){//根据属性名注入参数//队列交换机关键词return BindingBuilder.bind(queue).to(exchange).with("key1");}//声明备份交换机@Bean("backupExchange")public FanoutExchange backupExchange(){return new FanoutExchange(BACKUP_EXCHANGE_NAME);}// 声明备份队列@Bean("backQueue")public Queue backQueue(){return QueueBuilder.durable(BACKUP_QUEUE_NAME).build();}// 声明警告队列@Bean("warningQueue")public Queue warningQueue(){return QueueBuilder.durable(WARNING_QUEUE_NAME).build();}// 声明备份队列绑定关系@Beanpublic Binding backupBinding(@Qualifier("backQueue") Queue queue, @Qualifier("backupExchange") FanoutExchange backupExchange){//发布订阅(扇出)类型就没必要写RoutingKey,它是以广播形式发送给所有队列。return BindingBuilder.bind(queue).to(backupExchange);}// 声明报警队列绑定关系@Beanpublic Binding warningBinding(@Qualifier("warningQueue") Queue queue,@Qualifier("backupExchange") FanoutExchange backupExchange){return BindingBuilder.bind(queue).to(backupExchange);}}
8.3.3.报警消费者
package com.cn.consumer;import com.cn.config.ConfirmConfig;import lombok.extern.slf4j.Slf4j;import org.springframework.amqp.core.Message;import org.springframework.amqp.rabbit.annotation.RabbitListener;import org.springframework.stereotype.Component;/** * 报警消费者 */@Component@Slf4jpublic class WarningConsumer {//接收报警消息@RabbitListener(queues = ConfirmConfig.WARNING_QUEUE_NAME)public void receiveWarningMsg(Message message) {String msg = new String(message.getBody());log.error("报警发现不可路由消息:{}", msg);}}
8.3.4.测试注意事项
重新启动项目的时候需要把原来的confirm.exchange(确认交换机) 删除,因为我们修改了其绑定属性,不然报以下错:
8.3.5.结果分析
生产者同上:
测试请求:http://localhost:8080/confirm/sendMessage/大家好
效果:
mandatory 参数与备份交换机可以一起使用的时候,如果两者同时开启,消息究竟何去何从?谁优先级高,经过上面结果显示答案是备份交换机优先级高。
9.RabbitMQ 其他知识点
9.1.幂等性
9.1.1.概念
用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。举个最简单的例子,那就是支付,用户购买商品后支付,支付扣款成功,但是返回结果的时候网络异常, 此时钱已经扣了,用户再次点击按钮,此时会进行第二次扣款,返回结果成功,用户查询余额发现多扣钱了,流水记录也变成了两条。在以前的单应用系统中,我们只需要把数据操作放入事务中即可,发生错误立即回滚,但是再响应客户端的时候也有可能出现网络中断或者异常等等
9.1.2.消息重复消费
消费者在消费 MQ 中的消息时,MQ 已把消息发送给消费者,消费者在给MQ 返回 ack应答时网络中断, 故 MQ 未收到确认信息,该条消息会重新发给其他的消费者,或者在网络重连后再次发送给该消费者,但实际上该消费者已成功消费了该条消息,造成消费者消费了重复的消息。
9.1.3.解决思路
MQ 消费者的幂等性的解决一般使用全局 ID 或者写个唯一标识比如时间戳 或者 UUID 或者订单消费者消费 MQ 中的消息也可利用 MQ 的该 id 来判断,或者可按自己的规则生成一个全局唯一 id,每次消费消息时用该 id 先判断该消息是否已消费过。
9.1.4.消费端的幂等性保障
在海量订单生成的业务高峰期,生产端有可能就会重复发生了消息,这时候消费端就要实现幂等性, 这就意味着我们的消息永远不会被消费多次,即使我们收到了一样的消息。业界主流的幂等性有两种操作:a. 唯一 ID+指纹码机制,利用数据库主键去重,,b.利用 redis 的原子性去实现
9.1.5.唯一ID+指纹码机制
指纹码:我们的一些规则或者时间戳加别的服务给到的唯一信息码,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来,但是一定要保证唯一性,然后就利用查询语句进行判断这个 id 是否存在数据库中,优势就是实现简单就一个拼接,然后查询判断是否重复;劣势就是在高并发时,如果是单个数据库就会有写入性能瓶颈当然也可以采用分库分表提升性能,但也不是我们最推荐的方式。
9.1.6.Redis 原子性(推荐)
利用 redis 执行 setnx 命令,天然具有幂等性。从而实现不重复消费
9.2.优先级队列
9.2.1.使用场景
在我们系统中有一个订单催付的场景,我们的客户在天猫下的订单,淘宝会及时将订单推送给我们,如果在用户设定的时间内未付款那么就会给用户推送一条短信提醒,很简单的一个功能对吧,但是,tmall 商家对我们来说,肯定是要分大客户和小客户的对吧,比如像苹果,小米这样大商家一年起码能给我们创造很大的利润,所以理应当然,他们的订单必须得到优先处理,而曾经我们的后端系统是使用 redis 来存放的定时轮询,大家都知道 redis 只能用 List 做一个简简单单的消息队列,并不能实现一个优先级的场景,所以订单量大了后采用 RabbitMQ 进行改造和优化,如果发现是大客户的订单给一个相对比较高的优先级, 否则就是默认优先级。
- 发送7号消息优先级为3,发送9号消息优先级为4…
- 正常情况下队列发送到消费者的消息是先进先出,一旦使用优先级队列,那么队列中消息会进行排队,数字越大代表优先级越高就先被消费。
9.2.2.如何添加
1)控制台页面添加(方式一:不推荐)
2)代码的方式(方式二:推荐)
a.队列中代码添加优先级
Map<String, Object> params = new HashMap();params.put("x-max-priority", 10);channel.queueDeclare("hello", true, false, false, params);
b.消息中代码添加优先级
AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().priority(5).build();
3)注意事项
要让队列实现优先级需要做的事情有如下事情:队列需要设置为优先级队列,消息需要设置消息的优先级,消费者需要等待消息已经发送到队列中才去消费因为,这样才有机会对消息进行排序
- 为了保证消费者需要等待消息已经发送到队列中才去消费,所以先要启动生产者在启动消费者,这样发送完100条数据到队列中会按照优先级高的进行排序,之后才会被消费者所消费。如果先启动消费者在启动生产者,它相当于接收一条消息消费掉一条,这样就看不到优先级效果了。
9.2.3.实战
- 没有在重新写一份代码,用的之前的代码。
a.消息生产者
package com.atguigu.rabbitmq.one;import com.rabbitmq.client.AMQP;import com.rabbitmq.client.Channel;import com.rabbitmq.client.Connection;import com.rabbitmq.client.ConnectionFactory;import java.util.HashMap;import java.util.Map;/** * 生产者:发消息 */public class Producer {//队列名称private final static String QUEUE_NAME = "hello";//发消息public static void main(String[] args) throws Exception{//创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();//工厂ip 连接RabbitMQ的队列factory.setHost("192.168.10.120");//用户名factory.setUsername("admin");//密码factory.setPassword("123456");//创建连接Connection connection = factory.newConnection();//获取信道Channel channel = connection.createChannel();//入门级测试,这里直接连接的是队列,没有连接交换机,用的是默认的交换机。/** * 生成一个队列,参数解释: *1.queue:队列名称 *2.durable:是否持久化,当MQ重启后,还在 (true:持久化,保存在磁盘false:不持久化,保存在内存) *3.exclusive: false不独占,可以多个消费者消费。true只能供一个消费者进行消费 *功能1:是否独占。只能有一个消费者监听这个队列 *功能2:当Connection关闭时,是否删除队列 *4.autoDelete:是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 *5.arguments:其它参数,在高级特性中讲,暂时设置为null */Map<String, Object> params = new HashMap();//官方允许是0-255之间 此处设置10 允许优化级范围为0-10 不要设置过大 浪费CPU与内存params.put("x-max-priority", 10);channel.queueDeclare(QUEUE_NAME,true,false,false,params);/*//发消息String message = "hello world"; //初次使用*//** *发送一个消息 *1.发送到那个交换机 本次是入门级程序,没有考虑交换机,可以写空串 *2.路由的 key 是哪个 本次是队列的名称(前提:使用默认交换机) *3.其他的参数信息本次没有 *4.发送消息的消息体不能直接发消息,需要调用它的二进制。 *//*channel.basicPublish("",QUEUE_NAME,null,message.getBytes());System.out.println("消息发送完毕");*///改为发送多条消息for(int i=1;i<11;i++){String message = "info"+i;//设置第5条消息的优先级,其它正常发布if(i==5){//构建优先级AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().priority(5).build();//发送消息channel.basicPublish("",QUEUE_NAME,properties,message.getBytes());}else {channel.basicPublish("",QUEUE_NAME,null,message.getBytes());}}System.out.println("消息发送完毕");}}
b.消息消费者
- 消费者和以前的一样
package com.atguigu.rabbitmq.one;import com.rabbitmq.client.*;/** * 消费者:接收消息的 */public class Consumer {//队列名称private final static String QUEUE_NAME = "hello";//接收消息public static void main(String[] args) throws Exception {//创建连接工厂ConnectionFactory factory = new ConnectionFactory();factory.setHost("192.168.10.120");//设置ipfactory.setUsername("admin");//设置用户名factory.setPassword("123456");//设置密码Connection connection = factory.newConnection();//创建连接Channel channel = connection.createChannel();//通过连接创建信道System.out.println("等待接收消息");//推送的消息如何进行消费的接口回调 使用lambda表达式代替匿名内部类的写法DeliverCallback deliverCallback = (consumerTag, message) -> {//直接输出message参数是对象的地址值,通过方法获取message对象的消息体并转化为字符串输出。String mes = new String(message.getBody());System.out.println(mes);};//取消消费的一个回调接口 如在消费的时候队列被删除掉了CancelCallback cancelCallback = (consumerTag) -> {System.out.println("消息消费被中断");};/** *消费者接收消息 *1.消费哪个队列 *2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答 *3.消费者接收消息的回调 *4.消费者取消消息的回调 * * 执行流程:在basicConsume()方法中接收到消息后,会把消息放到声明消息的接口里deliverCallback, * 在使用此接口的实现类打印。 */channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);}}
测试:先启动消费者,在启动生产者,可以看到优先级高的消息先被消费。
9.3.惰性队列
9.3.1.使用场景
RabbitMQ 从 3.6.0 版本开始引入了惰性队列的概念。惰性队列会尽可能的将消息存入磁盘中,而在消费者消费到相应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储。当消费者由于各种各样的原因(比如消费者下线、宕机亦或者是由于维护而关闭等)而致使长时间内不能消费消息造成堆积时,惰性队列就很有必要了。
默认情况下,当生产者将消息发送到 RabbitMQ 的时候,队列中的消息会尽可能的存储在内存之中, 这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当 RabbitMQ 需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费较长的时间,也会阻塞队列的操作,进而无法接收新的消息。虽然 RabbitMQ 的开发者们一直在升级相关的算法, 但是效果始终不太理想,尤其是在消息量特别大的时候。
- 缺点:当我们发送一条消息到mq中,如果mq中的队列恰好是惰性队列,它会马上把消息存放在磁盘上而不是内存中,消费者去消费先要从磁盘里读取到内存中,之后在进行消费,这样速度就比较慢。
9.3.2.两种模式
队列具备两种模式:default 和 lazy。默认的为 default 模式,在 3.6.0 之前的版本无需做任何变更。lazy 模式即为惰性队列的模式,可以通过调用 channel.queueDeclare 方法的时候在参数中设置,也可以通过Policy 的方式设置,如果一个队列同时使用这两种方式设置的话,那么 Policy 的方式具备更高的优先级。如果要通过声明的方式改变已有队列的模式的话,那么只能先删除队列,然后再重新声明一个新的。
在队列声明的时候可以通过“x-queue-mode”参数来设置队列的模式,取值为“default”和“lazy”。下面示例中演示了一个惰性队列的声明细节:
Map<String, Object> args = new HashMap<String, Object>(); args.put("x-queue-mode", "lazy"); channel.queueDeclare("myqueue", false, false, false, args);
9.3.3.内存开销对比
在发送 1 百万条消息,每条消息大概占 1KB 的情况下,普通队列占用内存是 1.2GB,而惰性队列仅仅占用 1.5MB
10.RabbitMQ 集群
10.1.clustering
10.1.1.使用集群的原因
最开始我们介绍了如何安装及运行 RabbitMQ 服务,不过这些是单机版的,无法满足目前真实应用的要求。如果 RabbitMQ 服务器遇到内存崩溃、机器掉电或者主板故障等情况,该怎么办?单台 RabbitMQ 服务器可以满足每秒 1000 条消息的吞吐量,那么如果应用需要 RabbitMQ 服务满足每秒 10 万条消息的吞吐量呢?购买昂贵的服务器来增强单机 RabbitMQ 务的性能显得捉襟见肘,搭建一个 RabbitMQ 集群才是解决实际问题的关键.
集群搭建原理:
- 单台Rabbitmq性能捉襟见肘,为了应对生产者大量发送消息需要搭建集群。
- 如图所示,2号集群3号集群都加入到了1号节点中,它们3个已经形成了一个整体,你访问你中任何一个节点就相当于访问所有节点。以后再加4号节点给3号也好,给2号也好都相当于加给整个整体。
10.1.2.搭建步骤
- 克隆出另外2台Rabbitmq
- 修改ip为:
192.168.10.120、192.168.10.121、192.168.10.122
vim /etc/sysconfig/network-scripts/ifcfg-ens33
1.修改 3 台机器的主机名称(node1, node2, node3)
vim /etc/hostname
注意:重启生效(reboot
)
2.配置各个节点的 hosts 文件,让各个节点都能互相识别对方
- 3台Rabbitmq都配置一遍以下三个信息。
# 配置ip对应主机名vim /etc/hosts192.168.10.120 node1192.168.10.121 node2192.168.10.122 node3
3.以确保各个节点的 cookie 文件使用的是同一个值
在 node1 上执行远程操作命令
是否确认连接:yes
第二个连接的密码:123456 (设置登录的用户名密码是:root 123456)
scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
4.启动 RabbitMQ 服务,顺带启动 Erlang 虚拟机和 RbbitMQ 应用服务(在三台节点上分别执行以下命令)
rabbitmq-server -detached
5.在节点 2 执行
#先关掉服务(rabbitmqctl stop 会将Erlang 虚拟机关闭,rabbitmqctl stop_app 只关闭 RabbitMQ 服务) rabbitmqctl stop_app#重置服务rabbitmqctl reset#把节点2加入到一号节点中rabbitmqctl join_cluster rabbit@node1 #再重启(只启动应用服务)rabbitmqctl start_app
6.在节点 3 执行
rabbitmqctl stop_apprabbitmqctl reset#把节点3加入到2号节点中(因为2号节点已经加入到1号节点中了相当于是一个整体,那么3号加点加入到1号或者2号都可以)#前提是2号节点已经启动好了rabbitmqctl join_cluster rabbit@node2rabbitmqctl start_app
7.集群状态
当期3个节点已经是一个整体了,所以访问谁都可以。
rabbitmqctl cluster_status
8.需要重新设置用户
说明:因为是3台Rabbitmq组成了一个集群,所以在任何一个节点下创建账户,其他节点也有了账户。
- 创建账号
rabbitmqctl add_user admin 123
- 设置用户角色
rabbitmqctl set_user_tags admin administrator
- 设置用户权限
rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"
登录任意一台账户都可以看到有原来的一个节点变为现在的3个节点。
9.解除集群节点(node2 和 node3 机器分别执行)
# 想要解除2号节点,以下4个命令就在2号节点下执行rabbitmqctl stop_apprabbitmqctl reset rabbitmqctl start_app rabbitmqctl cluster_status#之后在1号机上执行,让1号机忘记集群2号机rabbitmqctl forget_cluster_node rabbit@node2(node1 机器上执行)
10.2.镜像队列(待定)
10.2.1.使用镜像的原因
如果 RabbitMQ 集群中只有一个 Broker 节点,那么该节点的失效将导致整体服务的临时性不可用,并且也可能会导致消息的丢失。可以将所有消息都设置为持久化,并且对应队列的durable 属性也设置为true, 但是这样仍然无法避免由于缓存导致的问题:因为消息在发送之后和被写入磁盘井执行刷盘动作之间存在一个短暂却会产生问题的时间窗。通过 publisherconfirm 机制能够确保客户端知道哪些消息己经存入磁盘, 尽管如此,一般不希望遇到因单点故障导致的服务不可用。
引入镜像队列(Mirror Queue)的机制,可以将队列镜像到集群中的其他 Broker 节点之上,如果集群中的一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性。
- 问题:目前mq集群根本就不可复用,在一号机上创建的队列在二号机上根被就没有,一旦一号机宕机了这个队列就消失了,他不会因为有3台机器就用3个队列,而是只有一个,在那台机器上创建队列就是在那台机器上,其它机器根本就没有。
- 解决:使用镜像队列,即给每台机器进行一个备份,至少发送一个消息不应该只在一个节点上,比如存在于一号节点上,一号节点一旦宕机消息就丢失了。发消息给一号节点,一号节点在将消息备份一份给2号节点。
- 注意:也可以2号节点,3号节点都进行备份,只不过只有浪费资源,如果消息有100万条那么多备份几次太浪费空间了。
10.2.2.搭建步骤
1.启动三台集群节点
2.随便找一个节点添加 policy(策略)
3.在 node1 上创建一个队列发送一条消息,队列存在镜像队列
4.停掉 node1 之后发现 node2 成为镜像队列
5.就算整个集群只剩下一台机器了 依然能消费队列里面的消息
说明队列里面的消息被镜像队列传递到相应机器里面了
10.3.Haproxy+Keepalive 实现高可用负载均衡
- 问题:当前代码是写死了,只能连接一个MQ,如果连接的当前MQ宕机了,生产者连接的还是当前MQ此时消息就不能发送了。(生产者连接MQ集群存在的一个大问题:无法变更连接MQ的ip)
- 解决:借助第三方工具来实现如,Haproxy 。
10.3.1.整体架构图
10.3.2.Haproxy 实现负载均衡
HAProxy 提供高可用性、负载均衡及基于TCPHTTP 应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案,包括 Twitter,Reddit,StackOverflow,GitHub 在内的多家知名互联网公司在使用。HAProxy 实现了一种事件驱动、单一进程模型,此模型支持非常大的井发连接数。
扩展 nginx,lvs,haproxy 之间的区别: http://www.ha97.com/5646.html
10.3.3.搭建步骤
1.下载 haproxy(在 node1 和 node2)
yum -y install haproxy
2.修改 node1 和 node2 的 haproxy.cfg
vim /etc/haproxy/haproxy.cfg
需要修改红色 IP 为当前机器 IP
3.在两台节点启动 haproxy
haproxy -f /etc/haproxy/haproxy.cfgps -ef | grep haproxy
4.访问地址
http://10.211.55.71:8888/stats
10.3.4.Keepalived 实现双机(主备)热备
试想如果前面配置的 HAProxy 主机突然宕机或者网卡失效,那么虽然 RbbitMQ 集群没有任何故障但是对于外界的客户端来说所有的连接都会被断开结果将是灾难性的为了确保负载均衡服务的可靠性同样显得十分重要,这里就要引入 Keepalived 它能够通过自身健康检查、资源接管功能做高可用(双机热备),实现故障转移.
10.3.5.搭建步骤
1.下载 keepalived
yum -y install keepalived
2.节点 node1 配置文件
vim /etc/keepalived/keepalived.conf
把资料里面的 keepalived.conf 修改之后替换
3.节点 node2 配置文件
- 需要修改 global_defs 的 router_id,如:nodeB
- 其次要修改 vrrp_instance_VI 中 state 为”BACKUP”;
- 最后要将 priority 设置为小于 100 的值
4.添加 haproxy_chk.sh
(为了防止 HAProxy 服务挂掉之后 Keepalived 还在正常工作而没有切换到 Backup 上,所以这里需要编写一个脚本来检测 HAProxy 务的状态,当 HAProxy 服务挂掉之后该脚本会自动重启HAProxy 的服务,如果不成功则关闭 Keepalived 服务,这样便可以切换到 Backup 继续工作)
vim /etc/keepalived/haproxy_chk.sh(可以直接上传文件)修改权限 chmod 777 /etc/keepalived/haproxy_chk.sh
5.启动 keepalive 命令(node1 和 node2 启动)
systemctl start keepalived
6.观察 Keepalived 的日志
tail -f /var/log/messages -n 200
7.观察最新添加的 vip
ip add show
8.node1 模拟 keepalived 关闭状态
systemctl stop keepalived
9.使用 vip 地址来访问 rabbitmq 集群
10.4.Federation Exchange(联合交换机)
10.4.1.使用它的原因
(broker 北京),(broker 深圳)彼此之间相距甚远,网络延迟是一个不得不面对的问题。有一个在北京的业务(Client 北京) 需要连接(broker 北京),向其中的交换器 exchangeA 发送消息,此时的网络延迟很小, (Client 北京)可以迅速将消息发送至 exchangeA 中,就算在开启了 publisherconfirm 机制或者事务机制的情况下,也可以迅速收到确认信息。此时又有个在深圳的业务(Client 深圳)需要向 exchangeA 发送消息, 那么(Client 深圳) (broker 北京)之间有很大的网络延迟,(Client 深圳) 将发送消息至 exchangeA 会经历一定的延迟,尤其是在开启了 publisherconfirm 机制或者事务机制的情况下,(Client 深圳) 会等待很长的延迟时间来接收(broker 北京)的确认信息,进而必然造成这条发送线程的性能降低,甚至造成一定程度上的阻塞。
将业务(Client 深圳)部署到北京的机房可以解决这个问题,但是如果(Client 深圳)调用的另些服务都部署在深圳,那么又会引发新的时延问题,总不见得将所有业务全部部署在一个机房,那么容灾又何以实现? 这里使用 Federation 插件就可以很好地解决这个问题.
- 问题:2个地区相差比较远,北京的客户访问北京机房的交换机没有问题,但是北京的客户访问深圳机房的交换机网络延迟就比较大了。
- 解决:把北京的机房信息同步给深圳,深圳机房的信息同步给北京,保证2个机房的信息一致这样北京的客户访问北京本地就可以很快的访问到数据信息了。—-使用Federation Exchange(联合交换机)
10.4.2.搭建步骤
1.需要保证每台节点单独运行
2.在每台机器上开启 federation 相关插件
rabbitmq-plugins enable rabbitmq_federationrabbitmq-plugins enable rabbitmq_federation_management
3.原理图(先运行 consumer 在 node2 创建 fed_exchange)
4.在 downstream(node2)配置 upstream(node1)
5.添加 policy
6.成功的前提
10.5.Federation Queue
- 可以使用交换机同步也可以使用队列同步。
10.5.1.使用它的原因
联邦队列可以在多个 Broker 节点(或者集群)之间为单个队列提供均衡负载的功能。一个联邦队列可以连接一个或者多个上游队列(upstream queue),并从这些上游队列中获取消息以满足本地消费者消费消息的需求。
10.5.2.搭建步骤
1.原理图
2.添加 upstream(同上)
3.添加 policy
10.6.Shovel
10.6.1.使用它的原因
Federation 具备的数据转发功能类似,Shovel 够可靠、持续地从一个 Broker 中的队列(作为源端,即source)拉取数据并转发至另一个 Broker 中的交换器(作为目的端,即 destination)。作为源端的队列和作为目的端的交换器可以同时位于同一个 Broker,也可以位于不同的 Broker 上。Shovel 可以翻译为”铲子”, 是一种比较形象的比喻,这个”铲子”可以将消息从一方”铲子”另一方。Shovel 行为就像优秀的客户端应用程序能够负责连接源和目的地、负责消息的读写及负责连接失败问题的处理。
- 作用和联邦交换机和联邦队列功能一样,只不过可以直接设置源端。
10.6.2.搭建步骤
1.开启插件(需要的机器都开启)
rabbitmq-plugins enable rabbitmq_shovelrabbitmq-plugins enable rabbitmq_shovel_management
2.原理图(在源头发送的消息直接回进入到目的地队列)
3.添加 shovel 源和目的地