kafka rebalance ConsumerRebalanceListener

阅读数:125 评论数:0

跳转到新版页面

分类

python/Java

正文

afka在有新消费者加入或者撤出时,会触发rebalance操作,在subscribe订阅主题的时候,我们可以编写回掉函数,在触发rebalance操作之前和之后,提交相应偏移量和获取偏移量。

consumer.subscribe(Collections.singletonList(topic), new SaveOffsetOnRebalance(mulConsumer));
class SaveOffsetOnRebalance implements ConsumerRebalanceListener {
        private Consumer<String, String> consumer;
 
        //初始化方法,传入consumer对象,否则无法调用外部的consumer对象,必须传入
        public SaveOffsetOnRebalance(Consumer<String, String> consumer) {
            this.consumer = consumer;
        }
 
        @Override
        public void onPartitionsRevoked(Collection<TopicPartition> collection) {
            
            //提交偏移量 主要是consumer.commitSync(toCommit); 方法
            System.out.println("*- in ralance:onPartitionsRevoked");
            //commitQueue 是我本地已消费消息的一个队列 是一个linkedblockingqueue对象
            while (!commitQueue.isEmpty()) {
                Map<TopicPartition, OffsetAndMetadata> toCommit = commitQueue.poll();
                consumer.commitSync(toCommit);
            }
        }
 
        @Override
        public void onPartitionsAssigned(Collection<TopicPartition> collection) {
            //rebalance之后 获取新的分区,获取最新的偏移量,设置拉取分量
            System.out.println("*- in ralance:onPartitionsAssigned  ");
            for (TopicPartition partition : collection) {
                System.out.println("*- partition:"+partition.partition());
 
                //获取消费偏移量,实现原理是向协调者发送获取请求
                OffsetAndMetadata offset = consumer.committed(partition);
                //设置本地拉取分量,下次拉取消息以这个偏移量为准
                consumer.seek(partition, offset.offset());
            }
        }
    }

onPartitionRevoked会在rebalance操作之前调用,用于我们提交消费者偏移,onPartitionAssigned会在rebalance操作之后调用,用于我们接取新的分配区的偏移量。

注意enable.auto.commit为false,防止自动提交偏移量。




相关推荐

consumer是非线程安全的,它不能在多线程中使用,所以在shutdownHook线程中不能使用consumer的close方法。如果你没有在程序退出前很好关闭consumer,最明显的行为主

一、概述 springboot中有两种方式使用kafka时,直接使用kafka-client连接kafka服务;另一种是使用spring-kafka框架来连接kafka。 1、版本兼容 使用时要注意版

一、概述 broker 一台kafka服务器就是一个broker topic topic是一个存储消息的逻辑概念,可以认为是一个消息集合。物理上来说,不同的Topic的消息是分开存储的

很多应用程序使用Log4j记录日志,如何使用Kafka实时的收集与存储这些Log4j产生的日志呢?一种方案是使用其他组件(比如Flume,或者自己开发程序)实时监控这些日志文件,然后发送至Kaf