通过这样的机制还能够回退数据读。
分发机制; kafka 通常情况下是执行在集群中的server上。没有中央的“主”节点。代理彼此之间是对等的。不须要不论什么手动配置就可以可随时加入和删除。
相同,
生产者和消费者能够在不论什么时候开启。 每一个代理都能够在 zookeeper (分布式协调系统)中注冊的一些元数据(比如,可用的主题)。生产者和消费者 能够使用 zookeeper 发现主题和相互协调。关于生产者和消费者的细节将在以下描写叙述
。 消费者和生产者通过分区实现负载均衡。 主题:用来区分不同种类的数据信息 分区partition:有主有从。将数据写到不同的文件上,分区的编号默认是从0開始。0,1,2,3... l eader负责读写数据,follower负责同步数据,高吞吐量。负载均衡 producer来能够去不同的分区上去写数据,consumer也是相同原理,这样就能够 将读写负载均衡到不同的分区中 消费之consumer,消费数据从主分区上(leader)读 消费组:共享消费信息,在同一个消费组中的消费者,读取同一份数据仅仅要一次即可了。由于 同一个组中消费者之间共享数据 ######################################################################################################### 安装kafka: 1.上传kafka_2.9.2-0.8.1.1.tgz到server 2.单节点kafka, a.先启动zookeeper集群 运行bin/kafka-server-start.sh config/server.properties 会报: Unrecognized VM option 'UseCompressedOops' Error: Could not create the Java Virtual Machine. Error: A fatal exception has occurred. Program will exit. 原因是jdk的版本号不匹配,须要改动一下配置文件 改动文件: 去掉这个配置 -XX:+UseCompressedOops b.启动一个服务端 bin/kafka-server-start.sh config/server.properties c.查看topic bin/kafka-topics.sh --list --zookeeper localhost:2181 创建topic bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test 查看topic描写叙述 bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic d.測试 启动一个生产者 bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test 开启一个消费者 bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning 3.集群搭建 改动配置文件 vim config/server-1.properties 最后的zookeeper集群的配置 zookeeper.connect=storm01:2181,storm02:2181,storm03:2181 再将kafka的配置复制到其它的server scp -r /usr/itcast/kafka root@storm02:/usr/itcast/ scp -r /usr/itcast/kafka root@storm03:/usr/itcast/ 改动配置文件 vim config/server-1.properties broker.id=1,broker.id=2 启动測试转载于:https://www.cnblogs.com/bhlsheji/p/5347352.html