https://dlcdn.apache.org/kafka/3.1.0/kafka_2.12-3.1.0.tgz
网速慢,可以使用迅雷下载,贼快
tar -zxf kafka_2.12-3.1.0.tgz -C /usr/myapp/
进入kafka安装目录:cd /usr/myapp/kafka_2.12-3.1.0/
创建zookeeper数据存放目录:mkdir -p zk/data
创建zookeeper日志存放目录:mkdir -p zk/logs
进入配置文件目录:cd config/
备份原来的配置文件:mv zookeeper.properties zookeeper.properties.bak
重写配置文件:(路径根据自己情况改)
[root@test109 config]# cat > zookeeper.properties << EOF
> tickTime=2000
> dataDir=/usr/myapp/kafka_2.12-3.1.0/zk/data/
> dataLogDir=/usr/myapp/kafka_2.12-3.1.0/zk/logs/
> clientPort=2181
> EOF
进入kafka安装目录:cd /usr/myapp/kafka_2.12-3.1.0/
创建日志存放目录:mkdir logs
进入配置文件目录:cd config/
备份原来的配置文件:mv server.properties server.properties.bak
重新写配置文件(也可以在上一步用复制命令,再修改配置文件对应内容)
[root@test109 config]# cat > server.properties << EOF
> broker.id=1
> listeners=PLAINTEXT://192.168.3.109:9092
> num.network.threads=3
> num.io.threads=8
> socket.send.buffer.bytes=102400
> socket.receive.buffer.bytes=102400
> socket.request.max.bytes=104857600
> log.dirs=/usr/myapp/kafka_2.12-3.1.0/logs
> num.partitions=1
> num.recovery.threads.per.data.dir=1
> offsets.topic.replication.factor=1
> transaction.state.log.replication.factor=1
> transaction.state.log.min.isr=1
> log.retention.hours=168
> log.segment.bytes=1073741824
> log.retention.check.interval.ms=300000
> zookeeper.connect=192.168.3.109:2181
> zookeeper.connection.timeout.ms=6000
> EOF
上边配置的server.properties的内容基本都是原server.properties的默认配置,到自己安装时主要修改:
broker.id broker的id修改为任意自己想要的数值(和zookeeper中的id类似的)
listeners 监听址址;修改为kafka要监听的地址
num.partitions 修改每个topic的默认分区参数,默认是1,具体合适的取值需要根据服务器配置进程确定
log.dirs 日志文件存放目录(修改为自己要存放日志的目录)
zookeeper.connect zookeeper监听地址。修改为自己的zookeeper的监听地址,如果是集群所有地址全写上用逗号(半角)隔开即可
5、启动
kafka的bin目录:
"-daemon" 参数代表以守护进程的方式启动kafka server-dae
./zookeeper-server-start.sh -daemon ../config/zookeeper.properties #启动zookeeper
./kafka-server-start.sh -daemon ../config/server.properties #启动kafka
注意:如果启动后查不到进程,可以看JAVA_HOME是否配置
查看是否有进程:
jps
6、停止
./zookeeper-server-stop.sh #停止zookeeper
./kafka-server-stop.sh #停止kafka,centos7上可能关不了用kill -9直接杀掉
今天终于把can open strmbasd.lib解决了,我程序运行出现下面错误Linking... LINK : fatal error LNK1104: cannot open file "../../../BaseClasses/Debug/strmbasd.lib" Error executing link.exe. 本来这个程序别人的例子,是可以运行,但是我改下参数就出现上面的错_strmbasd.lib
执行大数据[注]项目的企业面对的关键决策之一是使用哪个数据库,SQL还是NoSQL?SQL有着骄人的业绩,庞大的安装基础;而NoSQL正在获得可观的收益,且有很多支持者。我们来看看两位专家对这个问题的看法。 专家 ·VoltDB公司首席技术官Ryan Betts表示,SQL已经赢得了大型企业的广泛部署,大数据是它可以支持的另一个领域。 ·Couchbase
Python编程报错问题与解决_invalid python 3.8
Hadoop认证课程:Map设计和Reduce设计,单词词频统计WordCount是Hadoop自带的一个简单的应用,它可以计算出指定文本集中每一个单词出现的次数。要利用MapReduce编程模型去实现一个词频统计的并行程序,对于开发者来讲需要做两件事:第一是如何将顺序执行的词频统计算法流程转化为MapReduce的处理模式,具体就是如何设计Map和Reduce的输入和输出的键值对,以及Map和R
Lucene索引的一个重要特征是支持增量索引。 可以保持原有的索引内容基础上,创建一系列新的子索引。子索引创建完成后,可以自动添加到索引段中,索引段膨胀到一定程度后,又可以自动添加到更大的索引段中。最后可以通过合并和优化生成一个索引文件。可以说lucene的索引建立过程就是一系列的索引合并过程。 首先利用自动合并功能,合并最小的单元;然后利用addIndexes命令可以把指定的索引合并起来。_lucene 8 numeric 索引优化
容器简介什么是Linux容器Linux容器是与系统其他部分隔离开的一系列进程,从另一个镜像运行,并由该镜像提供支持进程所需的全部文件。容器提供的镜像包含了应用的所有依赖项,因而在从开发到测试再到生产的整个过程中,它都具有可移植性和一致性。更加详细地来说,请您假定您在开发一个应用。您使用的是一台笔记本电脑,而且您的开发环境具有特定的配置。其他开发人员身处的环境配置可能稍有不同。您正在开发的应用依赖于您当前的配置,还要依赖于某些特定文件。与此同时,您的企业还拥有标准化的测试和生产环境.._docker -compose ps
为什么80%的码农都做不了架构师?>>> ...
原题链接主要思路:从左到右,逐个比较,若有不同,标记此不同地点,并向右搜寻首个相同点,从该点开始挨个与左边位置交换并统计交换次数。#include #include #define MAX 5000 + 2char str[MAX], str2[MAX];int find(int i){ int j = i, count = 0; char t; while(str[j]_nyoj915
1.下载官网 live555 2018.4.25版本2.修改win32config文件删除或注释此行!include &amp;amp;lt;ntwin32.mak&amp;amp;gt;修改TOOLS32,指向你的VC安装目录TOOLS32 = C:\Program Files (x86)\Microsoft Visual Studio 12.0\VC修改LINK这行LI...
1.功能仅是菜单功能一部分,仅供参考 2.需求描述:右侧菜品部分在滚动的时候,左侧菜品选中分类与右侧第一行菜品所在分类对应。 我的实现方式:(每个菜品高度*该分类菜品数量)+菜品分类高度 = x, 每次滚动的时候判断当前scrollTop是否在x范围内?左侧选中该分类:左侧不做改变; 问题:我设置菜品高度的单位是rpx,而scrollTop的单位是px,这也就是说,上面我计算的x是个变量,_微信小程序美团菜单
带你一命通关 C++11 新增语法十分钟通透 C++11_c++最新语法
cookie的内容主要包括:名字、值、过期时间、路径和域。路径与域一起构成cookie的作用范围。若不设置时间,则表示这个cookie的生命期为浏览器会话期间,关闭浏览器窗口,cookie就会消失。这种生命期为浏览器会话期的cookie被称为会话cookie。会话cookie一般不存储在硬盘而是保存在内存里,当然这个行为并不是规范规定的。若设置了过期时间,浏览器就会把cookie保存到硬盘上,关闭后再打开浏览器这些cookie仍然有效直到超过设定的过期时间。对于保存在内存里的cookie,不同的浏..._session、cookie、localstorage、 sessionstorage 的区别