Posted on 2014-01-08 12:08
陜西BOY 閱讀(265)
評論(0) 編輯 收藏 所屬分類:
kafka
##broker標識,id為正數,且全局不得重復.
broker.id=0
##日志文件保存的目錄 推薦放到存儲大的盤目錄
log.dirs=/opt/kafkadata/logs
##broker需要使用zookeeper保存meata信息,因此broker為zk
##此處為zookeeper集群的connectString,后面可以跟上path
##不過需要注意,path的全路徑需要有自己來創建(使用zookeeper腳本工具)
zookeeper.connect=hostname1:port1,hostname2:port2/kafka
##用來偵聽鏈接的端口,prudcer或consumer將在此端口建立鏈接
port=10000
##指定broker實例綁定的網絡接口地址
host.name=ip
##每個topic默認partition的個數,默認為1
num.partitions=2
##日志文件中每個segment文件的尺寸,默認為1G
##log.segment.bytes=1024*1024*1024
##滾動生成新的segment文件的最大時間
##log.roll.hours=24*7
##segment文件保留的最長時間,超時將被刪除
##log.retention.hours=24*7
##partiton中buffer中,消息的條數,達到閥值,將觸發flush到磁盤.
log.flush.interval.messages=30000
#消息buffer的時間,達到閥值,將觸發flush到磁盤.
log.flush.interval.ms=5000
##partition leader等待follower同步消息的最大時間,
##如果超時,leader將follower移除同步列表
replica.lag.time.max.ms=10000
##消息的備份的個數,默認為1,通常使用在replication-cluster環境中
##kafka-cluster已經具備自動故障轉移能力(>0.8V)
num.replica.fetchers=1