68 lines
2.0 KiB
Properties
68 lines
2.0 KiB
Properties
#--------------------------------地址配置------------------------------#
|
||
|
||
#管理kafka地址
|
||
source.kafka.servers=10.231.12.4:9094
|
||
|
||
#管理输出kafka地址
|
||
sink.kafka.servers=10.224.11.14:9094,10.224.11.15:9094,10.224.11.16:9094,10.224.11.17:9094,10.224.11.18:9094,10.224.11.19:9094,10.224.11.20:9094,10.224.11.21:9094,10.224.11.22:9094,10.224.11.23:9094
|
||
|
||
#zookeeper 地址 用于配置log_id
|
||
zookeeper.servers=10.224.11.11:2181,10.224.11.12:2181,10.224.11.13:2181
|
||
|
||
#hbase zookeeper地址 用于连接HBase
|
||
hbase.zookeeper.servers=10.231.12.4:2181
|
||
|
||
#--------------------------------HTTP/定位库------------------------------#
|
||
#定位库地址
|
||
tools.library=D:\\workerspace\\dat\\
|
||
|
||
#网关的schema位置
|
||
schema.http=http://10.224.11.244:9999/metadata/schema/v1/fields/session_record
|
||
|
||
#网关APP_ID 获取接口
|
||
app.id.http=http://10.224.11.244:9999/open-api/appDicList
|
||
|
||
#--------------------------------Kafka消费组信息------------------------------#
|
||
|
||
#kafka 接收数据topic
|
||
source.kafka.topic=SESSION-RECORD
|
||
|
||
#补全数据 输出 topic
|
||
sink.kafka.topic=test-result
|
||
|
||
#读取topic,存储该spout id的消费offset信息,可通过该拓扑命名;具体存储offset的位置,确定下次读取不重复的数据;
|
||
group.id=flink-test-1
|
||
|
||
#生产者压缩模式 none or snappy
|
||
producer.kafka.compression.type=none
|
||
|
||
#生产者ack
|
||
producer.ack=1
|
||
|
||
#--------------------------------topology配置------------------------------#
|
||
|
||
#consumer 并行度
|
||
source.parallelism=10
|
||
|
||
#转换函数并行度
|
||
transform.parallelism=10
|
||
|
||
#kafka producer 并行度
|
||
sink.parallelism=10
|
||
|
||
#数据中心,取值范围(0-63)
|
||
data.center.id.num=7
|
||
|
||
#hbase 更新时间,如填写0则不更新缓存
|
||
hbase.tick.tuple.freq.secs=180
|
||
|
||
#app_id 更新时间,如填写0则不更新缓存
|
||
app.tick.tuple.freq.secs=0
|
||
|
||
#--------------------------------默认值配置------------------------------#
|
||
|
||
#邮件默认编码
|
||
mail.default.charset=UTF-8
|
||
|
||
#0不需要补全原样输出日志,1需要补全
|
||
log.need.complete=1 |