22.01 update

This commit is contained in:
zhanghongqing
2022-01-28 11:17:01 +08:00
parent bdc9757c7b
commit d37e15b6ce
6 changed files with 136 additions and 1 deletions

View File

@@ -1,3 +1,3 @@
-- 停止调度任务的DNS放大任务
-- 停止调度任务的DNS放大任务,登录mariadb服务器执行以下SQL
update xxl_job.xxl_job_info set trigger_status=0 where job_desc like "%DNS Amplification%";

View File

@@ -0,0 +1,16 @@
1.kafka
新增topic SECURITY-PACKET-CAPTURE-RECORD
2.clickhouse
新增字段
3.gohangout
更新镜像 1.15.2.20220117
4.topology
更新livechart任务配置及jar
更新vpn-recommend jar
5.service
更新所有服务配置jdbc相关用户密码为加密
更新所有服务镜像

View File

@@ -0,0 +1,3 @@
concurrent: 2改为 1
username: 'tsg_insert'

View File

@@ -0,0 +1,60 @@
#--------------------------------地址配置------------------------------#
#管理kafka地址
source.kafka.servers=kafkaip1:9094,kafkaip2:9094
#管理输出kafka地址
sink.kafka.servers=kafkaip1:9094,kafkaip2:9094
#--------------------------------HTTP------------------------------#
#kafka 证书地址
tools.library=/home/bigdata/topology/dat/
#网关的schema位置
schema.http=http://10.111.136.252:9999/metadata/schema/v1/fields/liveChart_interim
#网关APP_ID 获取接口
app.id.http=http://10.111.136.252:9999/open-api/appDicList
#--------------------------------Kafka消费组信息------------------------------#
#kafka 接收数据topic
source.kafka.topic=INTERIM-SESSION-RECORD
#补全数据 输出 topic
sink.kafka.topic=TRAFFIC-PROTOCOL-STAT
#读取topic,存储该spout id的消费offset信息可通过该拓扑命名;具体存储offset的位置确定下次读取不重复的数据
group.id=liveCharts-interim-20220118-a
#生产者压缩模式 none or snappy
producer.kafka.compression.type=none
#生产者ack
producer.ack=1
#--------------------------------topology配置------------------------------#
#consumer 并行度
source.parallelism=1
#map函数并行度
parse.parallelism=2
#第一次窗口计算并行度
first.window.parallelism=1
#第二次窗口计算并行度
second.window.parallelism=1
#producer 并行度
sink.parallelism=5
#app_id 更新时间如填写0则不更新缓存
#app.tick.tuple.freq.secs=0
###初次随机预聚合窗口时间
first.count.window.time=5
#聚合窗口时间
second.count.window.time=15

View File

@@ -0,0 +1,56 @@
#--------------------------------地址配置------------------------------#
#管理kafka地址
source.kafka.servers=kafkaip1:9094,kafkaip2:9094
#管理输出kafka地址
sink.kafka.servers=kafkaip1:9094,kafkaip2:9094
#--------------------------------HTTP------------------------------#
#kafka 证书地址
tools.library=/home/bigdata/topology/dat/
#网关的schema位置
schema.http=http://10.111.136.252:9999/metadata/schema/v1/fields/liveChart_session
#网关APP_ID 获取接口
#app.id.http=http://192.168.44.252:9999/open-api/appDicList
app.id.http=http://10.111.136.252:9999/open-api/appDicList
#--------------------------------Kafka消费组信息------------------------------#
#kafka 接收数据topic
source.kafka.topic=SESSION-RECORD
#补全数据 输出 topic
sink.kafka.topic=TRAFFIC-PROTOCOL-STAT
#读取topic,存储该spout id的消费offset信息可通过该拓扑命名;具体存储offset的位置确定下次读取不重复的数据
group.id=liveCharts-session-20220118-A
#生产者压缩模式 none or snappy
producer.kafka.compression.type=none
#生产者ack
producer.ack=1
#--------------------------------topology配置------------------------------#
#consumer 并行度
source.parallelism=1
##
###map函数并行度
parse.parallelism=2
##
###first count 函数并行度
first.window.parallelism=1
##
###second count 函数并行度
second.window.parallelism=1
##
###producer 并行度
sink.parallelism=1
##
###初次随机预聚合窗口时间
first.count.window.time=5
##
###二次聚合窗口时间
second.count.window.time=15