1、修改dockerfile网络配置
2、prod.xml增加kafka配置
This commit is contained in:
@@ -10,7 +10,7 @@ COPY realtime_protection realtime_protection
|
||||
# NGINX_PORT=8080 \
|
||||
# NGINX_SERVER_NAME="localhost"
|
||||
|
||||
ENV SPRINGBOOT_FIRST_URL="192.168.107.89:8081" \
|
||||
ENV SPRINGBOOT_FIRST_URL="localhost:8081" \
|
||||
SPRINGBOOT_SECOND_URL="172.24.100.53:8082" \
|
||||
SPRINGBOOT_THIRD_URL="172.24.100.53:8083" \
|
||||
SPRINGBOOT_FOURTH_URL="172.24.100.53:8084" \
|
||||
|
||||
@@ -3,19 +3,21 @@ LABEL authors="Endera"
|
||||
|
||||
COPY realtime_protection realtime_protection
|
||||
|
||||
ENV MYSQL_USERNAME="root" \
|
||||
MYSQL_PASSWD="IOmysql" \
|
||||
MYSQL_URL="10.58.72.140:3306" \
|
||||
DORIS_USERNAME="root" \
|
||||
DORIS_PASSWD="" \
|
||||
DORIS_URL="10.58.72.135:9030"
|
||||
|
||||
#ENV MYSQL_USERNAME="root" \
|
||||
# MYSQL_PASSWD="aiihhbfcsy123!@#" \
|
||||
# MYSQL_URL="192.168.107.89:3306" \
|
||||
# MYSQL_PASSWD="IOmysql" \
|
||||
# MYSQL_URL="10.58.72.140:3306" \
|
||||
# DORIS_USERNAME="root" \
|
||||
# DORIS_PASSWD="" \
|
||||
# DORIS_URL="10.26.22.133:9030"
|
||||
# DORIS_URL="10.58.72.135:9030"\
|
||||
# KAFKA_SERVERS="10.58.72.125:9092,10.58.72.126:9092,10.58.72.127:9092,10.58.72.128:9092,10.58.72.129:9092,\
|
||||
# 10.58.72.130:9092,10.58.72.131:9092,10.58.72.132:9092,10.58.72.133:9092,10.58.72.134:9092"
|
||||
ENV MYSQL_USERNAME="root" \
|
||||
MYSQL_PASSWD="aiihhbfcsy123!@#" \
|
||||
MYSQL_URL="192.168.107.89:3306" \
|
||||
DORIS_USERNAME="root" \
|
||||
DORIS_PASSWD="" \
|
||||
DORIS_URL="10.26.22.133:9030"\
|
||||
KAFKA_SERVERS="172.29.128.1:9092"
|
||||
|
||||
EXPOSE 8081
|
||||
|
||||
|
||||
@@ -34,6 +34,80 @@ spring:
|
||||
grace-destroy: true
|
||||
jackson:
|
||||
default-property-inclusion: non_null
|
||||
kafka:
|
||||
# kafka集群信息,多个用逗号间隔
|
||||
bootstrap-servers: ${KAFKA_SERVERS}
|
||||
consumer:
|
||||
topic-name: topic-alert
|
||||
# 消费者组
|
||||
group-id: AlertGroup
|
||||
# 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
|
||||
enable-auto-commit: false
|
||||
# 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
|
||||
# earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费分区的记录
|
||||
# latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据(在消费者启动之后生成的记录)
|
||||
# none:当各分区都存在已提交的offset时,从提交的offset开始消费;只要有一个分区不存在已提交的offset,则抛出异常
|
||||
auto-offset-reset: latest
|
||||
# 键的反序列化方式
|
||||
key-deserializer: org.springframework.kafka.support.serializer.ErrorHandlingDeserializer
|
||||
# 值的反序列化方式(建议使用Json,这种序列化方式可以无需额外配置传输实体类)
|
||||
value-deserializer: org.springframework.kafka.support.serializer.ErrorHandlingDeserializer
|
||||
# 配置消费者的 Json 反序列化的可信赖包,反序列化实体类需要
|
||||
properties:
|
||||
spring.json.trusted.packages: com.realtime.protection.configuration.entity.*
|
||||
# 这个参数定义了poll方法最多可以拉取多少条消息,默认值为500。如果在拉取消息的时候新消息不足500条,那有多少返回多少;如果超过500条,每次只返回500。
|
||||
# 这个默认值在有些场景下太大,有些场景很难保证能够在5min内处理完500条消息,
|
||||
# 如果消费者无法在5分钟内处理完500条消息的话就会触发reBalance,
|
||||
# 然后这批消息会被分配到另一个消费者中,还是会处理不完,这样这批消息就永远也处理不完。
|
||||
# 要避免出现上述问题,提前评估好处理一条消息最长需要多少时间,然后覆盖默认的max.poll.records参数
|
||||
# 注:需要开启BatchListener批量监听才会生效,如果不开启BatchListener则不会出现reBalance情况
|
||||
#max-poll-records: 3
|
||||
spring.deserializer.key.delegate.class: org.springframework.kafka.support.serializer.JsonDeserializer
|
||||
spring.deserializer.value.delegate.class: org.springframework.kafka.support.serializer.JsonDeserializer
|
||||
|
||||
|
||||
# properties:
|
||||
# # 两次poll之间的最大间隔,默认值为5分钟。如果超过这个间隔会触发reBalance
|
||||
# max:
|
||||
# poll:
|
||||
# interval:
|
||||
# ms: 600000
|
||||
# # 当broker多久没有收到consumer的心跳请求后就触发reBalance,默认值是10s
|
||||
# session:
|
||||
# timeout:
|
||||
# ms: 10000
|
||||
|
||||
producer:
|
||||
# 重试次数,设置大于0的值,则客户端会将发送失败的记录重新发送
|
||||
retries: 3
|
||||
#批量处理大小,16K
|
||||
batch-size: 16384
|
||||
#缓冲存储大,32M
|
||||
buffer-memory: 33554432
|
||||
acks: 1
|
||||
# 指定消息key和消息体的编码方式:字符串序列化
|
||||
key-serializer: org.springframework.kafka.support.serializer.JsonSerializer
|
||||
#值序列化:使用Json
|
||||
value-serializer: org.springframework.kafka.support.serializer.JsonSerializer
|
||||
# 监听
|
||||
listener:
|
||||
# record:当每一条记录被消费者监听器(ListenerConsumer)处理之后提交
|
||||
# batch:当每一批poll()的数据被ListenerConsumer处理之后提交
|
||||
# time:当每一批poll()的数据被ListenerConsumer处理之后,距离上次提交时间大于TIME时提交
|
||||
# count:当每一批poll()的数据被ListenerConsumer处理之后,被处理record数量大于等于COUNT时提交
|
||||
# count_time:TIME或COUNT中有一个条件满足时提交
|
||||
# manual:当每一批poll()的数据被ListenerConsumer处理之后, 手动调用Acknowledgment.acknowledge()后提交
|
||||
# manual_immediate:手动调用Acknowledgment.acknowledge()后立即提交,一般推荐使用这种
|
||||
ack-mode: manual_immediate
|
||||
# # 在侦听器容器中运行的线程数,一般设置为 机器数*分区数
|
||||
# concurrency: 4
|
||||
# # 自动提交关闭,需要设置手动消息确认
|
||||
# ack-mode: manual_immediate
|
||||
# # 消费监听接口监听的主题不存在时,默认会报错,所以设置为false忽略错误
|
||||
# missing-topics-fatal: false
|
||||
# # 两次poll之间的最大间隔,默认值为5分钟。如果超过这个间隔会触发reBalance
|
||||
# poll-timeout: 600000
|
||||
|
||||
|
||||
mybatis:
|
||||
mapper-locations: classpath:mappers/*
|
||||
|
||||
Reference in New Issue
Block a user