2.9 KiB
福建项目:功能端发日志出现大量丢日志的现象
| ID | Creation Date | Assignee | Status |
|---|---|---|---|
| OMPUB-513 | 2022-06-08T09:22:56.000+0800 | 戚岱杰 | 已关闭 |
2022.06.07 下午14点,用户生效了一个端口Monitor策略后,部分功能端出现大量丢日志的现象 2022.06.07 晚关闭该策略,功能端就不丢日志了 2022.06.08 白天继续打开该策略,用于排查丢日志现象
下图是2022.06.07下午统计的各个功能端发送日志情况: !screenshot-1.png|thumbnail!
备注: 目前福州OLAP、泉州OLAP的kafka各3台 功能端出现丢日志现象时,服务器网卡带宽约 7~9MB/s liuxueli commented on 2022-06-08T09:29:26.376+0800:
- 根据杨阳反馈:kafka一共有三台服务器,三台kafka的带宽分别是 88MB 74MB 104MB ,怀疑已经达到了服务器的磁盘写入速度。
- kafka broker的性能不足导致功能端的kafka客户端报错 _QUEUE_FULL(Local: Queue full) ;参照: [https://github.com/confluentinc/confluent-kafka-go/issues/346] ** !image-2022-06-08-09-33-57-327.png! ** {code:java} Tue Jun 7 18:35:58 2022, INFO, ./tsglog/tsglog, TSG_SEND_LOG, tsg_send_log to kafka is error of _QUEUE_FULL(Local: Queue full), status: -1, topic: SECURITY-EVENT payload: Tue Jun 7 18:35:58 2022, INFO, ./tsglog/tsglog, TSG_SEND_LOG, tsg_send_log to kafka is error of _QUEUE_FULL(Local: Queue full), status: -1, topic: SECURITY-EVENT payload:{code}
zhangzhihan commented on 2022-06-08T16:56:37.690+0800:
泉州OLAP三台部署kafka的服务器,写入在100MB/s时磁盘IO就已经达到100%,所以出现功能端丢日志现象 最终将kafka从HDD切换到SSD后,写入正常,未出现IO高的问题,功能端也未丢日志 后续将持续观察一段时间
doufenghu commented on 2022-06-08T17:13:24.504+0800:
需要跟踪下100MB/s IO 达到100%问题。[~qidaijie]
qidaijie commented on 2022-06-08T17:32:50.466+0800:
现场情况: 1:三台混部服务器仅有kafka使用磁盘;使用HDD时每秒写入次数在110左右,排除有大量小文件的情况。 !FJ-Kafka-IO.png|thumbnail! 2:Kafka使用SSD后,写入日志总量未变、Kafka配置未变动,使用率在20%左右。 3:测试的HDD的IO性能与实际不符,需要对HDD阵列分析和重新测试IO。
Attachments
Attachment: FJ-Kafka-IO.png
Attachment: image-2022-06-08-09-33-57-327.png
Attachment: screenshot-1.png


