This repository has been archived on 2025-09-14. You can view files and clone it, but cannot push or open issues or pull requests.
Files

34 lines
1.1 KiB
Markdown
Raw Permalink Normal View History

# log-stream-completion-schema
2019-08-05 17:47:56 +08:00
基于查询网关的动态日志预处理程序接收原始日志根据对应schema定义进行数据清洗
并将结果回写Kafka。
## 函数功能列表
* current_timestamp
> 获取当前时间戳,若追加字段已有时间戳,不予以覆盖
* snowflake_id
> 雪花ID函数返回一个一定条件内不重复的 long 类型数值
* geo_ip_detail
> IP定位库获取对应IP的详细地理位置信息城市,州/省,国家
* geo_asn
> ASN定位库获取对应IP的ASN信息
* geo_ip_country
> IP定位库获取对应IP的地理位置信息仅包含 国家
* set_value
> 给予字段固定值
* get_value
> 获取字段值并追加到新的字段
* if
> IF函数实现解析日志构建三目运算;包含判断是否为数字若为数字则转换为long类型返回结果。
* sub_domain
> 获取顶级域名
* radius_match
> 根据IP解析对应raidus用户借助于HBase存储数据。
* app_match
> 根据APP_ID获取对应的APP名称
* decode_of_base64
> 根据编码解码base64若编码字段为空则根据默认编码解析(UTF-8)
* flattenSpec
> 根据表达式解析json