34 lines
1.1 KiB
Markdown
34 lines
1.1 KiB
Markdown
# log-stream-completion-schema
|
||
|
||
基于查询网关的动态日志预处理程序,接收原始日志根据对应schema定义进行数据清洗
|
||
并将结果回写Kafka。
|
||
|
||
|
||
## 函数功能列表
|
||
* current_timestamp
|
||
> 获取当前时间戳,若追加字段已有时间戳,不予以覆盖
|
||
* snowflake_id
|
||
> 雪花ID函数,返回一个一定条件内不重复的 long 类型数值
|
||
* geo_ip_detail
|
||
> IP定位库,获取对应IP的详细地理位置信息,城市,州/省,国家
|
||
* geo_asn
|
||
> ASN定位库,获取对应IP的ASN信息
|
||
* geo_ip_country
|
||
> IP定位库,获取对应IP的地理位置信息,仅包含 国家
|
||
* set_value
|
||
> 给予字段固定值
|
||
* get_value
|
||
> 获取字段值并追加到新的字段
|
||
* if
|
||
> IF函数实现,解析日志构建三目运算;包含判断是否为数字若为数字则转换为long类型返回结果。
|
||
* sub_domain
|
||
> 获取顶级域名
|
||
* radius_match
|
||
> 根据IP解析对应raidus用户,借助于HBase存储数据。
|
||
* app_match
|
||
> 根据APP_ID获取对应的APP名称
|
||
* decode_of_base64
|
||
> 根据编码解码base64,若编码字段为空则根据默认编码解析(UTF-8)
|
||
* flattenSpec
|
||
> 根据表达式解析json
|