CN116521631A - 一种日志数据的聚合方法与系统 - Google Patents

一种日志数据的聚合方法与系统 Download PDF

Info

Publication number
CN116521631A
CN116521631A CN202210080977.3A CN202210080977A CN116521631A CN 116521631 A CN116521631 A CN 116521631A CN 202210080977 A CN202210080977 A CN 202210080977A CN 116521631 A CN116521631 A CN 116521631A
Authority
CN
China
Prior art keywords
data
aggregation
log
source
writing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210080977.3A
Other languages
English (en)
Inventor
王平
何建锋
李周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Jiaotong University Jump Network Technology Co ltd
Original Assignee
Xi'an Jiaotong University Jump Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xi'an Jiaotong University Jump Network Technology Co ltd filed Critical Xi'an Jiaotong University Jump Network Technology Co ltd
Priority to CN202210080977.3A priority Critical patent/CN116521631A/zh
Publication of CN116521631A publication Critical patent/CN116521631A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/1734Details of monitoring file system events, e.g. by the use of hooks, filter drivers, logs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/14Details of searching files based on file metadata
    • G06F16/148File search processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/174Redundancy elimination performed by the file system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开一种日志数据的聚合方法及系统,将数据在入库时进行一定的归并,从而缩小数据统计的规模,解决统计规模较大的问题,通过空间换取时间的方式可以加快复杂聚合的处理速度;将归并后的数据做一份数据冗余,对于该数据集进行聚合,解决大数据量下的聚合问题。

Description

一种日志数据的聚合方法与系统
技术领域
本发明属于数据分析技术领域,尤其是涉及一种日志数据的聚合处理方法及系统。
背景技术
随着大数据时代的到来,一方面由于数据量的爆炸式增长,另一方面由于数据类型的增加,传统的数据分析方法面临巨大的挑战。大数据量的即席查询和应用于数据产品的快速查询,对大数据业务的有效实现至关重要。为了能够满足对一些特定查询、数据挖掘应用的快速处理,数据库需要按照各种维度或多种维度组合,对一些数据字段进行统计分析,如对数据进行分组的求和,求数,最大值,最小值,或者其它的自定义的统计功能,聚合得到特定的一些数据概览。
数据的聚合统计性能是大数据分析领域经常面临的问题。特别是随着数据量的不断增加,涉及复杂聚合的场景开始出现聚合较慢,大于十秒以上的情况,在亿级数据下出现甚至聚合超时的情况。
发明内容
有鉴于此,本发明旨在提出一种日志数据的聚合方法及系统,解决在大数据量的复杂场景下数据分析处理与统计超时的问题。
本发明的技术方案,首先提供一种日志数据的聚合方法,具体包括:
获取原始日志数据;
判断数据是否符合过滤策略,若是则丢弃数据,否则根据源IP和目的IP的资产属性与地理信息,利用KafkaStream或Siddhi对数据进行归并处理,并将数据写回Kafka;
同时在ClickHouse中建立Kafka表,根据Kafka主题将数据写入ClickHouse;以及将归并后的原始数据通过Logstash或Beats写入ES。
作为较佳的,上述的将数据写入ClickHouse,包括根据源ip、源属性、目标IP、目标属性与目的端口五个维度,通过Flink每隔五分钟进行一次聚合统计,并将聚合结果写入ClickHouse。
上述的日志数据聚合方法,还包括对聚合后的数据进行查询筛选,具体为:先根据日志产生时间筛选数据,并对数据量进行累加排序;再根据源ip、源属性、目标IP与目标属性从ES中进行筛选,对筛选结果计算各维度对应的服务top3、流量大小、访问次数,返回至查询请求端。
本发明还提供一种日志数据聚合系统,包括:
数据采集模块,获取原始日志数据,并判断数据是否符合过滤策略,若是则丢弃数据,否则发送至数据归并模块进行归并处理;
数据归并模块,根据源IP和目的IP的资产属性与地理信息,利用KafkaStream或Siddhi对数据进行归并处理并将数据写回Kafka;
数据聚合模块,根据Kafka主题取数据,通过Flink每隔五分钟进行一次聚合统计;
数据存储模块,用于存储日志数据,包括归并数据、聚合数据与原始数据。
所述数据存储模块包括:
聚合数据存储单元,将聚合后的数据写入ClickHouse的Kafka表。
原始数据存储单元,将归并后的原始数据通过Logstash或Beats写入ES。
上述的日志数据聚合系统还包括数据查询模块,先根据日志产生时间筛选数据,并对数据量进行累加排序;再根据源ip、源属性、目标IP与目标属性从ES中进行筛选,对筛选结果计算各维度对应的服务top3、流量大小、访问次数,返回至查询请求端。
基于上述技术方案,本发明的日志数据聚合方法及系统具有以下有益效果:将数据在入库时进行一定的归并,从而缩小数据统计的规模,解决统计规模较大的问题,通过空间换取时间的方式可以加快复杂聚合的处理速度;将归并后的数据做一份数据冗余,对于该数据集进行聚合,解决大数据量下的聚合问题。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述。
为了方便理解,下面对本发明实施例中涉及的名词进行解释:
数据处理大致可以分成两大类:联机事务处理OLTP(on-line transactionprocessing)、联机分析处理OLAP(On-Line Analytical Processing)。OLTP是传统的关系型数据库的主要应用,主要是基本的、日常的事务处理,例如银行交易。OLAP是数据仓库系统的主要应用,支持复杂的分析操作,侧重决策支持,并且提供直观易懂的查询结果。
不同于事务处理(OLTP)的场景,如电商场景中加购物车、下单、支付等需要在原地进行大量insert、update、delete操作;数据分析(OLAP)场景通常是将数据批量导入后,进行任意维度的灵活探索、BI工具洞察、报表制作等。
Kylin、Druid、ClickHouse是目前常见的OLAP 引擎。其中,Kylin基于Hbase,Druid基于HDFS,主要解决的是Hadoop架构下的即席查询问题,而ClickHouse是基于磁盘的本地存储,不需要依赖其他组件。
ElasticSearch是目前流行的基于Lucene底层技术的分布式全文搜索引擎,通过扩展Lucene的单机搜索能力,使其具有分布式的搜索和分析能力;通过提高数据入库与过滤性能的机制,能够在一定程度上实现快速查询,但是ES在大规模数据统计和数据去重上存在明显短板,面对大规模数据量下根据不同业务对数据进行搜索、过滤和聚合分析,将会消耗更多的资源,性能上与OLAP引擎差距较大。
Logstash是一个开源的数据收集引擎,它具有备实时数据传输能力。它可以统一过滤来自不同源的数据,并按照开发者的制定的规范输出到目的地。顾名思义,Logstash收集的数据对象就是日志文件。由于日志文件来源多(如:系统日志、服务器 日志等),且内容杂乱,不便于进行观察。因此,使用 Logstash 对日志文件进行收集和统一过滤,变成可读性高的内容,方便开发者或运维人员观察,从而有效的分析系统/项目运行的性能,做好监控和预警的准备工作等。
Kafka是一个分布式、支持分区的(partition)、多副本的(replica),基于zookeeper协调的分布式消息系统,它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统、低延迟的实时系统、storm/Spark流式处理引擎,web/nginx日志、访问日志,消息服务等等。具有以下优点:高吞吐量、低延迟;可扩展性;持久性、可靠性;容错性;高并发。常用的场景,包括:日志收集,用户活动跟踪,流式处理等。
Flink核心是一个流式的数据流执行引擎,其针对数据流的分布式计算提供了数据分布、数据通信以及容错机制等功能。基于流执行引擎,Flink提供了诸多更高抽象层的API以便用户编写分布式任务,例如DataStream API,对数据流进行流处理操作,将流式的数据抽象成分布式的数据流,用户可以方便地对分布式数据流进行各种操作,支持Java和Scala。此外,Flink也可以方便地和Hadoop生态圈中其他项目集成,例如Flink可以读取存储在HDFS或HBase中的静态数据,以Kafka作为流式的数据源,直接重用MapReduce或Storm代码。
实施例一
实施例一,提供一种日志数据的聚合方法,具体包括:
获取原始日志数据;
判断数据是否符合过滤策略,若是则丢弃数据,否则根据源IP和目的IP的资产属性与地理信息,利用KafkaStream或Siddhi对数据进行归并处理,并将数据写回Kafka;
同时在ClickHouse中建立Kafka表,根据Kafka主题将数据写入ClickHouse;以及将归并后的原始数据通过Logstash或Beats写入ES。
作为较佳的,上述的将数据写入ClickHouse,包括根据源ip、源属性、目标IP、目标属性与目的端口五个维度,通过Flink每隔五分钟进行一次聚合统计,并将聚合结果写入ClickHouse。
上述的日志数据聚合方法,还包括对聚合后的数据进行查询筛选,具体为:先根据日志产生时间筛选数据,并对数据量进行累加排序;再根据源ip、源属性、目标IP与目标属性从ES中进行筛选,对筛选结果计算各维度对应的服务top3、流量大小、访问次数,返回至查询请求端。
将数据在入库时进行一定的归并,从而缩小数据统计的规模,解决统计规模较大的问题,通过空间换取时间的方式可以加快复杂聚合的处理速度。通过五分钟的归并窗口可以大规模降低数据量,提升聚合性能。通过实验得出结论,一亿数据下经过归并后再次处理五秒内可以完成业务需求,该方案可行,十亿数据下,clickhouse在归并后仍然存在五亿数据的情况下,性能可以达到要求,es聚合性能与过滤之后的数据量有关,在低配置机器上,一亿数据和四亿数据依然可以十秒之内返回结果。
实施例二
实施例二提供一种日志数据聚合系统,包括:
数据采集模块,获取原始日志数据,并判断数据是否符合过滤策略,若是则丢弃数据,否则发送至数据归并模块进行归并处理;
数据归并模块,根据源IP和目的IP的资产属性与地理信息,利用KafkaStream或Siddhi对数据进行归并处理并将数据写回Kafka;
数据聚合模块,根据Kafka主题取数据,通过Flink每隔五分钟进行一次聚合统计;
数据存储模块,用于存储日志数据,包括归并数据、聚合数据与原始数据,具体包括:聚合数据存储单元,将聚合后的数据写入ClickHouse的Kafka表;原始数据存储单元,将归并后的原始数据通过Logstash或Beats写入ES。
作为较佳的实施方式,上述的日志数据聚合系统还包括数据查询模块,先根据日志产生时间筛选数据,并对数据量进行累加排序;再根据源ip、源属性、目标IP与目标属性从ES中进行筛选,对筛选结果计算各维度对应的服务top3、流量大小、访问次数,返回至查询请求端。
如上所述的本发明的日志数据聚合方法及系统实施例:将数据在入库时进行一定的归并,从而缩小数据统计的规模,解决统计规模较大的问题,通过空间换取时间的方式可以加快复杂聚合的处理速度;并且将归并后的数据做一份数据冗余,对于该数据集进行聚合,解决大数据量下的聚合问题。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如:ROM/RAM、磁碟、光盘等。
对上述公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和相一致的最宽的范围。

Claims (6)

1.一种日志数据的聚合方法,其特征在于,包括:
获取原始日志数据;
判断数据是否符合过滤策略,若是则丢弃数据,否则根据源IP和目的IP的资产属性与地理信息,利用KafkaStream或Siddhi对数据进行归并处理,并将数据写回Kafka;
同时在ClickHouse中建立Kafka表,根据Kafka主题将数据写入ClickHouse;以及将归并后的原始数据通过Logstash或Beats写入ES。
2.根据权利要求1所述的日志数据聚合方法,其特征在于,所述将数据写入ClickHouse,包括根据源ip、源属性、目标IP、目标属性与目的端口五个维度,通过Flink每隔五分钟进行一次聚合统计,并将聚合结果写入ClickHouse。
3.根据权利要求1所述的日志数据聚合方法,其特征在于, 该方法还包括对聚合后的数据进行查询筛选,具体为:先根据日志产生时间筛选数据,并对数据量进行累加排序;再根据源ip、源属性、目标IP与目标属性从ES中进行筛选,对筛选结果计算各维度对应的服务top3、流量大小、访问次数,返回至查询请求端。
4.一种日志数据聚合系统,其特征在于,包括:
数据采集模块,获取原始日志数据,并判断数据是否符合过滤策略,若是则丢弃数据,否则发送至数据归并模块进行归并处理;
数据归并模块,根据源IP和目的IP的资产属性与地理信息,利用KafkaStream或Siddhi对数据进行归并处理并将数据写回Kafka;
数据聚合模块,根据Kafka主题取数据,通过Flink每隔五分钟进行一次聚合统计;
数据存储模块,用于存储日志数据,包括归并数据、聚合数据与原始数据。
5.根据权利要求4所述的日志数据聚合系统,其特征在于,所述数据存储模块包括:
聚合数据存储单元,将聚合后的数据写入ClickHouse的Kafka表;
原始数据存储单元,将归并后的原始数据通过Logstash或Beats写入ES。
6.根据权利要求4所述的日志数据聚合系统,其特征在于,还包括数据查询模块,先根据日志产生时间筛选数据,并对数据量进行累加排序;再根据源ip、源属性、目标IP与目标属性从ES中进行筛选,对筛选结果计算各维度对应的服务top3、流量大小、访问次数,返回至查询请求端。
CN202210080977.3A 2022-01-24 2022-01-24 一种日志数据的聚合方法与系统 Pending CN116521631A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210080977.3A CN116521631A (zh) 2022-01-24 2022-01-24 一种日志数据的聚合方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210080977.3A CN116521631A (zh) 2022-01-24 2022-01-24 一种日志数据的聚合方法与系统

Publications (1)

Publication Number Publication Date
CN116521631A true CN116521631A (zh) 2023-08-01

Family

ID=87405166

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210080977.3A Pending CN116521631A (zh) 2022-01-24 2022-01-24 一种日志数据的聚合方法与系统

Country Status (1)

Country Link
CN (1) CN116521631A (zh)

Similar Documents

Publication Publication Date Title
US10691646B2 (en) Split elimination in mapreduce systems
US7624118B2 (en) Data processing over very large databases
Santos et al. Real-time data warehouse loading methodology
US10977248B2 (en) Processing records in dynamic ranges
Eltabakh et al. Eagle-eyed elephant: split-oriented indexing in Hadoop
CN111475509A (zh) 一种基于大数据的用户画像和多维分析系统
CN110928903B (zh) 数据提取方法及装置、设备和存储介质
CN111552885B (zh) 实现自动化实时消息推送运营的系统及其方法
Schaffner et al. A hybrid row-column OLTP database architecture for operational reporting
CN113312376B (zh) 一种用于Nginx日志实时处理分析的方法及终端
CN108228322B (zh) 一种分布式链路跟踪、分析方法及服务器、全局调度器
Rodrigues et al. Big data processing tools: An experimental performance evaluation
CN113297270A (zh) 数据查询方法、装置、电子设备及存储介质
CN116521631A (zh) 一种日志数据的聚合方法与系统
Bazargani et al. Implementing conceptual search capability in a cloud-based feed aggregator
Chen et al. Continuous mapreduce for in-db stream analytics
CN115952200B (zh) 一种基于mpp架构的多源异构数据聚合查询方法及装置
CN114519059A (zh) 数据处理方法、装置、电子设备及存储介质
CN116775948A (zh) 一种用于yms系统的数据仓库系统及其构建方法
CN113886702A (zh) 一种基于动态缓存机制的混合云搜索引擎及搜索方法
Khan et al. The Effects of Clustering on Performance of the Karachi Stock Exchange
CN118394855A (zh) 数据处理方法、装置、设备及存储介质
CN118332024A (zh) 一种时序数据的处理方法以及装置
CN116975098A (zh) 查询计划构建方法、装置、电子设备和存储介质
CN113889199A (zh) 一种基于化合物的搜索引擎和搜索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication