KR20140055761A - Hashing method for distributed data processing to process high-speed network massive traffic processing and hashing system for distributed data processing - Google Patents

Hashing method for distributed data processing to process high-speed network massive traffic processing and hashing system for distributed data processing Download PDF

Info

Publication number
KR20140055761A
KR20140055761A KR1020120123041A KR20120123041A KR20140055761A KR 20140055761 A KR20140055761 A KR 20140055761A KR 1020120123041 A KR1020120123041 A KR 1020120123041A KR 20120123041 A KR20120123041 A KR 20120123041A KR 20140055761 A KR20140055761 A KR 20140055761A
Authority
KR
South Korea
Prior art keywords
hash
hash table
processing
data
update
Prior art date
Application number
KR1020120123041A
Other languages
Korean (ko)
Other versions
KR101429884B1 (en
Inventor
진용식
Original Assignee
주식회사 윈스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 윈스 filed Critical 주식회사 윈스
Priority to KR1020120123041A priority Critical patent/KR101429884B1/en
Publication of KR20140055761A publication Critical patent/KR20140055761A/en
Application granted granted Critical
Publication of KR101429884B1 publication Critical patent/KR101429884B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • H04L47/125Avoiding congestion; Recovering from congestion by balancing the load, e.g. traffic engineering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/28Flow control; Congestion control in relation to timing considerations
    • H04L47/283Flow control; Congestion control in relation to timing considerations in response to processing delays, e.g. caused by jitter or round trip time [RTT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer And Data Communications (AREA)

Abstract

The present invention relates to a hashing method for distributed data processing, which minimizes a delay processing load of hash used when massive traffic analysis is processed under a high speed network environment and ensures high performance, and, more specifically, to a hashing method for distributed data processing to process high speed network massive traffic, which prevents a delay in a mutual exclusion task in a distributed processing environment in performing an update task such as modification and deletion on a hash table used to continuously manage data via traffic analysis under a network environment. The method of the present invention comprises a hash update request step where one or more analysis engines transmit update data of a hash table to a hash CMC process engine; and a hash update step where the hash CMC process engine updates data of the hash table (30), and makes the hash CMC process engine receive the hash table update request from the analysis engines and update the hash table data.

Description

고속 네트워크 대용량 트래픽 처리를 위한 분산처리 해싱방법 및 분산처리해싱시스템{HASHING METHOD FOR DISTRIBUTED DATA PROCESSING TO PROCESS HIGH-SPEED NETWORK MASSIVE TRAFFIC PROCESSING AND HASHING SYSTEM FOR DISTRIBUTED DATA PROCESSING}TECHNICAL FIELD [0001] The present invention relates to a distributed processing hashing method and a distributed processing hashing system for high-speed network large-capacity traffic processing, and more particularly, to a distributed processing hashing method and a distributed processing hashing system for high-

본 발명은 고속 네트워크 환경 하에서 대용량 트래픽 분석 처리시 사용하는 해쉬의 지연처리 부하를 최소한으로 보장하여 고성능을 보장하기 위한 분산처리해싱방법에 관한 것으로, 네트워크 환경 하에서 트래픽 분석을 통해 연속성 있게 데이터를 관리하기 위해 사용되는 해쉬테이블 구성에 대해 입력과 수정, 삭제 등의 갱신 작업에 대해 분산처리 환경에서 상호배제(Mutual exclusion) 작업에 대해 지연처리가 발생하지 않도록 하는 고속 네트워크 대용량 트래픽 처리를 위한 분산처리 해싱방법에 관한 것이다.
The present invention relates to a distributed processing hashing method for ensuring a high performance by ensuring a minimum load of a delay processing load of a hash used in high-speed traffic analysis processing in a high-speed network environment, and more particularly, A distributed hashing method for high-speed network traffic processing that prevents delay processing for mutual exclusion tasks in a distributed processing environment for update operations such as input, modification, and deletion of hash table configuration .

일반적으로 네트워크망은 수많은 사용자와 다양한 정보제공의 서버들 사이에서 정보의 접속이 이루어지게 하는 것이며, 수많은 사용자와 서버들이 네트워크망에 의해 서로 연결되어 정보교환이 이루어지게 한다. 특히 한 서버에 일부 지역이나 한 나라의 사용자들만 접속하는 것이 아니라 전 세계 사용자들을 접속 대상자로 하기 때문에 교환되는 정보양이나 네트워크 트래픽이 상당하게 된다.In general, a network allows information to be accessed between a large number of users and servers providing various information, and a large number of users and servers are connected to each other through a network to exchange information. In particular, the amount of information exchanged or network traffic is significant because a single server does not only connect users in a certain region or country, but also users around the world.

이러한 네트워크 트래픽의 증가에 따라 사용자들 및 서버가 정상의 데이터를 송수신할 뿐만 아니라 이러한 정상 정보의 송수신에 더하여 악성코드, 해킹 등의 공격형 접속도 상대적으로 증가하고 있다. 하지만 이러한 공격형 접속을 차단하기에는 너무 많은 접속량에 대한 처리의 한계가 있는 것이다. 즉 서버에 불법으로 접속하거나, 정보를 불법으로 탈취하거나, 또는 서버를 감염시키기 위한 것뿐만 아니라 DDOS공격과 같이 서버 운영을 저해하는 방법 등은 더욱 지능화하고 있다.As the network traffic increases, users and servers transmit and receive normal data. In addition to sending and receiving such normal information, aggressive accesses such as malicious codes and hacking are increasing relatively. However, there is a limit to the processing amount of too much connection amount to block such an aggressive connection. In other words, illegal access to servers, illegal seizure of information, or infecting servers, as well as ways to hinder server operations such as DDOS attacks, are becoming more intelligent.

이에 대응하여 서버로 접속하는 네트워크망을 단속하기 위한 기술이 제안되고 있고, 특히 DDOS 공격의 경우 트래픽의 증가를 감지하거나 응답요청에 응답하지 않는 접속을 차단하는 등의 차단방법이 제시되고 있다. 하지만 증가되는 트래픽의 모든 패킷 정보에 대해 일일이 분석하면서 대응해야 하며 이를 위해 고속 네트워크 처리를 위한 장비가 절실하게 요구되고 있다. 아울러 이러한 고속 네트워크 대용량 트래픽 처리를 함에 있어 해쉬 정보를 이용하게 되고, 이러한 해쉬 정보의 이용에 있어서도 대용량 처리의 환경이 이루어져야 하나 해쉬 정보를 이용한 대용량 트래픽 처리의 구성이 절실히 요구되고 있다.In response to this, a technique for intercepting a network connecting to a server has been proposed. In particular, in the case of a DDOS attack, a blocking method such as detecting an increase in traffic or blocking a connection that does not respond to a response request is proposed. However, it is required to cope with every packet information of the increased traffic by analyzing it individually, and there is a desperate need for equipment for high speed network processing. In addition, hash information is used to process such high-speed network large-capacity traffic. In order to utilize such hash information, an environment for large-capacity processing must be provided. However, large-capacity traffic processing using hash information is urgently required.

특히 해쉬는 입력과 수정, 삭제 작업에 대해 분산처리 환경에서 상호배제(mutual exclusion)가 보장되도록 처리하여야 하지만, 대용량의 트래픽을 처리할 경우 상호 연관성에 의해 지연처리가 발생할 우려가 있고, 과부하를 발생시켜 성능이 저하될 우려가 있는 것이다.
Especially, hash has to deal with input, modification, and deletion to ensure mutual exclusion in a distributed processing environment. However, when processing a large amount of traffic, delay processing may occur due to correlation, So that the performance may be deteriorated.

상기와 같은 문제점을 해소하기 위한 본 발명은 고속 네트워크 환경 하에서 대용량 트래픽 분석 처리시 사용하는 해쉬의 지연처리 부하를 최소한으로 보장하여 고성능을 보장하기 위한 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems and it is an object of the present invention to guarantee a high performance by guaranteeing a load of delay processing of a hash used in a large capacity traffic analysis process in a high speed network environment to a minimum.

특히 본 발명의 목적으로는 네트워크 환경 하에서 대용량 트래픽 분석을 통해 연속성 있게 데이터를 관리하기 위해 사용되는 해쉬테이블에 대해 입력과 수정, 삭제 등의 갱신 작업에 대해 분산처리 환경에서 상호배제(Mutual exclusion) 작업에 대해 지연처리가 발생하지 않도록 하는 것이다.In particular, for the purpose of the present invention, a mutual exclusion operation in a distributed processing environment is performed for update operations such as input, modification, and deletion of a hash table used for continuously managing data through analysis of a large capacity traffic under a network environment So that the delay processing does not occur.

그리고 본 발명의 다른 목적은, 트래픽 처리에 있어 분산환경에서 데이터의 연속성을 보장하기 위해서 사용하는 해쉬 기술이며 입력/수정/삭제 작업에서의 지연발생에 대해 근본적으로 해결할 수 있으며, 또한 대용량 데이터 처리를 위한 확장 가능한 구조로서 대용량 네트워크 환경에서 고성능을 보장하는 것이다.
Another object of the present invention is to provide a hash technique used for guaranteeing continuity of data in a distributed environment in traffic processing, and can fundamentally solve the delay occurrence in input / modify / delete operations, Which guarantees high performance in a large-capacity network environment.

상기와 같은 목적을 달성하기 위한 본 발명은, 하나 이상의 분석엔진에서의 해쉬테이블의 갱신데이터를 해쉬씨엠씨처리엔진 측으로 전송하는 해쉬갱신요청단계; 및 해쉬씨엠씨처리엔진에서 해쉬테이블(30)의 데이터를 갱신하는 해쉬갱신단계를 포함하여, 하나 이상의 분석엔진에서의 해쉬테이블 갱신 요청을 전송받아 해쉬씨엠씨처리엔진에서 해쉬테이블 데이터를 갱신하는 것을 특징으로 하는 분산처리 해싱방법을 제공한다.According to an aspect of the present invention, there is provided a hash table updating method comprising: a hash update request step of transmitting update data of a hash table in one or more analysis engines to a hash CM processing engine; And a hash table updating step of updating the data of the hash table (30) in the hash CM processing engine, wherein the hash table updating request is received from one or more analysis engines and the hash table data is updated in the hash CM processing engine To provide a distributed processing hashing method.

또한 본 발명의 바람직한 실시예에 있어서, 상기 해쉬갱신요청단계는, 하나 이상의 분석엔진에서 해쉬테이블의 갱신데이터에 대해 Message Flag 설정을 하여 전송하는 것을 특징으로 한다.Also, in a preferred embodiment of the present invention, the hash update request step is characterized in that at least one analysis engine sets a message flag for update data of a hash table and transmits the hash table update data.

그리고 본 발명의 바람직한 실시예에 있어서, 상기 해쉬갱신요청단계와 해쉬갱신단계 사이에, 씨엠버퍼에 의하여, 하나 이상의 분석엔진으로부터 해쉬테이블의 갱신데이터를 수집하는 단계; 및 수집된 해쉬테이블의 갱신데이터를 해쉬씨엠씨처리엔진 측으로 전송하는 단계를 포함하는 것을 특징으로 한다.In a preferred embodiment of the present invention, collecting update data of the hash table from one or more analysis engines by the SMB buffer between the hash update request step and the hash update step; And transmitting the updated data of the collected hash table to the hash cm processing engine side.

나아가 본 발명의 바람직한 실시예에 있어서, 해쉬테이블의 정보를 이용하여 트래픽을 분석하는 하나 이상의 분석엔진; 하나 이상의 분석엔진에 해쉬정보를 제공하는 해쉬테이블; 및 상기 하나 이상의 분석엔진에서의 해쉬테이블의 갱신데이터를 전송받고 해쉬테이블의 데이터를 갱신하는 해쉬씨엠씨처리엔진을 포함하는 것을 특징으로 하는 분산처리해싱시스템을 제공한다.Further, in a preferred embodiment of the present invention, at least one analysis engine for analyzing traffic using information of a hash table; A hash table for providing hash information to one or more analysis engines; And a hash CM processing engine for receiving update data of the hash table in the at least one analysis engine and updating data in the hash table.

이에 본 발명의 바람직한 실시예에 있어서, 하나 이상의 분석엔진으로부터 해쉬테이블의 갱신데이터를 수집하여 해쉬씨엠씨처리엔진 측으로 전송하는 씨엠버퍼를 포함하고, 상기 분석엔진에서 해쉬테이블의 갱신데이터에 대해 Message Flag 설정을 하여 전송하는 것을 특징으로 한다.
Therefore, in a preferred embodiment of the present invention, there is provided a hash table for collecting update data of a hash table from one or more analysis engines and transmitting the updated data to a hash cm processing engine, And transmits the data.

상기와 같이 구성되는 본 발명은 고속 네트워크 환경 하에서 대용량 트래픽 분석 처리시 사용하는 해쉬의 지연처리 부하를 최소한으로 보장하여 고성능을 보장하기 위한 것으로, 네트워크 환경 하에서 대용량 트래픽 분석을 통해 연속성 있게 데이터를 관리하기 위해 사용되는 해쉬테이블에 대해 입력과 수정, 삭제 등의 갱신 작업에 대해 분산처리 환경에서 상호배제(Mutual exclusion) 작업에 대해 지연처리가 발생하지 않도록 하는 효과가 있다.The present invention configured as described above is for ensuring high performance by ensuring minimum load of delay processing of hash used in large capacity traffic analysis processing in a high speed network environment and continuously managing data through analysis of large capacity traffic in a network environment There is an effect that the delay processing does not occur for the mutual exclusion operation in the distributed processing environment for the update operation such as input, modification, and deletion to the hash table used for the hash table.

그리고 본 발명의 다른 효과는, 트래픽 처리에 있어 분산환경에서 데이터의 연속성을 보장하기 위해서 사용하는 해쉬 기술이며 입력/수정/삭제 작업에서의 지연발생에 대해 근본적으로 해결할 수 있으며, 또한 대용량 데이터 처리를 위한 확장 가능한 구조로서 대용량 네트워크 환경에서 고성능을 보장하는 것이다.
Further, another effect of the present invention is a hash technique used for guaranteeing continuity of data in a distributed environment in traffic processing, and it can fundamentally solve the delay occurrence in input / modify / delete operations, Which guarantees high performance in a large-capacity network environment.

도 1은 본 발명에 따른 분산처리해싱방법이 운영되는 고속네트워크 장비에 대한 일실시 예시구성도이다.
도 2는 본 발명에 따른 분산처리해싱방법이 운영될 수 있는 고속네트워크 장비에서 단순 분석구성의 예시도이다.
도 3은 본 발명에 따른 분산처리해싱방법이 운영될 수 있는 고속네트워크 장비에서 복합 해쉬테이블이 마련된 분석구성의 예시도이다.
도 4는 본 발명에 따른 분산처리해싱시스템에 있어서 단순 분석구성 예시도이다.
도 5는 본 발명에 따른 분산처리해싱시스템에서 분석엔진에 대한 세부 실시 예시도이다.
도 6은 본 발명에 따른 분산처리해싱시스템에 있어서 복합 해쉬테이블 타입의 분석구성 예시도이다.
도 7은 본 발명에 따른 분산처리해싱방법의 처리과정에 대한 흐름도이다.
도 8은 본 발명에 따른 분산처리해싱시스템이 응용되어 멀티 코어의 증가된 구성의 실시예시에 대한 예시도이다.
도 9는 본 발명에 따른 분산처리해싱방법이 운영되는 고속네트워크 장비에서의 분산형 트래픽 분석구조의 예시구성도이다.
도 10은 본 발명에 따른 분산처리해싱방법에 대한 순서도이다.
1 is a block diagram of a high-speed network equipment in which a distributed processing hashing method according to the present invention is operated.
FIG. 2 is an exemplary diagram of a simple analysis configuration in a high-speed network equipment in which the distributed processing hashing method according to the present invention can be operated.
3 is an exemplary diagram illustrating an analysis configuration in which a composite hash table is provided in a high-speed network equipment in which a distributed processing hashing method according to the present invention can be operated.
4 is a diagram illustrating a simple analysis configuration in the distributed processing hashing system according to the present invention.
5 is a detailed diagram of an analysis engine in a distributed processing hashing system according to the present invention.
FIG. 6 is a diagram illustrating an example of an analysis configuration of a composite hash table type in the distributed processing hashing system according to the present invention.
7 is a flowchart of a process of the distributed processing hashing method according to the present invention.
FIG. 8 is an exemplary diagram illustrating an embodiment of an increased configuration of a multicore using a distributed processing hashing system according to the present invention.
9 is an exemplary configuration diagram of a distributed traffic analysis structure in a high-speed network equipment in which a distributed processing hashing method according to the present invention is operated.
10 is a flowchart of a distributed processing hashing method according to the present invention.

이하 첨부되는 도면을 참조하여 상세히 설명한다.
Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

즉 본 발명에 따른 고속 네트워크 대용량 트래픽 처리를 위한 분산처리 해싱방법 및 분산처리해싱시스템(10)은 첨부된 도 1 내지 도 10 등에서와 같이, 기본적으로 네트워크 트래픽 정보를 분석하는 분석엔진과 분석엔진에서 트래픽 정보를 분석하기 위해 이용하는 해쉬테이블 등이 마련된 것이다.In other words, the distributed processing hashing method and the distributed processing hashing system 10 for high speed network large capacity traffic processing according to the present invention are basically similar to the analysis engine and the analysis engine for analyzing network traffic information, as shown in FIGS. 1 to 10 A hash table used for analyzing traffic information, and the like.

이러한 본 발명에 따른 고속 네트워크 대용량 트래픽 처리를 위한 분산처리 해싱방법 및 분산처리해싱시스템(10)의 적용을 위해 이용되는 분석엔진 및 트래픽 처리의 구성예를 보면, 도 1 및 도 3에서와 같이 고속 네트워크 장비가 구성될 것이다.The distributed processing hashing method for high speed network large capacity traffic processing according to the present invention and the configuration example of the analysis engine and the traffic processing used for the application of the distributed processing hashing system 10 are as shown in FIGS. 1 and 3, The network equipment will be configured.

즉 도 1에서처럼 네트워크 트래픽 유입을 위한 수집부, 유입된 트래픽 데이터를 분석하기 위한 분석엔진, 분석엔진에서 이용하는 해쉬테이블, 그리고 기타 엔진 등이 마련될 것이다.That is, as shown in FIG. 1, a collection unit for network traffic inflow, an analysis engine for analyzing incoming traffic data, a hash table for use in an analysis engine, and other engines will be provided.

이에 트래픽 정보의 분석이 다수의 처리 프로세서들 및 분석엔진들에 나누어져 분석이 이루어지게 될 것이다. 따라서 분석대상인 트래픽 데이터들은 다수 분석엔진들에 분산되어 분석되는 것이며, 이에 다수 멀틴 분석엔진들은 하나의 해쉬테이블의 해쉬정보를 이용하게 될 것이다. 이처럼 분산된 분석엔진들은 공통된 해쉬 테이블 정보를 이용하기 위하여 공통된 정보 테이블에 접근하게 될 것이다. 특히 분산된 분석엔진들 중에서 어느 하나의 분석엔진에서 공통된 하나의 해쉬정보를 삽입(Insert), 수정(Update), 삭제(Delete) 등으로 정보를 갱신하려고 하는 경우에는, 다른 분석엔진에서의 해쉬 테이블 접근을 차단하게 될 것이다. 즉 도 4의 예에서처럼 정보 Hash Table의 접근이 차단된 Lock 현상이 발생된다. Therefore, the analysis of traffic information will be divided into a number of processing processors and analysis engines. Therefore, the traffic data to be analyzed is dispersed and analyzed in a plurality of analysis engines. Therefore, most of the multinational analysis engines will use the hash information of one hash table. These distributed analytic engines will access a common information table to use common hash table information. In particular, when one of the distributed analysis engines attempts to update information by inserting, updating, or deleting one common hash information, the hash table Access will be blocked. That is, as shown in the example of FIG. 4, a lock phenomenon occurs in which access to the information hash table is blocked.

이처럼 트래픽 정보를 다수의 분산처리 구성으로 분석엔진을 두어 트래픽 처리 효율을 높이고 하더라도 정보 Hash Table의 접근이 정보 갱신 시에는 단일의 분석엔진에 의한 다른 분석엔진의 Lock 현상이 발생되어 접근이 차단되기 때문에 분산처리의 구성이 무의미해지는 것이다.Even if the traffic information processing efficiency is increased by providing the analysis engine with a large number of distributed processing configurations, access to the information hash table is blocked due to a locking phenomenon of another analysis engine by a single analysis engine when the information is updated The configuration of the distributed processing becomes meaningless.

즉 다른 분석엔진에 대한 접근이 Lock을 통해 접근상태의 분석엔진에 의한 Hash Table은 최신 정보를 유지하는 것이나, 반면 분산형으로 마련된 여러 개의 분석엔진들이 해당 Hash Table의 접근이 Lock으로 인한 대기상태가 되므로, 엔진처리 대기시간의 발생으로 인하여 분산형의 효용성이 저하될 것이다. 아울러 분산형의 분석엔진의 개수가 많을수록 개별 분산엔진에 대한 해당 Hash Table의 접근대기시간이 증가하게 되어 오히려 트래픽 처리능력의 저하도 우려될 것이다.In other words, the access to other analysis engines is maintained by the analysis engine of the access state through the lock, while the hash table maintains the latest information. On the other hand, Therefore, the utility of the decentralized type will deteriorate due to the occurrence of the waiting time for engine processing. In addition, as the number of distributed analysis engines increases, the wait time of the corresponding hash tables for individual distributed engines increases.

아울러 도 3에서와 같이 분산형 분석엔진과 정보 Data Hash Table이 1개씩 공유하는 경우에서도, 분석엔진들이 해당하는 Hash Table에 접근하는 것은 쉽게 한다 하여도, 공통된 정보를 공유하기 위한 Hash Table이 한 개가 존재할 수밖에 없다. 이러한 상황에서도 공통된 Hash Table에 접근시, 앞서 살펴본 예에서처럼 하나의 분석엔진에서의 접근시에는 다른 분석엔진들의 접근이 Lock 상태를 갖기 때문에 분산형 분석엔진의 구성에 문제점이 있을 것이다.As shown in FIG. 3, even when the distributed analysis engine and the information data hash table are shared by one, it is easy for the analysis engines to access the corresponding hash table, but there is one hash table for sharing common information There is no choice but to exist. Even in this situation, when accessing a common hash table, there will be a problem in the configuration of the distributed analysis engine because the access of the other analysis engines is locked when accessing the one analysis engine as in the previous example.

이에 반에 본 발명에 따른 분산처리해싱방법 및 분산처리해싱시스템(10)에 따르면 도 5의 예시도에서처럼 분산형으로 다수의 분석엔진(20)들이 마련되고, 개별 분석엔진(20)은 해쉬테이블(30, Hash Table)에서 해쉬 정보를 전송받아 처리하며, 이에 해쉬 정보의 갱신(삽입(Insert), 수정(Update), 삭제(Delete) 등) 요청 정보를 해쉬씨엠씨처리엔진(40, Hash CMC(Command Message Center) Thread) 측으로 전송하게 된다.On the other hand, according to the distributed processing hashing method and the distributed processing hashing system 10 according to the present invention, a plurality of analysis engines 20 are provided in a distributed manner as shown in the example of FIG. 5, The Hash CMC processing engine 40 receives the hash information from the hash table 30 and processes the hash information by updating the hash information (insert, update, delete, etc.) Command Message Center) Thread.

즉 분산처리해싱시스템(10)은, 해쉬테이블의 정보를 이용하여 트래픽을 분석하는 하나 이상의 분석엔진(20), 하나 이상의 분석엔진(20)에 해쉬정보를 제공하는 해쉬테이블(30), 그리고 상기 하나 이상의 분석엔진(20)에서의 해쉬테이블의 갱신데이터를 전송받고 해쉬테이블의 데이터를 갱신하는 해쉬씨엠씨처리엔진(40) 등을 포함하여 구비될 것이다.That is, the distributed processing hashing system 10 includes one or more analysis engines 20 for analyzing traffic using information of a hash table, a hash table 30 for providing hash information to one or more analysis engines 20, And a hash CM processing engine 40 for receiving the update data of the hash table in one or more analysis engines 20 and updating the data in the hash table.

따라서 분산형의 다수 분석엔진(20)들은 해쉬테이블(30)로부터 해쉬 정보를 불러오면서 분석을 수행하며, 해쉬 정보의 갱신이 있을 경우에는 갱신요청정보를 해쉬씨엠씨처리엔진(40) 측으로 전송한 후, 다른 트래픽 정보를 분석하므로, 도 1 내지 도 3에서와 같은 해쉬테이블에 대한 접근이 Lock 상태를 갖지 않는 것이다. 따라서 진정한 트래픽의 분산처리가 효율적으로 이루어질 것이므로, 고속 네트워크 대용량 트래픽 처리가 충분히 효율성을 갖게 된다.Therefore, the distributed analysis engines 20 perform analysis while loading the hash information from the hash table 30, and when the hash information is updated, the update request information is transmitted to the hash CM processing engine 40 side , The access to the hash table as shown in FIGS. 1 to 3 does not have a lock state because the other traffic information is analyzed. Therefore, since the true traffic distribution processing can be performed efficiently, high-speed network high-capacity traffic processing becomes sufficiently efficient.

이를 위한 본 발명에 따른 고속 네트워크 대용량 트래픽 처리를 위한 분산처리 해싱 방법에 대해서 살펴보면 다음과 같다.A distributed processing hashing method for high speed network large capacity traffic processing according to the present invention will be described as follows.

즉 하나 이상의 분석엔진(20)에서의 해쉬테이블(30)의 갱신데이터를 해쉬씨엠씨처리엔진(40) 측으로 전송하는 해쉬갱신요청단계가 수행된다.That is, a hash update request step of transmitting the update data of the hash table 30 in one or more analysis engines 20 to the hash CMC processing engine 40 side is performed.

그리고 해쉬씨엠씨처리엔진(40)에서 해쉬테이블(30)의 데이터를 갱신하는 해쉬갱신단계가 수행된다.Then, a hash updating step of updating the data of the hash table 30 is performed in the hash CM processing engine 40.

이로써 분산형으로 마련된 하나 이상의 분석엔진(20)에서의 해쉬테이블(30) 갱신 요청을 수신받아 해쉬씨엠씨처리엔진(40)에서 해쉬테이블 데이터를 갱신하는 것이다.In this way, the hash table 30 is updated in the hash CMC processing engine 40 by receiving a request for updating the hash table 30 in one or more analysis engines 20 provided in a distributed form.

이처럼 마련된 분산형의 다수 분석엔진(20)들은 단지 해쉬테이블(30)로부터 해쉬 정보만 읽어오면 되고, 읽어온 해쉬정보를 이용하여 대용량으로 유입되는 트래픽 정보만 분석처리하게 된다. 이후 해쉬 정보를 갱신(삽입, 수정, 삭제 등) 요청 정보는 단지 해쉬씨엠씨처리엔진(40, Hash CMC(Command Message Center) Thread)에 전송하므로, 분산형의 다수 분석엔진들은 단지 유입되는 대용량 트래픽 처리만 담당하므로 많은 양의 트래픽 정보 처리도 충분히 수행할 수 있는 것이다.The distributed analysis engine 20 reads only the hash information from the hash table 30, and analyzes only the traffic information that flows into the large capacity using the read hash information. Since the request information for updating (inserting, modifying, deleting, etc.) the hash information is transmitted only to the hash CMC processing engine 40 (Command Message Center) thread 40, the distributed plural analysis engines only process the incoming large- So that a large amount of traffic information can be sufficiently processed.

아울러 해쉬 정보의 갱신 요청을 받은 해쉬씨엠씨처리엔진(40)에서는 수신받은 해쉬 정보의 갱신 요청 정보에 따라 해쉬테이블(30)의 해쉬 정보를 순차적으로 갱신하게 된다. 즉 단일의 갱신담당인 해쉬씨엠씨처리엔진(40)에 의해서만 해쉬테이블의 해쉬정보를 갱신하여 도 1 내지 도 3에서처럼 해쉬테이블에 대한 접근의 Lock 상태가 발생할 우려가 없는 것이다.In addition, the hash code processing engine 40, which has received the update request of the hash information, sequentially updates the hash information of the hash table 30 according to the update request information of the received hash information. That is, the hash information of the hash table is updated only by the hash-cum-processing engine 40, which is the single update officer, so that there is no possibility that the lock state of access to the hash table occurs as shown in Figs.

이처럼 분산형으로 마련되는 다수의 분석엔진(20)들은 단지 유입되는 트래픽 정보에 대해서 분석처리만 수행하고, 또한 해쉬테이블(30)에 대해서는 해쉬 정보만 가져오기 때문에 분석처리의 과정을 계속 수행할 수 있고, 또한 Hash Table에 대한 갱신을 직접 수행하지 않으므로, 대용량의 트래픽 처리가 효율적으로 이루어진다.Since the plurality of analysis engines 20 provided in the distributed form perform only analysis processing on the incoming traffic information and fetch only the hash information on the hash table 30, the analysis processing can be continued In addition, since the Hash Table is not directly updated, large-capacity traffic processing is efficiently performed.

이러한 분산형 분석엔진(20)과 분석엔진(20)으로부터 해쉬 정보 갱신 요청 정보를 전송받는 해쉬씨엠씨처리엔진(40) 등에서의 처리과정을 도 8을 참조하여 살펴보면 다음과 같다.A process of the hash code processing engine 40 or the like receiving the hash information update request information from the distributed analysis engine 20 and the analysis engine 20 will be described with reference to FIG.

따라서 분산형 분석엔진(20)에서는 유입되는 트래픽 정보를 전송받아 분석하되 해쉬정보를 해쉬테이블(30)로부터 제공받는다. 그리하여 트래픽 정보를 분석하게 되고 분석에 의해 해쉬정보의 갱신(Insert(삽입), Update(수정), Delete(삭제) 등)이 있는지 판별한다(Hash Table data 갱신). 즉 해쉬갱신요청단계가 수행되는 것이다.Therefore, the distributed analysis engine 20 receives and analyzes the received traffic information, and receives the hash information from the hash table 30. Therefore, traffic information is analyzed, and it is determined by analysis that hash information is updated (Insert, Update, Delete, etc.) (Hash Table data update). That is, a hash update request step is performed.

이에 해쉬갱신요청단계에서는, 정보 갱신이 있을 시에는 분산형 분석엔진(20)에서는 해쉬 정보 갱신 요청의 정보에 대해서 Message Flag 설정을 하게 된다. 즉 하나 이상의 분석엔진(20)에서 해쉬테이블(30)의 갱신데이터에 대해 Message Flag 설정을 한다(Data Message Flag Set). 그리고 분석엔진(20)에서 해쉬씨엠씨처리엔진(40) 측으로 해쉬 데이터 갱신 요청 정보를 전송하는 것이다(Send).In the hash update request step, when the information is updated, the distributed analysis engine 20 sets a message flag for information of the hash information update request. That is, at least one analysis engine 20 sets a message flag for the update data of the hash table 30 (Data Message Flag Set). Then, the analysis engine 20 sends the hash data update request information to the hash code processing engine 40 side (Send).

이후 해쉬 데이터 갱신 요청 정보를 전송받은 해쉬씨엠씨처리엔진(40)에 의하여 해쉬갱신단계를 수행하게 된다. 우선 해쉬 테이블 데이터 갱신 요청의 정보를 수신받게 되고(Hash Table Data 갱신 수신), 그리하여 해쉬테이블(30)의 데이터를 갱신하게 된다(Hash Table Data 갱신).Then, the hash data update request information is transmitted to the hash code processing engine 40, and the hash update step is performed. First, the information of the hash table data update request is received (update of the hash table data), and thus the data of the hash table 30 is updated (updating the hash table data).

이와 같이 마련되는 본 발명에 따른 고속 네트워크 대용량 트래픽 처리를 위한 분산처리 해싱방법에 있어서, 해쉬갱신요청단계와 해쉬갱신단계 사이에, 씨엠버퍼(21)에 의하여, 하나 이상의 분석엔진(20)으로부터 해쉬테이블의 갱신데이터를 수집하는 단계와, 수집된 해쉬테이블의 갱신데이터를 해쉬씨엠씨처리엔진(40) 측으로 전송하는 단계를 더 포함하게 된다.In the distributed processing hashing method for high speed network large capacity traffic processing according to the present invention as described above, a hash update request step and a hash update step are performed by the S / N buffer 21 from one or more analysis engines 20, Collecting the update data of the table, and transmitting the updated data of the collected hash table to the hash CMC processing engine 40 side.

그리고 이를 위해 도 5 및 도 6 등에서와 같이, 하나 이상의 분석엔진(20)으로부터 해쉬테이블의 갱신데이터를 수집하고 수집된 해쉬테이블의 갱신데이터를 해쉬씨엠씨처리엔진(40)으로 전송하는 씨엠버퍼(21, CM(Command Message) Buffer)를 더 포함할 수 있다.For this purpose, as shown in FIG. 5 and FIG. 6 and the like, a seed buffer 21 for collecting update data of a hash table from one or more analysis engines 20 and transmitting update data of the collected hash table to the hash CM processing engine 40 , And a CM (Command Message) Buffer.

즉 도 5에서와 같이 해쉬테이블(30, Hash Table)에 대한 해쉬 데이터 갱신을 수행하기에 앞서 갱신요청데이터를 분석엔진(20)에서 수집하는 씨엠버퍼(21, CM(Command Message) Buffer)와 이러한 씨엠버퍼(21)에서 갱신 요청 데이터를 수신받아 해쉬 데이터를 갱신하는 해쉬씨엠씨처리엔진(40, CMC(Command Message Center) Thread)이 마련된다.That is, as shown in FIG. 5, before the hash data update is performed on the hash table 30, a CM (Command Message) buffer 21 for collecting the update request data in the analysis engine 20, A hash cc processing engine 40 (CMC (Command Message Center) Thread) for receiving the update request data in the SMB buffer 21 and updating hash data is provided.

즉 씨엠버퍼(21)는 도 6에서처럼 각 분석엔진(20)들에서 Hash Table의 갱신(Insert, Update, Delete 등) 명령 데이터를 수집하여 해쉬씨엠씨처리엔진(40)으로 전송한다. 이때 씨엠버퍼(21)는 수집된 Buffer가 Full로 채워질 경우 CM#1, CM#2를 Buffer Change 수행으로 처리할 수 있을 것이다. 이처럼 씨엠버퍼(21)에서 CM#1, CM#2 으로의 CM Buffer를 통해, 씨엠버퍼(21) 내에서도 CM#1과 CM#2 사이에 데이터의 버퍼를 수행하여 씨엠버퍼(21)에서의 처리가 원활하도록 한다. 즉 씨엠버퍼(21)와 해쉬씨엠씨처리엔진(40, CMC) 사이의 통신에는 Lock이 없이 데이터 전송이 이뤄지며, 보다 빠르고 많은 데이터를 해쉬씨엠씨처리엔진(40, CMC Thread)에 전송가능한 것이다.That is, the SMB buffer 21 collects command data for updating (Insert, Update, Delete, etc.) of the Hash Table in each analysis engine 20 as shown in FIG. 6 and transmits the data to the hash CM processing engine 40. At this time, when the collected buffer is full, the SMB buffer 21 will be able to process CM # 1 and CM # 2 by performing Buffer Change. In this way, a buffer of data is executed between the CM # 1 and the CM # 2 in the S / M buffer 21 through the CM buffer from the S / M buffer 21 to the CM # 1 and CM # 2, . That is, in the communication between the SMB buffer 21 and the Hash CMC processing engine 40 (CMC), data is transmitted without a lock, and faster and more data can be transmitted to the CMC processing engine 40 (CMC Thread).

그리고 도 7에서와 같이 개별 분석엔진(20)들에서 정보 Data Hash Table을 1개씩 사용하는 경우에 공통 Hash Table 에 대한 접근시에도 씨엠버퍼(21) 및 해쉬씨엠씨처리엔진(40) 등에 의한 해쉬 테이블 데이터 갱신 요청 정보의 수집 및 전송이 이루어지기 때문에 Hash table의 Lock 상태가 없이 원활한 해쉬 정보의 갱신이 이루어지는 것이다.7, when one information data hash table is used in each of the individual analysis engines 20, a hash table (hereinafter referred to as " hash table " Since the data update request information is collected and transmitted, smooth hash information is updated without a locked state of the hash table.

아울러 분산형 다수의 분석엔진(20)에서도 Select만 발생하고, Hash Table 변경은 해쉬씨엠씨처리엔진(40, CMC Thread)에서 일원화하여 관리 및 처리하기 때문에 데이터 무결성을 이루게 된다.In addition, in the distributed type analysis engine 20, only the Select is generated, and the hash table change is unified and managed by the hash CM process engine 40 (40, CMC thread), thereby achieving data integrity.

이처럼 분산환경 - 멀티 패킷 처리에서 패킷에 대한 데이터 분석이 관리하고자 하는 데이터 발생시 해쉬에 입력/수정/삭제 작업 발생할 때 크리티컬 패쓰에서는 입력/수정/삭제 작업에 대한 구조화된 메시지를 생성하여(분석엔진들에서의 분산처리 상태), 생성된 메시지를 별도의 큐를 이용하여 전송하고, 크리티컬 패쓰(지연처리)와 연관성이 없는 별도의 쓰래드(해쉬씨엠씨처리엔진(40), CMC Thread)에서 큐에 저장되어 있는 메시지를 이용하여 해쉬테이블에 대한 입력/수정/삭제 작업을 처리하는 구성이다.In this distributed environment - multi-packet processing, data analysis of packets generates structured messages for input / modification / deletion operations in critical path when input / modification / , The generated message is transmitted using a separate queue and stored in a queue in a separate thread (hash CMC processing engine 40, CMC Thread) that is not related to the critical path (delay processing) And processes the input / modification / deletion operation on the hash table by using the message having the hash table.

이처럼 해쉬씨엠씨처리엔진(40) 및 씨엠버퍼(21) 등에 의하여, 지연처리와 영향이 있는 크리티컬 패쓰에서는 지연이 발생하지 않는 구조의 큐를 이용하여 분산처리 환경 하에 메시징 처리를 하여 지연처리에 대한 보장 및 성능을 보장할 수 있는 것이다. 또한 메시징 처리의 성능을 보장하기 위해 크리티컬 패쓰의 분산처리 환경 하에 연계된 별도의 메시징 처리 쓰래드에 대한 확장 가능한 구조를 제공할 수 있을 것이다.As described above, messaging processing is performed in a distributed processing environment by using a queue having a structure in which no delay occurs in the delayed processing and in the critical path that is affected by the Hash CM processing engine 40, the SMB buffer 21, And performance can be guaranteed. In addition, in order to ensure the performance of the messaging process, it is possible to provide an extensible structure for a separate messaging processing thread associated with the distributed processing environment of the critical path.

이처럼 본 발명에 따른 분산처리 해싱방법 및 분산처리해싱시스템(10)에 의하면, 고속 네트워크 대용량 트래픽 처리를 위하여 다수 CUP 구성에 따른 멀티 코어(core)의 증가 구성에 대해서도, 다수의 hash table을 공유할 수 있고, 다수 코어에 따른 분산형 복수의 분석엔진(20)들이 다수 hash table을 공유함에 있어, 공통으로 접근해야 하는 해쉬테이블에 대한 갱신(Insert, Update, Delete 등)작업을 해쉬씨엠씨처리엔진(40, CMC Thread)에서 담당하여 처리하기 때문에 해쉬 테이블에 대한 Lock 현상의 우려를 없애는 것이다.According to the distributed processing hashing method and the distributed processing hashing system 10 according to the present invention, it is possible to share a plurality of hash tables with respect to an incremental configuration of a multi-core according to a multiple CUP configuration for high- And a plurality of decentralized analysis engines 20 according to a plurality of cores share a plurality of hash tables and update (insert, update, delete, etc.) operations for hash tables that need to be accessed in common are executed by the hash cc processing engine 40, and CMC Thread), it eliminates the concern of the lock phenomenon on the hash table.

이로써 멀티 core의 폭발적인 증가로 인한 정보 Data Hash Table의 접근의 대기 시간이 증가하지 않고, 거의 0%에 가깝게 처리할 수 있는 장점이 있는 것이다.
This has the advantage of not being able to increase the latency of accessing the Information Data Hash Table due to the explosive increase in multicore, and to approach close to 0%.

이상으로 본 발명의 실시예에 대하여 상세히 설명하였으나, 이는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 일실시예를 기재한 것이므로, 상기 실시예의 기재에 의하여 본 발명의 기술적 사상이 제한적으로 해석되어서는 아니 된다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. The technical idea of the present invention should not be construed as being limited.

10 : 분산처리해싱시스템 20 : 분석엔진
21 : 씨엠버퍼 30 : 해쉬테이블
40 : 해쉬씨엠씨처리엔진
10: Distributed processing hashing system 20: Analysis engine
21: SMB buffer 30: Hash table
40: Hash CMOS processing engine

Claims (5)

하나 이상의 분석엔진(20)에서의 해쉬테이블(30)의 갱신데이터를 해쉬씨엠씨처리엔진(40) 측으로 전송하는 해쉬갱신요청단계; 및
해쉬씨엠씨처리엔진(40)에서 해쉬테이블(30)의 데이터를 갱신하는 해쉬갱신단계;
를 포함하여,
하나 이상의 분석엔진(20)에서의 해쉬테이블(30) 갱신 요청을 전송받아 해쉬씨엠씨처리엔진(40)에서 해쉬테이블 데이터를 갱신하는 것을 특징으로 하는 분산처리 해싱방법.
A hash update request step of transmitting update data of the hash table (30) in one or more analysis engines (20) to the hash cm processing engine (40) side; And
A hash updating step of updating the data of the hash table (30) in the hash code processing engine (40);
Including,
And the hash table data is updated in the hash ccm processing engine (40) by receiving a hash table (30) update request in one or more analysis engines (20).
제 1항에 있어서,
상기 해쉬갱신요청단계는, 하나 이상의 분석엔진(20)에서 해쉬테이블(30)의 갱신데이터에 대해 Message Flag 설정을 하여 전송하는 것을 특징으로 하는 분산처리 해싱방법.
The method according to claim 1,
Wherein the hash update request step comprises setting Message Flags for the update data of the hash table (30) in one or more analysis engines (20) and transmitting the message flags.
제 1항에 있어서,
상기 해쉬갱신요청단계와 해쉬갱신단계 사이에,
씨엠버퍼(21)에 의하여,
하나 이상의 분석엔진(20)으로부터 해쉬테이블의 갱신데이터를 수집하는 단계; 및
수집된 해쉬테이블의 갱신데이터를 해쉬씨엠씨처리엔진(40) 측으로 전송하는 단계;
를 포함하는 것을 특징으로 하는 분산처리 해싱방법.
The method according to claim 1,
Between the hash update request step and the hash update step,
By the SMB buffer 21,
Collecting update data of the hash table from one or more analysis engines (20); And
Transmitting update data of the collected hash table to the hash CM processing engine 40 side;
Wherein the hashing process is performed in a distributed manner.
해쉬테이블의 정보를 이용하여 트래픽을 분석하는 하나 이상의 분석엔진(20);
하나 이상의 분석엔진(20)에 해쉬정보를 제공하는 해쉬테이블(30); 및
상기 하나 이상의 분석엔진(20)에서의 해쉬테이블의 갱신데이터를 전송받고 해쉬테이블의 데이터를 갱신하는 해쉬씨엠씨처리엔진(40);
을 포함하는 것을 특징으로 하는 분산처리해싱시스템.
At least one analysis engine (20) for analyzing traffic using information in a hash table;
A hash table (30) for providing hash information to one or more analysis engines (20); And
A hash CM processing engine 40 for receiving update data of a hash table in the at least one analysis engine 20 and updating data in the hash table;
Wherein the hash function is a hash function.
제 4에 있어서,
하나 이상의 분석엔진(20)으로부터 해쉬테이블의 갱신데이터를 수집하여 해쉬씨엠씨처리엔진(40) 측으로 전송하는 씨엠버퍼(21)를 포함하고,
상기 분석엔진(20)에서 해쉬테이블(30)의 갱신데이터에 대해 Message Flag 설정을 하여 전송하는 것을 특징으로 하는 분산처리해싱시스템.
In the fourth aspect,
And a SMB buffer 21 for collecting update data of the hash table from one or more analysis engines 20 and transmitting the updated data to the hash CM processing engine 40 side,
Wherein the analysis engine (20) sets message flags for the update data of the hash table (30) and transmits the message flags.
KR1020120123041A 2012-11-01 2012-11-01 Hashing method for distributed data processing to process high-speed network massive traffic processing and hashing system for distributed data processing KR101429884B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120123041A KR101429884B1 (en) 2012-11-01 2012-11-01 Hashing method for distributed data processing to process high-speed network massive traffic processing and hashing system for distributed data processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120123041A KR101429884B1 (en) 2012-11-01 2012-11-01 Hashing method for distributed data processing to process high-speed network massive traffic processing and hashing system for distributed data processing

Publications (2)

Publication Number Publication Date
KR20140055761A true KR20140055761A (en) 2014-05-09
KR101429884B1 KR101429884B1 (en) 2014-09-23

Family

ID=50887354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120123041A KR101429884B1 (en) 2012-11-01 2012-11-01 Hashing method for distributed data processing to process high-speed network massive traffic processing and hashing system for distributed data processing

Country Status (1)

Country Link
KR (1) KR101429884B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180060353A (en) 2016-11-29 2018-06-07 주식회사 에프아이시스 System and Method for loseless load sharing acceleration and QoS guarantee of Virtual Machines
US10237207B2 (en) 2015-07-01 2019-03-19 Electronics And Telecommunications Research Institute Apparatus and method for storing data traffic on flow basis

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8112513B2 (en) * 2005-11-30 2012-02-07 Microsoft Corporation Multi-user display proxy server

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10237207B2 (en) 2015-07-01 2019-03-19 Electronics And Telecommunications Research Institute Apparatus and method for storing data traffic on flow basis
KR20180060353A (en) 2016-11-29 2018-06-07 주식회사 에프아이시스 System and Method for loseless load sharing acceleration and QoS guarantee of Virtual Machines

Also Published As

Publication number Publication date
KR101429884B1 (en) 2014-09-23

Similar Documents

Publication Publication Date Title
CN105247529B (en) The synchronous voucher hash between directory service
KR102580898B1 (en) System and method for selectively collecting computer forensics data using DNS messages
CN112153049B (en) Intrusion detection method, device, electronic equipment and computer readable medium
US9654445B2 (en) Network traffic filtering and routing for threat analysis
CN102289617A (en) Anti-malware device, server, and method of matching malware patterns
EP3633948B1 (en) Anti-attack method and device for server
JP5920668B2 (en) Security policy enforcement system and security policy enforcement method
KR101200906B1 (en) High Performance System and Method for Blocking Harmful Sites Access on the basis of Network
US20230362131A1 (en) Systems and methods for monitoring and securing networks using a shared buffer
US20130166677A1 (en) Role-based access control method and apparatus in distribution system
US20210243281A1 (en) System and method for facilitating data communication of a trusted execution environment
JP2017509055A (en) Method and apparatus for processing data packets based on parallel protocol stack instances
KR101429884B1 (en) Hashing method for distributed data processing to process high-speed network massive traffic processing and hashing system for distributed data processing
US20230344796A1 (en) Secure message exchange between deployments
CN114205150B (en) Intrusion prevention method and device for container environment, electronic equipment and storage medium
Ahmad et al. Protection of centralized SDN control plane from high-rate Packet-In messages
CN109672681A (en) Intrusion detection method and invasion detecting device
US10243870B1 (en) Distributed computing system node management
WO2015116195A1 (en) Performing processing tasks using an auxiliary processing unit
US10742718B1 (en) Distributed computing system node management
CN117041272B (en) Data processing method, device, equipment and storage medium
US11762995B2 (en) Antivirus scanning architecture for uploaded files
US11283823B1 (en) Systems and methods for dynamic zone protection of networks
Argyroulis Recent Advancements In Distributed System Communications
KR20170047533A (en) Method for Blocking Unauthorized Roundabout Access

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170727

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180807

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190807

Year of fee payment: 6