KR102323118B1 - Earthquake event classification method using attention-based convolutional neural network, recording medium and device for performing the method - Google Patents

Earthquake event classification method using attention-based convolutional neural network, recording medium and device for performing the method Download PDF

Info

Publication number
KR102323118B1
KR102323118B1 KR1020190143736A KR20190143736A KR102323118B1 KR 102323118 B1 KR102323118 B1 KR 102323118B1 KR 1020190143736 A KR1020190143736 A KR 1020190143736A KR 20190143736 A KR20190143736 A KR 20190143736A KR 102323118 B1 KR102323118 B1 KR 102323118B1
Authority
KR
South Korea
Prior art keywords
feature
attention
seismic
data
neural network
Prior art date
Application number
KR1020190143736A
Other languages
Korean (ko)
Other versions
KR20210046512A (en
Inventor
고한석
구본화
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020190143736A priority Critical patent/KR102323118B1/en
Priority to US16/992,246 priority patent/US11947061B2/en
Publication of KR20210046512A publication Critical patent/KR20210046512A/en
Application granted granted Critical
Publication of KR102323118B1 publication Critical patent/KR102323118B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G01V1/008
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Abstract

주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법은, 입력되는 지진 데이터를 센터링하여 전처리하는 단계; 전처리된 지진 데이터를 3개 이상의 복수개의 컨벌루션 레이어들을 통해 비선형 변환하여 특징맵을 추출하는 단계; 비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정하는 단계; 측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정하는 단계; 상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)하는 단계; 및 상기 다운 샘플링된 특징값을 정규화하여 지진 이벤트를 분류하는 단계;를 포함한다. 이에 따라, 주의 기반 딥러닝을 통해 다량의/복잡한 자료들 속에 내재되어 있는 주요한 핵심 특징을 추출하며 이를 통해 기존의 미소 지진 감지 기술이 갖는 한계를 극복하며 낮은 SNR 환경에서도 지진 감지를 가능하게 한다. A seismic event classification method using a state-based neural network includes: centering and preprocessing input seismic data; extracting a feature map by non-linearly transforming the preprocessed seismic data through a plurality of convolutional layers of three or more; Measuring the importance of the learned feature based on the attention technique that models the interdependence between channels of the feature map on the nonlinearly transformed seismic data; correcting the feature value through element-by-element multiplication of the measured importance value with the learned feature map; down-sampling through max-pooling based on the feature value; and classifying earthquake events by normalizing the down-sampled feature values. Accordingly, through attention-based deep learning, key features inherent in large amounts of/complex data are extracted, thereby overcoming the limitations of existing micro-seismic sensing technologies and enabling seismic detection even in low SNR environments.

Description

주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법, 이를 수행하기 위한 기록 매체 및 장치{EARTHQUAKE EVENT CLASSIFICATION METHOD USING ATTENTION-BASED CONVOLUTIONAL NEURAL NETWORK, RECORDING MEDIUM AND DEVICE FOR PERFORMING THE METHOD}A method for classifying seismic events using an attention-based neural network, and a recording medium and apparatus for performing the same

본 발명은 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법, 이를 수행하기 위한 기록 매체 및 장치에 관한 것으로서, 더욱 상세하게는 주의 기반 딥러닝을 통해 자료들 속에 내재되어 있는 주요한 특징 정보들을 추출하며 이를 통해 다양한 미소 지진, 인공 지진 등의 이벤트까지 정확하게 분류하는 기술에 관한 것이다.The present invention relates to a seismic event classification method using a caution-based neural network, a recording medium and an apparatus for performing the same, and more particularly, extracts major characteristic information inherent in data through attention-based deep learning, and through this It is about a technology that accurately classifies events such as various micro-earthquakes and artificial earthquakes.

최근 지구 온난화 등의 기후 변화로 인해 기상이변 등의 자연재해가 증가하고 있으며, 우리나라에서도 2016년 경주에 이어 2017년 포항에서 규모 5.4의 지진이 발생하는 등 점차 지진에 대한 위험성이 증가하고 있다. Recently, natural disasters such as extreme weather are increasing due to climate change such as global warming.

이와 같이 점차 증가하는 지진의 위험성에 대비하기 위해, 지진발생을 감지하거나 미리 예측하여 대비하기 위한 여러 가지 연구가 진행되고 있다. 특히, 지진 이벤트 분류 문제는 강진뿐만 아니라 다양한(미소 지진, 인공 지진) 지진 이벤트를 분류하는 문제들이 존재한다. In order to prepare for the increasing risk of earthquakes, various studies are being conducted to detect or predict the occurrence of earthquakes in advance and prepare for them. In particular, in the seismic event classification problem, there are problems of classifying not only strong earthquakes but also various (micro-earthquakes, artificial earthquakes) seismic events.

STA/LTA 방식은 STA(Short Time Average)와 LTA(Long Time Average)의 비율 문턱치를 통해 지진을 탐지하는 대표적인 방식으로 낮은 SNR 환경에서는 부적합하다. 이 방식은 다중 관측소의 STA/LTA 결과를 토대로 지진 탐지 여부를 결정한다.The STA/LTA method is a representative method of detecting earthquakes through the threshold ratio of Short Time Average (STA) and Long Time Average (LTA), and is not suitable in a low SNR environment. This method determines whether to detect earthquakes based on STA/LTA results from multiple stations.

Autocorrelation 기반 방식은 단일 지역에서 반복되는 지진 waveform들 간의 correlation을 기반으로 지진을 탐지하는 방식으로 성능은 우수하지만 연산량 과부화 및 긴 시간의 신호에는 활용성에 한계를 갖고 있다.The autocorrelation-based method detects earthquakes based on the correlation between repeated earthquake waveforms in a single area, and although it has excellent performance, it has limitations in its utility for overloading the computational amount and for long-time signals.

Template matching 방식은 autocorrelation 방법의 연산량 과부하 문제를 개선하기 위해 제안된 기법으로 지진 template를 설정 후 template과 입력 지진 파형과의 correlation을 통해 지진을 탐지하게 된다. The template matching method is a technique proposed to improve the computational overload problem of the autocorrelation method. After setting an earthquake template, earthquakes are detected through correlation between the template and the input earthquake waveform.

Template의 숫자는 성능에 주요한 영향을 미치며 PCA(Principle Component Analysis) 혹은 subspace learning을 통해 template의 숫자를 줄이는 접근 방식들이 제안되고 있다. The number of templates has a major impact on performance, and approaches to reduce the number of templates through PCA (Principle Component Analysis) or subspace learning have been proposed.

최근에는 template matching의 연산량을 개선하기 위한 FAST(Fingerprint And Similarity Thresholding) 방법이 제안되었다. 이 방식은 unsupervised 지진 탐지 방식으로 spectral image와 haar wavelet 변환을 통해 지문과 유사한 지진 특징을 추출하며 local sensitive hashing을 통해 유사도 측정 연산량을 감소시킨다.Recently, a Fingerprint And Similarity Thresholding (FAST) method has been proposed to improve the computational amount of template matching. This method is an unsupervised seismic detection method that extracts seismic features similar to fingerprints through spectral image and haar wavelet transformation, and reduces the amount of similarity measurement calculations through local sensitive hashing.

그러나, 상기 종래의 기술들은 큰 규모의 지진에 비해 작은 규모의 미소 지진 감지는 낮은 SNR 환경으로 인해 잡음과의 분류 성능이 만족스럽지 못하며 인공 발파 및 핵실험 등의 인공 지진은 자연 미소 지진을 감지하는데 큰 방해 요소가 된다.However, in the conventional techniques, the classification performance with noise is not satisfactory due to the low SNR environment for sensing small-scale earthquakes compared to large-scale earthquakes, and artificial earthquakes such as artificial blasting and nuclear tests detect natural small earthquakes. become a big hindrance.

KR 10-1914657 B1KR 10-1914657 B1 KR 10- 1919098 B1KR 10- 1919098 B1

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 잡음, 인공지진 등이 혼재된 상황에 강인한 지진 탐지 시스템을 구축하기 위한 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법을 제공하는 것이다.Accordingly, the technical problem of the present invention was conceived in this regard, and an object of the present invention is to provide a seismic event classification method using an attention-based neural network for building a robust earthquake detection system in a situation in which noise and artificial earthquakes are mixed. will be.

본 발명의 다른 목적은 상기 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 기록 매체를 제공하는 것이다.Another object of the present invention is to provide a recording medium in which a computer program for performing the seismic event classification method using the attention-based neural network is recorded.

본 발명의 또 다른 목적은 상기 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법을 수행하기 위한 장치를 제공하는 것이다.Another object of the present invention is to provide an apparatus for performing a seismic event classification method using the attention-based neural network.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법은, 입력되는 지진 데이터를 센터링하여 전처리하는 단계; 전처리된 지진 데이터를 3개 이상의 복수개의 컨벌루션 레이어들을 통해 비선형 변환하여 특징맵을 추출하는 단계; 비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정하는 단계; 측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정하는 단계; 상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)하는 단계; 및 상기 다운 샘플링된 특징값을 정규화하여 지진 이벤트를 분류하는 단계;를 포함한다.An earthquake event classification method using a caution-based neural network according to an embodiment of the present invention for realizing the object of the present invention, centering the input earthquake data and pre-processing; extracting a feature map by non-linearly transforming the preprocessed seismic data through a plurality of convolutional layers of three or more; Measuring the importance of the learned feature based on the attention technique that models the interdependence between channels of the feature map on the nonlinearly transformed seismic data; correcting the feature value through element-by-element multiplication of the measured importance value with the learned feature map; down-sampling through max-pooling based on the feature value; and classifying earthquake events by normalizing the down-sampled feature values.

본 발명의 실시예에서, 상기 학습된 특징의 중요도를 측정하는 단계는, 각 채널에서 전역 정보를 유지하면서 특징맵을 압축하는 스퀴즈(Squeeze) 연산을 수행하는 단계를 포함할 수 있다.In an embodiment of the present invention, measuring the importance of the learned feature may include performing a squeeze operation for compressing the feature map while maintaining global information in each channel.

본 발명의 실시예에서, 상기 스퀴즈(Squeeze) 연산을 수행하는 단계는, 콘트라스트 스트레칭(contrast stretching)에 기반하여 낮은 대비 이미지 분포의 히스토그램을 확산시키는 글로벌 가중 평균 풀링(global weight average pooling) 방법을 사용할 수 있다.In an embodiment of the present invention, the step of performing the squeeze operation includes using a global weight average pooling method that spreads a histogram of a low-contrast image distribution based on contrast stretching. can

본 발명의 실시예에서, 상기 학습된 특징의 중요도를 측정하는 단계는, 2 개의 완전 접속(fully-connected, FC) 레이어와 시그모이드(sigmoid) 활성화 함수를 사용하여 각 채널의 중요성에 따라 적응적으로 중요도 값을 재보정하는 엑시테이션(Excitation) 연산하는 단계를 더 포함할 수 있다.In an embodiment of the present invention, the step of measuring the importance of the learned feature is adapted according to the importance of each channel using two fully-connected (FC) layers and a sigmoid activation function. It may further include the step of calculating an excitation (Excitation) for re-correcting the importance value.

본 발명의 실시예에서, 상기 엑시테이션(Excitation) 연산하는 단계는, 압축된 특징맵을 미리 설정된 감소율을 갖는 차원 감소 레이어를 통과하는 단계; 및 상기 차원 감소 레이어를 통과한 데이터를 상기 특징맵의 채널 차원으로 복원하는 단계를 포함할 수 있다.In an embodiment of the present invention, the step of calculating the excitation may include: passing the compressed feature map through a dimensionality reduction layer having a preset reduction rate; and restoring the data passing through the dimension reduction layer to the channel dimension of the feature map.

본 발명의 실시예에서, 상기 전처리된 지진 데이터의 입력 데이터를 3개 이상의 복수개의 컨벌루션 레이어들을 통과시켜 비선형 매핑하는 단계는, 상기 전처리된 지진 데이터를 상기 복수개의 컨벌루션 레이어들 중 첫번째 컨벌루션 레이어 및 마지막 컨벌루션 레이어에서 특징값을 배치 정규화하는 단계를 더 포함할 수 있다.In an embodiment of the present invention, the step of non-linearly mapping the input data of the preprocessed seismic data through three or more plurality of convolutional layers comprises: converting the preprocessed seismic data to the first convolutional layer and the last of the plurality of convolutional layers. The method may further include batch normalizing feature values in the convolutional layer.

본 발명의 실시예에서, 상기 특징값을 배치 정규화하는 단계는, 각 특징값에 대해서 평균과 분산을 구한 후 정규화를 거치며 정규화된 특징값들에 대해서 스케일 팩터(scale factor)와 쉬프트 팩터(shift factor)를 더하여 변환할 수 있다.In an embodiment of the present invention, in the batch normalizing of the feature values, the average and variance are obtained for each feature value and then normalized, and a scale factor and a shift factor for the normalized feature values. ) can be added to convert

본 발명의 실시예에서, 상기 다운 샘플링된 특징값을 정규화하여 지진 이벤트를 분류하는 단계는, 제1 및 제2 완전 접속(fully-connected, FC) 레이어들을 통과하고, 상기 제1 완전 접속 레이어는 각 뉴런들의 확률값에 따라 활성화하여 학습에 적용하게 하는 드랍아웃 정규화 과정을 수행할 수 있다.In an embodiment of the present invention, classifying the seismic event by normalizing the down-sampled feature value includes passing first and second fully-connected (FC) layers, and the first fully-connected layer is A dropout normalization process that activates each neuron according to a probability value and applies it to learning may be performed.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 컴퓨터로 판독 가능한 저장 매체에는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법을 수행하기 위한 컴퓨터 프로그램이 기록되어 있다. In a computer-readable storage medium according to an embodiment for realizing another object of the present invention, a computer program for performing a seismic event classification method using an attention-based neural network is recorded.

상기한 본 발명의 또 다른 목적을 실현하기 위한 일 실시예에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치는, 입력되는 지진 데이터를 센터링하여 전처리하는 전처리부; 전처리된 지진 데이터를 비선형 변환하여 특징맵을 추출하고, 비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정하고, 측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정하고, 상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)하는 3개 이상의 복수개의 컨벌루션 레이어들을 포함하는 특징 추출부; 및 상기 다운 샘플링된 특징값을 정규화하여 지진 이벤트를 분류하는 제1 및 제2 완전 접속(fully-connected, FC) 레이어들을 포함하는 분류부를 포함한다.An earthquake event classification apparatus using a caution-based neural network according to an embodiment for realizing another object of the present invention includes: a preprocessing unit for preprocessing input earthquake data by centering it; The preprocessed seismic data is non-linearly transformed to extract a feature map, and the non-linearly transformed seismic data is used to measure the importance of the learned feature based on the attention technique that models the interdependence between channels of the feature map, and the measured importance value is A feature comprising three or more convolutional layers that correct a feature value through element-by-element multiplication with the learned feature map, and down-sample through max-pooling based on the feature value extraction unit; and a classification unit including first and second fully-connected (FC) layers for classifying an earthquake event by normalizing the down-sampled feature value.

본 발명의 실시예에서, 상기 특징 추출부의 각 컨벌루션 레이어는, 상기 전처리된 지진 데이터를 비선형 변환하는 비선형 변환부; 비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정하여 특징값을 출력하는 주의 모듈; 및 상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)하는 맥스 풀링부;를 포함할 수 있다.In an embodiment of the present invention, each convolutional layer of the feature extraction unit includes: a nonlinear transformation unit configured to nonlinearly transform the preprocessed earthquake data; an attention module that measures the importance of features learned based on an attention technique that models the interdependence between channels of the feature map using nonlinearly transformed seismic data and outputs a feature value; and a max pooling unit for down-sampling through max-pooling based on the feature value.

본 발명의 실시예에서, 상기 특징 추출부의 첫번째 컨벌루션 레이어 및 마지막 컨벌루션 레이어는, 각 특징값에 대해서 평균과 분산을 구한 후 정규화를 거치며 정규화된 특징값들에 대해서 스케일 팩터(scale factor)와 쉬프트 팩터(shift factor)를 더하여 변환하는 배치 정규화부를 더 포함할 수 있다.In an embodiment of the present invention, the first convolutional layer and the last convolutional layer of the feature extraction unit are subjected to normalization after obtaining the average and variance for each feature value, and a scale factor and a shift factor for the normalized feature values It may further include a batch normalizer that converts by adding a shift factor.

본 발명의 실시예에서, 상기 주의 모듈은, 비선형 변환된 지진 데이터를 각 채널에서 전역 정보를 유지하면서 특징맵을 압축하는 스퀴즈(Squeeze) 연산부; 2 개의 완전 접속(fully-connected, FC) 레이어와 시그모이드(sigmoid) 활성화 함수를 사용하여 각 채널의 중요성에 따라 적응적으로 중요도 값을 재보정하는 엑시테이션(Excitation) 연산부; 및 측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정하는 스케일부;를 포함할 수 있다.In an embodiment of the present invention, the attention module includes: a squeeze operation unit for compressing a feature map while maintaining global information in each channel of nonlinearly transformed seismic data; an excitation operation unit that adaptively re-corrects the importance value according to the importance of each channel using two fully-connected (FC) layers and a sigmoid activation function; and a scale unit that corrects the feature value through element-by-element multiplication of the measured importance value with the learned feature map.

본 발명의 실시예에서, 상기 엑시테이션 연산부는, 상기 압축된 특징맵을 미리 설정된 감소율을 갖는 차원 감소 레이어를 통과하는 차원 감소부; 및 상기 차원 감소 레이어를 통과한 데이터를 상기 특징맵의 채널 차원으로 복원하는 차원 복원부를 포함할 수 있다.In an embodiment of the present invention, the excitation calculating unit may include: a dimension reduction unit passing the compressed feature map through a dimensionality reduction layer having a preset reduction rate; and a dimension restoration unit that restores the data passing through the dimension reduction layer to the channel dimension of the feature map.

본 발명의 실시예에서, 상기 분류부의 제1 완전 접속 레이어는, 각 뉴런들의 확률값에 따라 활성화하여 학습에 적용하게 하는 드랍아웃 정규화 과정을 수행할 수 있다.In an embodiment of the present invention, the first fully connected layer of the classifier may perform a dropout normalization process that activates each neuron according to a probability value and applies it to learning.

이와 같은 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법에 따르면, 주의 기반 딥러닝을 통해 다량의/복잡한 자료들 속에 내재되어 있는 주요한 핵심 특징을 추출하며 이를 통해 기존의 미소 지진 감지 기술이 갖는 한계를 극복하며 낮은 SNR 환경에서도 지진 감지를 가능하게 한다. According to this seismic event classification method using an attention-based neural network, the main key features inherent in a large amount of/complex data are extracted through attention-based deep learning, thereby overcoming the limitations of the existing micro-earthquake detection technology. It enables seismic detection even in low SNR environments.

또한, 정확하고 신속한 지진 정보를 제공함으로써 평상시 지진에 대한 불안감을 줄이고 경보의 신뢰 향상 기대할 수 있다. 지진 탐지 분석 정보를 바탕으로 주요 산업시설의 건설 계획 시 안전한 곳에 건설하도록 유도하거나 내진 설계 등의 대비를 통해 대규모 재난의 가능성을 낮출 수 있다. In addition, by providing accurate and prompt earthquake information, it can be expected to reduce anxiety about earthquakes and improve the reliability of warnings. Based on the seismic detection and analysis information, it is possible to induce construction in a safe place when planning the construction of major industrial facilities or to reduce the possibility of a large-scale disaster by preparing for earthquake-resistant design.

나아가, 누적된 미소지진 탐지 정보를 분석하여 요주의 지역을 도출할 수 있으며, 인근 지역을 집중적으로 감시하여 지진피해에 대한 빠른 경보 및 대응이 가능하다.Furthermore, it is possible to derive areas of interest by analyzing accumulated micro-earthquake detection information, and it is possible to quickly alert and respond to earthquake damage by intensively monitoring nearby areas.

도 1은 본 발명의 일 실시예에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치의 블록도이다.
도 2는 도 1의 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치의 CNN 구조를 보여주는 도면이다.
도 3은 도 1의 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치 중 제1 및 제8 컨벌루션 레이어를 보여주는 블록도이다.
도 4는 도 1의 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치 중 제2에서 제7 컨벌루션 레이어를 보여주는 블록도이다.
도 5는 도 1의 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치의 주의 모듈을 보여주는 블록도이다.
도 6은 본 발명의 일 실시예에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법의 흐름도이다.
1 is a block diagram of an earthquake event classification apparatus using an attention-based neural network according to an embodiment of the present invention.
FIG. 2 is a diagram showing the CNN structure of the earthquake event classification apparatus using the attention-based neural network of FIG. 1 .
FIG. 3 is a block diagram illustrating first and eighth convolutional layers in the seismic event classification apparatus using the attention-based neural network of FIG. 1 .
FIG. 4 is a block diagram illustrating second to seventh convolutional layers in the seismic event classification apparatus using the attention-based neural network of FIG. 1 .
5 is a block diagram illustrating an attention module of the earthquake event classification apparatus using the attention-based neural network of FIG. 1 .
6 is a flowchart of a seismic event classification method using an attention-based neural network according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0023] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein with respect to one embodiment may be embodied in other embodiments without departing from the spirit and scope of the invention. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the invention, if properly described, is limited only by the appended claims, along with all scope equivalents to those claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치의 블록도이다. 도 2는 도 1의 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치의 CNN 구조를 보여주는 도면이다. 1 is a block diagram of an earthquake event classification apparatus using an attention-based neural network according to an embodiment of the present invention. FIG. 2 is a diagram showing the CNN structure of the earthquake event classification apparatus using the attention-based neural network of FIG. 1 .

본 발명에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치(10, 이하 장치)는 주의 기반 딥러닝을 통해 자료들 속에 내재되어 있는 주요한 특징 정보들을 추출하며 이를 통해 기존의 지진 감지 기술이 갖는 한계를 극복하고자 한다.The earthquake event classification device (10, hereinafter device) using an attention-based neural network according to the present invention extracts main characteristic information inherent in the data through attention-based deep learning, and through this, the limitations of the existing earthquake detection technology are overcome. want to overcome

도 1을 참조하면, 본 발명에 따른 장치(10)는 전처리부(110), 특징 추출부(130) 및 분류부(150)를 포함한다.Referring to FIG. 1 , an apparatus 10 according to the present invention includes a preprocessing unit 110 , a feature extraction unit 130 , and a classification unit 150 .

본 발명의 상기 장치(10)는 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류를 수행하기 위한 소프트웨어(애플리케이션)가 설치되어 실행될 수 있으며, 상기 전처리부(110), 상기 특징 추출부(130) 및 상기 분류부(150)의 구성은 상기 장치(10)에서 실행되는 상기 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류를 수행하기 위한 소프트웨어에 의해 제어될 수 있다. In the device 10 of the present invention, software (application) for performing seismic event classification using an attention-based neural network may be installed and executed, and the preprocessor 110, the feature extraction unit 130, and the classification The configuration of the unit 150 may be controlled by software for performing seismic event classification using the attention-based neural network running on the device 10 .

상기 장치(10)는 별도의 단말이거나 또는 단말의 일부 모듈일 수 있다. 또한, 상기 전처리부(110), 상기 특징 추출부(130) 및 상기 분류부(150)의 구성은 통합 모듈로 형성되거나, 하나 이상의 모듈로 이루어 질 수 있다. 그러나, 이와 반대로 각 구성은 별도의 모듈로 이루어질 수도 있다.The device 10 may be a separate terminal or a module of the terminal. In addition, the configuration of the pre-processing unit 110 , the feature extracting unit 130 , and the classifying unit 150 may be formed as an integrated module or may consist of one or more modules. However, on the contrary, each configuration may be formed of a separate module.

상기 장치(10)는 이동성을 갖거나 고정될 수 있다. 상기 장치(10)는, 서버(server) 또는 엔진(engine) 형태일 수 있으며, 디바이스(device), 기구(apparatus), 단말(terminal), UE(user equipment), MS(mobile station), 무선기기(wireless device), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다. The device 10 may be movable or stationary. The apparatus 10 may be in the form of a server or an engine, and may be a device, an application, a terminal, a user equipment (UE), a mobile station (MS), or a wireless device. (wireless device), may be called other terms such as a handheld device (handheld device).

상기 장치(10)는 운영체제(Operation System; OS), 즉 시스템을 기반으로 다양한 소프트웨어를 실행하거나 제작할 수 있다. 상기 운영체제는 소프트웨어가 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, 안드로이드 OS, iOS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베리 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.The device 10 may execute or manufacture various software based on an operating system (OS), that is, the system. The operating system is a system program for software to use the hardware of the device, and is a mobile computer operating system such as Android OS, iOS, Windows Mobile OS, Bada OS, Symbian OS, Blackberry OS, and Windows series, Linux series, Unix series, It can include all computer operating systems such as MAC, AIX, and HP-UX.

먼저, 본 발명과 관련된 기계학습 알고리즘을 설명한다. Neural Network(NN)를 활용한 인식 방법은, 학습 데이터 x로부터 목적에 맞는 결과 y를 도출하는 함수 y=f(x)를 뉴럴 네트워크를 이용하여 만들 수 있다. First, a machine learning algorithm related to the present invention will be described. In the recognition method using a Neural Network (NN), a function y=f(x) that derives a result y suitable for the purpose from the training data x can be created using the neural network.

이때, 함수 f(x)에는 다수의 변수들이 존재하며 다수의 변수들을 학습 데이터를 통해 찾아가는 과정을 학습 과정이라 한다. 뉴럴네트워크의 기본 구조는 입력 레이어(layer) - 은닉레이어(hidden layer) - 출력 레이어(output layer)로 구성되어 있으며 레이어간 연결은 완전 연결 구조로 되어 있다. 학습된 다수의 변수값을 적용하여, 새로운 데이터 x로부터 분류 결과 y를 얻는 과정을 테스트 과정이라 한다.At this time, a plurality of variables exist in the function f(x), and the process of finding the plurality of variables through the learning data is called a learning process. The basic structure of a neural network is composed of an input layer - a hidden layer - an output layer, and the connection between layers is a fully connected structure. The process of obtaining a classification result y from new data x by applying the learned multiple variable values is called a test process.

CNN(Convolutional Neural Network)은, 학습 과정시 학습 데이터의 차원이(예, 영상 입력) 증가하게 되는 경우 학습해야 될 파라메터의 양은 기하급수적으로 증가하게 된다. 이러한 파라메터들을 학습하기 위해서는 충분한 양의 데이터가 필요하지만 현실적으로는 조건을 충족하지 못한다. In a convolutional neural network (CNN), when the dimension of learning data (eg, image input) increases during the learning process, the amount of parameters to be learned increases exponentially. A sufficient amount of data is required to learn these parameters, but in reality, the conditions are not met.

이에 반해 CNN은 local connection 과 weight sharing의 특성을 갖는 컨벌루션(convolution) 연산을 통해, 학습해야 할 파라메터의 개수를 충분히 줄이는 장점을 지니고 있다. 또한 학습을 통해 목적에 효과적인 컨벌루션 필터를 자동으로 생성할 수 있는 장점을 갖고 있다. CNN 은 컨벌루션 레이어, 풀링(pooling) 레이어, 완전 접속(fully-connected, FC) 레이어로 3단계로 구성된다.On the other hand, CNN has the advantage of sufficiently reducing the number of parameters to be learned through a convolution operation with characteristics of local connection and weight sharing. In addition, it has the advantage of automatically generating convolutional filters that are effective for the purpose through learning. CNN consists of three stages: a convolutional layer, a pooling layer, and a fully-connected (FC) layer.

상기 컨벌루션 레이어는 컨벌루션을 통해 의미 있는 특징들을 추출을 수행하며, 풀링 레이어는 생성된 특성값(feature)을 줄이기 위해 서브샘플링(subsampling) 하는 과정이다. 완전 접속 레이어는 상기 컨벌루션 레이어와 풀링 레이어에서 나온 특징값 세트(feature set)를 1차원 데이터로 변형한 이후, 출력(output) 레이어와 완전히 연결된 NN를 이용하여 분류한다.The convolutional layer extracts meaningful features through convolution, and the pooling layer is a process of subsampling to reduce the generated feature values. The fully connected layer is classified using the NN completely connected to the output layer after transforming the feature set from the convolutional layer and the pooling layer into one-dimensional data.

CNN 기술은 영상 혹은 비디오 데이터를 이용하여 영상 분류/탐지 문제에 적용되어 왔다. 음향과 같은 시계열 데이터의 경우에도 CNN 모델을 적용하는 두 가지 접근법이 있다. 먼저, 1차원 데이터를 2차원 데이터로 변형하여 사용하는 방식으로, 예를 들면 1차원 음향 데이터를 스펙트로그램(spectrogram) 영상으로 변환한 후 CNN에 입력하는 방법이 있다. 또 다른 방법은 1차원 데이터를 2차원 컨벌루션 과정을 거치는 것이 아니라 1차원 컨벌루션에 적용하는 방식이다.CNN technology has been applied to image classification/detection problems using images or video data. Even for time series data such as acoustics, there are two approaches to applying CNN models. First, as a method of transforming one-dimensional data into two-dimensional data and using it, for example, there is a method of converting one-dimensional sound data into a spectrogram image and then inputting it into a CNN. Another method is to apply one-dimensional data to one-dimensional convolution rather than a two-dimensional convolution process.

본 발명은 주의 기반 컨볼루션 뉴럴네트워크를 기반으로 지진 분류 혹은 지진 탐지를 수행하기 위한 기술이다.The present invention is a technique for performing seismic classification or seismic detection based on a state-based convolutional neural network.

본 발명에서 제시하는 주의 기반 컨볼루션 뉴럴네트워크 기반 지진 분류 기법은 도 2와 같이 전처리 단계(Preprocessing), 특징 추출 단계(Conv 1 ~ Conv 8) 및 분류 단계(Fully Connect 1, Fully Connect 2)를 포함한다. 상기 각 단계들은 상기 전처리부(110), 상기 특징 추출부(130) 및 상기 분류부(150)에서 각각 처리된다.The attention-based convolutional neural network-based seismic classification technique presented in the present invention includes a preprocessing step, a feature extraction step (Conv 1 ~ Conv 8), and a classification step (Fully Connect 1, Fully Connect 2) as shown in FIG. do. Each of the steps is processed by the preprocessing unit 110 , the feature extracting unit 130 , and the classifying unit 150 .

상기 전처리부(110)는 관측소별 특성으로 인해 지진 데이터의 범위가 다른 경우들이 발생하는 경우 아래의 수학식 1과 센터링(centering) 과정의 데이터 전처리 과정을 수행한다. 일반적으로 센터링 과정은 기하학적으로 데이터의 군집을 모든 차원에 대해서 원점으로 이동시키는 효과를 얻을 수 있다.The pre-processing unit 110 performs data pre-processing of Equation 1 below and a centering process when cases in which seismic data ranges are different due to the characteristics of each station. In general, the centering process can achieve the effect of geometrically moving the data cluster to the origin for all dimensions.

[수학식 1][Equation 1]

Figure 112019115606317-pat00001
Figure 112019115606317-pat00001

여기서 xm은 관측 데이터, ym은 중심 이동된 데이터, M은 하나의 데이터에서 취득하는 총 샘플수이다.Here, xm is the observed data, ym is the center-shifted data, and M is the total number of samples taken from one data.

상기 특징 추출부(130)는 전처리된 지진 데이터를 비선형 변환하여 특징맵을 추출하고, 비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정하고, 측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정하고, 상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)하는 3개 이상의 복수개의 컨벌루션 레이어들을 포함한다.The feature extraction unit 130 extracts a feature map by non-linearly transforming the pre-processed seismic data, and the non-linearly transformed seismic data based on the attention technique modeling the interdependence between channels of the feature map. Three or more values are measured, and the measured importance value is corrected by element-by-element multiplication with the learned feature map, and down-sampling through max-pooling based on the feature value. It includes a plurality of convolutional layers.

본 발명에서 제안하는 주의 기반 CNN 구조는 도 2 내지 도 4와 같다. 도 3은 도 1의 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치 중 제1 및 제8 컨벌루션 레이어를 보여주는 블록도이다. 도 4는 도 1의 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치 중 제2에서 제7 컨벌루션 레이어를 보여주는 블록도이다. 도 5는 도 1의 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치의 주의 모듈을 보여주는 블록도이다.The attention-based CNN structure proposed by the present invention is shown in FIGS. 2 to 4 . FIG. 3 is a block diagram illustrating first and eighth convolutional layers in the seismic event classification apparatus using the attention-based neural network of FIG. 1 . FIG. 4 is a block diagram illustrating second to seventh convolutional layers in the seismic event classification apparatus using the attention-based neural network of FIG. 1 . 5 is a block diagram illustrating an attention module of the earthquake event classification apparatus using the attention-based neural network of FIG. 1 .

도 3을 참조하면, 모델의 입력은 3채널 지진 데이터를 이용하며 채널당 1000 샘플의 입력 데이터를 사용한다. 1000 샘플 입력 데이터는 100Hz 샘플링 10초 구간의 데이터를 나타낸다. 제안된 모델은 8개의 컨벌루션 레이어, 2 개의 완전 접속(fully-connected, FC) 레이어와 softmax 함수로 구성되어 있다. Referring to FIG. 3 , the model input uses three-channel seismic data and uses input data of 1000 samples per channel. 1000-sample input data represents data of a 10-second interval of 100 Hz sampling. The proposed model consists of eight convolutional layers, two fully-connected (FC) layers, and a softmax function.

8개의 컨벌루션 레이어에서는 아래의 수학식 2와 같이 1D 컨벌루션을 수행하며 컨벌루션 결과는 수학식 3과 같은 ReLU(Rectified Linear Unit) 함수를 통해 비선형 매핑(mapping)을 거친다. 1D 컨벌루션의 필터 크기는 3x1 형태를 사용하며 채널 크기는 각 레이어마다 32개를 적용할 수 있다. In the eight convolutional layers, 1D convolution is performed as shown in Equation 2 below, and the convolution result is subjected to non-linear mapping through a Rectified Linear Unit (ReLU) function as shown in Equation 3 below. The filter size of 1D convolution uses a 3x1 shape, and 32 channels can be applied for each layer.

[수학식 2] [Equation 2]

Figure 112019115606317-pat00002
Figure 112019115606317-pat00002

여기서, Fl c,t은 l레이어에서의 특징맵을 나타내며, c와 t는 채널과 샘플 시간을 각각 나타낸다. 또한 Wl은 l레이어에서의 컨볼루션 필터를 말한다.Here, F l c,t denotes a feature map in 1 layer, and c and t denote a channel and a sample time, respectively. Also, W l refers to a convolution filter in layer l.

[수학식 3][Equation 3]

Figure 112019115606317-pat00003
Figure 112019115606317-pat00003

도 3 및 도 4를 참조하면, 상기 특징 추출부의 각 컨벌루션 레이어는, 상기 전처리된 지진 데이터를 비선형 변환하는 비선형 변환부(133), 주의 모듈(135) 및 상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)하는 맥스 풀링부(137)을 포함한다.Referring to FIGS. 3 and 4 , each convolutional layer of the feature extraction unit includes a nonlinear transformation unit 133 that nonlinearly transforms the preprocessed earthquake data, a caution module 135, and a max pooling (max) based on the feature value. -pooling) includes a max pooling unit 137 for down-sampling (down-sampling).

상기 주의 모듈(135)은 비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정하여 특징값을 출력한다.The attention module 135 measures the importance of a learned feature based on an attention technique that models the interdependence between channels of the feature map using nonlinearly transformed seismic data, and outputs a feature value.

첫번째와 마지막인 제1 컨벌루션 레이어와 제8 컨벌루션 레이어에서는 도 3과 같이 비선형 변환부(133) 이전에 배치 정규화부(batch normalization, 131)를 더 포함한다.The first and last convolutional layers, the first and eighth convolutional layers, further include a batch normalization unit 131 before the nonlinear transformation unit 133 as shown in FIG. 3 .

상기 비선형 변환부(133)에서 비선형 매핑(mapping) 된 결과는 도 5와 같은 주의 기법을 기반으로 학습된 특징의 중요도를 측정하게 된다. 측정된 중요도는 학습된 특징과의 요소별 곱을(Element-wise multiply) 통해 개선된 특징값을 산출하게 된다. The nonlinear mapping result of the nonlinear transformation unit 133 measures the importance of the learned feature based on the attention technique shown in FIG. 5 . The measured importance yields an improved feature value through element-wise multiply with the learned feature.

산출된 특징값은 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling) 과정을 거치게 된다. 맥스 풀링의 간격은 예를 들어, 2로 설정하여 이 과정을 거칠 때 마다 특징 정보는 1/2배로 축소될 수 있다. The calculated feature value is subjected to a down-sampling process through max-pooling. The interval of max pooling is set to, for example, 2, and each time this process is performed, the feature information can be reduced by 1/2.

상기 주의 모듈(135)은 특징에서 주요한 구성 요소를 추출하여 특징을 향상시키는 수단이다. 본 발명에서는 도 5와 같이 SENET(Squeeze and Excitation Network)에 기반을 둔 개선된 주의 모듈을 제안하였다. The attention module 135 is a means for enhancing the feature by extracting the main components from the feature. In the present invention, as shown in FIG. 5 , an improved attention module based on SENET (Squeeze and Excitation Network) is proposed.

SENET은 특징맵의 채널 간 상호 종속성을 모델링하여 네트워크의 표현 능력을 향상하였다. SENET은 스퀴즈(Squeeze) 연산부(310)와 엑시테이션(Excitation) 연산부(510 내지 570) 및 측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정하는 스케일부(710)로 구성된다. SENET improved the expressive ability of the network by modeling the interdependence between channels of the feature map. SENET consists of a squeeze operation unit 310, excitation operation units 510 to 570, and a scale unit 710 that corrects the feature value through element-by-element multiplication of the measured importance value with the learned feature map. do.

상기 스퀴즈 연산부(310)는 각 채널에서 global average pooling을 사용하여 전역 정보를 유지하면서 특징맵을 압축하게 된다. 엑시테이션 연산부(510 내지 570)는 2 개의 완전 접속(fully-connected, FC) 레이어(510, 550)와 sigmoid 활성화 함수(570)가 사용하여 각 채널의 중요성에 따라 적응적으로 주의 값을 재보정한다. The squeeze operation unit 310 compresses the feature map while maintaining global information by using global average pooling in each channel. The activation calculation units 510 to 570 are used by the two fully-connected (FC) layers 510 and 550 and the sigmoid activation function 570 to adaptively recalibrate the attention value according to the importance of each channel. .

제 1 완전 접속 레이어(510)는 감소율 r을 갖는 차원 감소 레이어를 나타내며, ReLU(Rectified Linear Unit, 530)을 더 포함할 수 있다. 제 2 완전 접속 레이어(550)는 특징맵의 채널 차원으로 복원하는 차원 복원 레이어를 나타낸다. The first fully connected layer 510 represents a dimensionality reduction layer having a reduction rate r, and may further include a Rectified Linear Unit (ReLU) 530 . The second fully connected layer 550 represents a dimensional reconstruction layer that restores the channel dimension of the feature map.

최종적인 주의 값은 sigmoid 활성화 함수(570)를 통해 채널의 중요도를 0~1 사이의 값으로 조절한다. 기존의 SENET에서 아래의 수학식 4와 같이 global average pooling을 이용하여 스퀴즈 연산을 사용하였다. The final attention value adjusts the importance of the channel to a value between 0 and 1 through the sigmoid activation function 570 . In the existing SENET, a squeeze operation was used using global average pooling as shown in Equation 4 below.

본 발명에서는 아래의 수학식 5와 같이 이미지 향상에 사용되는 contrast stretching 방법을 이용한 global weighted average pooling 방법을 채택하였다. contrast stretching은 낮은 대비 이미지 분포의 히스토그램을 확산시켜 넓은 범위의 대비 값을 달성함으로써 이미지의 가시성을 향상시키는 방법이다. 이 개념을 특징맵에 적용하게 되면 보다 뚜렷한 채널 별 통계 정보를 포함할 수 있게 된다. In the present invention, a global weighted average pooling method using a contrast stretching method used for image enhancement is adopted as shown in Equation 5 below. Contrast stretching is a method of improving the visibility of an image by spreading the histogram of a low-contrast image distribution to achieve a wide range of contrast values. When this concept is applied to the feature map, it is possible to include more distinct channel-specific statistical information.

[수학식 4][Equation 4]

Figure 112019115606317-pat00004
Figure 112019115606317-pat00004

[수학식 5] [Equation 5]

Figure 112019115606317-pat00005
Figure 112019115606317-pat00005

여기서, Fc(i) 는 채널 c의 특징맵을 나타내며, 각 채널의 길이는 L을 가지게 된다. 또한,

Figure 112019115606317-pat00006
이며,
Figure 112019115606317-pat00007
Figure 112019115606317-pat00008
는 특징맵에서 채널 c의 최대값과 최소값을 나타낸다. Here, F c (i) represents the feature map of channel c, and the length of each channel is L. In addition,
Figure 112019115606317-pat00006
is,
Figure 112019115606317-pat00007
class
Figure 112019115606317-pat00008
denotes the maximum and minimum values of channel c in the feature map.

이하에서는, 첫번째와 마지막인 컨벌루션 레이어가 포함하는 배치 정규화부(batch normalization, 131)를 설명한다. Hereinafter, a batch normalization unit 131 included in the first and last convolutional layers will be described.

네트워크(Network)의 레이어가 증가하면서 gradient vanishing 및 exploding 문제는 딥 네트워크(deep network)의 주요 쟁점 사항이다. 이러한 문제는 activation 함수의 변화, initialization, learning rate을 통해 해결하려는 다양한 시도가 있었다. As the network layer increases, gradient vanishing and exploding problems are major issues in deep networks. Various attempts have been made to solve this problem through changes in the activation function, initialization, and learning rate.

Batch normalization 은 gradient vanishing /gradient exploding의 문제를 본질적인 training 과정 안에서 해결하려는 접근을 취한다. Batch normalization은 각 레이어 마다 입력 분포가 상이해지는 internal covariance shift 현상을 막기 위해 각 레이어의 입력 분포를 평균 0, 표준편차 1이 형태로 정규화 시키는 whitening 방법을 착안하여 고안되었다. Batch normalization takes an approach that solves the problem of gradient vanishing/gradient exploding in the essential training process. Batch normalization was devised by considering the whitening method that normalizes the input distribution of each layer in the form of mean 0 and standard deviation 1 in order to prevent the internal covariance shift phenomenon in which the input distribution is different for each layer.

각 특징에 대해서 평균과 분산을 구한 후 정규화를 거치며 정규화된 값들에 대해서 스케일 팩터(scale factor)와 쉬프트 팩터(shift factor)를 더해 주는 변환 과정을 거치게 된다. 스케일 팩터(scale factor)와 쉬프트 팩터(shift factor) 파라메터는 mini-batch 단위로 훈련 과정에서 유도할 수 있다.After finding the mean and variance for each feature, normalization is performed, and a transformation process of adding a scale factor and a shift factor to the normalized values is performed. The scale factor and shift factor parameters can be derived in the training process in mini-batch units.

본 발명에서는 상기 분류부(150)에 오버피팅(overfitting)을 방지하기 위해 첫번째 완전 접속(fully-connected, FC) 레이어에 드랍아웃 정규화(drop-out regularization)를 적용하였다.In the present invention, drop-out regularization is applied to the first fully-connected (FC) layer in order to prevent overfitting of the classifier 150 .

드랍아웃은 각 뉴런들을 확률값에 따라 활성화하여 학습에 적용하게 된다. 본 발명에서는 첫번째 완전 접속 레이어에서 p = 0.5를 설정하여 네트워크를 훈련할 수 있다.Dropout activates each neuron according to a probability value and applies it to learning. In the present invention, the network can be trained by setting p = 0.5 in the first fully accessed layer.

본 발명은 기존 CNN 기반 딥러닝 기법을 Attention module, Batch normalization, Dropout regularization을 통해 잡음 및 overfitting에 강인하게 확장한다.The present invention robustly extends the existing CNN-based deep learning technique to noise and overfitting through attention module, batch normalization, and dropout regularization.

본 발명은 국가 지진 종합정보 시스템의 효과적인 지진 경보에 활용 가능하다. 구체적으로, 잡음, 인공지진 등이 혼재된 상황에 강인한 지진 탐지 시스템을 구축함으로써, 정확하고 오차가 적은 지진 감지 정보를 적용하여 신속하고 정확한 경보 및 대응으로 국민의 생명 보호와 안전에 기여하는 것이 가능하다. 또한, 인공 지진과의 구분을 통해 지진 특성과 상황에 따라 알맞은 대응이 가능하며 오경보 가능성을 줄일 수 있다.The present invention can be utilized for effective earthquake warning of the national earthquake comprehensive information system. Specifically, by building a robust earthquake detection system in a situation where noise and artificial earthquakes are mixed, it is possible to contribute to the protection of people's lives and safety by applying accurate and low-error earthquake detection information and promptly and accurately alerting and responding to them. do. In addition, by distinguishing from artificial earthquakes, appropriate responses can be made according to earthquake characteristics and circumstances, and the possibility of false alarms can be reduced.

또한, 본 발명은 세부적인 지진 데이터 정보 획득에 활용하다. 본 발명을 통해 개발된 지진 탐지기를 지진 관측 시스템에 적용할 경우, 잡음 및 인공지진에 의한 오탐지 확률이 적은 정확도 높은 지진 데이터를 수집하는 것이 가능하다. 이 데이터는 지진 관측 및 기타 다른 지진 연구에 적용 가능한 데이터로 제공될 수 있다.In addition, the present invention is utilized to obtain detailed seismic data information. When the seismic detector developed through the present invention is applied to an earthquake observation system, it is possible to collect high-accuracy seismic data with a low probability of false detection due to noise and artificial earthquakes. This data can be provided as applicable data for seismic observations and other seismic studies.

도 6은 본 발명의 일 실시예에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법의 흐름도이다.6 is a flowchart of a seismic event classification method using an attention-based neural network according to an embodiment of the present invention.

본 실시예에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법은, 도 1의 장치(10)와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 장치(10)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다. The seismic event classification method using the attention-based neural network according to the present embodiment may proceed in substantially the same configuration as the apparatus 10 of FIG. 1 . Accordingly, the same components as those of the device 10 of FIG. 1 are given the same reference numerals, and repeated descriptions are omitted.

또한, 본 실시예에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법은 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류를 수행하기 위한 소프트웨어(애플리케이션)에 의해 실행될 수 있다.In addition, the seismic event classification method using the attention-based neural network according to the present embodiment may be executed by software (application) for performing seismic event classification using the attention-based neural network.

도 6을 참조하면, 본 실시예에 따른 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법은, 입력되는 지진 데이터를 센터링하여 전처리한다(단계 S100). Referring to FIG. 6 , in the seismic event classification method using the attention-based neural network according to the present embodiment, input seismic data is preprocessed by centering it (step S100 ).

단계 S100는 관측소별 특성으로 인해 지진 데이터의 범위가 다른 경우들이 발생하는 경우 상기 수학식 1과 센터링(centering) 과정의 데이터 전처리 과정을 수행한다. 일반적으로 센터링 과정은 기하학적으로 데이터의 군집을 모든 차원에 대해서 원점으로 이동시키는 효과를 얻을 수 있다.In step S100, when the seismic data ranges are different due to the characteristics of each station, Equation 1 and the data preprocessing process of the centering process are performed. In general, the centering process can achieve the effect of geometrically moving the data cluster to the origin for all dimensions.

이어, 특징 추출 단계로서 전처리된 지진 데이터를 3개 이상의 복수개의 컨벌루션 레이어들을 통해 비선형 변환하여 특징맵을 추출한다(단계 S310).Next, as a feature extraction step, the preprocessed seismic data is non-linearly transformed through a plurality of three or more convolutional layers to extract a feature map (step S310).

예를 들어, 8개의 컨벌루션 레이어를 통해 수행될 수 있으며, 각 컨벌루션 레이어는 상기 수학식 2와 같이 1D 컨벌루션을 수행하며 컨벌루션 결과는 수학식 3과 같은 ReLU(Rectified Linear Unit) 함수를 통해 비선형 매핑(mapping)을 거친다. 1D 컨벌루션의 필터 크기는 3x1 형태를 사용하며 채널 크기는 각 레이어마다 32개를 적용할 수 있다.For example, it can be performed through eight convolutional layers, each convolutional layer performs 1D convolution as shown in Equation 2 above, and the convolution result is nonlinear mapping ( mapping). The filter size of 1D convolution uses a 3x1 form, and 32 channels can be applied for each layer.

비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정한다(단계 S330).The importance of the learned feature is measured based on the attention technique that models the interdependence between channels of the feature map using the nonlinearly transformed seismic data (step S330).

단계 S330에서는 각 채널에서 전역 정보를 유지하면서 특징맵을 압축하는 스퀴즈(Squeeze) 연산과 2 개의 완전 접속(fully-connected, FC) 레이어와 시그모이드(sigmoid) 활성화 함수를 사용하여 각 채널의 중요성에 따라 적응적으로 중요도 값을 재보정하는 엑시테이션(Excitation) 연산을 수행한다.In step S330, the importance of each channel by using a squeeze operation that compresses the feature map while maintaining global information in each channel, two fully-connected (FC) layers, and a sigmoid activation function An excitation operation that adaptively recalibrates the importance value is performed.

상기 스퀴즈(Squeeze) 연산은 콘트라스트 스트레칭(contrast stretching)에 기반하여 낮은 대비 이미지 분포의 히스토그램을 확산시키는 글로벌 가중 평균 풀링(global weight average pooling) 방법을 사용한다.The squeeze operation uses a global weight average pooling method that spreads a histogram of a low-contrast image distribution based on contrast stretching.

상기 엑시테이션(Excitation) 연산은 압축된 특징맵을 데이터를 미리 설정된 감소율을 갖는 차원 감소 레이어를 통과하는 단계와 상기 차원 감소 레이어를 통과한 데이터를 상기 특징맵의 채널 차원으로 복원하는 단계를 거칠 수 있다.The excitation operation may include passing the compressed feature map data through a dimensionality reduction layer having a preset reduction rate and restoring the data passing through the dimension reduction layer to the channel dimension of the feature map. have.

상기 전처리된 지진 데이터의 입력 데이터를 3개 이상의 복수개의 컨벌루션 레이어들을 통과시켜 비선형 매핑하는 단계는, 상기 전처리된 지진 데이터를 상기 복수개의 컨벌루션 레이어들 중 첫번째 컨벌루션 레이어 및 마지막 컨벌루션 레이어에서 특징값을 배치 정규화하는 단계를 더 거칠 수 있다. The step of non-linearly mapping the input data of the pre-processed seismic data through a plurality of convolutional layers of three or more includes placing the pre-processed seismic data in the first convolutional layer and the last convolutional layer among the plurality of convolutional layers. The normalization step can be rougher.

이때, 각 특징값에 대해서 평균과 분산을 구한 후 정규화를 거치며 정규화된 특징값들에 대해서 스케일 팩터(scale factor)와 쉬프트 팩터(shift factor)를 더하여 변환한다.At this time, the average and variance are obtained for each feature value, then normalized, and the normalized feature values are converted by adding a scale factor and a shift factor.

측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정(단계 S350)하고, 상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)한다(단계 S370). 예를 들어, 맥스 풀링의 간격은 예를 들어, 2로 설정하여 이 과정을 거칠 때 마다 특징 정보는 1/2배로 축소될 수 있다.The measured importance value corrects the feature value through element-by-element multiplication with the learned feature map (step S350), and down-sampling through max-pooling based on the feature value (step S350) (step S350). S370). For example, the interval of max pooling is set to, for example, 2, and each time this process is performed, the feature information can be reduced by 1/2.

상기 다운 샘플링된 특징값을 정규화하여 지진 이벤트를 분류한다(단계 S500).An earthquake event is classified by normalizing the down-sampled feature value (step S500).

단계 S500에서는 오버피팅(overfitting)을 방지하기 위해 첫번째 완전 접속(fully-connected, FC) 레이어에 드랍아웃 정규화(drop-out regularization)를 적용할 수 있다.In step S500 , drop-out regularization may be applied to the first fully-connected (FC) layer in order to prevent overfitting.

드랍아웃은 각 뉴런들을 확률값에 따라 활성화하여 학습에 적용하게 된다. 본 발명에서는 첫번째 완전 접속 레이어에서 p = 0.5를 설정하여 네트워크를 훈련할 수 있다.Dropout activates each neuron according to a probability value and applies it to learning. In the present invention, the network can be trained by setting p = 0.5 in the first fully accessed layer.

이하에서는, 본 발명의 효과를 검증하기 위한 실험 결과를 서술한다. 실험을 위해 2016년 1월1일부터 2018년 7월 31일까지의 대한민국에서 발생하는 지진 데이터 정보들을 이용하여 지진 데이터 및 잡음 데이터를 수집하였다. 기상청에서 제공되는 24시간 지진 관측 데이터 및 지진 이벤트 목록 파일을 토대로 지진 이벤트 및 잡음 데이터베이스가 구축되었다. Hereinafter, experimental results for verifying the effects of the present invention will be described. For the experiment, seismic data and noise data were collected using seismic data information that occurred in Korea from January 1, 2016 to July 31, 2018. An earthquake event and noise database was constructed based on the 24-hour seismic observation data and seismic event list file provided by the Korea Meteorological Administration.

지진 데이터는 100샘플 데이터만을 이용하였으며 데이터베이스는 강진(규모 2.0 이상), 미소지진(규모 2.0 미만), 인공지진, 잡음으로 구성하였다. 2016년~2017년 자료는 학습용 데이터셋으로 사용하였으며 2018년도 자료는 테스트 데이터셋으로 사용하였다. Only 100 sample data were used for earthquake data, and the database consisted of strong earthquakes (magnitude 2.0 or greater), micro-earthquakes (less than 2.0 magnitudes), artificial earthquakes, and noise. Data from 2016 to 2017 were used as a training dataset, and data from 2018 was used as a test dataset.

지진 이벤트의 추출 방식은 각 관측소별 지진이 관측된 시점부터 10초 구간의 데이터를 추출하고 있다. 그러나 수집 데이터의 양을 늘리기 위해 본 발명에서는 지진 발생 시점 보다 3초 앞에서부터 총 13초 구간의 데이터를 수집하고 있으며 추출 윈도우(window)를 1초 간격 슬라이딩(sliding)하는 방식을 적용하였다. The seismic event extraction method extracts the data for 10 seconds from the time the earthquake was observed at each station. However, in order to increase the amount of data collected, in the present invention, data is collected for a total of 13 seconds from 3 seconds before the earthquake, and a method of sliding the extraction window at intervals of 1 second is applied.

잡음 이벤트의 수집은 두 가지 방식으로 적용하였다. 지진 이벤트 목록에 기록된 날짜의 경우 발생된 시간의 앞뒤 1시간을 제외한 부분에서 임의 샘플링 방식으로 잡음 데이터를 추출하였으며, 지진 이벤트 목록에 기록되지 않은 날짜의 경우 는 24시간 데이터 내에서 임의로 잡음 데이터를 추출하였다. 모의 실험에서 사용하는 이벤트 데이터셋 구성은 표 1과 같다. The collection of noise events was applied in two ways. For the date recorded in the earthquake event list, noise data was extracted by random sampling method except for 1 hour before and after the occurrence time, and for the date not recorded in the earthquake event list, noise data is randomly selected within 24 hours. extracted. Table 1 shows the composition of the event data set used in the simulation.

이벤트event (1)
(학습/테스트)
(One)
(Learn/Test)
(2)
(학습/테스트)
(2)
(Learn/Test)
(3)
(학습/테스트)
(3)
(Learn/Test)
지진(1) vs 잡음(2)Earthquake(1) vs Noise(2) 21,340/3,24821,340/3,248 22,523/5,75222,523/5,752 강진(1) vs 잡음(2)Earthquake(1) vs Noise(2) 10,772/68810,772/688 22,523/2,31222,523/2,312 미소(1) vs 잡음(2)Smile(1) vs Noise(2) 8,328/1,9328,328/1,932 22,523/4,06822,523/4,068 인공(1) vs 잡음(2)Artificial(1) vs Noise(2) 2,240/6282,240/628 22,523/2,37222,523/2,372 자연(1)vs인공(2)vs잡음(3)Natural(1)vs Artificial(2)vs Noise(3) 19,100/2,62019,100/2,620 2,240/6282,240/628 22,523/5,75222,523/5,752

본 모의 실험은 NVIDIA Geforce GTX 1080Ti GPU와 Tensorflow 기반으로 수행하였으며 네트웍 훈련은 총 300 epoch 수행하였다. 모델 훈련시 최적화는 ADAM 방법을 이용하였으며 학습율은 5×10-3을 주었다. 발명 기법의 성능 분석을 위해 ConvNetQuake와의 비교 분석을 수행하였으며 성능 측정은 수학식 6 내지 수학식 8과 같이 accuracy, true positive rate, false positive rate 지수를 사용하였다. This simulation was performed based on NVIDIA Geforce GTX 1080Ti GPU and Tensorflow, and a total of 300 epochs of network training were performed. When training the model, the ADAM method was used for optimization, and the learning rate was given as 5×10 -3 . To analyze the performance of the invention technique, a comparative analysis with ConvNetQuake was performed, and the accuracy, true positive rate, and false positive rate indices were used for performance measurement as shown in Equations 6 to 8.

[수학식 6][Equation 6]

Figure 112019115606317-pat00009
Figure 112019115606317-pat00009

[수학식 7][Equation 7]

Figure 112019115606317-pat00010
Figure 112019115606317-pat00010

[수학식 8][Equation 8]

Figure 112019115606317-pat00011
Figure 112019115606317-pat00011

여기서, TP는 true positive 개수, TN은 true negative 개수, FP는 false positive 개수를 나타낸다.Here, TP represents the number of true positives, TN represents the number of true negatives, and FP represents the number of false positives.

아래의 표 2는 본 발명에서 제안한 방법의 성능을 비교한 것이다(단위 %).Table 2 below compares the performance of the method proposed in the present invention (unit %).

ConvNetQuakeConvNetQuake 제안 방법1
(GAP 이용)
Suggested method 1
(via GAP)
제안 방법2
(GWAP 이용)
Suggested method 2
(via GWAP)
Accacc TPRTPR FPRFPR Accacc TPRTPR FPRFPR Accacc TPRTPR FPRFPR 지진 vs 잡음earthquake vs noise 93.293.2 89.289.2 4.54.5 97.097.0 95.095.0 1.81.8 97.697.6 95.795.7 1.31.3 강진 vs 잡음earthquake vs noise 95.895.8 8989 2.12.1 98.298.2 96.496.4 1.31.3 98.898.8 97.497.4 0.80.8 미소 vs 잡음smile vs noise 93.993.9 84.584.5 1.61.6 98.298.2 95.795.7 0.60.6 98.298.2 96.396.3 0.90.9 인공 vs 잡음artificial vs noise 93.793.7 74.574.5 1.21.2 96.196.1 83.083.0 0.40.4 96.796.7 84.984.9 0.20.2 자연vs인공vs잡음Nature vs Artificial vs Noise 89.189.1 84.6/
45.2/
95.9
84.6/
45.2/
95.9
6.5/
1.2/
14.2
6.5/
1.2/
14.2
95.395.3 93.5/
72.9/
98.5
93.5/
72.9/
98.5
2.6/
1.1/
5.2
2.6/
1.1/
5.2
95.695.6 94.6/74.2/
98.5
94.6/74.2/
98.5
2.7/
1.0/
4.2
2.7/
1.0/
4.2

표 2 실험은 베이스라인 구조는 기존의 ConvNetQuake를 비교 대상으로 하였다. 표 2에서 제안한 방법은 모든 이벤트 분류에 대한 베이스라인 방법보다 우수한 성능을 보여 주었다. Table 2 In the experiment, the baseline structure was compared to the existing ConvNetQuake. The method proposed in Table 2 showed better performance than the baseline method for all event classifications.

제안된 방법 2는 기존 베이스라인에 비해 정확도를 평균 4.24% 향상 시켰다. 또한 이진 분류의 경우 TPR의 향상이 두드러졌으며, 다중 분류의 경우는 TPR 향상 및 FPR의 감소를 보여주었다. 인공 지진 이벤트의 경우 다른 이벤트 분류만큼 우수한 성능을 보이지 못하였는데, 이 부분은 데이터 수량 및 데이터 길이가 충분하지 못한 것으로 추정된다. Proposed method 2 improved the accuracy by an average of 4.24% compared to the existing baseline. Also, in case of binary classification, TPR improvement was remarkable, and in case of multiple classification, TPR improvement and FPR decrease were shown. The artificial seismic event did not show as good performance as other event classifications, and it is estimated that the data quantity and data length are insufficient for this part.

또한, 스퀴즈(Squeeze) 연산에 따른 주의 모듈의 경우 기존의 GAP를 적용한 방식보다 제안된 GWAP 를 적용한 방식은 모든 이벤트 분류에서 우수한 성능을 보여주었으며 평균 0.42 % 정확도 향상을 보여주었다. In addition, in the case of the attention module according to the squeeze operation, the method applying the proposed GWAP showed better performance in all event classification than the method applying the existing GAP, and showed an average 0.42% accuracy improvement.

이와 같은, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. Such a seismic event classification method using an attention-based neural network may be implemented as an application or implemented in the form of program instructions that may be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. The program instructions recorded on the computer-readable recording medium are specially designed and configured for the present invention, and may be known and available to those skilled in the computer software field.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. Examples of the computer-readable recording medium include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below You will understand.

본 발명은 재난 방지 IT 시장에서 활용될 수 있다. 지진과 관련된 재난 상황은 전 세계적으로 증가하고 있는 추세이다. 대한민국도 경주, 포항 지진을 겪으면서 재난 방지 시스템에 많은 관심과 투자가 이루어지고 있다. The present invention can be utilized in the disaster prevention IT market. Disaster situations related to earthquakes are increasing worldwide. Korea has also been experiencing the Gyeongju and Pohang earthquakes, and much interest and investment is being made in disaster prevention systems.

또한, 본 발명은 재난 방지 관련 기술로서 이익을 창출하는 기업보다는 국가(각국 기상청) 혹은 연합 단체에서 널리 운용할 수 있는 기술로 기대된다.In addition, the present invention is expected as a technology that can be widely operated in countries (meteorological offices of each country) or allied organizations rather than companies that generate profits as disaster prevention-related technologies.

10: 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치
110: 전처리부
130: 특징 추출부
150: 분류부
131: 배치 정규화부
133: 비선형 변환부
135: 주의 모듈
137: 맥스 풀링부
310: 스퀴즈(Squeeze) 연산부
510: 제 1 완전 접속 레이어
530: ReLU
550: 제 2 완전 접속 레이어
570: sigmoid 활성화 함수
710: 스케일부
10: Seismic event classification device using attention-based neural network
110: preprocessor
130: feature extraction unit
150: classification unit
131: batch normalization unit
133: non-linear transformation unit
135: attention module
137: Max pulling unit
310: squeeze (Squeeze) operation unit
510: first fully connected layer
530: ReLU
550: second fully connected layer
570: sigmoid activation function
710: scale unit

Claims (15)

입력되는 지진 데이터를 센터링하여 전처리하는 단계;
전처리된 지진 데이터를 3개 이상의 복수개의 컨벌루션 레이어들을 통해 비선형 변환하여 특징맵을 추출하는 단계;
비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정하는 단계;
측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정하는 단계;
상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)하는 단계; 및
상기 다운 샘플링된 특징값을 정규화하여 지진 이벤트를 분류하는 단계;를 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법.
pre-processing by centering the input earthquake data;
extracting a feature map by non-linearly transforming the preprocessed seismic data through a plurality of convolutional layers of three or more;
Measuring the importance of the learned feature based on the attention technique that models the interdependence between channels of the feature map on the nonlinearly transformed seismic data;
correcting the feature value through element-by-element multiplication of the measured importance value with the learned feature map;
down-sampling through max-pooling based on the feature value; and
Classifying seismic events by normalizing the down-sampled feature values; Containing, a seismic event classification method using a caution-based neural network.
제1항에 있어서, 상기 학습된 특징의 중요도를 측정하는 단계는,
각 채널에서 전역 정보를 유지하면서 특징맵을 압축하는 스퀴즈(Squeeze) 연산을 수행하는 단계를 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법.
The method of claim 1, wherein measuring the importance of the learned feature comprises:
A seismic event classification method using a caution-based neural network, comprising the step of performing a squeeze operation that compresses a feature map while maintaining global information in each channel.
제2항에 있어서, 상기 스퀴즈(Squeeze) 연산을 수행하는 단계는,
콘트라스트 스트레칭(contrast stretching)에 기반하여 낮은 대비 이미지 분포의 히스토그램을 확산시키는 글로벌 가중 평균 풀링(global weight average pooling) 방법을 사용하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법.
The method of claim 2, wherein performing the squeeze operation comprises:
A method of classifying seismic events using attention-based neural networks using a global weight average pooling method that spreads a histogram of a distribution of low-contrast images based on contrast stretching.
제2항에 있어서, 상기 학습된 특징의 중요도를 측정하는 단계는,
2 개의 완전 접속(fully-connected, FC) 레이어와 시그모이드(sigmoid) 활성화 함수를 사용하여 각 채널의 중요성에 따라 적응적으로 중요도 값을 재보정하는 엑시테이션(Excitation) 연산하는 단계를 더 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법.
The method of claim 2, wherein measuring the importance of the learned feature comprises:
Using two fully-connected (FC) layers and a sigmoid activation function to adaptively recalibrate the importance value according to the importance of each channel, the method further comprising the step of calculating an excitation operation , A seismic event classification method using attention-based neural networks.
제4항에 있어서, 상기 엑시테이션(Excitation) 연산하는 단계는,
압축된 특징맵을 미리 설정된 감소율을 갖는 차원 감소 레이어를 통과하는 단계; 및
상기 차원 감소 레이어를 통과한 데이터를 상기 특징맵의 채널 차원으로 복원하는 단계를 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법.
The method of claim 4, wherein the excitation calculation comprises:
passing the compressed feature map through a dimensionality reduction layer having a preset reduction rate; and
and restoring the data that has passed through the dimension reduction layer to the channel dimension of the feature map.
제1항에 있어서, 상기 전처리된 지진 데이터의 입력 데이터를 3개 이상의 복수개의 컨벌루션 레이어들을 통과시켜 비선형 매핑하는 단계는,
상기 전처리된 지진 데이터를 상기 복수개의 컨벌루션 레이어들 중 첫번째 컨벌루션 레이어 및 마지막 컨벌루션 레이어에서 특징값을 배치 정규화하는 단계를 더 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법.
The method of claim 1, wherein the nonlinear mapping of the input data of the preprocessed seismic data through three or more convolutional layers comprises:
Seismic event classification method using an attention-based neural network, further comprising the step of batch-normalizing the preprocessed seismic data in a first convolutional layer and a last convolutional layer among the plurality of convolutional layers.
제6항에 있어서, 상기 특징값을 배치 정규화하는 단계는,
각 특징값에 대해서 평균과 분산을 구한 후 정규화를 거치며 정규화된 특징값들에 대해서 스케일 팩터(scale factor)와 쉬프트 팩터(shift factor)를 더하여 변환하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법.
The method of claim 6, wherein the batch normalizing the feature value comprises:
A seismic event classification method using an attention-based neural network that calculates the mean and variance for each feature value, then normalizes it and converts the normalized feature values by adding a scale factor and a shift factor.
제1항에 있어서, 상기 다운 샘플링된 특징값을 정규화하여 지진 이벤트를 분류하는 단계는,
제1 및 제2 완전 접속(fully-connected, FC) 레이어들을 통과하고, 상기 제1 완전 접속 레이어는 각 뉴런들의 확률값에 따라 활성화하여 학습에 적용하게 하는 드랍아웃 정규화 과정을 수행하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법.
The method of claim 1, wherein classifying the seismic event by normalizing the down-sampled feature value comprises:
An attention-based neural that passes through first and second fully-connected (FC) layers, and the first fully-connected layer performs a dropout normalization process that activates according to the probability value of each neuron and applies it to learning. A method of classifying earthquake events using networks.
제1항 내지 제8항의 어느 하나의 항에 있어서,
상기 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 저장 매체.
9. The method according to any one of claims 1 to 8,
A computer-readable storage medium in which a computer program for performing the seismic event classification method using the attention-based neural network is recorded.
입력되는 지진 데이터를 센터링하여 전처리하는 전처리부;
전처리된 지진 데이터를 비선형 변환하여 특징맵을 추출하고, 비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정하고, 측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정하고, 상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)하는 3개 이상의 복수개의 컨벌루션 레이어들을 포함하는 특징 추출부; 및
상기 다운 샘플링된 특징값을 정규화하여 지진 이벤트를 분류하는 제1 및 제2 완전 접속(fully-connected, FC) 레이어들을 포함하는 분류부;를 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치.
a pre-processing unit for pre-processing the input earthquake data by centering it;
The preprocessed seismic data is non-linearly transformed to extract a feature map, and the non-linearly transformed seismic data is used to measure the importance of the learned feature based on the attention technique that models the interdependence between channels of the feature map, and the measured importance value is A feature comprising three or more convolutional layers that correct a feature value through element-by-element multiplication with the learned feature map, and down-sample through max-pooling based on the feature value extraction unit; and
A classification unit including first and second fully-connected (FC) layers for classifying seismic events by normalizing the down-sampled feature values.
제10항에 있어서, 상기 특징 추출부의 각 컨벌루션 레이어는,
상기 전처리된 지진 데이터를 비선형 변환하는 비선형 변환부;
비선형 변환된 지진 데이터를 상기 특징맵의 채널 간 상호 종속성을 모델링한 주의 기법을 기반으로 학습된 특징의 중요도를 측정하여 특징값을 출력하는 주의 모듈; 및
상기 특징값을 기초로 맥스 풀링(max-pooling)을 통해 다운 샘플링(down-sampling)하는 맥스 풀링부;를 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치.
The method of claim 10, wherein each convolutional layer of the feature extraction unit comprises:
a non-linear conversion unit for non-linearly converting the pre-processed earthquake data;
an attention module that measures the importance of features learned based on an attention technique that models the interdependence between channels of the feature map using nonlinearly transformed seismic data and outputs a feature value; and
A seismic event classification device using a state-based neural network, including; a max pooling unit for down-sampling through max-pooling based on the feature value.
제10항에 있어서, 상기 특징 추출부의 첫번째 컨벌루션 레이어 및 마지막 컨벌루션 레이어는,
각 특징값에 대해서 평균과 분산을 구한 후 정규화를 거치며 정규화된 특징값들에 대해서 스케일 팩터(scale factor)와 쉬프트 팩터(shift factor)를 더하여 변환하는 배치 정규화부를 더 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치.
11. The method of claim 10, wherein the first convolutional layer and the last convolutional layer of the feature extraction unit,
Attention-based neural network, which further includes a batch normalizer that calculates the mean and variance for each feature value, then undergoes normalization, and converts the normalized feature values by adding a scale factor and a shift factor seismic event classification device.
제11항에 있어서, 상기 주의 모듈은,
비선형 변환된 지진 데이터를 각 채널에서 전역 정보를 유지하면서 특징맵을 압축하는 스퀴즈(Squeeze) 연산부;
2 개의 완전 접속(fully-connected, FC) 레이어와 시그모이드(sigmoid) 활성화 함수를 사용하여 각 채널의 중요성에 따라 적응적으로 중요도 값을 재보정하는 엑시테이션(Excitation) 연산부; 및
측정된 중요도 값은 학습된 특징맵과의 요소별 곱을 통해 특징값을 보정하는 스케일부;를 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치.
12. The method of claim 11, wherein the attention module,
a squeeze operation unit that compresses the nonlinearly transformed seismic data while maintaining global information in each channel;
an excitation operation unit that adaptively re-corrects the importance value according to the importance of each channel using two fully-connected (FC) layers and a sigmoid activation function; and
The seismic event classification device using an attention-based neural network, including; a scale unit that corrects the feature value through element-by-element multiplication of the measured importance value with the learned feature map.
제13항에 있어서, 상기 엑시테이션 연산부는,
압축된 특징맵을 미리 설정된 감소율을 갖는 차원 감소 레이어를 통과하는 차원 감소부; 및
상기 차원 감소 레이어를 통과한 데이터를 상기 특징맵의 채널 차원으로 복원하는 차원 복원부를 포함하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치.
14. The method of claim 13, wherein the exit calculation unit,
a dimensionality reduction unit passing the compressed feature map through a dimensionality reduction layer having a preset reduction rate; and
An earthquake event classification device using an attention-based neural network, comprising a dimension restoration unit that restores the data that has passed through the dimension reduction layer to the channel dimension of the feature map.
제10항에 있어서, 상기 분류부의 제1 완전 접속 레이어는,
각 뉴런들의 확률값에 따라 활성화하여 학습에 적용하게 하는 드랍아웃 정규화 과정을 수행하는, 주의 기반 뉴럴네트워크를 이용한 지진 이벤트 분류 장치.
The method of claim 10, wherein the first fully connected layer of the classification unit,
An earthquake event classification device using an attention-based neural network that performs a dropout regularization process that activates according to the probability value of each neuron and applies it to learning.
KR1020190143736A 2019-10-18 2019-11-11 Earthquake event classification method using attention-based convolutional neural network, recording medium and device for performing the method KR102323118B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190143736A KR102323118B1 (en) 2019-10-18 2019-11-11 Earthquake event classification method using attention-based convolutional neural network, recording medium and device for performing the method
US16/992,246 US11947061B2 (en) 2019-10-18 2020-08-13 Earthquake event classification method using attention-based convolutional neural network, recording medium and device for performing the method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190129734 2019-10-18
KR20190129734 2019-11-11
KR1020190143736A KR102323118B1 (en) 2019-10-18 2019-11-11 Earthquake event classification method using attention-based convolutional neural network, recording medium and device for performing the method

Publications (2)

Publication Number Publication Date
KR20210046512A KR20210046512A (en) 2021-04-28
KR102323118B1 true KR102323118B1 (en) 2021-11-10

Family

ID=

Similar Documents

Publication Publication Date Title
US11947061B2 (en) Earthquake event classification method using attention-based convolutional neural network, recording medium and device for performing the method
CN110969087B (en) Gait recognition method and system
US11908240B2 (en) Micro-expression recognition method based on multi-scale spatiotemporal feature neural network
CN103942540A (en) False fingerprint detection algorithm based on curvelet texture analysis and SVM-KNN classification
CN111898385B (en) Earthquake disaster assessment method and system
US9378406B2 (en) System for estimating gender from fingerprints
KR20200061307A (en) Earthquake classification method and apparatus using deep learning
CN115410258A (en) Human face expression recognition method based on attention image
KR102635610B1 (en) Seismic data generation method and device using deep learning
Bachay et al. Hybrid Deep Learning Model Based on Autoencoder and CNN for Palmprint Authentication.
Jobin et al. Plant identification based on fractal refinement technique (FRT)
KR102323118B1 (en) Earthquake event classification method using attention-based convolutional neural network, recording medium and device for performing the method
Katrojwar et al. Design of Image based Analysis and Classification using Unmanned Aerial Vehicle
KR102635608B1 (en) Earthquake Event Classification Method and Apparatus Using Multi-task Deep Learning
CN113033328A (en) Personnel mask wearing state detection and identification method based on deep learning
Lu et al. A novel approach of facial expression recognition based on shearlet transform
Debbabi et al. Combining algebraic approach with extreme value theory for spike detection
DeSantis et al. MEC-based evacuation planning using variance fractal dimension trajectory for speech classification
Al-Rawi et al. Feature extraction of human facail expressions using Haar wavelet and neural network
Nicolae et al. A Method for chainsaw sound detection based on Haar-like features
Xu et al. Change detection on SAR images using divisive normalization-based image representation
Foucher et al. Global semantic classification of scenes using ridgelet transform
Thanh-Du et al. An attendance checking system on mobile devices using transfer learning
Wijaya et al. Implementation of neural network and canny edge detection to recognize the crime through surveillance cameras
Nakano et al. Effect of Data Representation Method for Effective Mining of Time Series Data