KR102483080B1 - Method of classifying and extracting aircraft noise using artificial intelligence - Google Patents

Method of classifying and extracting aircraft noise using artificial intelligence Download PDF

Info

Publication number
KR102483080B1
KR102483080B1 KR1020220002398A KR20220002398A KR102483080B1 KR 102483080 B1 KR102483080 B1 KR 102483080B1 KR 1020220002398 A KR1020220002398 A KR 1020220002398A KR 20220002398 A KR20220002398 A KR 20220002398A KR 102483080 B1 KR102483080 B1 KR 102483080B1
Authority
KR
South Korea
Prior art keywords
noise
aircraft
model
data
noise data
Prior art date
Application number
KR1020220002398A
Other languages
Korean (ko)
Inventor
정천우
임진이
윤성철
Original Assignee
주식회사 이너턴스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이너턴스 filed Critical 주식회사 이너턴스
Priority to KR1020220002398A priority Critical patent/KR102483080B1/en
Application granted granted Critical
Publication of KR102483080B1 publication Critical patent/KR102483080B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H17/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves, not provided for in the preceding groups
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

Disclosed is a method of classifying and extracting aircraft noise by using artificial intelligence (AI). A method of classifying and extracting aircraft noise by using AI may comprise: a step of obtaining background noise data generated by a plurality of events, via one or more geographically distributed noise sensors; a step of obtaining first noise data by performing a preprocessing operation on the background noise data, via one or more processors; a step of obtaining second noise data generated by aircraft noise events, by inputting the first noise data to a first AI model trained to identify the aircraft noise events among the plurality of events, via the one or more processors; a step of obtaining third noise data generated by aircraft noise events in a specific field, by inputting the second noise data to a second AI model trained to identify the aircraft noise events in the specific field among the aircraft noise events, via the one or more processors; and a step of extracting and classifying noise data by aircraft type in a specific field, by inputting the third noise data to a third AI model trained to extract the noise data for each aircraft type in the specific field, via the one or more processors. Therefore, based on AI, noise data for each aircraft type in a specific field can be efficiently extracted and classified from noise generated by various events.

Description

인공지능을 활용한 항공기 소음 분류 및 추출 방법{METHOD OF CLASSIFYING AND EXTRACTING AIRCRAFT NOISE USING ARTIFICIAL INTELLIGENCE}Aircraft noise classification and extraction method using artificial intelligence {METHOD OF CLASSIFYING AND EXTRACTING AIRCRAFT NOISE USING ARTIFICIAL INTELLIGENCE}

본 개시는 소음 분류 및 추출 방법에 관한 것으로, 더욱 상세하게는 인공지능을 활용한 항공기 소음 분류 및 추출 방법에 관한 것이다.The present disclosure relates to a method for classifying and extracting noise, and more particularly, to a method for classifying and extracting aircraft noise using artificial intelligence.

세계 보건 기구(WHO)에서는 오염된 대기나 먼지처럼 소음도 공해로 정의하고 있으며, 소음은 삶의 질에 주요한 영향을 미치는 요인 중 하나라고 지정하고 있다. The World Health Organization (WHO) defines noise as a pollutant like polluted air or dust, and designates noise as one of the major factors affecting the quality of life.

뿐만 아니라, 여러 학계에서 소음이 인체에 미치는 부정적인 영향이 밝혀졌으며, 사람들의 소음에 대한 인식이 바뀜에 따라 소음에 관련된 민원도 기하급수적으로 증가되고 있다. 또한, 환경과 관련된 민원 중 소음/진동과 관련된 민원이 절반 이상을 차지하고 있으며, 그 중에서도 항공기 소음과 관련된 민원은 꾸준하게 증가하고 있는 추세이다.In addition, various academic circles have revealed the negative effects of noise on the human body, and as people's perception of noise changes, civil complaints related to noise are increasing exponentially. In addition, among civil complaints related to the environment, civil complaints related to noise/vibration account for more than half, and among them, civil complaints related to aircraft noise are steadily increasing.

이에 따라, 국내에서는 항공기 소음에 대해 전수 조사가 이루어지는 등, 항공기 소음 분야에 대한 국민적 관심도가 높아졌다. 공항에서 발생하는 소음을 감정하기 위해서는 소음과 관련된 데이터베이스가 구축되어야 한다. 다만, 방대해지는 소음 데이터 베이스를 구축 및 처리하기 위해서는 상당한 인력과 비용을 필요로 한다.Accordingly, national interest in the field of aircraft noise has increased, such as a complete survey on aircraft noise in Korea. In order to evaluate the noise generated at the airport, a database related to noise must be established. However, considerable manpower and cost are required to build and process a noise database that is becoming vast.

일본 등록특허공보 JP 5863165호, 2016.01.08Japanese Registered Patent Publication No. JP 5863165, 2016.01.08

본 개시는 상술된 문제점을 해결하기 위해 안출된 것으로서, 본 개시의 목적은 인공지능을 활용한 항공기 소음 분류 및 추출 방법을 제공함에 있다.The present disclosure has been made to solve the above-described problems, and an object of the present disclosure is to provide a method for classifying and extracting aircraft noise using artificial intelligence.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

본 개시의 일 실시예에 따른, 인공지능을 활용한 항공기 소음 분류 및 추출 방법은, 지리적으로 분산(geographically distributed)된 하나 이상의 소음 센서를 통해, 복수의 이벤트에 의해 발생된 배경 소음 데이터를 획득하는 단계; 하나 이상의 프로세서(processor)를 통해, 상기 배경 소음 데이터에 대해 전처리 동작을 수행하여 제1 소음 데이터를 획득하는 단계; 상기 하나 이상의 프로세서를 통해, 상기 복수의 이벤트 중 항공기 소음 이벤트를 식별하도록 학습된 제1 인공 지능(artificial intelligence, AI) 모델에 상기 제1 소음 데이터를 입력하여, 상기 항공기 소음 이벤트에 의해 발생된 제2 소음 데이터를 획득하는 단계; 상기 하나 이상의 프로세서를 통해, 상기 항공기 소음 이벤트 중 특정 분야의 항공기 소음 이벤트를 식별하도록 학습된 제2 AI 모델에 상기 제2 소음 데이터를 입력하여, 상기 특정 분야의 항공기 소음 이벤트에 의해 발생된 제3 소음 데이터를 획득하는 단계; 및 상기 하나 이상의 프로세서를 통해, 특정 분야의 항공기 기종 별 소음 데이터를 추출하도록 학습된 제3 AI 모델에 상기 제3 소음 데이터를 입력하여, 특정 분야의 항공기 기종 별 소음 데이터를 추출 및 분류하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, a method for classifying and extracting aircraft noise using artificial intelligence includes obtaining background noise data generated by a plurality of events through one or more geographically distributed noise sensors. step; obtaining first noise data by performing a pre-processing operation on the background noise data through one or more processors; Through the one or more processors, the first noise data is input to a first artificial intelligence (AI) model learned to identify an aircraft noise event among the plurality of events, so that a second noise event generated by the aircraft noise event is input. 2 acquiring noise data; Through the one or more processors, the second noise data is input to a second AI model learned to identify aircraft noise events in a specific field among the aircraft noise events, and the third noise event generated by the aircraft noise event in the specific field is input. acquiring noise data; And extracting and classifying noise data for each aircraft type in a specific field by inputting the third noise data into a third AI model learned to extract noise data for each aircraft type in a specific field through the one or more processors. can include

그리고, 인공지능을 활용한 항공기 소음 분류 및 추출 방법은, 상기 하나 이상의 프로세서를 통해, 운행 관련 정보를 추출하도록 학습된 제4 AI 모델에 상기 추출 및 분류된 특정 분야의 항공기 기종 별 소음 데이터를 입력하여, 상기 특정 분야의 항공기 기종 각각에 대한 운행 관련 정보를 추출하는 단계를 더 포함할 수 있다.In addition, in the method of classifying and extracting aircraft noise using artificial intelligence, through the one or more processors, input noise data for each type of aircraft in a specific field to the fourth AI model learned to extract operation-related information. The method may further include extracting operation-related information for each type of aircraft in the specific field.

그리고, 상기 특정 분야의 항공기 기종 각각에 대한 운행 관련 정보는, 상기 특정 분야의 항공기 기종 각각의 운행 시간, 운행에 따라 발생한 소음 크기 또는 주파수 관련 정보 중 적어도 하나를 포함할 수 있다.Further, the operation-related information for each type of aircraft in the specific field may include at least one of information related to the operation time of each type of aircraft in the specific field, the level of noise generated according to operation, or the frequency.

그리고, 상기 제1 소음 데이터를 획득하는 단계는, 상기 배경 소음 데이터에 대해 기 설정된 길이 단위로 분할하는 전처리 동작을 수행하여 상기 제1 소음 데이터를 획득하는 단계를 포함할 수 있다.The obtaining of the first noise data may include obtaining the first noise data by performing a preprocessing operation of dividing the background noise data into predetermined length units.

그리고, 상기 제1 AI 모델은, 복수의 항공기 소음 이벤트 및 상기 복수의 항공기 소음 이벤트를 제외한 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 데이터에 매칭된 라벨링(labeling) 정보에 기초하여, 배경 소음 학습 데이터 중 상기 복수의 항공기 소음 이벤트 발생에 따른 소음 데이터를 추출하도록 학습된 AI 모델이다.In addition, the first AI model learns background noise based on labeling information matched to frequency data corresponding to noise according to occurrence of a plurality of aircraft noise events and each of the events excluding the plurality of aircraft noise events. It is an AI model learned to extract noise data according to the occurrence of the plurality of aircraft noise events among data.

그리고, 상기 제2 AI 모델은, 복수의 항공기 소음 이벤트 중 민간 항공기 소음 이벤트 및 특정 분야의 항공기 소음 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 데이터에 매칭된 라벨링 정보에 기초하여, 항공기 소음 학습 데이터 중 상기 특정 분야의 항공기 소음 이벤트에 의해 발생된 소음 데이터를 추출하도록 학습된 AI 모델이다.In addition, the second AI model is based on labeling information matched to frequency data corresponding to noise according to the occurrence of a civil aircraft noise event and an aircraft noise event in a specific field among a plurality of aircraft noise events, aircraft noise learning data AI model learned to extract noise data generated by aircraft noise events in the specific field.

그리고, 상기 제3 AI 모델은, 특정 분야의 항공기 기종 별 소음 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 데이터에 매칭된 라벨링 정보에 기초하여, 특정 분야의 항공기 기종 별 소음 학습 데이터를 이용하여 상기 특정 분야의 항공기 기종 별 소음 데이터를 추출 및 분류하도록 학습된 AI 모델이다.In addition, the third AI model uses noise learning data for each aircraft model in a specific field based on labeling information matched to frequency data corresponding to noise according to the occurrence of each noise event for each aircraft model in a specific field. It is an AI model trained to extract and classify noise data by aircraft type in a specific field.

그리고, 상기 제1 AI모델, 상기 제2 AI 모델, 상기 제3 AI 모델 또는 상기 제4 AI 모델 중 적어도 하나는, 함수형 API(application programming interface)를 이용한, 다중 퍼셉트론(multi-layer perceptron, MLP), 합성곱 신경망(convolutional neural network, CNN) 또는 순환 신경망(recurrent neural network, RNN) 중 적어도 하나의 결합에 의해 구성될 수 있다.And, at least one of the first AI model, the second AI model, the third AI model, or the fourth AI model is a multi-layer perceptron (MLP) using a functional application programming interface (API). , a convolutional neural network (CNN) or a recurrent neural network (RNN).

그리고, 인공지능을 활용한 항공기 소음 분류 및 추출 방법은, 상기 제1 AI모델, 상기 제2 AI모델, 상기 제3 AI 모델 및 상기 제4 AI 모델을 종단 간 모델(end-to-end model)의 형태로 순서대로 연결함으로써 제5 AI 모델을 구성하는 단계; 및 상기 하나 이상의 프로세서를 통해, 상기 배경 소음 데이터가 상기 제5 모델에 입력하여, 상기 제5 모델에서 상기 특정 분야의 항공기 기종 각각에 대한 운행 관련 정보를 획득하는 단계를 더 포함할 수 있다.In addition, the aircraft noise classification and extraction method using artificial intelligence is an end-to-end model of the first AI model, the second AI model, the third AI model, and the fourth AI model. Constructing a fifth AI model by sequentially connecting in the form of; and inputting the background noise data to the fifth model through the one or more processors, and acquiring operation-related information for each type of aircraft in the specific field from the fifth model.

본 개시의 또 다른 실시예로, 인공지능을 활용하여 항공기 소음을 분류 및 추출하는 연산 장치에 있어서, 지리적으로 분산(geographically distributed)된 하나 이상의 소음 센서; 회로를 포함하는 통신부; 및 하나 이상의 프로세서(processor)를 포함하고, 상기 하나 이상의 프로세서는, 상기 하나 이상의 소음 센서를 통해 획득된 복수의 이벤트에 의해 발생된 배경 소음 데이터를 상기 통신부를 통해 획득하고, 상기 배경 소음 데이터에 대해 전처리 동작을 수행하여 제1 소음 데이터를 획득하고, 상기 복수의 이벤트 중 항공기 소음 이벤트를 식별하도록 학습된 제1 인공 지능 모델(artificial intelligence, AI)에 상기 제1 소음 데이터를 입력하여 상기 항공기 소음 이벤트에 의해 발생된 제2 소음 데이터를 획득하고, 상기 항공기 소음 이벤트 중 특정 분야의 항공기 소음 이벤트를 식별하도록 학습된 제2 AI 모델에 상기 제2 소음 데이터를 입력하여 상기 특정 분야의 항공기 소음 이벤트에 의해 발생된 제3 소음 데이터를 획득하고, 상기 하나 이상의 프로세서를 통해, 특정 분야의 항공기 기종 별 소음 데이터를 추출하도록 학습된 제3 AI 모델에 상기 제3 소음 데이터를 입력하여 특정 분야의 항공기 기종 별 소음 데이터를 추출 및 분류하도록 설정될 수 있다.As another embodiment of the present disclosure, in the computing device for classifying and extracting aircraft noise using artificial intelligence, one or more geographically distributed noise sensors; a communication unit including a circuit; and one or more processors, wherein the one or more processors acquire background noise data generated by a plurality of events acquired through the one or more noise sensors through the communication unit, and determine the background noise data. A pre-processing operation is performed to obtain first noise data, and the first noise data is input to a first artificial intelligence (AI) trained to identify an aircraft noise event among the plurality of events to determine the aircraft noise event. Obtaining second noise data generated by, and inputting the second noise data into a second AI model learned to identify aircraft noise events in a specific field among the aircraft noise events, by the aircraft noise event in the specific field Acquiring the generated third noise data, inputting the third noise data to a third AI model learned to extract noise data for each aircraft type in a specific field through the one or more processors, and then inputting the third noise data for each aircraft type in the specific field It can be set to extract and classify data.

이 외에도, 본 개시를 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present disclosure, another system, and a computer readable recording medium recording a computer program for executing the method may be further provided.

본 개시의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the disclosure are included in the detailed description and drawings.

본 개시의 일 실시예에 따르면, 인공지능을 활용한 항공기 소음 분류 및 추출 방법이 제공될 수 있다.According to an embodiment of the present disclosure, a method for classifying and extracting aircraft noise using artificial intelligence may be provided.

본 개시의 일 실시예에 따르면, 다양한 이벤트에 의해 발생한 소음에서 인공 지능에 기반하여 특정 분야의 항공기 기종 별 소음 데이터를 효율적으로 추출 및 분류할 수 있다.According to an embodiment of the present disclosure, it is possible to efficiently extract and classify noise data for each type of aircraft in a specific field based on artificial intelligence from noise generated by various events.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 개시의 일 실시예에 따른, 인공지능을 활용한 특정 분야의 항공기 소음 분류 및 추출 방법을 구현하는 시스템의 개략도,
도 2는 본 개시의 일 실시예에 따른, 인공지능을 활용한 특정 분야의 항공기 소음 분류 및 추출하는 연산 장치의 구성을 설명하기 위한 블록도,
도 3 및 도 4는 본 개시의 일 실시예에 따른, 특정 분야의 항공기 소음 분류 및 추출하는 동작을 수행하는 인공지능 모델을 설명하기 위한 블록도,
도 5는 본 개시의 일 실시예에 따른, 인공지능을 활용한 특정 분야의 항공기 소음 분류 및 추출 방법을 설명하기 위한 순서도이다.
1 is a schematic diagram of a system implementing a method for classifying and extracting aircraft noise in a specific field using artificial intelligence, according to an embodiment of the present disclosure;
2 is a block diagram for explaining the configuration of a computing device for classifying and extracting aircraft noise in a specific field using artificial intelligence, according to an embodiment of the present disclosure;
3 and 4 are block diagrams for explaining an artificial intelligence model that performs an operation of classifying and extracting aircraft noise in a specific field according to an embodiment of the present disclosure;
5 is a flowchart illustrating a method for classifying and extracting aircraft noise in a specific field using artificial intelligence, according to an embodiment of the present disclosure.

본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시의 개시가 완전하도록 하고, 본 개시가 속하는 기술 분야의 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present disclosure, and methods of achieving them, will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms, but only the present embodiments make the disclosure of the present disclosure complete, and are common in the art to which the present disclosure belongs. It is provided to fully inform the person skilled in the art of the scope of the present disclosure, which is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. Terminology used herein is for describing the embodiments and is not intended to limit the present disclosure. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements.

명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present disclosure.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 사이에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 본 개시에서 용어 "포함한다" 또는 "가진다"는 언급된 특징, 단계, 동작, 요소 및/또는 구성요소의 존재를 특정하지만, 하나 이상의 다른 특징, 단계, 동작, 요소, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는다. In the present disclosure, when a component is said to be "connected", "coupled" or "connected" to another component, this is not only a direct connection relationship, but also an indirect connection relationship between which another component exists. may also be included. Also in this disclosure, the terms "comprises" or "has" specify the presence of a stated feature, step, operation, element and/or component, but not one or more other features, steps, operations, elements, components and/or components. The presence or addition of groups of these is not excluded.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which this disclosure belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성 요소 들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. The spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe a component's correlation with other components. Spatially relative terms should be understood as encompassing different orientations of elements in use or operation in addition to the orientations shown in the drawings.

예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.For example, if you flip a component that is shown in a drawing, a component described as "below" or "beneath" another component will be placed "above" the other component. can Thus, the exemplary term “below” may include directions of both below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

이하, 첨부된 도면을 참조하여 본 개시의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른, 인공지능을 활용한 항공기 소음 분류 및 추출 방법을 구현하기 위한 시스템을 설명하기 위한 도면이다.1 is a diagram for explaining a system for implementing a method for classifying and extracting aircraft noise using artificial intelligence, according to an embodiment of the present disclosure.

도 1에 도시된 바와 같이, 본 개시의 일 실시예에 따른, 인공지능을 활용한 항공기 소음 분류 및 추출 방법을 구현하기 위한 시스템(1000)은, 연산 장치(100), 복수의 소음 센서(200-1, 200-2) 및 클라우드 서버(300)를 포함할 수 있다.As shown in FIG. 1, a system 1000 for implementing a method for classifying and extracting aircraft noise using artificial intelligence according to an embodiment of the present disclosure includes a calculation device 100, a plurality of noise sensors 200 -1, 200-2) and the cloud server 300.

도 1은 연산 장치(100), 복수의 소음 센서(200-1, 200-2) 및 클라우드 서버 각각이 별개의 장치로 구현되어 하나의 시스템을 구성하는 경우를 도시한 것이다. 다만, 이는 일 실시예에 불과하며, 연산 장치(100) 및 복수의 소음 센서(200-1, 200-2)가 하나의 장치로 구성될 수도 있으며, 이는 도 2를 참조하여 설명하도록 한다.FIG. 1 illustrates a case where each of the computing device 100, the plurality of noise sensors 200-1 and 200-2, and the cloud server is implemented as a separate device to configure one system. However, this is only an example, and the arithmetic device 100 and the plurality of noise sensors 200-1 and 200-2 may be configured as one device, which will be described with reference to FIG. 2 .

시스템(1000)에 포함된 각 장치는 네트워크(W)를 통해 통신을 수행할 수 있다. 여기서, 네트워크(W)는 유선 네트워크와 무선 네트워크를 포함할 수 있다. 예를 들어, 네트워크는 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등의 다양한 네트워크를 포함할 수 있다.Each device included in the system 1000 may perform communication through the network W. Here, the network W may include a wired network and a wireless network. For example, the network may include various networks such as a local area network (LAN), a metropolitan area network (MAN), and a wide area network (WAN).

또한, 네트워크는 공지의 월드 와이드 웹(WWW: World Wide Web)을 포함할 수도 있다. 그러나, 본 개시의 실시예에 따른 네트워크는 상기 열거된 네트워크에 국한되지 않고, 공지의 무선 데이터 네트워크나 공지의 전화 네트워크, 공지의 유무선 텔레비전 네트워크를 적어도 일부로 포함할 수도 있다.Also, the network may include the well-known World Wide Web (WWW). However, the network according to an embodiment of the present disclosure is not limited to the networks listed above, and may include at least a part of a known wireless data network, a known telephone network, and a known wired/wireless television network.

복수의 소음 센서(noise sensor)(200-1, 200-2)는 지리적으로 분산(geographically distributed)되어 복수의 이벤트에 의해 발생된 배경 소음 데이터를 획득(또는, 수집)할 수 있다. 도 1에는 소음 센서가 2개인 경우를 도시하고 있으나, 이는 일 실시예에 불과하며, 소음 센서의 개수는 다양한 값으로 구현될 수 있다.The plurality of noise sensors 200-1 and 200-2 may be geographically distributed to acquire (or collect) background noise data generated by a plurality of events. Although FIG. 1 shows a case in which there are two noise sensors, this is merely an example, and the number of noise sensors may be implemented with various values.

여기서, 복수의 이벤트는 비행기의 운행뿐만 아니라 복수의 소음 센서(200-1, 200-2) 주변에서 소음을 발생(또는, 유발)할 수 있는 다양한 이벤트를 포함할 수 있다. 즉, 복수의 이벤트에 의해 발생한 소음 데이터는 소음 센서(200-1, 200-2) 주변에서 발생하는 다양한 이벤트에 의해 발생된 배경 소음과 관련된 데이터를 의미할 수 있다. Here, the plurality of events may include various events that may generate (or cause) noise around the plurality of noise sensors 200-1 and 200-2 as well as operation of the airplane. That is, noise data generated by a plurality of events may refer to data related to background noise generated by various events occurring around the noise sensors 200-1 and 200-2.

복수의 소음 센서(200-1, 200-2)는, 획득된 소음 데이터를 디지털 데이터로 변환하여 연산 장치(100)로 네트워크(W)를 통해 전송(즉, 소음 센서 내에 A(analog)/D(digital) 컨버터가 포함되는 경우)할 수 있으나, 이에 국한되는 것은 아니며, 아날로그 형태의 소음 데이터를 그대로 연산 장치(100)로 전송할 수 있다.The plurality of noise sensors 200-1 and 200-2 convert the acquired noise data into digital data and transmit it to the computing device 100 through the network W (ie, A (analog) / D in the noise sensor) (if a digital converter is included), but is not limited thereto, and analog type noise data may be transmitted to the arithmetic device 100 as it is.

연산 장치(100)는 하나 이상의 프로세서를 포함하며 특정 분야의 항공기 소음 분류 및 추출 동작을 수행할 수 있다. 연상 장치(100)에 포함된 하나 이상의 프로세서는 복수의 소음 센서(200-1, 200-2)로부터 수신된 배경 소음 데이터에 기초하여 특정 분야의 항공기 소음 분류 및 추출 동작을 수행할 수 있다.The computing device 100 includes one or more processors and may perform aircraft noise classification and extraction operations in a specific field. One or more processors included in the associative device 100 may classify and extract aircraft noise in a specific field based on the background noise data received from the plurality of noise sensors 200-1 and 200-2.

한편, 도 1에서 연산 장치(100)가 데스크 탑 PC로 구현된 경우를 도시하고 있으나, 이에 국한되는 것은 아니다. 연상 장치(100)는 태블릿 PC, 노트북, 스마트 폰, 웨어러블 기기 등 다양한 유형의 장치로 구현될 수 있다.Meanwhile, although FIG. 1 illustrates a case in which the computing device 100 is implemented as a desktop PC, it is not limited thereto. The associative device 100 may be implemented in various types of devices such as a tablet PC, a laptop computer, a smart phone, and a wearable device.

클라우드 서버(300)는 특정 분야의 항공기 소음 분류 및 추출 동작을 수행할 때 이용되는 인공 지능(artificial intelligence, AI) 모델이 저장된 서버이다. 예를 들어, 클라우드 서버(300)에는 제1 AI 모델, 제2 AI 모델, 제3 AI 모델, 제4 AI 모델 및 제5 AI 모델이 저장되어 있을 수 있으며, 각 AI 모델에 대한 설명은 후술하는 부분에서 설명하도록 한다.The cloud server 300 is a server storing an artificial intelligence (AI) model used when classifying and extracting aircraft noise in a specific field. For example, the first AI model, the second AI model, the third AI model, the fourth AI model, and the fifth AI model may be stored in the cloud server 300, and descriptions of each AI model will be described later. section to explain.

연산 장치(100)에 포함된 하나 이상의 프로세서는 클라우드 서버(300)에 저장된 AI 모델을 이용할 수 있다. 즉, 연상 장치(100)는 클라우드 기반 AI 모델을 활용할 수 있다. One or more processors included in the computing device 100 may use the AI model stored in the cloud server 300 . That is, the associative device 100 may utilize a cloud-based AI model.

다만, 이는 일 실시예에 불과하며, 연산 장치(100) 상에 각 AI 모델이 저장되어 있을 수 있다. 즉, 연산 장치(100)는 온-디바이스(on-device) 기반 AI 모델을 활용할 수 있다. 이 때, 연산 장치(100) 내에 포함된 AI 모델은, 클라우드 서버(300) 내에서 학습되어 연산 장치(100)로 전송되거나 연산 장치(100) 내에서 학습될 수도 있다.However, this is only one embodiment, and each AI model may be stored on the computing device 100. That is, the computing device 100 may utilize an on-device based AI model. In this case, the AI model included in the computing device 100 may be learned within the cloud server 300 and transmitted to the computing device 100 or may be learned within the computing device 100 .

도 2는 본 개시의 일 실시예에 따른, 인공지능을 활용한 특정 분야의 항공기 소음 분류 및 추출하는 연산 장치의 구성을 설명하기 위한 블록도이다.2 is a block diagram for explaining the configuration of a computing device for classifying and extracting aircraft noise in a specific field using artificial intelligence, according to an embodiment of the present disclosure.

도 2에 도시된 바와 같이, 연산 장치(100)는 소음 센서(110), 메모리(120), 통신부(130) 및 프로세서(140)를 포함할 수 있다. As shown in FIG. 2 , the arithmetic device 100 may include a noise sensor 110 , a memory 120 , a communication unit 130 and a processor 140 .

다만, 도 1에 도시된 구성은 본 개시의 실시 예들을 구현하기 위한 예시도이며, 통상의 기술자에게 자명한 수준의 적절한 하드웨어 및 소프트웨어 구성들이 연산 장치(100)에 추가로 포함될 수 있다.However, the configuration shown in FIG. 1 is an exemplary diagram for implementing the embodiments of the present disclosure, and appropriate hardware and software configurations that are obvious to those skilled in the art may be additionally included in the computing device 100 .

소음 센서(110)는 복수의 이벤트에 의해 발생된 배경 소음 데이터를 획득(또는, 수집)할 수 있다. 소음 센서(110)는 연산 장치(100)의 다양한 위치에 배치될 수 있으며, 소음 센서(110)의 개수는 하나 이상일 수 있다. 도 2의 소음 센서(110)에 대한 설명은 도 1의 복수의 소음 센서(200-1, 200-2)에 대응되는 바, 중복되는 설명은 생략하도록 한다.The noise sensor 110 may acquire (or collect) background noise data generated by a plurality of events. Noise sensors 110 may be disposed in various positions of the computing device 100, and the number of noise sensors 110 may be one or more. The description of the noise sensor 110 of FIG. 2 corresponds to the plurality of noise sensors 200-1 and 200-2 of FIG. 1, and therefore, overlapping descriptions will be omitted.

메모리(120)는 각종 동작을 수행하기 위한 하나 이상의 인스트럭션(instruction)을 저장할 수 있다. 메모리(120)는 소음 센서(110)를 통해 획득된 배경 소음 데이터를 저장할 수 있다. 메모리(120)는 복수의 AI 모델(예로, 제1 AI 모델, 제2 AI 모델, 제3 AI 모델, 제4 AI 모델 및 제5 AI 모델)을 통해 획득된 데이터를 저장할 수 있다. The memory 120 may store one or more instructions for performing various operations. The memory 120 may store background noise data acquired through the noise sensor 110 . The memory 120 may store data acquired through a plurality of AI models (eg, a first AI model, a second AI model, a third AI model, a fourth AI model, and a fifth AI model).

메모리(120)는 AI 모델을 활용하기 위해 필요한 데이터(예를 들어, 온 디바이스 기반의 AI 모델을 실행하기 위해 필요한 데이터 등)를 저장할 수 있다.The memory 120 may store data required to utilize the AI model (eg, data required to execute the on-device AI model).

통신부(130)는 하나 이상의 회로를 포함하며 외부 장치와 통신을 수행할 수 있다. 통신부(130)가 외부 장치와 통신 연결되는 것은 제3 기기(예로, 중계기, 허브, 액세스 포인트, 서버 또는 게이트웨이 등)를 거쳐서 통신하는 것을 포함할 수 있다. 통신부(130)는 외부 장치와 통신을 수행하기 위해 다양한 통신 모듈을 포함할 수 있다.The communication unit 130 includes one or more circuits and can communicate with an external device. Connecting the communication unit 130 to an external device may include communication through a third device (eg, a repeater, a hub, an access point, a server, or a gateway). The communication unit 130 may include various communication modules to communicate with external devices.

통신부(130)는 복수의 AI 모델을 저장하고 있는 클라우드 서버와 통신을 수행할 수 있다. 예를 들어, 통신부(130)는 클라우드 서버와 복수의 AI 모델에 입력할 입력 데이터 및 AI 모델을 통해 획득된 출력 데이터를 교환할 수 있다.The communication unit 130 may communicate with a cloud server storing a plurality of AI models. For example, the communication unit 130 may exchange input data to be input to a plurality of AI models and output data acquired through the AI models with the cloud server.

또 다른 예로, 소음 센서(110)가 연산 장치(100)의 외부에 배치된 경우, 통신부(130)는 소음 센서(110)로부터 배경 소음 데이터를 수신할 수 있다.As another example, when the noise sensor 110 is disposed outside the computing device 100 , the communication unit 130 may receive background noise data from the noise sensor 110 .

프로세서(140)는 메모리(120)와 전기적으로 연결되어 연산 장치(100)의 전반적인 동작 및 기능을 제어할 수 있다. 도 2의 프로세서(140)는 도 1의 연산 장치(100)의 프로세서와 대응되므로, 중복되는 설명은 생략하도록 한다.The processor 140 may be electrically connected to the memory 120 to control overall operations and functions of the arithmetic device 100 . Since the processor 140 of FIG. 2 corresponds to the processor of the arithmetic device 100 of FIG. 1 , overlapping descriptions will be omitted.

프로세서(140)는 하나 이상의 프로세서로 구성될 수 있다. 이 때, 하나 이상의 프로세서는 CPU(Central Processing Unit), AP(Application Processor), DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU(Graphic Processing Unit), VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU(Neural Processing Unit)와 같은 인공지능 전용 프로세서 등으로 구현될 수 있다. 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계된 프로세서를 의미할 수 있다.Processor 140 may consist of one or more processors. At this time, the one or more processors may include a general-purpose processor such as a CPU (Central Processing Unit), an AP (Application Processor), a DSP (Digital Signal Processor), a graphics-only processor such as a GPU (Graphic Processing Unit), a VPU (Vision Processing Unit), or It can be implemented with an artificial intelligence dedicated processor such as an NPU (Neural Processing Unit). The artificial intelligence-only processor may refer to a processor designed with a hardware structure specialized for processing a specific artificial intelligence model.

프로세서(140)는 배경 소음 데이터에 대해 전처리(preprocess) 동작을 수행함으로써 제1 소음 데이터를 획득할 수 있다. 전처리 동작은 데이터 분석 목적과 방법에 맞는 형태로 처리하기 위하여 불필요한 정보를 분리 제거하고 가공하기 위한 예비적 조작 동작을 의미한다. The processor 140 may obtain first noise data by performing a preprocessing operation on the background noise data. The pre-processing operation means a preliminary operation operation for separating and removing unnecessary information and processing it in order to process it in a form suitable for the purpose and method of data analysis.

구체적으로, 배경 소음 데이터를 AI 모델에 적용하기 전(즉, AI 모델을 이용한 추론 동작(예로, 분류 또는 추출 동작)을 수행하기 전)에, 프로세서(140)는 배경 소음 데이터에 대해 전처리 동작을 수행할 수 있다. 예를 들어, 프로세서(140)는 배경 소음 데이터에 대해 기 설정된 길이 단위로 분할하는 전처리 동작을 수행하여 제1 소음 데이터를 획득할 수 있다.Specifically, before applying the background noise data to the AI model (ie, before performing an inference operation (eg, classification or extraction operation) using the AI model), the processor 140 performs a preprocessing operation on the background noise data. can be done For example, the processor 140 may obtain first noise data by performing a preprocessing operation of dividing the background noise data into preset length units.

또 다른 예로, 배경 소음 데이터가 아날로그 신호인 경우, 프로세서(140)는 배경 소음 데이터에 대해 디지털 신호로 변환하는 전처리 동작을 수행할 수 있다.As another example, when the background noise data is an analog signal, the processor 140 may perform a preprocessing operation of converting the background noise data into a digital signal.

프로세서(140)는 복수의 이벤트 중 항공기 소음 이벤트를 식별하도록 학습된 제1 AI 모델에 제1 소음 데이터를 입력하여, 항공기 소음 이벤트에 의해 발생된 제2 소음 데이터를 획득할 수 있다. 즉, 제1 AI 모델은 배경 소음 중 항공기 운행에 의해 발생된 소음을 추출 또는 분류하도록 학습된 인공 지능 모델이다.The processor 140 may obtain second noise data generated by the aircraft noise event by inputting the first noise data to the first AI model learned to identify the aircraft noise event among the plurality of events. That is, the first AI model is an artificial intelligence model learned to extract or classify noise generated by aircraft operation among background noise.

제1 AI 모델은 복수의 항공기 소음 이벤트 및 복수의 항공기 소음 이벤트를 제외한 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 데이터에 매칭된 라벨링(labeling) 정보에 기초하여, 배경 소음 학습 데이터 중 복수의 항공기 소음 이벤트 발생에 따른 소음 데이터를 추출하도록 학습될 수 있다. The first AI model is based on labeling information matched to frequency data corresponding to noise according to the occurrence of each of the plurality of aircraft noise events and the plurality of aircraft noise events, and a plurality of aircraft among the background noise learning data. It may be learned to extract noise data according to the occurrence of a noise event.

여기서, 주파수 데이터는 주파수 스펙트럼(예로, 진폭 스펙트럼, 위상 스펙트럼, 에너지 스펙트럼, 전력 스펙트럼 등) 등과 같이 주파수 성분을 확인할 수 있는 데이터를 의미한다.Here, the frequency data means data from which frequency components can be identified, such as a frequency spectrum (eg, an amplitude spectrum, a phase spectrum, an energy spectrum, a power spectrum, etc.).

예를 들어, 제1 AI 모델은, 항공기 소음 이벤트 발생에 따른 소음에 대응되는 주파수 스펙트럼에 라벨링된 정보에 기초하여, 다양한 배경 소음이 포함된 학습 데이터에서 항공기 소음 이벤트 발생에 따른 소음 데이터를 추출하도록 학습될 수 있다.For example, the first AI model extracts noise data according to the occurrence of an aircraft noise event from learning data including various background noises based on information labeled on a frequency spectrum corresponding to noise according to the occurrence of an aircraft noise event. can be learned

본 개시의 일 실시예로, 프로세서(140)는 제1 AI모델을 통해 항공기 소음을 식별한 후, 항공기 소음 평가 프로그램을 이용하여 웨클(Weighted Equivalent Continuous Perceived Noise Level, WECPNL) 값과 엘디엔(Lden·day-evening-night Average Sound Level) 값 등을 자동으로 계산할 수 있다. 항공기 소음 평가 프로그램은 측정된 소음 측정 데이터에서 Leq, Lmax, 주파수별 Leq값을 추출한 후, 제1 AI 모델을 이용하여 항공기 소음을 식별하고, WECPNL, Lden 등을 계산하는 프로그램이다.In one embodiment of the present disclosure, the processor 140 identifies aircraft noise through the first AI model, and then uses an aircraft noise evaluation program to determine a Weighted Equivalent Continuous Perceived Noise Level (WECPNL) value and an Lden value. ·Day-evening-night Average Sound Level) can be automatically calculated. The aircraft noise evaluation program is a program that extracts Leq, Lmax, and Leq values for each frequency from the measured noise measurement data, identifies aircraft noise using the first AI model, and calculates WECPNL and Lden.

여기서, 웨클은 항공기의 최고 소음도를 이용하여 계산된 1일 항공기 소음 노출 지표를 의미하며, 엘디엔은 항공기의 등가 소음도를 측정하여 도출된 1일 항공기 소음도를 의미한다.Here, WECLE means a daily aircraft noise exposure index calculated using the highest noise level of an aircraft, and LDN means a daily aircraft noise level derived by measuring an equivalent noise level of an aircraft.

여기서, 소음 평가 프로그램의 검증을 위해, 학습에 사용되지 않은 15일의 새로운 소음 데이터를 입력함으로써 WECPNL 값과 Lden 값을 비교하였다. 비교 결과, WECPNL 및 Lden 값에서 일부 오차가 나타났다.Here, for the verification of the noise evaluation program, the WECPNL value and the Lden value were compared by inputting new noise data of 15 days not used for learning. The comparison revealed some errors in WECPNL and Lden values.

한편, 프로세서(140)는 배경 소음에서 항공기 운행에 의해 발생된 소음을 추출하고, 나머지 소음은 비 항공기 소음으로서 별도의 데이터 베이스 상에 저장할 수 있다.Meanwhile, the processor 140 may extract noise generated by aircraft operation from background noise and store the remaining noise as non-aircraft noise in a separate database.

프로세서(140)는, 항공기 소음 이벤트 중 특정 분야의 항공기 소음 이벤트를 식별하도록 학습된 제2 AI 모델에 제2 소음 데이터를 입력하여, 특정 분야의 항공기 소음 이벤트에 의해 발생된 제3 소음 데이터를 획득할 수 있다. 즉, 제2 AI 모델은 복수의 항공기 중 특정 분야의 항공기 운행에 의해 발생된 소음을 추출 또는 분류하도록 학습된 인공 지능 모델이다.The processor 140 acquires third noise data generated by aircraft noise events in a specific field by inputting the second noise data to the second AI model learned to identify aircraft noise events in a specific field among aircraft noise events. can do. That is, the second AI model is an artificial intelligence model learned to extract or classify noise generated by operation of an aircraft in a specific field among a plurality of aircraft.

제2 AI 모델은, 복수의 항공기 소음 이벤트 중 민간 항공기 소음 이벤트 및 특정 분야의 항공기 소음 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 데이터에 매칭된 라벨링 정보에 기초하여, 항공기 소음 학습 데이터 중 특정 분야의 항공기 소음 이벤트에 의해 발생된 소음 데이터를 추출하도록 학습될 수 있다.The second AI model is a specific field among aircraft noise learning data based on labeling information matched to frequency data corresponding to noise according to the occurrence of each of a plurality of aircraft noise events and a civil aircraft noise event and an aircraft noise event in a specific field. It can be learned to extract noise data generated by aircraft noise events of

예를 들어, 제2 AI 모델은, 항공기 소음 이벤트 발생에 따른 소음에 대응되는 주파수 스펙트럼에 라벨링된 정보에 기초하여, 다양한 항공기 소음이 포함된 학습 데이터에서 특정 분야의 항공기 소음 이벤트 발생에 따른 소음 데이터를 추출하도록 학습될 수 있다.For example, the second AI model is based on information labeled on a frequency spectrum corresponding to noise caused by the occurrence of an aircraft noise event, in learning data including various aircraft noise, noise data according to the occurrence of an aircraft noise event in a specific field. It can be learned to extract

한편, 프로세서(140)는 항공기 소음에서 특정 분야의 항공기 운행에 의해 발생된 소음을 추출하고, 나머지 소음은 비-특정 분야의 항공기 소음으로서 별도의 데이터 베이스 상에 저장할 수 있다.Meanwhile, the processor 140 may extract noise generated by aircraft operation in a specific field from aircraft noise, and store the remaining noise as aircraft noise in a non-specific field in a separate database.

프로세서(140)는 특정 분야의 항공기 기종 별 소음 데이터를 추출하도록 학습된 제3 AI 모델에 상기 제3 소음 데이터를 입력하여, 특정 분야의 항공기 기종 별 소음 데이터를 추출 및 분류할 수 있다. 즉, 제3 AI 모델은 특정 분야의 항공기 기종 별로 발생된 소음을 추출 및 분류하도록 학습된 인공 지능 모델이다.The processor 140 may extract and classify the noise data for each aircraft type in the specific field by inputting the third noise data to the third AI model learned to extract the noise data for each aircraft type in the specific field. That is, the third AI model is an artificial intelligence model learned to extract and classify noise generated for each type of aircraft in a specific field.

제3 AI 모델은, 특정 분야의 항공기 기종 별 소음 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 데이터에 매칭된 라벨링 정보에 기초하여, 특정 분야의 항공기 기종 별 소음 학습 데이터를 이용하여 특정 분야의 항공기 기종 별 소음 데이터를 추출 및 분류하도록 학습될 수 있다.The third AI model is an aircraft in a specific field using noise learning data for each aircraft type in a specific field based on labeling information matched to frequency data corresponding to noise according to the occurrence of each noise event for each aircraft model in a specific field. It can be learned to extract and classify noise data for each aircraft type.

예를 들어, 제3 AI 모델은, 특정 분야의 항공기 기종 별 소음 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 스펙트럼에 라벨링된 정보에 기초하여, 다양한 특정 분야의 항공기 소음이 포함된 학습 데이터에서 특정 분야의 항공기 기종 별 소음 데이터를 추출하도록 학습될 수 있다.For example, the third AI model is based on information labeled on a frequency spectrum corresponding to noise according to the occurrence of each noise event for each aircraft type in a specific field, in learning data including aircraft noise in various specific fields. It can be learned to extract noise data for each type of aircraft in the field.

프로세서(140)는, 운행 관련 정보를 추출하도록 학습된 제4 AI 모델에 추출 및 분류된 특정 분야의 항공기 기종 별 소음 데이터를 입력하여, 특정 분야의 항공기 기종 각각에 대한 운행 관련 정보를 추출할 수 있다. The processor 140 inputs the extracted and classified noise data for each type of aircraft in the specific field to the fourth AI model learned to extract the driving related information, and extracts the driving related information for each aircraft type in the specific field. there is.

즉, 제4 AI 모델은 특정 분야의 항공기 소음 이벤트 발생에 따른 소음 데이터에서 운행 시간, 소음 크기, 주파수 관련 정보를 추출하도록 학습된 인공 지능 모델을 의미한다.That is, the fourth AI model means an artificial intelligence model learned to extract operation time, noise level, and frequency-related information from noise data according to the occurrence of aircraft noise events in a specific field.

여기서, 특정 분야의 항공기 기종 각각에 대한 운행 관련 정보는 특정 분야의 항공기 기종 각각의 운행 시간, 운행에 따라 발생한 소음 크기 또는 주파수 관련 정보(예로, 주파수 스펙트럼 등) 중 적어도 하나를 포함할 수 있다. Here, the operation-related information for each type of aircraft in the specific field may include at least one of the operating time of each aircraft type in the specific field, the level of noise generated according to operation, or frequency-related information (eg, frequency spectrum, etc.).

한편, 제1 AI모델, 상기 제2 AI 모델, 상기 제3 AI 모델 또는 상기 제4 AI 모델 중 적어도 하나는, 함수형 API(application programming interface)를 이용한, 다중 퍼셉트론(multi-layer perceptron, MLP), 합성곱 신경망(convolutional neural network, CNN) 또는 순환 신경망(recurrent neural network, RNN) 중 적어도 하나의 결합으로 구성될 수 있다.On the other hand, at least one of the first AI model, the second AI model, the third AI model, or the fourth AI model is a multi-layer perceptron (MLP) using a functional API (application programming interface), It may be composed of a combination of at least one of a convolutional neural network (CNN) and a recurrent neural network (RNN).

함수형 API는 각 층을 일종의 함수로서 정의하는 도구를 의미한다. 함수형 API는 함수처럼 층을 이루며 텐서(tensor)들의 입출력을 직접적으로 다룰 수 있다. 함수형 API를 이용할 경우, 층 객체를 여러 번 재사용할 수 있어 가중치를 공유하고 함께 학습할 수 있다. 즉, 함수형 API는 고급 심층 신경망 구조를 구축하기 위해 필요한 도구일 수 있다.Functional API means a tool that defines each layer as a kind of function. Functional APIs layer like functions and can directly handle the input and output of tensors. When using the functional API, layer objects can be reused multiple times to share weights and learn together. In other words, functional APIs can be the tools you need to build advanced deep neural network architectures.

CNN은 시각적 영상을 분석하는데 사용되는 다층 인공 신경망의 종류로서, 사진과 동영상, 음성 문제를 학습하는 딥러닝 알고리즘을 의미한다. CNN은 입력 이미지를 수학적 행렬로 전환한 후 합성곱 레이어에서 필터에 의해 여러 특성 맵을 얻어내도록 구성될 수 있다. 합성곱 레이어에서 얻은 특성 맵은 풀링(pooling) 레이어를 거치면서 이미지의 가장 중요한 부분은 보존하면서 더 압축되고, 풀링된 이미지는 프래트닝(flattening)을 통해 하나의 열로 만들어질 수 있다.CNN is a type of multilayer artificial neural network used to analyze visual images, and refers to a deep learning algorithm that learns photos, videos, and voice problems. A CNN can be configured to convert an input image into a mathematical matrix and then obtain several feature maps by filters in a convolutional layer. The feature map obtained from the convolutional layer is further compressed while preserving the most important part of the image through a pooling layer, and the pooled image can be made into a single column through flattening.

CNN에 입력되는 데이터는 일반적으로 이미지 데이터이다. 소음 데이터를 CNN에 입력하기 위하여, 소음 데이터(즉, 숫자)를 이미지로 변환할 수 있다. 다만, 이는 일 실시예에 불과하며, 소음 데이터를 0과 1 사이에 위치하는 데이터로 변경(MinMaxScaler)하고, 변경된 데이터를 CNN에 입력할 수 있다.Data input to the CNN is generally image data. In order to input noise data into a CNN, noise data (i.e., numbers) can be converted into images. However, this is only an example, and the noise data may be changed to data located between 0 and 1 (MinMaxScaler), and the changed data may be input to the CNN.

RNN은 순차적 데이터 처리를 전문으로 하는 신경망 유형을 의미한다. CNN은 이전 데이터의 결과를 기억할 수 없으나, RNN은 이전 상태를 기억함으로써 현재의 입력 데이터뿐만 아니라 시간이 지남에 따라 경험한 것들도 입력 데이터로서 이용할 수 있다.RNN refers to a type of neural network that specializes in sequential data processing. CNNs cannot remember the results of previous data, but RNNs can use not only current input data but also experiences over time as input data by remembering previous states.

본 개시의 일 실시예로, MLP, RNN 또는 CNN 중 적어도 하나의 결합으로 구성된 AI 모델(제1 AI 모델, 제2 AI 모델, 제3 AI 모델, 제4 AI 모델 및 제 5 AI 모델)은 덴스 레이어(Dense layer), LSTM 레이어 및 Conv2D 레이어 중 적어도 하나로 구성되어 있으며, 활성화 함수는 렐루(ReLU) 함수 또는/및 시그모이드(sigmoid) 함수를 사용할 수 있다. 각 AI 모델에 대해 학습 동작을 수행할 때 이용되는 손실함수는 이항 교차 엔트로피(binary_crossentropy)가 사용될 수 있으며, 최적화 함수(optimizer)는 아담(Adam)이 사용될 수 있다. 여기서, 배치 사이즈(batch size)는 20으로 설정될 수 있으며, 과대 적합을 예방하기 위해 얼리스타핑(Early Stopping) 콜 백을 사용할 수 있다. 학습 결과, AI 모델의 테스트 데이터의 정확도는 99.55%로 loss값은 0.016으로 도출되었다. 다만, AI 모델과 관련하여 적용될 수 있는 함수의 예시는 상술된 예시로 한정되는 것은 아니며, 다양한 함수가 사용될 수 있음은 물론이다.In an embodiment of the present disclosure, an AI model (a first AI model, a second AI model, a third AI model, a fourth AI model, and a fifth AI model) composed of a combination of at least one of MLP, RNN, and CNN is dense It is composed of at least one of a dense layer, an LSTM layer, and a Conv2D layer, and an activation function may use a ReLU function or/and a sigmoid function. Binary_crossentropy may be used as a loss function used when performing a learning operation for each AI model, and Adam may be used as an optimizer. Here, the batch size may be set to 20, and an Early Stopping callback may be used to prevent overfitting. As a result of learning, the accuracy of the test data of the AI model was 99.55%, and the loss value was 0.016. However, examples of functions that can be applied in relation to the AI model are not limited to the above examples, and various functions may be used.

한편, 제1 AI모델, 제2 AI모델, 제3 AI 모델 및 제4 AI 모델을 종단 간 모델(end-to-end model)의 형태로 순서대로 연결함으로써 제5 AI 모델을 구성할 수 있다. 이와 관련된 실시예는 도 4를 참조하여 설명하도록 한다.Meanwhile, a fifth AI model may be configured by sequentially connecting the first AI model, the second AI model, the third AI model, and the fourth AI model in the form of an end-to-end model. An embodiment related to this will be described with reference to FIG. 4 .

도 3 및 도 4는 본 개시의 일 실시예에 따른, 특정 분야의 항공기 소음 분류 및 추출하는 동작을 수행하는 인공지능 모델을 설명하기 위한 블록도이다.3 and 4 are block diagrams for explaining an artificial intelligence model performing an operation of classifying and extracting aircraft noise in a specific field, according to an embodiment of the present disclosure.

연산 장치는 소음 센서를 통해 획득된 배경 소음 데이터를 전처리 모듈(310)에 입력하여 제1 소음 데이터를 획득할 수 있다. 제1 소음 데이터는, 배경 소음 데이터에 대해 인공 지능 기반 분류 및 추출 동작을 수행하기 위한 전처리 동작이 수행된 데이터를 의미한다.The computing device may obtain first noise data by inputting the background noise data obtained through the noise sensor to the preprocessing module 310 . The first noise data refers to data on which a preprocessing operation for performing an artificial intelligence-based classification and extraction operation is performed on the background noise data.

연산 장치는 제1 소음 데이터를 제1 AI 모델(320)에 입력하여 제2 소음 데이터를 획득할 수 있다. 여기서, 제2 소음 데이터는 배경 소음 중 항공기 소음 데이터를 의미한다.The computing device may obtain second noise data by inputting the first noise data to the first AI model 320 . Here, the second noise data means aircraft noise data among background noise.

연산 장치는 제2 소음 데이터를 제2 AI 모델(330)에 입력하여 제3 소음 데이터를 획득할 수 있다. 여기서, 제3 소음 데이터는 항공기 소음 중 특정 분야의 항공기 소음 데이터를 의미한다.The calculation device may obtain third noise data by inputting the second noise data to the second AI model 330 . Here, the third noise data means aircraft noise data of a specific field among aircraft noise.

연산 장치는 제3 소음 데이터를 제3 AI 모델(340)에 입력하여 특정 분야의 항공기 기종 별 소음 데이터를 획득할 수 있다. 연산 장치는 특정 분야의 항공기 기종 별 소음 데이터를 제4 AI 모델(350)에 입력하여 특정 분야의 항공기 기종 별 운행 관련 정보를 획득할 수 있다.The calculation device may input the third noise data to the third AI model 340 to obtain noise data for each aircraft type in a specific field. The computing device may input noise data for each type of aircraft in a specific field to the fourth AI model 350 to obtain operation-related information for each type of aircraft in a specific field.

도 4는 제1 AI모델(320), 제2 AI모델(330), 제3 AI 모델(340) 및 제4 AI 모델(350)을 종단 간 모델의 형태로 순서대로 연결함으로써 하나의 AI 모델(즉, 제5 AI 모델(400))이 구성된 실시예를 도시하고 있다. 제5 AI 모델(400)은 배경 소음 데이터에 대해서 전처리한 제1 소음 데이터에 기초하여 특정 분야의 항공기 각각에 대한 운행 관련 정보를 추출하도록 학습될 수 있다.4 is a first AI model 320, a second AI model 330, a third AI model 340, and a fourth AI model 350 sequentially connected in the form of an end-to-end model to form one AI model ( That is, it shows an embodiment in which the fifth AI model 400) is configured. The fifth AI model 400 may be trained to extract operation-related information for each aircraft in a specific field based on the first noise data preprocessed for the background noise data.

도 4와 같이 제5 AI 모델(400)이 구성된 경우를 가정한다. 연산 장치는 제1 소음 데이터를 제5 AI 모델(400)에 입력함으로써 특정 분야의 항공기 각각에 대한 운행 관련 정보를 획득할 수 있다. As shown in FIG. 4, it is assumed that the fifth AI model 400 is configured. The computing device may acquire operation-related information for each aircraft in a specific field by inputting the first noise data into the fifth AI model 400 .

도 5는 본 개시의 일 실시예에 따른, 인공지능을 활용한 특정 분야의 항공기 소음 분류 및 추출 방법을 설명하기 위한 순서도이다. 도 5에 개시된 순서도에 포함된 용어 및 동작에 대한 설명이 이전 설명과 중복될 경우 생략하도록 한다. 5 is a flowchart illustrating a method for classifying and extracting aircraft noise in a specific field using artificial intelligence, according to an embodiment of the present disclosure. If a description of terms and operations included in the flowchart disclosed in FIG. 5 is duplicated with the previous description, it will be omitted.

지리적으로 분산된 하나 이상의 소음 센서를 통해, 복수의 이벤트에 의해 발생된 배경 소음 데이터가 획득될 수 있다(S510).Background noise data generated by a plurality of events may be acquired through one or more geographically dispersed noise sensors (S510).

하나 이상의 프로세서를 통해, 배경 소음 데이터에 대해 전처리 동작을 수행함으로써 제1 소음 데이터가 획득될 수 있다(S520).The first noise data may be obtained by performing a preprocessing operation on the background noise data through one or more processors (S520).

하나 이상의 프로세서를 통해, 복수의 이벤트 중 항공기 소음 이벤트를 식별하도록 학습된 제1 AI 모델에 제1 소음 데이터를 입력함으로써, 항공기 소음 이벤트에 의해 발생된 제2 소음 데이터가 획득될 수 있다(S530).Second noise data generated by the aircraft noise event may be obtained by inputting the first noise data to the first AI model learned to identify the aircraft noise event among the plurality of events through one or more processors (S530). .

하나 이상의 프로세서를 통해, 항공기 소음 이벤트 중 특정 분야의 항공기 소음 이벤트를 식별하도록 학습된 제2 AI 모델에 제2 소음 데이터를 입력함으로써, 특정 분야의 항공기 소음 이벤트에 의해 발생된 제3 소음 데이터가 획득될 수 있다(S540).Through one or more processors, the third noise data generated by the aircraft noise event in the specific field is acquired by inputting the second noise data into the second AI model learned to identify the aircraft noise event in the specific field among the aircraft noise events. It can be (S540).

하나 이상의 프로세서를 통해, 특정 분야의 항공기 기종 별 소음 데이터를 추출하도록 학습된 제3 AI 모델에 제3 소음 데이터를 입력함으로써, 특정 분야의 항공기 기종 별 소음 데이터가 추출 및 분류될 수 있다(S550).Through one or more processors, noise data for each aircraft type in a specific field may be extracted and classified by inputting third noise data to a third AI model learned to extract noise data for each aircraft type in a specific field (S550). .

하나 이상의 프로세서를 통해, 운행 관련 정보를 추출하도록 학습된 제4 AI 모델에 추출 및 분류된 특정 분야의 항공기 기종 별 소음 데이터가 입력됨으로써, 특정 분야의 항공기 기종 각각에 대한 운행 관련 정보가 추출될 수 있다(S560).Through one or more processors, the extracted and classified noise data for each aircraft type in a specific field is input to the fourth AI model learned to extract operation-related information, so that operation-related information for each aircraft type in a specific field can be extracted. Yes (S560).

한편, 상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.Meanwhile, the above-described embodiments of the present disclosure can be written as a program that can be executed on a computer, and the written program can be stored in a medium.

매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. The medium may continuously store programs executable by a computer or temporarily store them for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or combined hardware, and is not limited to a medium directly connected to a certain computer system, and may be distributed on a network.

매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions. In addition, examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server.

이상, 본 개시에서 설명되는 실시예와 첨부된 도면은 본 개시에 포함되는 기술적 사상의 일부를 예시적으로 설명하는 것에 불과하다. 따라서, 본 명세서에 개시된 실시예들은 본 개시의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로, 이러한 실시예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아님은 자명하다. Above, the embodiments described in the present disclosure and the accompanying drawings merely illustrate some of the technical ideas included in the present disclosure by way of example. Therefore, since the embodiments disclosed in this specification are intended to explain rather than limit the technical spirit of the present disclosure, it is obvious that the scope of the technical spirit of the present disclosure is not limited by these embodiments.

본 개시의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형예와 구체적인 실시 예는 모두 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.All modifications and specific examples that can be easily inferred by those skilled in the art within the scope of the technical idea included in the specification and drawings of the present disclosure should be construed as being included in the scope of the present disclosure.

Claims (10)

인공지능을 활용한 항공기 소음 분류 및 추출 방법에 있어서,
지리적으로 분산(geographically distributed)된 하나 이상의 소음 센서를 통해, 복수의 이벤트에 의해 발생된 배경 소음 데이터를 획득하는 단계;
하나 이상의 프로세서(processor)를 통해, 상기 배경 소음 데이터에 대해 전처리 동작을 수행하여 제1 소음 데이터를 획득하는 단계;
상기 하나 이상의 프로세서를 통해, 상기 복수의 이벤트 중 항공기 소음 이벤트를 식별하도록 학습된 제1 인공 지능(artificial intelligence, AI) 모델에 상기 제1 소음 데이터를 입력하여, 상기 항공기 소음 이벤트에 의해 발생된 제2 소음 데이터를 획득하는 단계;
상기 하나 이상의 프로세서를 통해, 상기 항공기 소음 이벤트 중 특정 분야의 항공기 소음 이벤트를 식별하도록 학습된 제2 AI 모델에 상기 제2 소음 데이터를 입력하여, 상기 특정 분야의 항공기 소음 이벤트에 의해 발생된 제3 소음 데이터를 획득하는 단계;
상기 하나 이상의 프로세서를 통해, 항공기 기종 별 소음 데이터를 추출하도록 학습된 제3 AI 모델에 상기 제3 소음 데이터를 입력하여, 항공기 기종 별 소음 데이터를 추출 및 분류하는 단계; 및
상기 하나 이상의 프로세서를 통해, 운행 관련 정보를 추출하도록 학습된 제4 AI 모델에 상기 추출 및 분류된 항공기 기종 별 소음 데이터를 입력하여, 상기 항공기 기종 각각에 대한 운행 관련 정보를 추출하는 단계를 포함하고,
상기 제1 AI모델, 상기 제2 AI 모델, 상기 제3 AI 모델 또는 상기 제4 AI 모델 중 적어도 하나는,
함수형 API(application programming interface)를 이용한, 다중 퍼셉트론(multi-layer perceptron, MLP), 합성곱 신경망(convolutional neural network, CNN) 및 순환 신경망(recurrent neural network, RNN)의 결합에 의해 구성되고,
상기 프로세서는,
상기 제1 AI 모델을 통해 상기 제2 소음 데이터를 식별한 후, 항공기 소음 평가 프로그램을 이용하여 웨클 값과 엘디엔 값을 계산하도록 구성되고,
상기 항공기 소음 평가 프로그램은,
상기 배경 소음 데이터에서 항공기의 등가 소음도 값, 항공기의 최고 소음도 값 및 주파수별 항공기의 등가 소음도 값을 추출하도록 구성되고,
상기 웨클 값은,
상기 항공기의 최고 소음도 값을 이용하여 계산된 1일 항공기 소음 노출 지표이고,
상기 엘디엔 값은,
상기 항공기의 등가 소음도 값을 이용하여 도출된 1일 항공기 소음도이며,
상기 항공기 소음 평가 프로그램은,
상기 항공기 소음 평가 프로그램에 상기 제1 AI 모델에 의한 학습에 사용되지 않은 15일의 새로운 소음 데이터가 입력되어 상기 웨클 값과 상기 엘디엔 값을 비교함으로써 검증되도록 구성된, 방법.
In the aircraft noise classification and extraction method using artificial intelligence,
obtaining background noise data generated by a plurality of events via one or more geographically distributed noise sensors;
obtaining first noise data by performing a pre-processing operation on the background noise data through one or more processors;
Through the one or more processors, the first noise data is input to a first artificial intelligence (AI) model learned to identify an aircraft noise event among the plurality of events, so that a second noise event generated by the aircraft noise event is input. 2 acquiring noise data;
Through the one or more processors, the second noise data is input to a second AI model learned to identify aircraft noise events in a specific field among the aircraft noise events, and the third noise event generated by the aircraft noise event in the specific field is input. acquiring noise data;
extracting and classifying noise data for each aircraft type by inputting the third noise data to a third AI model learned to extract noise data for each aircraft type through the one or more processors; and
Inputting the extracted and classified noise data for each aircraft type into a fourth AI model learned to extract driving-related information through the one or more processors, and extracting driving-related information for each of the aircraft types; ,
At least one of the first AI model, the second AI model, the third AI model, or the fourth AI model,
Constructed by a combination of a multi-layer perceptron (MLP), a convolutional neural network (CNN), and a recurrent neural network (RNN) using a functional application programming interface (API),
the processor,
After identifying the second noise data through the first AI model, it is configured to calculate a Weckle value and an Eldin value using an aircraft noise evaluation program,
The aircraft noise evaluation program,
It is configured to extract an equivalent noise level value of the aircraft, a maximum noise level value of the aircraft, and an equivalent noise level value of the aircraft for each frequency from the background noise data,
The Weckle value is,
A daily aircraft noise exposure index calculated using the highest noise level value of the aircraft,
The eldien value is
It is the daily aircraft noise level derived using the equivalent noise level value of the aircraft,
The aircraft noise evaluation program,
15 new noise data not used for learning by the first AI model is input to the aircraft noise evaluation program and configured to be verified by comparing the Weckle value with the Eldin value.
삭제delete 제1항에 있어서,
상기 항공기 기종 각각에 대한 운행 관련 정보는,
상기 항공기 기종 각각의 운행 시간, 운행에 따라 발생한 소음 크기 또는 주파수 관련 정보 중 적어도 하나를 포함하는, 방법.
According to claim 1,
Operation-related information for each of the aircraft types,
A method comprising at least one of the operating time of each aircraft type, noise level generated according to operation, or frequency-related information.
제1항에 있어서,
상기 제1 소음 데이터를 획득하는 단계는,
상기 배경 소음 데이터에 대해 기 설정된 길이 단위로 분할하는 전처리 동작을 수행하여 상기 제1 소음 데이터를 획득하는 단계를 포함하는, 방법.
According to claim 1,
Obtaining the first noise data,
And obtaining the first noise data by performing a preprocessing operation of dividing the background noise data into predetermined length units.
제1항에 있어서,
상기 제1 AI 모델은,
복수의 항공기 소음 이벤트 및 상기 복수의 항공기 소음 이벤트를 제외한 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 데이터에 매칭된 라벨링(labeling) 정보에 기초하여, 배경 소음 학습 데이터 중 상기 복수의 항공기 소음 이벤트 발생에 따른 소음 데이터를 추출하도록 학습된 AI 모델인, 방법.
According to claim 1,
The first AI model,
Based on labeling information matched to frequency data corresponding to noise according to occurrence of a plurality of aircraft noise events and each of the events excluding the plurality of aircraft noise events, generation of the plurality of aircraft noise events among the background noise learning data An AI model trained to extract noise data according to, Method.
제1항에 있어서,
상기 제2 AI 모델은,
복수의 항공기 소음 이벤트 중 민간 항공기 소음 이벤트 및 특정 분야의 항공기 소음 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 데이터에 매칭된 라벨링 정보에 기초하여, 항공기 소음 학습 데이터 중 상기 특정 분야의 항공기 소음 이벤트에 의해 발생된 소음 데이터를 추출하도록 학습된 AI 모델인, 방법.
According to claim 1,
The second AI model,
Based on the labeling information matched to the frequency data corresponding to the noise according to the occurrence of each of the civil aircraft noise event and the aircraft noise event in the specific field among the plurality of aircraft noise events, the aircraft noise event in the specific field among the aircraft noise learning data An AI model trained to extract noise data generated by the method.
제1항에 있어서,
상기 제3 AI 모델은,
특정 분야의 항공기 기종 별 소음 이벤트 각각의 발생에 따른 소음에 대응되는 주파수 데이터에 매칭된 라벨링 정보에 기초하여, 특정 분야의 항공기 기종 별 소음 학습 데이터를 이용하여 상기 특정 분야의 항공기 기종 별 소음 데이터를 추출 및 분류하도록 학습된 AI 모델인, 방법.
According to claim 1,
The third AI model,
Noise data for each aircraft type in the specific field is obtained by using the noise learning data for each aircraft type in the specific field based on the labeling information matched to the frequency data corresponding to the noise caused by the occurrence of each noise event for each aircraft type in the specific field. A method, an AI model trained to extract and classify.
삭제delete 제1항에 있어서,
상기 제1 AI모델, 상기 제2 AI모델, 상기 제3 AI 모델 및 상기 제4 AI 모델을 종단 간 모델(end-to-end model)의 형태로 순서대로 연결함으로써 제5 AI 모델을 구성하는 단계; 및
상기 하나 이상의 프로세서를 통해, 상기 배경 소음 데이터가 상기 제5 AI 모델에 입력하여, 상기 제5 AI 모델에서 상기 특정 분야의 항공기 기종 각각에 대한 운행 관련 정보를 획득하는 단계를 더 포함하는, 방법.
According to claim 1,
Configuring a fifth AI model by sequentially connecting the first AI model, the second AI model, the third AI model, and the fourth AI model in the form of an end-to-end model ; and
Further comprising, through the one or more processors, inputting the background noise data to the fifth AI model, and acquiring operation-related information for each aircraft type in the specific field from the fifth AI model.
인공지능을 활용하여 항공기 소음을 분류 및 추출하는 연산 장치에 있어서,
지리적으로 분산(geographically distributed)된 하나 이상의 소음 센서;
회로를 포함하는 통신부; 및
하나 이상의 프로세서(processor)를 포함하고,
상기 하나 이상의 프로세서는,
상기 하나 이상의 소음 센서를 통해 획득된 복수의 이벤트에 의해 발생된 배경 소음 데이터를 상기 통신부를 통해 획득하고,
상기 배경 소음 데이터에 대해 전처리 동작을 수행하여 제1 소음 데이터를 획득하고,
상기 복수의 이벤트 중 항공기 소음 이벤트를 식별하도록 학습된 제1 인공 지능 모델(artificial intelligence, AI)에 상기 제1 소음 데이터를 입력하여 상기 항공기 소음 이벤트에 의해 발생된 제2 소음 데이터를 획득하고,
상기 항공기 소음 이벤트 중 특정 분야의 항공기 소음 이벤트를 식별하도록 학습된 제2 AI 모델에 상기 제2 소음 데이터를 입력하여 상기 특정 분야의 항공기 소음 이벤트에 의해 발생된 제3 소음 데이터를 획득하고,
상기 하나 이상의 프로세서를 통해, 특정 분야의 항공기 기종 별 소음 데이터를 추출하도록 학습된 제3 AI 모델에 상기 제3 소음 데이터를 입력하여 특정 분야의 항공기 기종 별 소음 데이터를 추출 및 분류하도록 설정되고,
상기 하나 이상의 프로세서를 통해, 운행 관련 정보를 추출하도록 학습된 제4 AI 모델에 상기 추출 및 분류된 특정 분야의 항공기 기종 별 소음 데이터를 입력하여, 상기 항공기 기종 각각에 대한 운행 관련 정보를 추출하며,
상기 제1 AI모델, 상기 제2 AI 모델, 상기 제3 AI 모델 또는 상기 제4 AI 모델 중 적어도 하나는,
함수형 API(application programming interface)를 이용한, 다중 퍼셉트론(multi-layer perceptron, MLP), 합성곱 신경망(convolutional neural network, CNN) 및 순환 신경망(recurrent neural network, RNN)의 결합에 의해 구성되고,
상기 프로세서는,
상기 제1 AI 모델을 통해 상기 제2 소음 데이터를 식별한 후, 항공기 소음 평가 프로그램을 이용하여 웨클 값과 엘디엔 값을 계산하도록 구성되고,
상기 항공기 소음 평가 프로그램은,
상기 배경 소음 데이터에서 항공기의 등가 소음도 값, 항공기의 최고 소음도 값 및 주파수별 항공기의 등가 소음도 값을 추출하도록 구성되고,
상기 웨클 값은,
상기 항공기의 최고 소음도 값을 이용하여 계산된 1일 항공기 소음 노출 지표이고,
상기 엘디엔 값은,
상기 항공기의 등가 소음도 값을 이용하여 도출된 1일 항공기 소음도이며,
상기 항공기 소음 평가 프로그램은,
상기 항공기 소음 평가 프로그램에 상기 제1 AI 모델에 의한 학습에 사용되지 않은 15일의 새로운 소음 데이터가 입력되어 상기 웨클 값과 상기 엘디엔 값을 비교함으로써 검증되도록 구성된, 연산 장치.
In the calculation device for classifying and extracting aircraft noise using artificial intelligence,
one or more geographically distributed noise sensors;
a communication unit including a circuit; and
includes one or more processors;
The one or more processors,
Obtaining background noise data generated by a plurality of events acquired through the one or more noise sensors through the communication unit;
Obtaining first noise data by performing a preprocessing operation on the background noise data;
Obtaining second noise data generated by the aircraft noise event by inputting the first noise data to a first artificial intelligence (AI) trained to identify an aircraft noise event among the plurality of events;
Obtaining third noise data generated by the aircraft noise event in the specific field by inputting the second noise data into a second AI model learned to identify aircraft noise events in a specific field among the aircraft noise events;
Through the one or more processors, the third noise data is input to a third AI model learned to extract noise data by aircraft type in a specific field to extract and classify noise data by aircraft type in a specific field,
Through the one or more processors, the extracted and classified noise data for each aircraft type in the specific field is input to a fourth AI model learned to extract operation-related information, and operation-related information for each aircraft type is extracted,
At least one of the first AI model, the second AI model, the third AI model, or the fourth AI model,
Constructed by a combination of a multi-layer perceptron (MLP), a convolutional neural network (CNN), and a recurrent neural network (RNN) using a functional application programming interface (API),
the processor,
After identifying the second noise data through the first AI model, it is configured to calculate a Weckle value and an Eldin value using an aircraft noise evaluation program,
The aircraft noise evaluation program,
It is configured to extract an equivalent noise level value of the aircraft, a maximum noise level value of the aircraft, and an equivalent noise level value of the aircraft for each frequency from the background noise data,
The Weckle value is,
A daily aircraft noise exposure index calculated using the highest noise level value of the aircraft,
The Eldien value is,
It is the daily aircraft noise level derived using the equivalent noise level value of the aircraft,
The aircraft noise evaluation program,
An operation device configured to input new noise data of 15 days not used for learning by the first AI model to the aircraft noise evaluation program and verify by comparing the Weckle value and the Eldin value.
KR1020220002398A 2022-01-07 2022-01-07 Method of classifying and extracting aircraft noise using artificial intelligence KR102483080B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220002398A KR102483080B1 (en) 2022-01-07 2022-01-07 Method of classifying and extracting aircraft noise using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220002398A KR102483080B1 (en) 2022-01-07 2022-01-07 Method of classifying and extracting aircraft noise using artificial intelligence

Publications (1)

Publication Number Publication Date
KR102483080B1 true KR102483080B1 (en) 2022-12-30

Family

ID=84538905

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220002398A KR102483080B1 (en) 2022-01-07 2022-01-07 Method of classifying and extracting aircraft noise using artificial intelligence

Country Status (1)

Country Link
KR (1) KR102483080B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102095A (en) * 2006-10-20 2008-05-01 Kawasaki Heavy Ind Ltd Modeling method of acoustic source of jet noise, analysis method of jet noise, and design method of aircraft
JP2009180738A (en) * 2009-04-27 2009-08-13 Nittobo Acoustic Engineering Co Ltd Aircraft noise data analyzing and processing method
JP5015971B2 (en) * 2008-02-01 2012-09-05 ツィンファ ユニバーシティ Coaxial cable manufacturing method
JP5863165B2 (en) 2011-09-12 2016-02-16 リオン株式会社 Aircraft noise monitoring method and aircraft noise monitoring device
KR20200040817A (en) * 2017-12-19 2020-04-20 니혼온쿄엔지니어링 가부시키가이샤 Aircraft performance information collection device
KR20200129168A (en) * 2017-09-27 2020-11-17 구글 엘엘씨 End to end network model for high resolution image segmentation
KR20200130854A (en) * 2018-03-15 2020-11-20 니혼온쿄엔지니어링 가부시키가이샤 Learning data generation method, learning data generation device, and learning data generation program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102095A (en) * 2006-10-20 2008-05-01 Kawasaki Heavy Ind Ltd Modeling method of acoustic source of jet noise, analysis method of jet noise, and design method of aircraft
JP5015971B2 (en) * 2008-02-01 2012-09-05 ツィンファ ユニバーシティ Coaxial cable manufacturing method
JP2009180738A (en) * 2009-04-27 2009-08-13 Nittobo Acoustic Engineering Co Ltd Aircraft noise data analyzing and processing method
JP5863165B2 (en) 2011-09-12 2016-02-16 リオン株式会社 Aircraft noise monitoring method and aircraft noise monitoring device
KR20200129168A (en) * 2017-09-27 2020-11-17 구글 엘엘씨 End to end network model for high resolution image segmentation
KR20200040817A (en) * 2017-12-19 2020-04-20 니혼온쿄엔지니어링 가부시키가이샤 Aircraft performance information collection device
KR20200130854A (en) * 2018-03-15 2020-11-20 니혼온쿄엔지니어링 가부시키가이샤 Learning data generation method, learning data generation device, and learning data generation program

Similar Documents

Publication Publication Date Title
CN111523640B (en) Training method and device for neural network model
JP2020126021A (en) Abnormal sound detector and abnormal sound detection method
CN111542841A (en) System and method for content identification
CN110009614A (en) Method and apparatus for output information
KR102011788B1 (en) Visual Question Answering Apparatus Using Hierarchical Visual Feature and Method Thereof
CN110705255B (en) Method and device for detecting association relation between sentences
CN109978870A (en) Method and apparatus for output information
US11436494B1 (en) Optimal power flow computation method based on multi-task deep learning
EP4018399A1 (en) Modeling human behavior in work environments using neural networks
CN113704410A (en) Emotion fluctuation detection method and device, electronic equipment and storage medium
Tan et al. Attention augmented convolutional neural network for acoustics based machine state estimation
KR102483080B1 (en) Method of classifying and extracting aircraft noise using artificial intelligence
Sony Towards multiclass damage detection and localization using limited vibration measurements
US11705151B1 (en) Speech signal processing system facilitating natural language processing using audio transduction
US20210174191A1 (en) Automated fine-tuning of a pre-trained neural network for transfer learning
Chi et al. Damage location diagnosis of frame structure based on wavelet denoising and convolution neural network implanted with Inception module and LSTM
Malik et al. Payload assisted unmanned aerial vehicle structural health monitoring (UAVSHM) for active damage detection
He et al. Analysis of concentration in English education learning based on CNN model
JP2023535202A (en) Context-aware anomaly detection
Kardawi et al. A Comparative Analysis of Deep Learning Models for Detection of Knee Osteoarthritis Disease through Mobile Apps
CN113822313A (en) Method and device for detecting abnormity of graph nodes
KR20210035535A (en) Method of learning brain connectivity and system threrfor
Nguyen et al. A multi-microcontroller-based hardware for deploying Tiny machine learning model
CN116030385B (en) Cardiopulmonary resuscitation AI evaluation system
US20220019749A1 (en) Techniques for generating natural language descriptions of neural networks

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant