KR20190054327A - Method for predicting runway visual range by deep neural network - Google Patents

Method for predicting runway visual range by deep neural network Download PDF

Info

Publication number
KR20190054327A
KR20190054327A KR1020170150464A KR20170150464A KR20190054327A KR 20190054327 A KR20190054327 A KR 20190054327A KR 1020170150464 A KR1020170150464 A KR 1020170150464A KR 20170150464 A KR20170150464 A KR 20170150464A KR 20190054327 A KR20190054327 A KR 20190054327A
Authority
KR
South Korea
Prior art keywords
neural network
data
runway
visibility
humidity
Prior art date
Application number
KR1020170150464A
Other languages
Korean (ko)
Inventor
구성관
홍석민
Original Assignee
한서대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한서대학교 산학협력단 filed Critical 한서대학교 산학협력단
Priority to KR1020170150464A priority Critical patent/KR20190054327A/en
Publication of KR20190054327A publication Critical patent/KR20190054327A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a method for predicting a runway visual range using a deep neural network. The method comprises the steps of: analyzing past weather observation data of a target airfield and extracting wind velocity, temperature, humidity, and runway visual range measurement values related to the visibility to input the wind velocity, temperature, humidity, and runway visual range measurement values into a deep neural network; learning the deep neural network based on the weather observation data inputted into the deep neural network; and measuring current wind velocity, temperature, and humidity of the target airfield and inputting the current wind velocity, temperature, and humidity into the deep neural network, and deriving a predicted visual range value.

Description

심층신경망을 활용한 활주로 가시거리 예측 방법{METHOD FOR PREDICTING RUNWAY VISUAL RANGE BY DEEP NEURAL NETWORK} METHOD FOR PREDICTING RUNWAY VISUAL RANGE BY DEEP NEURAL NETWORK BACKGROUND OF THE INVENTION [0001]

본 발명은 활주로 가시거리 예측 방법에 관한 것으로서, 더욱 상세하게는 심층신경망을 활용한 활주로 가시거리 예측 방법에 관한 것이다. The present invention relates to a runway visibility distance prediction method, and more particularly, to a runway visibility distance prediction method using a depth network.

항공기 안전에 영향을 주는 기상요소에는 뇌우(thunder storm), 착빙(icing), 난류(turbulence), 산악파(mountain waves), 윈드시어(wind shear), 순간돌풍(microburst), 시정(visibility) 등이 있다. 이 중 시정은 비행시정, 활주로 가시거리(runway visual range)등으로 구분할 수 있으며, 활주로 가시거리는 항공기가 활주로에 이륙 및 착륙을 결정하는데 직접적인 영향을 미치는 요인이다. Weather factors affecting aircraft safety include thunder storms, icing, turbulence, mountain waves, wind shear, microburst, visibility, etc. . Among these, visibility can be classified into flight visibility, runway visual range, etc., and runway visibility is a factor that directly affects the decision of takeoff and landing on the runway.

항공기가 운항하는 공항에서는 매시간 정기적으로 발행하는 기상정보(METAR : meteorological aerodrome report) 및 6시간 간격으로 발행하는 예보 정보(TAF : terminal aerodrome forecast)에 활주로 가시거리 정보를 포함하여 조종사 및 운항관리사 등의 항공종사자가 안전한 업무를 수행할 수 있도록 한다. 우리나라는 각 공항에 위치한 항공기상청 출장소에서는 해당 공항의 실시간 기상정보를 관측하고, 해당 관측 정보 및 예보 정보 등을 제공하고 있으며, 공항이 군 비행장을 공동으로 사용하는 경우 군 기상대에서 기상 정보를 제공하고 있다. 충남 태안에 위치한 한서대학교 비행장과 같은 민간소유 비행장은 안전한 항공기 이착륙이 가능한지 확인하기 위한 실시간 기상 정보를 관측하지만, 별도의 기상 예보는 하지 않고 있으며 필요시 기상청의 지역 예보 등을 참고하고 있다. At the airports operated by the aircraft, the meteorological aerodrome report (METAR), which is issued every hour, and the terminal aerodrome forecast (TAF), which is issued every 6 hours, Ensure that airline personnel perform safe operations. The Korea Meteorological Agency office located in each airport observes the real-time weather information of the corresponding airport, provides the observation information and forecast information, and if the airport uses the military aerodrome jointly, it provides the weather information from the military weather station have. A privately owned airfield, such as Hanseo University, located in Taean, Chungcheongnam-do, observes real-time weather information to confirm whether a safe aircraft can land or take off. However, it does not provide any weather forecast.

비행장 기상 측정 항목 중 활주로가시거리는 비행장을 포함하는 인근 지역의 시정 정보와는 다르게 활주로 상에서 가장 먼 부분의 표시선 또는 등화를 불 수 있는 최대 거리를 나타내는 것으로, 비행장에서 이착륙 하는 항공기의 안전한 운항을 위하여 적정 수준 이상의 가시거리가 확보될 때 운항이 가능하도록 하고 있다. 시계비행(VFR : visual flight rule) 항공기는 다른 항공기와의 충돌 회피를 위해서 필요한 상황 인식에 필요한 최소 5,000m 이상의 시정을 요구하며, 일반적으로 이착륙 단계에서도 동일한 기준이 적용된다.The runway visibility distances of the airfield meteorological measurements indicate the maximum distances that can be seen on the runway at the farthest part of the runway unlike the visibility information of the nearby area including the airfield. And can be operated when the visibility is above the level. Visual flight rule (VFR) aircraft require visibility of at least 5,000 meters for recognition of the circumstances necessary to avoid collisions with other aircraft, and the same criteria are generally applied during takeoff and landing.

활주로 가시거리는 수평방향으로 먼 거리의 지물을 육안으로 식별할 수 있는 최대 거리인 시정과 다르게, 활주로 또는 공항 지면에서 움직이는 항공기 및 지상 이동체(vehicle)의 지면 시야 거리로 시정과 다르게 나타날 수 있다. 따라서 항공기상에서는 시정의 상세한 측정 항목으로 활주로 가시거리 또는 활주로 시정(RVR : runway visual range)을 정하고 있다. 활주로 가시거리는 지면에서 운영되는 이동체의 안전을 뿐만 아니라 낮은 시정에서 이착륙 하는 계기비행(IFR : instrument flight rule) 상태의 항공기의 안전을 위해서도 중요한 항목으로 항공기 이착륙시의 실황 측정만큼 예측에 대한 연구도 필요하다고 할 수 있다. 특히, 기상예보 기능을 제공하기 위한 자원이 부족한 비행장에서 관련 정보 생성을 위해서는 해당 지역에 맞춤한 정보 생성 방법이 개발될 필요가 있다.Unlike visibility, the runway visibility distance can be different from the visibility, as it is the ground clearance distance of an aircraft moving on the runway or an airport ground and a ground vehicle. Therefore, on the aircraft, runway visibility or runway visual range (RVR) is specified as a detailed measure of visibility. The runway visibility is important not only for the safety of the moving object operating on the ground but also for the safety of the aircraft in IFR (Instrument Flight Rule), which is taken off and landing at low visibility. . In particular, in order to generate relevant information at an aerodrome where resources are lacking to provide the weather forecast function, a method for generating information tailored to the area needs to be developed.

기상현상은 많은 변수들의 복잡한 관계를 가지는 것으로, 기존 기상예보 방법론들은 기상예보를 위해서는 정밀한 예측 모델과 다양한 위치의 기상 측정치를 사용하여 대용량의 데이터 처리 및 계산이 필요하여 실제 업무에서는 슈퍼컴퓨터를 활용하였다. 이것은 비용적 측면이 비쌀 뿐만 아니라 수치적 예측 모델을 사용하기 때문에 작은 지역에서 발생하는 다양한 기상 변화에는 적절한 기상 예보를 하지 못하는 한계가 있다. 안전한 항공기 운영을 위해서는 이착륙 구역인 공항의 기상 예보가 중요하지만, 국제공항 등 운송용 항공기가 운항하지 않는 소형비행장 등에서는 비용 또는 슈퍼컴퓨터 등의 자원적 한계로 인하여 기상 예보 서비스가 이루어지지 못하고 있다.The meteorological phenomenon has a complicated relationship with many variables. Conventional weather forecasting methods require a large amount of data processing and calculation by using precise prediction models and meteorological measurements at various locations for weather forecasting, . This is not only costly but also uses a numerical forecasting model, so there is a limit to the ability to make appropriate weather forecasts for various meteorological changes occurring in small areas. In order to operate safe airplanes, weather forecasting of airports in take-off and landing areas is important. However, weather forecasting services can not be provided due to resource limitations such as cost or supercomputer in small airfields that are not operated by transportation airplanes such as international airports.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 심층신경망(DNN : deep neural network)을 활용하여 기존 측정된 풍속, 습도, 기온, 시정 등 시계열 기상 관측 정보를 입력으로 하는 학습 모델을 통해 비행장의 활주로 가시거리 예측 정보를 생성하는 심층신경망을 활용한 활주로 가시거리 예측 방법을 제공하는 데 있다.The object of the present invention is to solve the above problems by using a deep neural network (DNN) as a learning model for inputting time-based meteorological observation information such as wind speed, humidity, temperature, A method for predicting runway visibility using a depth neural network that generates runway visibility distance prediction information is provided.

상기와 같은 목적을 달성하기 위한 본 발명의 심층신경망을 활용한 활주로 가시거리 예측 방법은, 대상 비행장의 과거 기상관측 자료를 분석해 시정과 관련된 풍속, 기온, 습도, 활주로 가시거리 측정값을 추출하여 심층신경망에 입력하는 단계; 상기 심층신경망에 입력된 기상관측 자료를 바탕으로 심층신경망을 학습시키는 단계; 및 상기 대상 비행장의 현재 풍속, 기온, 습도를 측정하여 심층신경망에 입력하여 가시거리 예측값을 도출하는 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above object, the runway visibility distance prediction method using the depth neural network of the present invention analyzes historical weather observation data of a target airfield, extracts wind speed, temperature, humidity, runway visibility distance values related to visibility, Inputting to a neural network; Learning a depth neural network based on meteorological data input to the neural network; And measuring the current wind speed, temperature, and humidity of the target airfield, and inputting the current wind speed, temperature, and humidity into the in-depth neural network to derive a visible range predicted value.

상기 심층신경망은 입력층, 은닉층 및 출력층으로 이루어지는 것을 특징으로 한다.The depth network is characterized by comprising an input layer, a hidden layer and an output layer.

상기 입력층은 이전 데이터를 포함하는 입력 정보 수만큼의 노드, 은닉층은 2개로 이루어지며 해당 데이터 처리를 최적화할 수 있는 노드, 출력층은 1개의 노드로 구성되는 것을 특징으로 한다.The input layer is composed of nodes corresponding to the number of input information including previous data, and the hidden layer is composed of two nodes capable of optimizing the data processing, and the output layer is composed of one node.

이상과 같이, 본 발명에 따르면 대상 비행장의 과거의 기상 실측 데이터를 활용하여 지협적인 지역에서의 가시거리를 예측할 수 있으며, 비행장 기상 측정 변수 중 풍속, 온도, 습도 등의 데이터만 활용하여 활주로 가시거리를 예측할 수 있다.As described above, according to the present invention, it is possible to predict the visibility distance in the local area using the past weather data of the target airfield, and it is possible to use only the data of the wind speed, temperature, Can be predicted.

또한, 본 발명에 따르면 항공기 안전 운항의 영향과 공항의 운영 효율성 저해에 영향을 미칠 수 있는 저시정 상태가 발생하는 것을 미리 예측할 수 있다. Also, according to the present invention, it can be predicted in advance that a low visibility condition that may affect the safety operation of the airplane and the operational efficiency of the airports may occur.

도 1은 일반적인 심층신경망 구조를 설명하기 위한 개념도이다.
도 2는 본 발명에 따른 심층신경망 기반 활주로 가시거리 예측모델 구조를 설명하기 위한 개념도이다.
도 3은 본 발명에 따른 심층신경망을 활용한 활주로 가시거리 예측 방법을 나타낸 흐름도이다.
도 4는 본 발명에 따른 심층신경망 기반 활주로 가시거리 예측모델의 정산 이전의 관측값 및 예측값 1일치 비교를 나타낸 그래프이다.
도 5는 본 발명에 따른 심층신경망 기반 활주로 가시거리 예측모델의 정산 이후의 관측값 및 예측값 1일치 비교를 나타낸 그래프이다.
도 6은 본 발명에 따른 심층신경망 기반 활주로 가시거리 예측모델의 정산 이후의 관측값 및 예측값 비교를 나타낸 그래프이다.
도 7은 본 발명에 따른 심층신경망 기반 활주로 가시거리 예측모델의 정산 이후의 관측값 및 예측값 4달치 비교를 나타낸 그래프이다.
도 8은 본 발명에 따른 심층신경망 기반 활주로 가시거리 예측모델의 관측값 및 예측값 4달치 비교를 나타낸 그래프이다.
도 9는 본 발명의 심층신경망 기반 활주로 가시거리 예측모델에 따른 관측값과 예측값의 상세 비교를 나타낸 그래프이다.
도 10은 본 발명의 심층신경망 기반 활주로 가시거리 예측모델에 따른 관측값과 예측값의 또 다른 상세 비교를 나타낸 그래프이다.
1 is a conceptual diagram for explaining a general deep-layer neural network structure.
FIG. 2 is a conceptual diagram for explaining a depth-of-field-based runway visibility distance prediction model structure according to the present invention.
FIG. 3 is a flowchart illustrating a runway visibility distance prediction method using a depth-of-field network according to the present invention.
FIG. 4 is a graph showing comparison of observed values and predicted values 1 before settlement of the runway visibility distance prediction model based on the depth-of-field network according to the present invention.
FIG. 5 is a graph showing comparison of observed values and predicted values 1 after settlement of the runway visibility distance prediction model based on the depth-of-field network according to the present invention.
FIG. 6 is a graph showing comparison of observed values and predicted values after settlement of a runway visibility distance prediction model based on a depth-of-field neural network according to the present invention.
FIG. 7 is a graph showing a comparison of observed values and predicted values of 4-month values after settlement of the runner visibility distance prediction model according to the present invention.
8 is a graph showing comparison of observed values and predicted values of 4-month values of the runway visibility distance prediction model according to the present invention.
9 is a graph showing detailed comparisons of observation values and predicted values according to the depth-of-field-based runway visibility distance prediction model of the present invention.
10 is a graph showing further detailed comparisons of observations and predicted values according to the depth-of-field neural network-based runway visual prediction model of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

먼저, 일반적인 심층신경망 구조에 대하여 설명하기로 한다.First, a general deep-layer neural network structure will be described.

도 1은 일반적인 심층신경망 구조를 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a general deep-layer neural network structure.

도 1을 참조하면, 은닉층이 2개 이상인 경우 심층신경망이라고 칭하고, 2개의 은닉층을 가진 심층신경망 구조를 구성해서 학습을 구현할 수 있다. 도 1에서 둥근 원은 노드를 의미하고, 각각의 노드는 sigmoid 함수나 ReLU(rectified linear unit) 함수와 같은 활성함수(active function)를 포함하고 있다. 각 층의 노드를 연결한 화살표는 신호의 흐름을 나타내고, 이전 노드의 데이터는 가중치(weight)를 곱하여 화살표로 연결된 다음 노드에 전달된다. 전달된 가중치가 곱해진 입력 데이터들은 모두 더해져 즉, 가중합(weighted sum)되어 활성 함수를 통해 출력 값이 생성된다. 이렇게 얻은 출력 값과 실제 측정값 사이의 오차를 최소화하기 위해 각 가중치는 학습을 통해 갱신되게 된다. Referring to FIG. 1, when two or more hidden layers are referred to as a deep neural network, a learning can be implemented by constructing a deep neural network structure having two hidden layers. In FIG. 1, a round circle means a node, and each node includes an active function such as a sigmoid function or a ReLU (rectified linear unit) function. The arrows connecting the nodes of each layer represent the flow of the signal, the data of the previous node is multiplied by the weight, and the arrows are connected to the next node. The input data multiplied by the transmitted weight are all summed up, that is, weighted sum, and an output value is generated through the active function. In order to minimize the error between the output value and the actual measured value, each weight is updated through learning.

이어서, 본 발명의 일실시예에 따른 심층신경망을 활용한 활주로 가시거리 예측모델의 구조에 대하여 설명하기로 한다.Next, the structure of the runway visual-distance prediction model using the depth-based neural network according to an embodiment of the present invention will be described.

도 2는 본 발명에 따른 심층신경망 기반 활주로 가시거리 예측모델 구조를 설명하기 위한 개념도이다.FIG. 2 is a conceptual diagram for explaining a depth-of-field-based runway visibility distance prediction model structure according to the present invention.

도 2를 참조하면, 본 발명에 따른 심층신경망 기반 활주로 가시거리 예측모델은 심층신경망의 입력으로 사용되는 기상관측입력은 풍속(WSn), 기온(Tempn), 습도(Humn), 활주로 가시거리(RVRn) 측정값 또는 활주로 가시거리(RVRn) 측정값의 평균 데이터를 사용할 수 있다. 여기서, 아래 첨자 n은 현재를 의미하고, 아래 첨자 n-m는 m 단위 이전의 기상 데이터를 의미한다.Referring to FIG. 2, the depth-based neural network-based runway visual prediction model according to the present invention is a model in which the input of the depth-of-field neural network includes a wind speed WS n , a temperature Temp n , a humidity Hum n , Average data of distance (RVR n ) measurements or runway visibility (RVR n ) measurements can be used. Here, the subscript n means current, and the subscript nm means meteorological data before m units.

시정을 예측하기 위해서 측정 시점만의 기상 관측 정보만 입력하는 것이 아니라, 일정 기간의 과거 기상 정보를 함께 이용해 과거의 변화율을 포함시킨다. 이를 위해 일정기간(m 단위 기간) 이전의 과거 데이터에서부터 현재까지 풍속, 기온, 습도, 시정 데이터를 입력으로 사용할 수 있다. In order to predict the correction, instead of inputting only the meteorological observation information of only the measurement point, the past change rate is included by using the past meteorological information together for a predetermined period. For this, wind speed, temperature, humidity, and corrective data can be input from past data before a certain period (m unit period) to present time.

기상관측 정보는 정해진 단위시간 마다 측정되기 때문에 m 기간의 정보간 데이터의 양은 도 2와 같이 4m개(m Ticks× 4개 기상정보)의 데이터를 입력으로 사용해서 입력 층에 입력할 수 있다. 여기서, 입력층은 입력된 데이터 수 만큼의 노드, 은닉층 1 및 2는 해당 데이터 처리를 최적화 할 수 있는 노드, 출력층은 1개의 노드로 구성되어 있다. 이 구성은 모델 개발을 위하여 적절한 조건의 구조를 찾기 위해서 비교적 복잡한 구조부터 단순한 구조까지 확인하고, 경험적 데이터의 특성을 확인하는 절차를 사용할 수 있다. 이때, 활성함수로는 시그모이드 함수를 사용하였으며, 가중치(weight)들은 확률적 경사 하강법(SGD : stochastic gradient descent)을 이용한 오차역전파법으로 가중치를 갱신하였다. Since the weather observation information is measured every predetermined unit time, the amount of data between pieces of information in the m period can be input to the input layer using 4 m pieces of data (m Ticks x 4 pieces of weather information) as shown in Fig. Here, the input layer is composed of nodes corresponding to the number of input data, the hidden layers 1 and 2 are nodes capable of optimizing the data processing, and the output layer is composed of one node. This configuration can be used to identify the structure from a relatively complex structure to a simple structure and to identify the characteristics of the empirical data in order to find an appropriate condition structure for model development. At this time, a sigmoid function was used as an activation function, and weights were updated by an error back propagation method using stochastic gradient descent (SGD).

그리고, 적절한 학습 횟수와 학습률을 도출하기 위하여, 해당 변수들을 변경해가면서 반복적으로 시뮬레이션을 해 적절한 학습 횟수 및 학습률을 선정하였다. 본 발명에서는 모델의 초기 입력 값을 random 함수를 통한 초기화를 통한 값을 사용하였다.And, in order to derive the appropriate learning frequency and the learning rate, we repeatedly simulated the variables while changing them and selected the appropriate learning frequency and learning rate. In the present invention, initial values of a model are initialized through a random function.

이어서, 본 발명의 일실시예에 따른 심층신경망을 활용한 활주로 가시거리 예측 방법에 대하여 설명하기로 한다. Next, a description will be made of a runway visibility distance prediction method using a depth-of-field network according to an embodiment of the present invention.

도 3은 본 발명에 따른 심층신경망을 활용한 활주로 가시거리 예측 방법을 나타낸 흐름도이다. FIG. 3 is a flowchart illustrating a runway visibility distance prediction method using a depth-of-field network according to the present invention.

도 3을 참조하면, 본 발명의 심층신경망을 활용한 활주로 가시거리 예측 방법은, 우선 대상 비행장의 기상관측 자료를 분석해 시정과 관련된 기상 정보를 추출하여 심층신경망에 입력한다(S100). 즉, 대상 비행장의 과거의 기상 정보인 풍속, 기온, 습도, 활주로 가시거리(RVR) 측정값 또는 활주로 가시거리(RVR) 측정값의 평균 데이터를 심층신경망에 입력한다.Referring to FIG. 3, in the runway visibility distance prediction method using the depth network of the present invention, meteorological information related to visibility is extracted and input to a depth neural network (S100). That is, the average data of wind speed, temperature, humidity, runway visibility (RVR) measurement value or runway visibility distance (RVR) measurement values of the past weather field of the target airfield are inputted into the deep neural network.

다음으로, 선정된 과거 기상관측 자료를 바탕으로 심층신경망을 학습시킨다(S110).Next, the depth neural network is learned based on the selected past meteorological observation data (S110).

마지막으로, 상기 대상 비행장의 현재 풍속, 기온, 습도를 측정하여 심층신경망에 입력하여 가시거리 예측값을 도출한다(S120).Finally, the current wind speed, temperature, and humidity of the target airfield are measured and input to the depth-of-field network to derive a visible range predicted value (S120).

이어서, 본 발명의 일실시예에 따른 심층신경망 기반 활주로 가시거리 예측모델의 확인 및 검증을 위해서 해당 기간의 1일치 데이터를 이용하여 심층신경망 학습(200회)을 실시하였다. 학습된 모델에 대해서 관측 데이터와 모델 예측 데이터를 시각적으로 비교하여 유사성 또는 일치성이 확보할 수 있도록 하는 모델의 정산(calibration)을 실시하였다. Next, in order to confirm and verify the runway visibility distance prediction model based on the depth information network according to an embodiment of the present invention, depth learning of the neural network (200 times) was performed using the one-match data of the corresponding period. For the learned model, the model was calibrated so that the observed data and the model predicted data could be visually compared to ensure similarity or consistency.

도 4는 본 발명의 심층신경망 기반 활주로 가시거리 예측모델의 정산 이전의 실제 활주로 시정치 관측값과 모델 예측값을 비교하여 도식한 것이고, 도 5는 본 발명의 심층신경망 기반 활주로 가시거리 예측모델의 정산 후 해당 값을 도식한 것이다. 여기서, 실선은 실제 관측값이고, 점선은 모델에서 예측된 값이다. 도 5에서 볼 수 있듯이 모델의 정산 후 데이터의 유사성이 높아진 것을 확인할 수 있다. FIG. 4 is a schematic diagram of the runway visibility distance model of the present invention of the present invention compared with the actual runway time constant value and the model predicted value prior to settlement, and FIG. 5 is a graph showing the runway visibility distance prediction model And then plotted the corresponding values. Here, the solid line is the actual observation value, and the dotted line is the predicted value in the model. As can be seen from FIG. 5, it can be seen that the similarity of data after the model has been increased.

도 6은 도 5의 관측값과 모델 예측값을 1:1로 도식한 것이다. 여기서, 데이터 점이 기울기 1을 갖는 직선상에 있으면 관측값과 모델 예측값이 같다는 것을 의미하는 것으로, 직선에 모여 있을수록 데이터의 유사성이 높다고 할 수 있다. 이에 대한 정량적 수치는 직선과 데이터 점 사이의 차이에 의하여 확인할 수 있으며, 데이터의 상관 계수(R2) 값은 0.9981, RMSE(root mean square error) 값은 31.3123으로 데이터 유사성이 높은 것으로 확인되었다.FIG. 6 illustrates the observed value and the model predicted value of FIG. 5 as 1: 1. Here, when the data point is on a straight line having the slope 1, it means that the observed value and the model predicted value are the same, and the closer the data point is to the straight line, the higher the similarity of data. The quantitative value of this is confirmed by the difference between the straight line and the data point. The data correlation coefficient (R 2 ) value is 0.9981 and root mean square error (RMSE) value is 31.3123.

이어서, 본 발명의 일실시예에 따른 심층신경망을 활용한 활주로 가시거리 예측 모델을 사용하여 실제 활주로 가시거리의 예측을 수행하기 위하여, 이전에 측정된 일정 기간의 기상 데이터를 사용하여 모델 결과의 예측값을 도출하였다. 예측된 기상 데이터의 적절성 확인을 위하여 측정된 결과 값인 활주로 가시거리와 비교 분석을 수행하였다. 이때, 예측 모델의 입력 데이터는 한서대학교 태안비행장을 지역적 대상으로 하여 2015년 4월부터 7월까지의 4개월 동안의 기상 정보를 사용하였다. 각 입력 데이터는 풍속, 기온, 습도, 활주로 가시거리로서 데이터 간의 단위와 측정 범위의 수치가 다르고, 데이터간의 유사성이 없으므로 각각의 입력 데이터에 대하여 정규화 하여 입력할 필요가 있어 데이터는 식 1과 같이 정규화를 실시하였다.Next, in order to predict the actual runway visual distance using the runway visual range prediction model using the depth-of-field neural network according to an embodiment of the present invention, the predicted value of the model result Respectively. In order to confirm the appropriateness of the predicted weather data, comparative analysis with the measured runway visibility distance was performed. At this time, the input data of the forecasting model is Taean Airfield of Hanseo University as a regional target, and weather information for 4 months from April to July 2015 is used. Since each input data is different in wind speed, temperature, humidity, and runway visibility, there is no similarity between the data units and the measurement range. Therefore, it is necessary to normalize the input data for each input data. Respectively.

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
,
Figure pat00003
,
Figure pat00004
,
Figure pat00005
는 i번째 측정된 기상 정보, i번째의 정규화된 기상 정보, 측정된 기상 정보의 최대값과 최소값을 의미한다.here,
Figure pat00002
,
Figure pat00003
,
Figure pat00004
,
Figure pat00005
Means the maximum value and the minimum value of the i-th measured weather information, the i-th normalized weather information, and the measured weather information.

정규화 과정을 통해 각 기상 데이터는 0과 1사이의 값으로 변환되어, 특정 입력 변수에 가중치가 편중되지 않도록 하였다.Through the normalization process, each meteorological data is converted into a value between 0 and 1, so that the weight is not concentrated on a specific input variable.

4개월 기상 데이터 중 안개가 짙은 1일치 기상 데이터를 선정해 본 발명에서 제시한 심층신경망을 통해 모델 결과치에 대한 학습을 실시하였다.The foggy one - match weather data was selected from the four - month weather data, and the model results were studied through the depth neural network proposed in the present invention.

도 7은 본 발명의 일실시예에 따른 심층신경망을 활용한 활주로 가시거리 예측 모델을 통해 4개월 기간 동안 측정된 활주로 가시거리와 예측된 값을 비교한 것이다. 여기서, 실선은 활주로 가시거리의 측정값을 나타내는 것이고, 점선은 예측 값을 나타내는 것이다. 데이터의 총 수는 921,080개이고, 가시거리가 400m 이하로 관측된 저시정 상태에서의 최저값이 완벽히 일치하지 않는 것을 제외하고는 비교적 유사한 데이터의 형태를 보이는 것을 확인할 수 있다.Figure 7 compares runway visibility and predicted values over a 4 month period using a runway visibility prediction model using a depth neural network in accordance with an embodiment of the present invention. Here, the solid line represents the measured value of the runway visibility distance, and the dotted line represents the predicted value. The total number of data is 921,080, and it can be confirmed that relatively similar data form is shown except that the lowest values in the low visibility state observed with a viewing distance of 400 m or less are not perfectly matched.

도 8은 도 7의 관측값과 예측값을 1:1로 도식하여 나타낸 것이다. 상기 도 7과 같이 기울기 1의 직전 상에 위치한 데이터는 관측값과 예측값이 정확히 일치하는 의미이다. 도 8의 전체적인 데이터 형태는 도 7의 데이터에 비하여 기울기 1의 직선에서 더 산포된 것으로 확인할 수 있으나, 이는 데이터의 수가 증가하였기 때문이다. FIG. 8 is a graph showing the observed value and the predicted value of FIG. 7 in a 1: 1 ratio. As shown in FIG. 7, the data immediately preceding the slope 1 means that the observed value and the predicted value are exactly the same. It can be seen that the overall data format of FIG. 8 is more scattered on a straight line of slope 1 than the data of FIG. 7, but this is because the number of data has increased.

데이터 중에서 실제 관측값은 200m 이하로 낮으나, 예측된 값의 오차가 매우 큰 도 8의 좌측에 있는 점에 해당하는 데이터는 가시거리 예측에 사용된 풍속, 온도, 습도 등의 관측 데이터가 오류로 인하여 발생한 것이다. 이는 실제 예측치를 활용하는 경우에 매우 작은 숫자의 데이터로서 10초 단위의 데이터 표출 또는 활용하는 단계에서 기존 값 추세 대비 큰 오류 값을 무시하는 방법 등을 활용하여 처리할 수 있다.The data corresponding to the point on the left side of FIG. 8, in which the actual observation value is as low as 200 m or less in the data, but the error of the predicted value is very large, is that the observation data such as the wind speed, temperature, It is. This can be handled by using a method of disregarding a large error value compared to the existing value trend at the step of displaying or utilizing data in a unit of 10 seconds as a very small number of data when actual predicted value is utilized.

도 9는 관측값과 예측값의 상세 비교를 위한 것으로 실선은 관측 값, 점선은 예측 값을 나타낸다. 도 9에서 실선에 비하여 점선의 일부 값이 낮은 예측 치를 보이는 것을 볼 수 있으나, 이는 개발된 예측 모델이 관측된 값을 활용한 예측치 도출에 민감한 반응을 보이기 때문이다. 이러한 특징은 실제 시정이 낮아지기 이전에 시정이 낮아질 수 있는 추세를 예측하는데도 활용할 수 있으며, 그림 9(a)의 두 번째 데이터 하강 부분에서 해당 특성을 확인할 수 있다. 9 is a detailed comparison between the observed value and the predicted value. The solid line indicates the observed value and the dotted line indicates the predicted value. In FIG. 9, it can be seen that a part of the dotted line has a lower predicted value than the solid line, because the developed prediction model is sensitive to the derivation of the predicted value using the observed value. This feature can also be used to predict trends in which the visibility may be lowered before the actual visibility goes down, and the corresponding characteristics can be seen in the second data descent part of Figure 9 (a).

도 10은 활주로 가시거리가 낮아진 상태에서 단기간 시정이 좋아졌다가 다시 낮아지는 측정값을 개발된 모델이 예측한 추세를 확인할 수 있는 그래프이다. 개발된 모델이 도 9의 데이터 및 도 10의 데이터 전반부에서 확인 할 수 있듯이, 측정된 데이터에 대하여 민감하게 반응하는 것을 확인할 수 있으며, 이러한 특성을 낮아졌던 가시거리가 호전된 후 다시 낮아질 때의 특성도 사전에 예측할 수 있음을 확인할 수 있다.FIG. 10 is a graph showing a tendency of the developed model to predict trends in which a short-term visibility is improved and then decreased again in a state where the runway visibility distance is lowered. As can be seen from the data of FIG. 9 and the data front part of FIG. 10, the developed model is sensitive to the measured data, and it can be confirmed that the characteristic of the lowered visible distance after the improvement is lowered Can be predicted in advance.

본 발명에 따르면 개발된 예측 모델을 통해 비행장 기상 측정 변수 중 풍속, 온도, 습도 등의 데이터만 활용하여 활주로 가시거리를 예측할 수 있어, 항공기 안전 운항의 영향과 공항의 운영 효율성 저해에 영향을 미칠 수 있는 저시정 상태가 발생하는 것을 미리 예측할 수 있다.According to the present invention, it is possible to predict the runway visibility distance using only the data of the wind speed, temperature and humidity among the aerodynamic measurement variables through the developed prediction model, It is possible to predict in advance that a low-correction state such as the one shown in Fig.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.

Claims (3)

대상 비행장의 과거 기상관측 자료를 분석해 시정과 관련된 풍속, 기온, 습도, 활주로 가시거리 측정값을 추출하여 심층신경망에 입력하는 단계;
상기 심층신경망에 입력된 기상관측 자료를 바탕으로 심층신경망을 학습시키는 단계; 및
상기 대상 비행장의 현재 풍속, 기온, 습도를 측정하여 심층신경망에 입력하여 가시거리 예측값을 도출하는 단계;를 포함하는 것을 특징으로 하는 심층신경망을 활용한 활주로 가시거리 예측 방법.
Analyzing the past meteorological data of the target aerodrome and extracting wind speed, temperature, humidity, runway visibility distance related to visibility, and inputting to the depth neural network;
Learning a depth neural network based on meteorological data input to the neural network; And
Measuring a current wind speed, a temperature and a humidity of the target airfield, and inputting the current wind speed, the temperature and the humidity into a neural network to derive a visible range predicted value.
제1항에 있어서,
상기 심층신경망은 입력층, 은닉층 및 출력층으로 이루어지는 것을 특징으로 하는 활주로 가시거리 예측 방법.
The method according to claim 1,
Wherein the depth network comprises an input layer, a hidden layer and an output layer.
제2항에 있어서,
상기 입력층은 이전 데이터를 포함하는 입력 정보 수만큼의 노드, 은닉층은 2개로 이루어지며 해당 데이터 처리를 최적화할 수 있는 노드, 출력층은 1개의 노드로 구성되는 것을 특징으로 하는 활주로 가시거리 예측 방법.
3. The method of claim 2,
Wherein the input layer includes nodes corresponding to the number of input information including previous data, two hidden layers, and a node capable of optimizing the data processing, and the output layer includes one node.
KR1020170150464A 2017-11-13 2017-11-13 Method for predicting runway visual range by deep neural network KR20190054327A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170150464A KR20190054327A (en) 2017-11-13 2017-11-13 Method for predicting runway visual range by deep neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170150464A KR20190054327A (en) 2017-11-13 2017-11-13 Method for predicting runway visual range by deep neural network

Publications (1)

Publication Number Publication Date
KR20190054327A true KR20190054327A (en) 2019-05-22

Family

ID=66679636

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170150464A KR20190054327A (en) 2017-11-13 2017-11-13 Method for predicting runway visual range by deep neural network

Country Status (1)

Country Link
KR (1) KR20190054327A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210076554A (en) * 2019-12-16 2021-06-24 경희대학교 산학협력단 Electronic device, method, and computer readable medium for enhanced batch normalization in deep neural network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210076554A (en) * 2019-12-16 2021-06-24 경희대학교 산학협력단 Electronic device, method, and computer readable medium for enhanced batch normalization in deep neural network

Similar Documents

Publication Publication Date Title
Williams Using random forests to diagnose aviation turbulence
US11501039B2 (en) Optimizing aircraft flows at airports using data driven predicted capabilities
US20220028287A1 (en) System and method for aircraft flight control
JP6034130B2 (en) Method and system for estimating aircraft parameters
Hon Predicting low-level wind shear using 200-m-resolution NWP at the Hong Kong International Airport
US10803758B1 (en) Wind prediction systems and methods
Lee et al. LIDAR‐based F‐factor for wind shear alerting: different smoothing algorithms and application to departing flights
Li Analysis and Forecast of Global Civil Aviation Accidents for the Period 1942‐2016
Kim et al. Comparison of turbulence indicators obtained from in situ flight data
Williams et al. Remote turbulence detection using ground-based Doppler weather radar
Almeida et al. Short-range forecasting system for meteorological convective events in Rio de Janeiro using remote sensing of atmospheric discharges
Chen et al. Assessing the risk of windshear occurrence at HKIA using rare‐event logistic regression
Zhu et al. En route flight time prediction under convective weather events
Kim et al. Characteristics of the derived energy dissipation rate using the 1 Hz commercial aircraft quick access recorder (QAR) data
Bouchard et al. Comparison of different forecasting tools for short-range lightning strike risk assessment
França et al. An automated nowcasting model of significant instability events in the flight terminal area of Rio de Janeiro, Brazil
Volkova et al. Forecast of icing zones using possibilities of hydrodynamic simulation for the atmospheric boundary layer
Zaporozhets Aircraft noise models for assessment of noise around airports—improvements and limitations
Kim et al. Improving numerical weather prediction–based near-cloud aviation turbulence forecasts by diagnosing convective gravity wave breaking
KR20190054327A (en) Method for predicting runway visual range by deep neural network
Sheth et al. Development of a probabilistic convective weather forecast threshold parameter for flight-routing decisions
Wijaya et al. Take Off and Landing Prediction using Fuzzy Logic
Hon et al. Terrain-induced turbulence intensity during tropical cyclone passage as determined from airborne, ground-based, and remote sensing sources
de Castro et al. Severe convective weather forecast using machine learning models
Hong et al. Improving wind speed forecasts using deep neural network

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application