KR102631326B1 - System and Method for controlling airport using recognition technology - Google Patents

System and Method for controlling airport using recognition technology Download PDF

Info

Publication number
KR102631326B1
KR102631326B1 KR1020210119270A KR20210119270A KR102631326B1 KR 102631326 B1 KR102631326 B1 KR 102631326B1 KR 1020210119270 A KR1020210119270 A KR 1020210119270A KR 20210119270 A KR20210119270 A KR 20210119270A KR 102631326 B1 KR102631326 B1 KR 102631326B1
Authority
KR
South Korea
Prior art keywords
aircraft
control
information
apron
control tower
Prior art date
Application number
KR1020210119270A
Other languages
Korean (ko)
Other versions
KR20230036428A (en
Inventor
홍서연
박해용
이상훈
홍동혁
배동한
Original Assignee
인천국제공항공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천국제공항공사 filed Critical 인천국제공항공사
Priority to KR1020210119270A priority Critical patent/KR102631326B1/en
Publication of KR20230036428A publication Critical patent/KR20230036428A/en
Application granted granted Critical
Publication of KR102631326B1 publication Critical patent/KR102631326B1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0026Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0043Traffic management of multiple aircrafts from the ground
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)

Abstract

조종사-관제사간 음성 교신을 실시간으로 분석하여 계류장 관제 상황에서 항공기 관제지시 이행사항 검증 및 경고 시스템을 구축하여 관제사 상황 인지력 향상에 기여할 수 있는 관제 시스템이 개시된다. 상기 관제 시스템은, 계류장내 항공기를 포함하는 이동 객체를 센싱하여 센싱 정보를 생성하는 센서계, 다수의 감시 장비로부터 상기 항공기에 대한 비행정보를 획득하는 관리 서버, 및 상기 센싱 정보 및 상기 비행정보를 이용하여 주기장에서 상기 항공기 상황에 관한 검증요소를 영상 인식 및 상기 관제사와 상기 이동 객체의 사용자간 음성 통신되는 관제 지시에 대한 음성 인식을 분석하는 관제탑 서버를 포함하는 것을 특징으로 한다.A control system is being launched that can contribute to improving situational awareness of air traffic controllers by analyzing voice communication between pilots and controllers in real time to verify the implementation of aircraft control instructions and establish a warning system in apron control situations. The control system includes a sensor system that generates sensing information by sensing moving objects including aircraft in the apron, a management server that obtains flight information about the aircraft from a plurality of monitoring equipment, and the sensing information and the flight information. It is characterized by including a control tower server that recognizes verification elements regarding the aircraft situation at the apron using image recognition and analyzes voice recognition of control instructions communicated between the controller and the user of the moving object.

Description

인식 기술을 이용한 공항 관제 시스템 및 방법{System and Method for controlling airport using recognition technology}Airport control system and method using recognition technology {System and Method for controlling airport using recognition technology}

본 발명은 스마트 공항 관제 지원 기술에 관한 것으로서, 더 상세하게는 인식 기술을 이용하여 관제사의 전방 주시 및/또는 상황 인지력을 극대화할 수 있는 공항 관제 시스템 및 방법에 대한 것이다.The present invention relates to smart airport control support technology, and more specifically, to an airport control system and method that can maximize a controller's forward focus and/or situational awareness using recognition technology.

항공기간의 충돌방지, 항공기와 장애물간의 충돌방지, 항공교통흐름의 촉진을 위해 관제탑(비행장관제업무), 접근 관제소(접근관제업무) 및 지역 관제소(지역관제업무)에 의해 행해지는 항공기간의 분리, 레이더유도, 항공교통 관제허가 발부 등의 항공교통관제업무가 수행되고 있다.Separation of aircraft is performed by the control tower (airport control service), approach control center (approach control service), and regional control office (regional control service) to prevent collisions between aircraft, prevent collisions between aircraft and obstacles, and promote air traffic flow. , air traffic control tasks such as radar guidance and air traffic control permit issuance are performed.

특히, 비행장 관제 업무중 계류장 구역내에서 이동하는 항공기에 제공되는 항공 교통관제 업무가 있다. 계류장을 관리하기 위해 계류장 관제탑이 구성되며, 계류장 내에서 항공기의 엔진 시동 및 후방견인허가, 항공기 이동허가, 주 관제탑에 관제권 이양, 제방빙 지원, 견인 통제 및 지원 등의 업무를 수행한다.In particular, among the airfield control services, there is air traffic control service provided to aircraft moving within the apron area. An apron control tower is formed to manage the apron, and within the apron, tasks such as engine start and rear towing of aircraft, permission to move aircraft, transfer of control authority to the main control tower, de-icing and anti-icing support, and towing control and support are performed.

그런데, 공항의 지속적인 확장으로 관제사 1인당 평균 감시구역은 축구장 약 180개 크기로 전 지역의 모든 항공기의 움직임을 실시간 감시하기에는 물리적인 어려움이 존재한다.However, due to the continuous expansion of the airport, the average surveillance area per air traffic controller is the size of about 180 soccer fields, making it physically difficult to monitor the movements of all aircraft in the entire area in real time.

또한, 항공기간의 충돌, 항공기와 차량간의 충돌, 항공기의 유도로 오진입 및 관제지시 위반 등과 같은 비정상 상황 발생 시 이를 자동으로 알려주는 경보 시스템이 구축되어 있지 않아 관제사의 육안 관측 및 조종사의 보고에만 의존하게됨으로써 비정상 상황의 알림 시스템이 미비하다는 문제점이 있다.In addition, there is no warning system in place to automatically notify in the event of abnormal situations such as collisions between aircraft, collisions between aircraft and vehicles, incorrect entry of aircraft into taxiways, and violation of air traffic control instructions, so only the visual observation of the air traffic controller and the pilot's report are required. There is a problem that the notification system for abnormal situations is insufficient due to dependence.

또한, ICAO(International Civil Aviation Organization) 규정에 따라 항공기, 차량 및 인원과 공항 주변에서 비행 중인 항공기에 대하여 육안관측을 우선으로 감시하여야 하나 감시구역 전반에 걸쳐 건물 등에 의한 차폐구역이 발생하며 물리적인 거리에 따른 육안관측의 한계가 명확하다는 단점이 있다.In addition, in accordance with ICAO (International Civil Aviation Organization) regulations, visual observation must be prioritized for aircraft, vehicles, personnel, and aircraft flying around the airport. However, shielded areas by buildings, etc. occur throughout the surveillance area, and physical distance is required. The disadvantage is that the limitations of visual observation are clear.

또한, 관제사의 업무 수행 시 안개, 강우, 강설 및 미세먼지 등과 같은 여러 가지 기상현상으로 관제사의 육안관측에 어려움 발생한다는 단점이 있다.In addition, there is a disadvantage that visual observation of the controller is difficult due to various meteorological phenomena such as fog, rain, snowfall, and fine dust when performing the controller's duties.

또한, 관제업무 수행에 필요한 다수의 데이터는 텍스트 또는 다양한 형태의 모양과 색상을 가지며, 이 데이터들은 다수의 디스플레이에 2차 평면상에 탑다운뷰(Top-Down View)로 표출되며 관제사의 주시 방위와 차이가 있는 방위로 표출된다. In addition, a large number of data required to perform control tasks have text or various shapes and colors, and these data are displayed in a top-down view on a secondary plane on multiple displays and are based on the controller's gaze direction. It is expressed in a direction that is different from .

또한, 관제사의 관제탑 외부 시야는 3차원의 Bird's-Eye View로 시각적 정보를 수집하게 되며 이 두 View의 차이로 관제사는 지속적인 방위 및 차원 인지 부조화(Orientational Difference와 Dimensional Difference)상황하에서 관제업무를 수행해야 된다. 이는 관제사의 상황 인지력에 악영향을 미침과 동시에 관제사 워크로드 증가로 이어지게 되며 결국 관제업무 효율에 큰 영향을 미친다는 점이다.In addition, the controller's external view of the control tower collects visual information in a three-dimensional Bird's-Eye View, and due to the difference between these two views, the controller must perform control tasks under constant orientation and dimensional cognitive dissonance (Orientational Difference and Dimensional Difference). do. This has a negative impact on the controller's situational awareness and at the same time leads to an increase in the controller's workload, which ultimately has a significant impact on the efficiency of air traffic control work.

또한, 관제사의 관제업무 수행 시 비행 데이터 획득 및 항공기 이동 감시에 필요한 다양한 데이터는 평균 약 7개 이상의 디스플레이를 통해 제공되며, 이를 조작하기 위해 유사한 수의 입력장치(마우스 및 키보드)를 사용해야 한다. 따라서, 데이터 취득 및 조작 과정에서 장비의 설치 위치로 인해 헤드다운 타임(Head-Down Time) 발생은 필연적이며 이는 관제사의 육안감시능력에 영향을 미침과 동시에 주의력 분산을 야기한다.In addition, when performing the controller's control duties, various data required for obtaining flight data and monitoring aircraft movements are provided through an average of more than 7 displays, and a similar number of input devices (mouse and keyboard) must be used to operate them. Therefore, during the data acquisition and manipulation process, head-down time is inevitable due to the installation location of the equipment, which affects the controller's visual surveillance ability and causes distraction.

또한, 기존의 관제 시스템의 경우, 키보드, 마우스로 제어, 입력 가능하나 이는 관제사의 헤드다운(Head-Down)을 유발하여 상황인식 저해 및 다수의 제어장치로 인한 인적오류를 유발한다는 단점이 있다. In addition, in the case of the existing control system, control and input are possible with a keyboard and mouse, but this has the disadvantage of causing the controller's head-down, impeding situational awareness, and causing human error due to multiple control devices.

1. 한국등록특허번호 제10-2063158호(등록일자: 2019년12월31일)1. Korean Patent No. 10-2063158 (registration date: December 31, 2019)

본 발명은 위에서 제시된 과제를 달성하기 위해, 조종사-관제사간 음성 교신을 실시간으로 분석하여 계류장 관제 상황에서 항공기 관제지시 이행사항 검증 및 경고 시스템을 구축하여 관제사의 상황 인지력 향상에 기여할 수 있는 공항 관제 시스템 및 방법을 제공하는데 목적이 있다.In order to achieve the tasks presented above, the present invention is an airport control system that analyzes voice communication between pilots and controllers in real time and establishes a verification and warning system for the implementation of aircraft control instructions in an apron control situation, thereby contributing to improving the controller's situational awareness. The purpose is to provide methods and methods.

또한, 본 발명은 파노라마뷰(Panoramic View), 게이트뷰(Gate View) 및 어라운드뷰(Around View) 영상을 컴퓨터 비전 영상인식 기술 기반으로 분석 후 다양한 알고리즘을 적용하여 경고 시스템을 구축해 관제사 담당 구역 내 비정상상황에 대한 대응 능력 향상에 기여할 수 있는 공항 관제 시스템 및 방법을 제공하는데 다른 목적이 있다.In addition, the present invention analyzes panoramic view, gate view, and around view images based on computer vision image recognition technology and then applies various algorithms to build a warning system to detect abnormalities in the area under the control of the controller. Another purpose is to provide airport control systems and methods that can contribute to improving response capabilities to situations.

또한, 본 발명은 초고해상도 영상 촬영으로 확보한 데이터를 기반으로 컴퓨터비전 영상인식 기술을 활용해 항공기를 포함한 다수의 이동물체 인식, 추적하여 영상 기반으로 분석된 데이터를 다양한 표출 방식으로 관제사에게 제공할 수 있는 공항 관제 시스템 및 방법을 제공하는데 또 다른 목적이 있다.In addition, the present invention utilizes computer vision image recognition technology based on data obtained through ultra-high-resolution video shooting to recognize and track a number of moving objects, including aircraft, and provide the image-based analyzed data to the controller in various display methods. Another purpose is to provide a capable airport control system and method.

또한, 본 발명은 합성 가공된 게이트뷰(Gate View) 영상을 컴퓨터비전 영상인식 기술 기반으로 게이트 내의 다양한 (항공기, 견인트럭, 터그카, 달리, ULD(Unit Load Device), GPU(Ground Power Unit), 화물, 급수트럭, 오수트럭, 케이터링트럭, 쓰레기차, 카고로더, 사다리, 스텝카 등)의 움직임 및 존재 유무를 해당 항공편 운항 데이터와 결합하여 분석 및 학습함으로써 운항 상황을 예측하며 이를 A-CDM((Airport Collaborative Decision Making)과 연계하여 정시성 달성에 기여할 수 있는 공항 관제 시스템 및 방법을 제공하는데 또 다른 목적이 있다.In addition, the present invention uses synthetically processed Gate View images to display various information within the gate (aircraft, tow truck, tug car, Dali, ULD (Unit Load Device), GPU (Ground Power Unit) based on computer vision image recognition technology. , cargo, water trucks, sewage trucks, catering trucks, garbage trucks, cargo loaders, ladders, step cars, etc.) are combined with the relevant flight operation data to analyze and learn to predict the operation situation and use this as A-CDM. Another purpose is to provide an airport control system and method that can contribute to achieving punctuality in connection with (Airport Collaborative Decision Making).

본 발명은 위에서 제시된 과제를 달성하기 위해, 조종사-관제사간 음성 교신을 실시간으로 분석하여 계류장 관제 상황에서 항공기 관제지시 이행사항 검증 및 경고 시스템을 구축하여 관제사 상황 인지력 향상에 기여할 수 있는 관제 시스템을 제공한다.In order to achieve the tasks presented above, the present invention provides a control system that can contribute to improving the controller's situational awareness by analyzing voice communication between pilots and controllers in real time and establishing a verification and warning system for the implementation of aircraft control instructions in an apron control situation. do.

상기 관제 시스템은,The control system is,

계류장내 항공기를 포함하는 이동 객체를 센싱하여 센싱 정보를 생성하는 센서계;A sensor system that generates sensing information by sensing moving objects, including aircraft, within the apron;

다수의 감시 장비로부터 상기 항공기에 대한 비행정보를 획득하는 관리 서버; 및 a management server that obtains flight information about the aircraft from a plurality of monitoring equipment; and

상기 센싱 정보 및 상기 비행정보를 이용하여 주기장에서 상기 항공기 상황에 관한 검증요소를 영상 인식 및 상기 관제사와 상기 이동 객체의 사용자간 음성 통신되는 관제 지시에 대한 음성 인식을 분석하는 관제탑 서버;를 포함하는 것을 특징으로 한다.A control tower server that uses the sensing information and the flight information to recognize verification elements regarding the aircraft situation at the apron by image recognition and to analyze voice recognition for control instructions communicated between the controller and the user of the moving object. It is characterized by

이때, 상기 관제탑 서버는 분석된 상기 영상 인식 및 상기 음성 인식결과에 따라 관제탑에 경고 메지지를 제공하는 것을 특징으로 한다.At this time, the control tower server is characterized in that it provides a warning message to the control tower according to the analyzed image recognition and voice recognition results.

또한, 상기 관제탑 서버는 상기 이동 객체의 움직임에 따라 수집되는 상기 센싱 정보와 상기 관제지시의 수행이 부합되는지를 판정하고, 상기 판정 결과에 따라 상기 경고 메시지를 출력하는 것을 특징으로 한다.In addition, the control tower server determines whether the sensing information collected according to the movement of the moving object matches the execution of the control instruction, and outputs the warning message according to the determination result.

또한, 상기 관제 지시의 분석은, 음성 녹음으로 기록되는 상기 관제 지시를 텍스트로 변환되고, 상기 텍스트로부터 상기 관제 지시의 명령어를 추출하는 것을 통해 이루어지는 것을 특징으로 한다.In addition, the analysis of the control instructions is characterized by converting the control instructions recorded as voice recordings into text and extracting the commands of the control instructions from the text.

또한, 상기 관제탑 서버는 상기 관제사와 상기 이동 객체의 사용자간 음성 통신되는 교신 내용에 따라 항공기 위치를 출력하는 것을 특징으로 한다.Additionally, the control tower server is characterized in that it outputs the aircraft location according to the content of voice communication between the controller and the user of the moving object.

또한, 상기 관제탑 서버는 상기 교신 내용 및 상기 항공기 위치를 상기 뷰정보에 동시 출력하는 것을 특징으로 한다.Additionally, the control tower server simultaneously outputs the communication content and the aircraft location to the view information.

또한, 상기 관제탑 서버는 상기 교신 내용의 분석에 따른 항공기 위치, 항공기 상태, 운항 스테이지, 특이사항 및 복행사유를 동시 출력하는 것을 특징으로 한다.In addition, the control tower server is characterized by simultaneously outputting the aircraft location, aircraft status, operation stage, special information, and reason for go-around according to analysis of the communication content.

또한, 상기 관제탑 서버는, 상기 항공기가 주기장 영역(Gate Zone)에 미리 설정되는 설정값이상 진입시 주기장 진입 상황으로 판단하고 출력하는 것을 특징으로 한다.In addition, the control tower server is characterized in that when the aircraft enters the gate zone above a preset value, it is determined to be a gate entry situation and outputs the result.

또한, 상기 관제탑 서버는, 상기 항공기의 항공기 편명, 등록기호, 및 도착 게이트를 포함하는 운항 정보와 상기 주기장 영역으로 진입하는 상기 항공기의 영상인식 정보를 비교하여 불일치 여부를 판단하고, 판단 결과를 상기 뷰정보에 표시하는 것을 특징으로 한다.In addition, the control tower server determines whether there is a discrepancy by comparing the flight information including the flight number, registration number, and arrival gate of the aircraft with the image recognition information of the aircraft entering the apron area, and reports the determination result to the above. It is characterized by displaying it in view information.

또한, 상기 관제탑 서버는, 상기 주기장 진입 상황이 완료된 후 상기 항공기의 이동 종료시 영상분석을 통해 상기 항공기의 운항 스테이지를 예측하는 것을 특징으로 한다.In addition, the control tower server is characterized in that it predicts the operation stage of the aircraft through video analysis at the end of movement of the aircraft after the apron entry situation is completed.

다른 한편으로, 본 발명의 다른 일실시예는, (a) 센서계가 계류장내 항공기를 포함하는 이동 객체를 센싱하여 센싱 정보를 생성하는 단계; (b) 관리 서버가 다수의 감시 장비로부터 상기 항공기에 대한 비행정보를 획득하는 단계; 및 (c) 관제탑 서버가 상기 센싱 정보 및 상기 비행정보를 이용하여 주기장에서 상기 항공기 상황에 관한 검증요소를 영상 인식 및 상기 관제사와 상기 이동 객체의 사용자간 음성 통신되는 관제 지시에 대한 음성 인식을 분석하는 단계;를 포함하는 것을 특징으로 하는 인식 기술을 이용한 공항 관제 방법을 제공한다.On the other hand, another embodiment of the present invention includes (a) a sensor system generating sensing information by sensing a moving object including an aircraft in an apron; (b) a management server acquiring flight information about the aircraft from a plurality of monitoring devices; and (c) the control tower server uses the sensing information and the flight information to recognize verification elements regarding the aircraft situation at the apron by image recognition and analyze voice recognition for control instructions communicated between the controller and the user of the moving object. Provides an airport control method using recognition technology, comprising the step of:

본 발명에 따르면, 컴퓨터비전 영상인식 기술을 활용하여 계류장 관제사의 상황 인지력을 향상시킴으로써 담당 관제구역의 통제력을 강화할 수 있고, 다양한 경고 및 알림 기능으로 인적오류 예방, 비정상상황의 대응능력을 향상시킬 수 있고, 공항 대형화로 인해 빈번히 발생하는 항공기의 유도로 오진입을 예방할 수 있다.According to the present invention, control of the control area in charge can be strengthened by improving the situational awareness of the apron controller using computer vision image recognition technology, and various warning and notification functions can be used to prevent human errors and improve the ability to respond to abnormal situations. Additionally, it is possible to prevent aircraft from entering taxiways incorrectly, which frequently occurs due to the expansion of airports.

또한, 본 발명의 다른 효과로서는 음성인식 기술을 활용하여 관제지시 준수 여부 확인 및 경고 기능으로 비정상상황 인지 및 대응능력을 향상시킬 수 있다는 점을 들 수 있다.In addition, another effect of the present invention is that voice recognition technology can be used to confirm compliance with control instructions and improve abnormal situation recognition and response capabilities through warning functions.

또한, 본 발명의 다른 효과로서는 해당 시스템 도입 시 증가된 계류장 관제사의 상황 인지력과 비정상 상황 대응능력은 1인당 관제 처리량 증가로 이어지며 이로 인해 종합적인 지연감소와 공항운영능력의 향상을 기대할 수 있다는 점을 들 수 있다.In addition, another effect of the present invention is that the apron controller's situational awareness and ability to respond to abnormal situations increased upon introduction of the system leads to an increase in control throughput per person, which can be expected to reduce overall delays and improve airport operation capabilities. can be mentioned.

또한, 본 발명의 또 다른 효과로서는 획득한 영상분석을 통한 담당구역 데이터 분석 및 조종사-관제사 음성교신 분석을 통한 데이터 분석으로 담당구역의 디지털화된 상황 모니터링이 가능하며 이를 바탕으로 미래 운항의 상황 예측이 가능하다는 점을 들 수 있다.In addition, another effect of the present invention is that it is possible to monitor the digital situation of the area in charge by analyzing data in the area in charge through analysis of acquired images and analyzing voice communication between pilots and controllers, and based on this, it is possible to predict the situation of future operations. It can be said that it is possible.

또한, 본 발명의 또 다른 효과로서는 비행장 전용 컴퓨터 비전 강화학습 및 알고리즘 확보를 통해 향후 표준으로 발전할 수 있는 규격 확보가 가능하다는 점을 들 수 있다.In addition, another effect of the present invention is that it is possible to secure a standard that can be developed into a standard in the future by securing computer vision reinforcement learning and algorithms dedicated to airfields.

또한, 본 발명의 또 다른 효과로서는 국내 혹은 국외 신공항 건설 추진시 해당 시스템 적용으로 안전하고 효율적인 최첨단 관제 시스템의 운영이 가능하다는 점을 들 수 있다.In addition, another effect of the present invention is that it is possible to operate a safe and efficient state-of-the-art control system by applying the system when promoting the construction of a new domestic or overseas airport.

또한, 본 발명의 또 다른 효과로서는 항공기 제방빙 작업을 종합적으로 통제하는 아이스 하우스 또는 이와 유사한 통제업무에 해당 시스템을 수정 적용이 가능하며 저렴하고 안전하며 효율적인 시스템의 구성이 가능하다는 점을 들 수 있다.In addition, another effect of the present invention is that the system can be modified and applied to ice houses or similar control tasks that comprehensively control aircraft de-icing and anti-icing operations, and it is possible to construct an inexpensive, safe, and efficient system. .

또한, 본 발명의 또 다른 효과로서는 기존의 제어장치와 더불어 영상인식기술을 활용한 모션제어, 음성제어 방식을 적용하여 관제사가 Head-up을 유지한 상태에서 특정 모션과 음성으로 주요 관제시스템의 기능을 입력, 수정, 제어하는 방식으로 개선한다는 점을 들 수 있다.In addition, another effect of the present invention is to apply motion control and voice control using image recognition technology in addition to existing control devices, so that the main control system functions with specific motion and voice while the controller maintains head-up. It can be improved by inputting, modifying, and controlling.

도 1은 본 발명의 일실시예에 따른 스마트 공항 관제 시스템의 구성 블럭도이다.
도 2는 도 1에 도시된 관리 서버의 세부 구성도이다.
도 3은 도 1에 도시된 관제탑 서버의 세부 구성도이다.
도 4는 도 3에 도시된 처리부의 세부 구성도이다.
도 5는 본 발명의 일실시예에 따른 조종사-관제사간 음성교신 분석을 통한 관제지시 이행 검증 및 경고 과정을 보여주는 흐름도이다.
도 6은 본 발명의 일실시예에 따른 조종사-관제사간 음성교신 분석을 통한 항공기 위치 및 운항 스테이지 분석의 개념이다.
도 7은 본 발명의 일실시예에 따른 주기장 진입 상황을 보여주는 도면이다.
도 8은 도 7에 따른 진입후 푸쉬백 상황을 보여주는 도면이다.
도 9는 도 8에 따른 푸쉬백 준비 상태를 보여주는 도면이다.
도 10은 도 8에 따른 푸쉬백 불가 상황을 보여주는 도면이다.
도 11은 본 발명의 일실시예에 따른 항공기 후방견인 제한사항 식별 및 경고의 개념도이다.
Figure 1 is a block diagram of the configuration of a smart airport control system according to an embodiment of the present invention.
FIG. 2 is a detailed configuration diagram of the management server shown in FIG. 1.
Figure 3 is a detailed configuration diagram of the control tower server shown in Figure 1.
Figure 4 is a detailed configuration diagram of the processing unit shown in Figure 3.
Figure 5 shows control instruction implementation verification and warning through analysis of voice communication between pilot and controller according to an embodiment of the present invention. This is a flowchart showing the process.
Figure 6 is a concept of aircraft location and operation stage analysis through voice communication analysis between pilots and controllers according to an embodiment of the present invention.
Figure 7 is a diagram showing a situation of entering the parking lot according to an embodiment of the present invention.
Figure 8 is a diagram showing a pushback situation after entry according to Figure 7.
Figure 9 is a diagram showing the pushback preparation state according to Figure 8.
FIG. 10 is a diagram showing a pushback impossible situation according to FIG. 8.
Figure 11 is a conceptual diagram of aircraft rear towing restrictions identification and warning according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면에서 표시된 구성요소의 크기 및 상대적인 크기는 설명의 명료성을 위해 과장된 것일 수 있다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. These embodiments only serve to ensure that the disclosure of the present invention is complete, and those skilled in the art It is provided to fully inform the person of the scope of the invention, and the present invention is only defined by the scope of the claims. The sizes and relative sizes of components shown in the drawings may be exaggerated for clarity of explanation.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하며, “및/또는”은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다.Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and all combinations of one or more of the referenced items.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 “포함한다” 및/또는 “구성된다”는 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terms used in this specification are for describing embodiments and are not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “consisting of” stated components, steps, operations and/or elements do not exclude the presence or addition of one or more other components, steps, operations and/or elements. .

비록 제1, 제2 등의 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 대해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소와 구별하기 위하여 사용되는 것이다. 따라서, 이하에서 언급되는 제 1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Although it is used to describe various components such as first and second, it goes without saying that these components are not limited to these terms. These terms are used to distinguish between only one component. Therefore, it goes without saying that the first component mentioned below may also be the second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings that can be commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not to be interpreted ideally or excessively unless clearly specifically defined.

이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 인식 기술을 이용한 공항 관제 시스템 및 방법을 상세하게 설명하기로 한다.Hereinafter, an airport control system and method using recognition technology according to an embodiment of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일실시예에 따른 스마트 공항 관제 시스템(100)의 구성 블럭도이다. 도 1을 참조하면, 스마트 공항 관제 시스템(100)은 센서계(120). 통신망(130), 관리 서버(140), 관제탑 서버(150) 등을 포함하여 구성될 수 있다.Figure 1 is a block diagram of a smart airport control system 100 according to an embodiment of the present invention. Referring to FIG. 1, the smart airport control system 100 includes a sensor system 120. It may be configured to include a communication network 130, a management server 140, a control tower server 150, etc.

센서계(120)는 제 1 내지 제 n 센서(120-1 내지 120-n)로 구성된다. 제1 내지 제 n 센서(120-1 내지 120-n)는 항공기(110) 그뿐만 아니라 게이트 내의 다양한 물체(항공기, 견인트럭, 터그카, 달리, ULD(Unit Load Device), GPU(Ground Power Unit), 화물, 급수트럭, 오수트럭, 케이터링트럭, 쓰레기차, 카고로더, 사다리, 스텝카 등)의 움직임 및/또는 존재 유무, 조종사의 복명복창 등을 감지하는 기능을 수행한다. The sensor system 120 is composed of first to nth sensors (120-1 to 120-n). The first to nth sensors (120-1 to 120-n) are used to detect not only the aircraft 110 but also various objects within the gate (aircraft, tow truck, tug car, Dali, Unit Load Device (ULD), Ground Power Unit (GPU) ), cargo, water truck, sewage truck, catering truck, garbage truck, cargo loader, ladder, step car, etc.), and performs the function of detecting the movement and/or presence of the pilot's review window, etc.

이를 위해 제 1 내지 제 n 센서(120-1 내지 120-n)는 디지털 카메라, CCTV(Closed Circuit Television), 음성 센서, 적외선 카메라, 열화상 센서, 위치 센서 등이 될 수 있다. CCTV(Closed Circuit Television)는 고정형 CCTV, 열화상 CCTV, 하이브리드 PTZ(Pan-Tilt-Zoom) 카메라등이 될 수 있다. 고정형 CCTV는 관제사 시야와 동일한 View 구성, 360° 파노라마 영상 구성, AR 통한 관제정보 제공, 주기장 감시 영상 제공 등을 위해 사용될 수 있다. 열화상 CCTV는 저시정 상황 시 시야 재현, 360° 파노라마 영상 구성, AR 통한 관제정보 제공 등을 위해 사용될 수 있다. 하이브리드 PTZ(Pan-Tilt-Zoom) 카메라는 대상 추적 영상 제공, 실화상 및 열화상 전환을 위해 사용될 수 있다.To this end, the first to nth sensors 120-1 to 120-n may be digital cameras, closed circuit televisions (CCTVs), voice sensors, infrared cameras, thermal image sensors, position sensors, etc. CCTV (Closed Circuit Television) can be fixed CCTV, thermal imaging CCTV, hybrid PTZ (Pan-Tilt-Zoom) camera, etc. Fixed CCTV can be used to configure the same view as the controller's field of view, configure 360° panoramic images, provide control information through AR, and provide surveillance video of the apron. Thermal imaging CCTV can be used to reproduce the field of view in low visibility situations, compose 360° panoramic images, and provide control information through AR. Hybrid PTZ (Pan-Tilt-Zoom) cameras can be used to provide target tracking images and to switch between visible and thermal images.

물론, 제 1 내지 제 n 센서(120-1 내지 120-n)는 일부 블럭으로 구성될 수도 있다.Of course, the first to nth sensors 120-1 to 120-n may be composed of some blocks.

통신망(130)은 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 공중교환 전화망(PSTN), 공중교환 데이터망(PSDN), 종합정보통신망(ISDN: Integrated Services Digital Networks), 광대역 종합 정보 통신망(BISDN: Broadband ISDN), 근거리 통신망(LAN: Local Area Network), 대도시 지역망(MAN: Metropolitan Area Network), 광역 통신망(WLAN: Wide LAN) 등이 될 수 있다, The communication network 130 refers to a connection structure that allows information exchange between nodes such as a plurality of terminals and servers, such as public switched telephone network (PSTN), public switched data network (PSDN), and integrated information and communication network (ISDN). It can be Integrated Services Digital Networks (BISDN: Broadband ISDN), Local Area Network (LAN), Metropolitan Area Network (MAN), Wide LAN (WLAN), etc. there is,

그러나, 본 발명은 이에 한정되지는 않으며, 무선 통신망인 CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), Wibro(Wireless Broadband), WiFi(Wireless Fidelity), HSDPA(High Speed Downlink Packet Access) 망, 블루투쓰(bluetooth), NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 될 수 있다. 또는, 이들 유선 통신망 및 무선 통신망의 조합일 수 있다.However, the present invention is not limited to this, and is applicable to wireless communication networks such as CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), Wibro (Wireless Broadband), WiFi (Wireless Fidelity), and HSDPA (High Speed Downlink Packet Access). ) network, Bluetooth, NFC (Near Field Communication) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. Alternatively, it may be a combination of these wired communication networks and wireless communication networks.

관리 서버(140)는 통신망(130)에 연결되는 센서계(120), 단말, 서버들로부터 음성 정보, 영상 정보, 기상 정보, 운항 정보, 항공기 정보 등을 수집하여 데이터베이스(141)에 저장하고, 다수의 이동객체 인식, 분석 및 추적하며 이를 기반으로 데이터를 분석하여 분석 제공 정보를 생성하는 기능을 수행한다. The management server 140 collects voice information, video information, weather information, flight information, aircraft information, etc. from the sensor system 120, terminals, and servers connected to the communication network 130 and stores them in the database 141, It performs the function of recognizing, analyzing, and tracking multiple moving objects, analyzing data based on this, and generating analysis-provided information.

여기서, 이동 객체는 물체뿐만 아니라 사람을 포함할 수 있는 개념이다. 또한, 운항 정보, 항공기 정보 등은 항공기(110) 자체의 정보, 항공기(110)의 동작, 이동 경로 등을 나타내는 비행 정보에 포함될 수 있다.Here, a moving object is a concept that can include not only objects but also people. Additionally, flight information, aircraft information, etc. may be included in flight information indicating information about the aircraft 110 itself, operation of the aircraft 110, and movement path.

특히, 관리 서버(140)는 기존의 감시장비(ASR(Airport Surveillance Radar), ASDE(Airport Surface Detection Equipment), MLAT(multilateration), ADS-B(Automatic Dependent Surveillance-Broadcast))에서 비행 정보를 획득할 수도 있다. 비행정보는 컴퓨터 비전 기술을 통해 획득될 수 있으며, 표출될 수 있다. 비행정보로는 항공기 편명, 등록기호, 도착 게이트 등이 될 수 있다.In particular, the management server 140 can acquire flight information from existing surveillance equipment (Airport Surveillance Radar (ASR), Airport Surface Detection Equipment (ASDE), multilateration (MLAT), and Automatic Dependent Surveillance-Broadcast (ADS-B). It may be possible. Flight information can be obtained and displayed through computer vision technology. Flight information may include aircraft flight number, registration number, and arrival gate.

물론, 도 1에서는 관리 서버(140)를 관제탑 서버(150)와 분리하여 구성하였으나, 관리 서버(140)를 관제탑 서버(150)에 병합하여 구성하는 것도 가능하다.Of course, in Figure 1, the management server 140 is configured separately from the control tower server 150, but it is also possible to configure the management server 140 by merging it with the control tower server 150.

관제탑 서버(150)는 계류장(Apron)내에서 항공기(110)의 엔진 시동, 후방견인 허가, 항공기 이동허가, 주 관제탑에 관제권 이양, 제방빙 지원, 견인 통제 및 지원 등의 업무를 수행하기 위한 뷰정보를 제공한다. 따라서, 관제탑 서버(150)는 각 계류장마다 설치될 수도 있고, 하나의 관제탑 서버(150)로 여러 개의 계류장을 관리할 수도 있다. 관제탑 서버(150)가 서버 이중화 구조로 이루어질 수 있다. 서버 이중화는 물리적 또는 논리적인 서버(또는 LAPR) 등을 구성하여 하나의 서비스에 장애가 발생하는 경우 다른 서버를 통해 서비스를 지속가능하게 한다.The control tower server 150 provides a view to perform tasks such as engine start of the aircraft 110, rear towing permission, aircraft movement permission, transfer of control authority to the main control tower, deicing and anti-icing support, and towing control and support of the aircraft 110 within the apron. Provides information. Accordingly, the control tower server 150 may be installed at each apron, or multiple aprons may be managed with one control tower server 150. The control tower server 150 may have a server duplication structure. Server redundancy configures physical or logical servers (or LAPRs) to ensure that services can be continued through other servers in the event of a failure in one service.

계류장은 공항내에서 여객 승하기, 화물, 우편물의 적재 및 적하, 급유, 주기, 제방빙(항공기 표면의 눈, 얼음 및 서리를 제거하고 생성을 방지하는 작업) 또는 정비 등의 목적으로 항공기가 이용할 수 있도록 설정된 구역을 말한다. 후방견인은 출발 항공기를 견인 차량으로 뒤로 밀어 유도로 상에 위치시키는 작업을 말한다.The apron is used by aircraft for purposes such as boarding passengers, loading and unloading of cargo and mail, refueling, parking, de-icing (removing snow, ice and frost on the surface of aircraft and preventing their formation), or maintenance. This refers to an area set up to allow Rear towing refers to the operation of pushing a departing aircraft backwards with a tow vehicle and placing it on the taxiway.

관제탑 서버(150)는 관리 서버(140)로부터 전송되는 분석 제공 정보와 비행정보를 이용하여 생성된 운항 상황 정보에 기반한 뷰정보를 관제사에게 제공한다. 운항 상황 정보는 분석 제공 정보와 비행정보를 병합하여 항공기(110)의 위치, 이동 경로, 상태 등을 보여준다. The control tower server 150 provides the controller with view information based on flight situation information generated using analysis provided information and flight information transmitted from the management server 140. The flight status information combines analysis provided information and flight information to show the location, movement path, status, etc. of the aircraft 110.

이러한 운항 상황 정보를 합성 기술 활용해 파노라마뷰(Panoramic View), 게이트뷰(Gate View) 및 어라운드뷰(Around View)로 가공하여 다수의 패널로 구성된 울트라 와이드(Ultra Wide) 디스플레이에 출력한다. 따라서, 관제사로 하여금 관제업무수행시 담당 관제구역내 감시 능력의 강화로 상황 인지력을 극대화시킨다.This navigation status information is processed into panoramic view, gate view, and around view using synthesis technology and output on an ultra wide display consisting of multiple panels. Therefore, when performing control tasks, the controller maximizes situational awareness by strengthening the monitoring ability within the control area in charge.

도 2는 도 1에 도시된 관리 서버(140)의 세부 구성도이다. 도 2를 참조하면, 관리 서버(140)는 통신부(210), 수집부(220), 분석부(230), 분석 제공 정보 생성부(240), 출력부(250) 등을 포함하여 구성될 수 있다. 통신부(210)는 통신망(130)과 통신 연결을 수행하는 기능을 수행한다. 이를 위해, 통신부(210)는 랜카드, 모뎀 등을 포함하여 구성될 수 있다.FIG. 2 is a detailed configuration diagram of the management server 140 shown in FIG. 1. Referring to FIG. 2, the management server 140 may be configured to include a communication unit 210, a collection unit 220, an analysis unit 230, an analysis provision information generation unit 240, an output unit 250, etc. there is. The communication unit 210 performs a function of performing a communication connection with the communication network 130. For this purpose, the communication unit 210 may be configured to include a LAN card, a modem, etc.

수집부(220)는 통신부(210)를 통해 통신망(130)과 연결되는 단말, 서버들로부터 데이터(즉 정보)를 수집하는 기능을 수행한다. 수집되는 데이터로는 음성 정보, 영상 정보, 기상 정보, 운항 정보, 항공기 정보, 비행정보 등이 될 수 있으며, 수집부(220)는 이러한 수집 데이터를 데이터베이스(141)에 저장한다. The collection unit 220 performs a function of collecting data (i.e., information) from terminals and servers connected to the communication network 130 through the communication unit 210. Collected data may include audio information, video information, weather information, flight information, aircraft information, flight information, etc., and the collection unit 220 stores such collected data in the database 141.

데이터베이스(141)는 관리 서버(140) 자체내에 구성될 수도 있고, 별도의 데이터베이스 서버로 구성될 수도 있다. 수집 데이터는 공항에서 생성, 수집되는 항공정보와 상호 연계된다. 이들 데이터로는 영상자료, 항적 데이터, 비행 및 공항 자원 데이터, AFL(AirField Lighting) 데이터, 기상 데이터, 음성 통신 데이터 등이 될 수 있다.The database 141 may be configured within the management server 140 itself, or may be configured as a separate database server. The collected data is interconnected with aviation information generated and collected at the airport. These data may include video data, track data, flight and airport resource data, AFL (AirField Lighting) data, weather data, voice communication data, etc.

- 영상자료 : 다수의 초고해상도 360도 광학 이미지 합성, 다기능 고배율 카메라 사용- Video materials: Multiple ultra-high resolution 360-degree optical image synthesis, use of a multi-functional high-magnification camera

- 항적 데이터 : 계류장 관제 플랫폼, ASDE(Airport Surface Detection Equipment), ADS-B(Automatic Dependent Surveillance-Broadcast)), MLAT(multilateration), 레이저 거리측정기(LASER RANGE FINDER), ASDE-EFS(Electronic Flight Strip), ASDE-EFS는 항공기 운항 관제정보, 항공기 출발 도착 정보, 특정지점 항공기 시간정보 등을 포함한다.- Track data: Apron control platform, ASDE (Airport Surface Detection Equipment), ADS-B (Automatic Dependent Surveillance-Broadcast), MLAT (multilateration), Laser RANGE FINDER, ASDE-EFS (Electronic Flight Strip) , ASDE-EFS includes aircraft operation control information, aircraft departure and arrival information, and aircraft time information at specific points.

- 비행 및 공항자원 데이터 : 계류장 관제 플랫폼, IIS(Integrated Information System), FDT(Flight Data Terminal), 항공고시보(NOTAM:Notice to Airman), ATFM(Air Traffic Flow Management and Airspace Management), IIS는 일일운항편, 출발/도착 램프 출입시간, 출발 및 도착편 운항, A-CDM(Airport Collaborative Decision Making) 정보, 활주로 마찰계수, 탑승구 ON/OFF, 이동지역 차량, 이동지역 작업계획, 운항 스케쥴 등을 들 수 있다.- Flight and airport resource data: Apron control platform, IIS (Integrated Information System), FDT (Flight Data Terminal), NOTAM (Notice to Airman), ATFM (Air Traffic Flow Management and Airspace Management), IIS is daily Flight operations, departure/arrival ramp access times, departure and arrival flight operations, A-CDM (Airport Collaborative Decision Making) information, runway friction coefficient, boarding gate ON/OFF, movement area vehicles, movement area work plan, operation schedule, etc. there is.

- 항공등화(AFL: AirField Lighting) 데이터 : A-SMGCS(Advanced-Surface Movement Guidance and Control System)- Airfield Lighting (AFL) data: A-SMGCS (Advanced-Surface Movement Guidance and Control System)

- 기상 데이터 : 공항 기상 관측 장비(Aerodrome Meteorolgical Observation System, AMOS), 저고도 윈드시어 경보시스템(Low Level Windshear Alert System, LLWAS, 공항기상 레이더(Terminal Doppler Weather Radar, TDWR)- Meteorological data: Airport weather observation equipment (Aerodrome Meteorolgical Observation System, AMOS), Low Level Windshear Alert System (LLWAS), Terminal Doppler Weather Radar (TDWR)

- 음성통신 데이터: VCCS(Voice Communication Control System)- Voice communication data: VCCS (Voice Communication Control System)

분석부(230)는 수집된 수집 데이터를 분석하여 이동 물체의 종류, 움직임, 위치 등의 정보를 추출한다. 분석부(230)는 실시간으로 수집부(220)로부터 수집 데이터를 전송받을 수 있으며, 데이터베이스(141)로부터 해당 데이터를 검색하여 획득할 수도 있다. The analysis unit 230 analyzes the collected data and extracts information such as the type, movement, and location of the moving object. The analysis unit 230 can receive collected data from the collection unit 220 in real time, and can also search and obtain the data from the database 141.

분석 제공 정보 생성부(240)는 분석부(230)에 생성된 분석 정보를 바탕으로 관제탑 서버(150)에 제공할 분석 제공 정보를 생성한다. 즉, 이동 객체의 움직임 및 위치를 포함하는 분석 제공 정보를 생성한다.The analysis provision information generation unit 240 generates analysis provision information to be provided to the control tower server 150 based on the analysis information generated in the analysis unit 230. In other words, it generates analysis-provided information including the movement and location of the moving object.

출력부(250)는 처리중인 정보를 표시하거나 설정 메뉴, 입력 메뉴 등을 나타내는 화면을 표시하는 기능을 수행한다. 이를 위해, 출력부(250)는 디스플레이, 사운드 시스템 등을 포함하여 구성될 수 있다. 디스플레이는 LCD(Liquid Crystal Display), LED(Light Emitting Diode) 디스플레이, PDP(Plasma Display Panel), OLED(Organic LED) 디스플레이, 터치 스크린, CRT(Cathode Ray Tube), 플렉시블 디스플레이, 마이크로 LED, 미니 LED 등이 될 수 있다. 이때, 터치 스크린의 경우, 입력 수단으로도 사용될 수 있다. The output unit 250 performs the function of displaying information being processed or a screen showing a setting menu, input menu, etc. To this end, the output unit 250 may be configured to include a display, a sound system, etc. Displays include LCD (Liquid Crystal Display), LED (Light Emitting Diode) display, PDP (Plasma Display Panel), OLED (Organic LED) display, touch screen, CRT (Cathode Ray Tube), flexible display, micro LED, mini LED, etc. This can be. At this time, in the case of a touch screen, it can also be used as an input means.

도 2에 도시된 수집부, 분석부, 분석 제공 정보 생성부는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 소프트웨어 및/또는 하드웨어로 구현될 수 있다. 하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 마이크로프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다. 소프트웨어 구현에 있어, 소프트웨어 구성 컴포넌트(요소), 객체 지향 소프트웨어 구성 컴포넌트, 클래스 구성 컴포넌트 및 작업 구성 컴포넌트, 프로세스, 기능, 속성, 절차, 서브 루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로 코드, 데이터, 데이터베이스, 데이터 구조, 테이블, 배열 및 변수를 포함할 수 있다. 소프트웨어, 데이터 등은 메모리에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.The collection unit, analysis unit, and analysis providing information generation unit shown in FIG. 2 refer to units that process at least one function or operation, and may be implemented in software and/or hardware. In hardware implementation, an application specific integrated circuit (ASIC), digital signal processing (DSP), programmable logic device (PLD), field programmable gate array (FPGA), processor, microprocessor, and other devices designed to perform the above-described functions. It may be implemented as an electronic unit or a combination thereof. In software implementation, software composition components (elements), object-oriented software composition components, class composition components and task composition components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, data. , databases, data structures, tables, arrays, and variables. Software, data, etc. can be stored in memory and executed by a processor. The memory or processor may employ various means well known to those skilled in the art.

도 3은 도 1에 도시된 관제탑 서버(150)의 세부 구성도이다. 도 3을 참조하면, 관제탑 서버(150)는, 입력부(310), 처리부(320), 뷰생성부(330), 저장부(340), 통신부(360) 등을 포함하여 구성될 수 있다.FIG. 3 is a detailed configuration diagram of the control tower server 150 shown in FIG. 1. Referring to FIG. 3, the control tower server 150 may be configured to include an input unit 310, a processing unit 320, a view creation unit 330, a storage unit 340, a communication unit 360, etc.

입력부(310)는 관제사의 명령을 입력하는 기능을 수행한다. 따라서 입력부(310)는 마우스, 키보드, 마이크, 모션 센서 등이 될 수 있다. 따라서, 관제사는 마우스, 키보드 등을 이용하지 않고, 음성, 모션 등을 통해서도 명령을 입력할 수 있다. 일반적으로, 관제사는 헤드 다운, 헤드 업 등으로 모니터를 확인하고 마우스 클릭 및/또는 키보드 조작을 통해 결과를 확인하는 방식이었다. 이 경우, 관제사의 주시 방위와 차이가 있는 방위로 표출됨에따라 관제사는 지속적인 방위 및 차원 인지 부조화(Orientational Difference와 Dimensional Difference)상황하에서 관제업무를 수행해야 한다. 이는 관제사의 상황 인지력에 악영향을 미침과 동시에 관제사 워크로드 증가로 이어지게 되며 결국 관제업무 효율에 큰 영향을 미친다.The input unit 310 performs the function of inputting the controller's command. Therefore, the input unit 310 may be a mouse, keyboard, microphone, motion sensor, etc. Therefore, the controller can input commands through voice, motion, etc., without using a mouse or keyboard. In general, the controller would check the monitor by looking down or up, and then check the results by clicking the mouse and/or operating the keyboard. In this case, as the direction is displayed different from the controller's fixed direction, the controller must perform control tasks under conditions of continuous orientation and dimensional cognitive dissonance (Orientational Difference and Dimensional Difference). This has a negative impact on the controller's situational awareness and at the same time leads to an increase in the controller's workload, which ultimately has a significant impact on the efficiency of air traffic control work.

본 발명의 일실시예에서는 마우스, 키보드 등을 사용하지 않고 관제사의 모션(제스처를 포함함), 음성 등을 통해 명령을 입력할 수 있다. 따라서, 관제사가 Head-up을 유지한 상태에서 특정 모션과 음성으로 주요 관제시스템의 기능을 입력, 수정, 제어할 수 있다.In one embodiment of the present invention, commands can be input through the controller's motion (including gestures), voice, etc., without using a mouse, keyboard, etc. Therefore, the controller can input, modify, and control the functions of the main control system using specific motions and voices while maintaining head-up.

처리부(320)는 통신부(360)를 통해 전달된 분석 제공 정보와 비행정보를 이용하여 운항 상황을 예측하는 기능을 수행한다. The processing unit 320 performs a function of predicting the flight situation using analysis provided information and flight information transmitted through the communication unit 360.

뷰생성부(330)는 운항 상황을 그래픽(영상을 포함할 수 있음)으로 보여주는 뷰정보를 생성하는 기능을 수행한다. 뷰정보는 파노라마뷰(351), 주기장뷰(352), 어라운드뷰(353), 추적용 CCTV뷰(354) 등을 포함하여 구성될 수 있다. 뷰정보는 실제 촬영된 영상, 가상 영상 등을 이용한 가상 현실(VR: Virtual Reality), 증강 현실(AR: augmented reality), 가상현실과 증강현실을 혼합한 혼합 현실(MR: Mixed Reality)로 표현될 수 있다. 실제 촬영된 영상은 FHD(Full High Definition) 이상의 해상도를 보유한 다수의 실화상 카메라 및 열화상 카메라를 사용해 획득된 초고해상도 전방위 비디오 기반 감시(Video-Based Surveillance) 영상이될 수 있다.The view generator 330 performs a function of generating view information that shows the navigation situation graphically (which may include images). The view information may include a panoramic view 351, an apron view 352, an around view 353, and a tracking CCTV view 354. View information can be expressed as virtual reality (VR) using actually captured images, virtual images, etc., augmented reality (AR), and mixed reality (MR: Mixed Reality) that combines virtual reality and augmented reality. You can. The actual captured video can be ultra-high resolution omnidirectional video-based surveillance video acquired using multiple visible and thermal cameras with resolutions of FHD (Full High Definition) or higher.

이를 이용하여 다음과 같이 표출될 수 있다.Using this, it can be expressed as follows.

- 전방위 합성 영상 및 다양한 영상에 각종 데이터 오버레이 형식으로 표출- Displayed in various data overlay formats on omnidirectional composite images and various images

- 항공기를 포함하여 움직이는 이동 객체의 탐지 및 트래킹- Detection and tracking of moving objects, including aircraft

- 실제 탐지 및 트래킹 데이터와 각종 데이터 연동해 실시간 표출- Real-time display in conjunction with actual detection and tracking data and various data

- 기상 데이터(풍향 및 풍속, 활주로 가시거리(RVR: Runway Visual Range), 윈드시어, 마이크로버스트 경고 등) 표출- Display of weather data (wind direction and speed, runway visual range (RVR), wind shear, microburst warning, etc.)

- 시야제한 상황 발생시 열영상 활용 및 가상항적 표출- Utilization of thermal imaging and display of virtual wake when visibility is limited

- 게이트 정보 및 A-CDM((Airport Collaborative Decision Making) (TTOT(Target Take Off Time), TSAT(Target Start Up Approval Time)) 관련 정보 표출- Display of gate information and A-CDM ((Airport Collaborative Decision Making) (TTOT (Target Take Off Time), TSAT (Target Start Up Approval Time)) related information

- 관제용 주파수 설정값 및 송출여부 표출- Display of control frequency setting value and transmission status

- 개별 라우팅 정보(INDIVIDUAL ROUTING)를 포함하는 각종 등화 표출- Various equalization displays including individual routing information (INDIVIDUAL ROUTING)

- CPDLC(Controller Pilot Data Link Communications) 데이터 표출- CPDLC (Controller Pilot Data Link Communications) data display

- 각 게이트별 CCTV 영상 표출- CCTV video display for each gate

또한, 뷰정보는 고해상도 CCTV에서 획득한 영상과 기존 관제 시스템을 통한 다양한 항공 정보를 AI(컴퓨터비전), AR 및 영상 합성 기술을 적용하여 통합 표출한다. 관제사뷰인 파노라마뷰(351)는 개별 카메라(즉 CCTV) 영상을 합성한 관제권역 전체의 단일뷰이며, 증강현실을 이용하여 가독성을 높일 수 있다. 주기장뷰(352)는 시야차폐 주기장에 대한 모니터링을 가능하게 하는 뷰이며, 항공기 상황별 필요 정보를 제공할 수 있으며, AI(Artificial Intelligence) 기술을 적용한 푸시백 상황 모니터링 및 알림이 가능하다.In addition, view information integrates and displays images obtained from high-resolution CCTV and various aviation information through existing control systems by applying AI (computer vision), AR, and image synthesis technology. The panoramic view (351), which is the controller's view, is a single view of the entire control area that is a composite of individual camera (i.e. CCTV) images, and readability can be improved using augmented reality. The apron view (352) is a view that enables monitoring of the view-blocked apron, can provide necessary information for each aircraft situation, and enables monitoring and notification of pushback situations using AI (Artificial Intelligence) technology.

어라운드뷰인 계류장뷰(353)는 3D 가상공간을 이용하여 게이트 전체 항공기 표출 상태를 보여주는 뷰이며, 항공기의 이동경로를 표출하고, 게이트별 스케쥴 및 상태 정보를 보여줄 수 있다.The apron view 353, which is an around view, is a view that shows the display status of the entire aircraft at the gate using 3D virtual space, and can display the movement path of the aircraft and show schedule and status information for each gate.

추적용 CCTV뷰(354)는 입항중인 항공기를 자동으로 추적하여 보여주는 뷰이며, 상황인지 대상에 대한 영상 자동 추적을 보여주고, 관제사의 필요에 의한 계류장 영상을 보여줄 수 있다.The tracking CCTV view 354 is a view that automatically tracks and shows an aircraft entering a port, shows automatic image tracking of a situation-aware target, and can show apron images as needed by the controller.

저장부(340)는 분석 제공 정보와 비행정보를 이용하여 운항 상황을 예측하는 알고리즘을 갖는 프로그램, 소프트웨어, 데이터 등을 저장하는 기능을 수행한다. The storage unit 340 functions to store programs, software, data, etc. having an algorithm for predicting flight conditions using analysis provided information and flight information.

저장부(340)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD(Secure Digital) 또는 XD(eXtreme Digital) 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read Only Memory), PROM(Programmable Read Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage), 클라우드 서버와 관련되어 동작할 수도 있다.The storage unit 340 is a flash memory type, hard disk type, multimedia card micro type, or card type memory (for example, SD (Secure Digital) or (eXtreme Digital memory, etc.), RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read Only Memory), PROM (Programmable Read Only Memory) ), and may include at least one type of storage medium among magnetic memory, magnetic disk, and optical disk. Additionally, it may operate in connection with web storage and cloud servers that perform storage functions on the Internet.

도 3을 계속 참조하면, 통신부(360)는 통신망(130)과 통신 연결을 수행하는 기능을 수행한다. 이를 위해, 통신부(360)는 랜카드, 모뎀 등을 포함하여 구성될 수 있다.Continuing to refer to FIG. 3 , the communication unit 360 performs a function of performing a communication connection with the communication network 130. For this purpose, the communication unit 360 may be configured to include a LAN card, a modem, etc.

도 4는 도 3에 도시된 처리부(320)의 세부 구성도이다. 도 4를 참조하면, 처리부(320)는 데이터 인식 모듈(410), 데이터 분석 모듈(420), 운항 상황 정보 생성 모듈(430) 등을 포함하여 구성될 수 있다.FIG. 4 is a detailed configuration diagram of the processing unit 320 shown in FIG. 3. Referring to FIG. 4, the processing unit 320 may be configured to include a data recognition module 410, a data analysis module 420, a flight situation information generation module 430, etc.

데이터 인식 모듈(410)은 관리 서버(140)로부터 전송된 데이터에 대해(분석 제공 정보, 비행정보 등을 들 수 있음)에 대해 음성 인식, 영상 인식, 상황 인지 등을 수행한다. 음성 인식으로는 VCCS 및 TRS 음성정보의 TEXT 정보 전환, 호출부호(Callsign) 식별을 통한 통신대상 식별, 관제지시와 복명복창의 일치여부 판독이 될 수 있다. 호출부호(Callsign)는 항공기와 관제소간에 교신을 할 때 그 항공기의 소속 항공사와 편명을 명확하게 알리기 위한 호출부호이다. 부연하면, 관제통신서버(VCCS)에서 실시간 교신 내용을 수집하여 잡음을 제거하고, 특징을 추출하고, 추출된 특징의 패턴을 비교하여 텍스트화한다. 또한, 관제 지시에 대한 구문을 분석한다. The data recognition module 410 performs voice recognition, image recognition, situation recognition, etc. on data transmitted from the management server 140 (including analysis provision information, flight information, etc.). Voice recognition can be done by converting VCCS and TRS voice information into TEXT information, identifying communication targets through callsign identification, and reading whether the control instructions and the name recovery window match. The call sign is used to clearly indicate the airline and flight number of the aircraft when communicating between the aircraft and the air traffic control center. To elaborate, real-time communication content is collected from the control communication server (VCCS), noise is removed, features are extracted, and the patterns of the extracted features are compared and converted into text. Additionally, the syntax of the control instructions is analyzed.

복명복창의 일치여부는 관제사와 조종사간 리드백을 통해 이루어지며 다음과 같다.Whether or not the names are consistent is determined through readback between the controller and the pilot, and is as follows.

음성 인식의 경우, 다음과 같은 절차가 수행된다.For voice recognition, the following procedure is performed.

- 관제사 개인별 음성인식 및 식별 후 HMI(Human Machine Interface) 자동 로그인/아웃- Automatic login/out of HMI (Human Machine Interface) after voice recognition and identification of individual controllers

- 관제용어 음성인식 후 각종 항공기 정보 및 기타 운항정보 제공- Provides various aircraft information and other flight information after voice recognition of air traffic control terms

- 관제용어 음성인식의 경우 항공교통관제 용어와 절차를 분석 및 파악하여 텍스트로 변환작업을 거치고, 관제사와 조종사간의 교신 음성 내용을 분석 및 일치여부 확인- In the case of voice recognition of air traffic control terms, air traffic control terms and procedures are analyzed and understood, converted into text, and the voice content of communication between air traffic controllers and pilots is analyzed and checked for consistency.

- 관제 교신 중 복명복창(리드백(Read Back)) 절차를 거쳐 인식된 항공기 정보를 토대로 현재 교신 중인 항공기 정보를 AR 모니터에서 표출 가능- The aircraft information currently being communicated with can be displayed on the AR monitor based on the aircraft information recognized through the readback process during air traffic control communication.

- AR 내에서 해당 3D 모델링 된 항공기 하단에 항공기 정보 표출- Aircraft information displayed at the bottom of the 3D modeled aircraft within AR

영상 인식으로는 수신되는 영상에서 확인 가능한 항공기 및 차량에 대한 정보 식별, 계류장내 비정상 상황에 대한 인지 등이 될 수 있다. 상황 인지로는 충돌예측 인지 및 알림, 비정상 상황 인지 및 알림, 관제지시 불이행 인지 및 알림 등이 될 수 있다.Image recognition can include identifying information about aircraft and vehicles that can be seen in received images, and recognizing abnormal situations within the apron. Situational awareness can include collision prediction recognition and notification, abnormal situation recognition and notification, and non-compliance with air traffic control instructions recognition and notification.

모션 인식은 손관절(Hand Tracking)을 통해 이루어질 수 있다. 즉, 주먹, 손가락 개수, 움직임이 될 수 있다. 따라서, 미리 정해진 손 모양으로 명령어를 전달한다. 예를 들면, 주먹을 쥐면 화면 이동 중단이 수행되고, 손가락 방향(검지)에 따라 AR 위치를 이동시킨다. 손바닥을 펴면 화면을 확대하고 모으면 축소된다. Motion recognition can be achieved through hand tracking. That is, it can be a fist, number of fingers, or movement. Therefore, commands are delivered using predetermined hand gestures. For example, clenching a fist stops the screen movement and moves the AR position according to the direction of the finger (index finger). Open your palm to enlarge the screen, and pinch it together to zoom out.

데이터 분석 모듈(420)은 데이터 인식 모듈(410)에 의해 식별된 데이터를 이용하여 분석을 수행한다. 부연하면, 분석을 통해, 운항 상황 정보를 생성한다. 이 경우, 지도맵 정보와 운항 상황 정보를 합성한다.The data analysis module 420 performs analysis using the data identified by the data recognition module 410. To elaborate, through analysis, flight situation information is generated. In this case, map information and navigation status information are synthesized.

또한, 데이터 분석 모듈(420)은 조종사-관제사간 음성 교신을 실시간으로 분석하여 비정상 상황 감지, 조종사의 복명복창 일치 여부 판별, 관제지시와 등화 점등 검증, 및 항공기 이동상황 검증 등을 수행한다.In addition, the data analysis module 420 analyzes the voice communication between the pilot and the controller in real time to detect abnormal situations, determine whether the pilot's name recovery matches, verify the control instructions and lights, and verify the aircraft movement status.

또한, 데이터 분석 모듈(420)은 공항 건물 등과 같은 물리적인 장애물로 인한 LoS(Line of Sight) 시야 차폐, 기상현상(안개, 강우 및 강설 등)으로 인한 시야 차폐를 AI(Computer Vision)기술을 활용한 대상 인식 및 분석, AR(Augmented Reality)기술 및 디지털 트윈 기술을 활용한 가상 오브젝트(윤곽선 또는 오브젝트 3D 모델링 등)를 생성한다. 따라서, 관제사 시야차폐를 극복할 수 있다. In addition, the data analysis module 420 utilizes AI (Computer Vision) technology to block the Line of Sight (LoS) view due to physical obstacles such as airport buildings and block the view due to meteorological phenomena (fog, rainfall, snowfall, etc.). Creates virtual objects (contours or object 3D modeling, etc.) using object recognition and analysis, AR (Augmented Reality) technology, and digital twin technology. Therefore, it is possible to overcome the controller's field of view occlusion.

디지털 트윈 기술은 컴퓨터에 현실속 사물의 쌍둥이를 만들고, 현실에서 발생할 수 있는 상황을 컴퓨터로 시뮬레이션함으로써 결과를 미리 예측하는 기술이다. Digital twin technology is a technology that predicts results in advance by creating twins of objects in reality on a computer and simulating situations that may occur in reality on a computer.

또한, 데이터 분석 모듈(420)은 합성 가공된 Gate View 영상을 컴퓨터비전 영상인식 기술 기반으로 게이트 내의 다양한 물체(항공기, 견인트럭, 터그카, 달리, ULD, GPU. 화물, 급수트럭, 오수트럭, 케이터링트럭, 쓰레기차, 카고로더, 사다리, 스텝카 등)의 움직임 및 존재 유무를 해당 항공편 운항 데이터와 결합하여 분석 및 학습함으로써 운항 상황을 예측하며 이를 A-CDM과 연계한다. 학습은 일반적으로 딥러닝 기술을 이용하나, 이에 한정되는 것은 아니고 머신 러닝도 사용될 수 있다.In addition, the data analysis module 420 uses synthetically processed Gate View images based on computer vision image recognition technology to view various objects within the gate (aircraft, tow truck, tug car, Dali, ULD, GPU, cargo, water truck, sewage truck, The movement and presence of catering trucks, garbage trucks, cargo loaders, ladders, step cars, etc.) are combined with the corresponding flight operation data to analyze and learn to predict the operation situation and link this to A-CDM. Learning generally uses deep learning technology, but is not limited to this and machine learning may also be used.

운항 상황 정보 생성 모듈(430)은 데이터 분석 모듈(420)에 의해 생성된 데이터를 이용하여 운항 상황 정보를 생성하는 기능을 수행한다. 부연하면, 계류장 관제사의 시야와 각종 시스템 데이터 간 차원 차이로 발생하는 인지 부조화, 다수의 독립된 장비와 개별 입력 장비조작에 따른 헤드다운(Head-Down)에 기인한 인적오류, 공항 내 터미널 등 물리적인 구조물에 의한 시야차폐, 기상(안개, 강우, 강설)현상으로 인한 시야 제한 상황등을 극복하기 위해 공항 내의 주요 관제 시스템과 운항 정보 시스템의 정보를 통합한다. 통합된 정보는 AI, AR 기반 컴퓨터비전 영상인식 및 음성인식 기술을 융합하여 계류장관제사의 전면 시야에 다중화면으로 구성된 텔레스코픽 디스플레이에 표시된다.The flight situation information generation module 430 performs a function of generating flight situation information using data generated by the data analysis module 420. To elaborate, cognitive dissonance arising from the dimensional difference between the apron controller's field of view and various system data, human error due to head-down due to the operation of multiple independent equipment and individual input equipment, and physical damage such as terminals within the airport. To overcome visibility obstruction due to structures and limited visibility due to meteorological phenomena (fog, rain, snowfall), information from the main control system and flight information system within the airport is integrated. The integrated information is displayed on a multi-screen telescopic display in the apron controller's front view by combining AI and AR-based computer vision image recognition and voice recognition technologies.

따라서, 실시간 통합 정보화면 제공, 각종 알림, 경고 시스템 도입, 비접촉(Touch-less) 제어 방식 적용, 단순·직관적인 인터페이스등이 적용될 수 있다.Therefore, provision of real-time integrated information screens, introduction of various notification and warning systems, application of touch-less control methods, and simple and intuitive interfaces can be applied.

도 4에 도시된 데이터 인식 모듈(410), 데이터 분석 모듈(420), 운항 상황 정보 생성 모듈(430)은 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 소프트웨어 및/또는 하드웨어로 구현될 수 있다. 하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 마이크로프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다. 소프트웨어 구현에 있어, 소프트웨어 구성 컴포넌트(요소), 객체 지향 소프트웨어 구성 컴포넌트, 클래스 구성 컴포넌트 및 작업 구성 컴포넌트, 프로세스, 기능, 속성, 절차, 서브 루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로 코드, 데이터, 데이터베이스, 데이터 구조, 테이블, 배열 및 변수를 포함할 수 있다. 소프트웨어, 데이터 등은 메모리에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.The data recognition module 410, data analysis module 420, and flight situation information generation module 430 shown in FIG. 4 refer to units that process at least one function or operation, and are implemented in software and/or hardware. It can be. In hardware implementation, an application specific integrated circuit (ASIC), digital signal processing (DSP), programmable logic device (PLD), field programmable gate array (FPGA), processor, microprocessor, and other devices designed to perform the above-described functions. It may be implemented as an electronic unit or a combination thereof. In software implementation, software composition components (elements), object-oriented software composition components, class composition components and task composition components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, data. , databases, data structures, tables, arrays, and variables. Software, data, etc. can be stored in memory and executed by a processor. The memory or processor may employ various means well known to those skilled in the art.

도 5는 본 발명의 일실시예에 따른 조종사-관제사간 음성교신 분석을 통한 관제지시 이행 검증 및 경고 과정을 보여주는 흐름도이다. 항공기(110)의 조종사와 관제사간 음성교신이 있게 되면 관제탑에 있는 관제사는 관제탑 서버(150)를 이용하여 관제 지시를 한다(단계 S510). 관제 지시는 음성통신을 통해 항공기(110)의 조종사 또는 이동 객체의 운전자에게 전달된다. 이때 표준화된 관제사의 관제 지시는 음성 분석이 수행된다(단계 S520).Figure 5 shows control instruction implementation verification and warning through analysis of voice communication between pilot and controller according to an embodiment of the present invention. This is a flowchart showing the process. When there is voice communication between the pilot of the aircraft 110 and the controller, the controller in the control tower gives control instructions using the control tower server 150 (step S510). Control instructions are delivered to the pilot of the aircraft 110 or the driver of the moving object through voice communication. At this time, voice analysis is performed on the standardized controller's control instructions (step S520).

음성 분석 과정(S520)은 처리부(320)가 표준화된 관제사의 음성 녹음을 저장부(340)에 기록한다(단계 S521). 이후, 처리부(320)는 관제 지시의 문장을 분석하고 명령어를 추출한다(단계 S522,S523). 표준화된 관제사의 관제 지시는 음성녹음을 통해 기록되어 해당 교신의 문장을 분석하면 해당 관제지시의 의미 추출이 가능하다. 문장의 추출은 잡음을 제거하고 오디오 데이터만을 추출하고 이 오디오 데이터를 Speech-to-text로 변환한다. 이후, 텍스트에서 명령어를 추출한다. In the voice analysis process (S520), the processing unit 320 records the standardized voice recording of the controller in the storage unit 340 (step S521). Afterwards, the processing unit 320 analyzes the sentence of the control instruction and extracts the command (steps S522 and S523). The standardized controller's control instructions are recorded through voice recording, and the meaning of the relevant control instructions can be extracted by analyzing the sentences of the communication. Sentence extraction removes noise, extracts only audio data, and converts this audio data into speech-to-text. Afterwards, commands are extracted from the text.

여기서 추출된 관제지시의 해당 의미와 일치하는 특성 대상 항공기(110)(또는 특정 대상 이동 물체)의 움직임을 설정하고 센서계(120)를 이용하여 관련 촬영 영상을 수집할 수 있다(단계 S530). 예를 들면, 이동 객체의 지상 이동 움직임 및 일치여부를 확인할 수 있고, 푸시백 방향 일치 여부를 확인할 수 있다.Here, the movement of the characteristic target aircraft 110 (or a specific target moving object) that matches the meaning of the extracted control instruction can be set and related captured images can be collected using the sensor system 120 (step S530). For example, it is possible to check whether the ground movement of the moving object matches and whether the pushback direction matches.

이후, 해당 항공기의 촬영 영상분석을 통해 관제지시와 항공기의 움직임 일치 여부의 검증이 가능하다(단계 S540). Afterwards, it is possible to verify whether the control instructions and the movement of the aircraft match through analysis of the captured aircraft (step S540).

예를 들면, 관제사의 관제 지시가 "Push back approved to face south"이라고 가정한다. 이 관제지시는 항공기(110)의 기수가 남측을 바라보고 후방견인을 수행하는 지시이지만 이를 어기고 항공기의 기수가 북측을 바라보게 되는 경우 영상분석을 통해 이를 감지하며 기존 공항 감시 장비의 항적 데이터와 혼합하여 해당 관제 수행 검증 능력을 향상시킬 수 있다. 위와 같은 경우가 발생하면 처리부(320)는 관제지시와 항공기의 실제 수행이 불일치함을 확인하여 분석 결과를 관제사 뷰(351)에 경고 메시지로 출력하게 된다. 관제사는 해당 경고기능을 통해 관제지시 불이행 및 비정상 상황을 조기에 인지 가능하며 적절한 대응에 필요한 충분한 시간을 확보 가능할 것으로 예상할 수 있다. 경고 메시지는 그래픽, 음성, 및 문자의 조합으로 구성될 수 있다. For example, assume that the controller's control instruction is "Push back approved to face south." This control instruction is to perform rear towing with the nose of the aircraft (110) facing south, but if this is violated and the nose of the aircraft is facing north, this is detected through video analysis and track data from existing airport surveillance equipment is used. By mixing, the ability to verify the control performance can be improved. When the above case occurs, the processing unit 320 confirms that there is a discrepancy between the control instruction and the actual performance of the aircraft and outputs the analysis result as a warning message to the controller view 351. Through the warning function, controllers can expect to be able to recognize non-compliance with control instructions and abnormal situations early and secure sufficient time for appropriate response. Warning messages may consist of a combination of graphics, audio, and text.

도 6은 본 발명의 일실시예에 따른 조종사-관제사간 음성교신 분석을 통한 항공기 위치 및 운항 스테이지 분석의 개념이다. 교신 내용(610)을 토대로 항공기의 위치(620)를 표시한다. 부연하면, 현재 교신 중인 항공기의 위치를 파노라마뷰 등에 표시한다. 물론, 교신중인 항공기의 위치(620)와 교신 내용(610)을 함께 표시할 수도 있다. 교신 내용(610)은 항공기 ESR1234와 교신상황이다.Figure 6 is a concept of aircraft location and operation stage analysis through voice communication analysis between pilots and controllers according to an embodiment of the present invention. Based on the communication content (610), the aircraft's location (620) is displayed. To elaborate, the location of the currently communicating aircraft is displayed on the panoramic view, etc. Of course, the location of the aircraft in communication (620) and the content of the communication (610) can also be displayed. The communication content (610) is the communication status with aircraft ESR1234.

공항에서 운영 중인 기존 감시 장비(ASR, ASDE, MLAT 등)는 항공기의 정확한 위치 정보를 파악하는데 효과적이나 해당 항공기의 상태, 운항단계 및 관제 지시사항에 대한 정보 파악은 어렵다. 계류장 관제사(비행장 관제사)가 직접 조작하는 EFS(Electronic Flight Strip, 전자식 비행진행기록지) 시스템에는 해당 항공기의 운항단계 및 관제 지시사항이 기록되지만 모든 사항이 기록 되는 것은 아니다. Existing surveillance equipment (ASR, ASDE, MLAT, etc.) in operation at the airport is effective in identifying accurate location information of aircraft, but it is difficult to obtain information on the status, operation phase, and control instructions of the aircraft. The EFS (Electronic Flight Strip) system, which is directly operated by the apron controller (airport controller), records the aircraft's operation stages and control instructions, but not all details are recorded.

따라서, 관제지시 발부 이후 또는 특정 시점에 관제사의 추가적인 입력행위에 의해 기록되기 때문에 실제 지시와 입력 시점의 차이가 발생하게 된다. 따라서, 조종사-관제사 음성교신 분석을 통해 항공기의 위치와 운항 스테이지 분석 시에 관제사와 조종사의 교신 순간 즉각적인 위치추정, 항공기 상태 및 운항 스테이지 등을 뷰에 표시할 수 있다. 이 경우, 항공기의 상태에 대한 신속한 파악이 가능하며 해당 정보는 공항 운영 및 비정상 상황 파악이 가능하다. 예를 보면 다음과 같다.Therefore, since the information is recorded by the controller's additional input actions after the control instruction is issued or at a specific time, a difference between the actual instruction and the input time occurs. Therefore, when analyzing the location and operation stage of an aircraft through analysis of pilot-controller voice communication, immediate location estimation, aircraft status, and operation stage can be displayed in the view at the moment of communication between the controller and pilot. In this case, it is possible to quickly determine the status of the aircraft, and the information can be used to identify airport operations and abnormal situations. An example is as follows:

예1)Example 1)

"KAL123: Apron, KAL123 Request Push-Back Gate 253""KAL123: Apron, KAL123 Request Push-Back Gate 253"

항공기 위치: T2터미널 253번 게이트 내 Aircraft location : Within Gate 253 of T2 Terminal

항공기 상태: All door closed, Engines-off, Tow Truck Connected, Ready for Push-back Aircraft status : All doors closed, Engines-off, Tow Truck Connected, Ready for Push-back

운항 스테이지: 후방견인 준비 완료 Operation stage : Ready for rear towing

예2)Example 2)

"ICN TWR: KAL123, Incheon Tower, Line-up and Wait RWY33L""ICN TWR: KAL123, Incheon Tower, Line-up and Wait RWY33L"

항공기 위치: 활주로 33L 진입 전으로 추정 Aircraft location : Estimated before entering runway 33L

항공기 상태: Ready for Departure(Take-off Configuration), Engines Running, Taxing, On the Ground Aircraft Status : Ready for Departure(Take-off Configuration), Engines Running, Taxing, On the Ground

운항 스테이지: 기동지역 평행유도로 지상활주 Operation stage : Parallel taxiway taxiing in maneuvering area

예3)Example 3)

"ICN TWR: KAL124, Go-Around, Traffic on the RWY, Maintain RWY Heading, Climb to 3000ft."ICN TWR: KAL124, Go-Around, Traffic on the RWY, Maintain RWY Heading, Climb to 3000ft.

KAL124: Going-Around, Maintain RWY Heading, Climb to 3000ft, KAL124KAL124: Going-Around, Maintain RWY Heading, Climb to 3000ft, KAL124

항공기 위치: 착륙활주로 최종접근 경로 Aircraft location : Landing runway final approach route

항공기 상태: Airborne, Going-Around, Engines Running Aircraft Status : Airborne, Going-Around, Engines Running

운항 스테이지: 최종접근단계 수행 중 복행 Operation stage : Go around while performing final approach stage

특이사항: 복행절차 수행으로 착륙 예정시간 변경, 후속 접근 항공기 지연예상 Special note : Change in scheduled landing time due to carrying out go-around procedures, expected delay for subsequent approach aircraft

복행사유: 활주로 상 트래픽 Reason for go-around : Traffic on runway

도 7은 본 발명의 일실시예에 따른 주기장 진입 상황을 보여주는 도면이고, 도 8은 도 7에 따른 진입후 푸쉬백 상황을 보여주는 도면이다. 도 7 및 도 8을 참조하면, 주기장 진/출입 항공기의 식별 및 주기장 안전 확보의 검증이 가능하다. 예를 들면, 항공기(110)가 주기장 영역(Gate Zone)에 50%이상 진입시 주기장 진입 상황으로 판단한다. 부연하면, 주기장 진/출입 항공기를 영상인식으로 식별하고 해당 주기장 상황을 검증하여 이를 경고하는 기능까지 포함한다. 주기장 진입전 검증 요소로는 주기장 개방, 작업인원 개방, 후방 GSE 도로(공항과 항공사 운영을 지원하는 활동을 수행하기 위하여 계류장과 항공기에 출입하도록. 설치된 도로) 개방, 윙가드 배치, PBB(Passenger Boarding Bridges) 정위치 등이 될 수 있다.FIG. 7 is a diagram showing a situation of entering the parking lot according to an embodiment of the present invention, and FIG. 8 is a diagram showing a pushback situation after entering according to FIG. 7. Referring to Figures 7 and 8, it is possible to identify aircraft entering/exiting the apron and verify the safety of the apron. For example, when the aircraft 110 enters more than 50% of the gate zone, it is judged to be entering the gate zone. To elaborate, it includes the function of identifying aircraft entering/exiting the apron through image recognition, verifying the apron situation, and issuing a warning. Verification elements prior to entering the apron include opening of the apron, opening of workers, opening of the rear GSE road (road installed to access the apron and aircraft to perform activities supporting airport and airline operations), wing guard placement, and PBB (Passenger Boarding). Bridges) can be in fixed positions, etc.

주기장 진입후 검증 요소로는 등록기호 및 편명 분석, 주기장 등급-주기 기종 비교, 엔진 온도 분석에 따른 엔진 정지 확인, 노즈기어 정지 위치 분석, 토잉카 준비 인식 등이 될 수 있다.Verification elements after entering the apron can include analysis of registration number and flight number, apron grade-main type comparison, confirmation of engine stop based on engine temperature analysis, analysis of nose gear stop position, and recognition of toy car preparation.

푸쉬백은 항공기 앞부분에 토잉카(Towing car)가 결합되어 있는 상태를 나타낸다. 토잉카와 항공기가 같은 방향, 같은 속도로 이동하는 경우 두 객체에 대해 푸쉬백 상태로 인식되어 추적 진행한다. 이와 달리, 푸쉬백 상태에서 일정거리 이상 떨어지면 다시 개별 개체로 인식된다. 푸쉬백 준비 상태 검증은 장비/인원 개방확인, 토잉카 인식, 후방개방확인, PBB 정위치 등의 확인을 통해서 이루어진다. 한편, 푸쉬백 불가 상태 검증은 장비 및 인원 감지, 토잉카 미인식, PBB 접현 등의 확인을 통해서 이루어진다. 부연하면, 후방 유도록 항공기 존재, 엔진 온/오프, 도어 개방, 토잉카 인식이라도 토잉카 미연결, 토잉카 미인식, PBB 접현을 들 수 있다.Pushback refers to a state in which a towing car is coupled to the front of an aircraft. If the toy car and the aircraft are moving in the same direction and at the same speed, the two objects are recognized as pushback and tracked. In contrast, if it falls over a certain distance in the pushback state, it is recognized as an individual object again. Pushback readiness verification is done through confirmation of equipment/personnel opening, recognition of the toy car, confirmation of rear opening, and confirmation of PBB correct position. Meanwhile, verification of the pushback impossible status is done through confirmation of equipment and personnel detection, toy car not recognized, and PBB contact. To elaborate, examples include the presence of an aircraft in the rear parking lot, engine on/off, door opening, toy car not connected even if toy car is recognized, toy car not recognized, and PBB approach.

주기장 전면에 설치한 디지털 카메라와 열영상 카메라에서 영상을 획득한 뒤 이를 분석하며 주기장 진/출입 항공기의 해당 기종을 커스텀 데이터 셋을 활용한 컴퓨터비전 분석으로 인식하여 운항정보화 비교하여 일치 여부를 확인한다.After acquiring images from digital cameras and thermal imaging cameras installed in front of the apron, they are analyzed, and the corresponding types of aircraft entering and exiting the apron are recognized through computer vision analysis using a custom data set and compared with flight information to check for consistency. .

항공기 출입전 주기장 사전 안전 검증 기능을 구성하며 해당 기능은 입항 항공기 착륙 예정시간으로부터 작동하여 해당 주기장의 준비상황을 검증한다. 해당 기능의 검증 항목에는 항공기 존재 여부 파악, 탑승교 정위치 확인, 항공기 주기 보호선 내 인원 및 물체 확인, 후면 GSE도로 차량 통행 여부 확인, Wing-guard 인원 배치여부 확인 등이 포함되며 이 항목들의 검토를 통해 안전 확보가 이뤄지지 않은 상태일 경우 이를 관제화면에 색상 변경, 심벌생성 및 점등을 통해 관제사에게 경고 메시지를 표출할 수 있다.It constitutes a preliminary safety verification function of the apron before aircraft entry and exit, and this function operates from the scheduled landing time of the incoming aircraft to verify the preparation status of the apron. Verification items for this function include checking whether an aircraft exists, checking the exact location of the boarding bridge, checking people and objects within the aircraft parking protection line, checking whether vehicles are passing on the rear GSE road, and checking whether wing-guard personnel are deployed, etc. These items are reviewed. If safety is not secured, a warning message can be displayed to the controller by changing the color, creating a symbol, and lighting it on the control screen.

진입 항공기는 영상인식 기술을 활용하여 해당 입항 항공기의 기종을 파악하며 해당 주기장의 기종별 최대 수용능력과 비교하여 이를 초과하는 기종의 항공기 진입 시도 파악 시 관제화면에 이를 표시하여 초과기종 오진입 사고를 예방한다. The entering aircraft utilizes image recognition technology to identify the type of aircraft entering the port, and compares it to the maximum capacity for each type of aircraft at the apron. When an attempt is made to enter an aircraft that exceeds this, this is displayed on the control screen to prevent mis-entry accidents involving excess aircraft. prevent it

그리고 항공기 편명, 등록기호, 도착 게이트 등의 운항 정보와 진입 항공기의 영상인식 정보를 비교하여 해당 주기장 진입 진위여부를 판단하며 불일치 판단 시 이를 관제화면에 표출하여 주기장 오진입을 예방한다. In addition, the operation information such as aircraft flight number, registration number, and arrival gate is compared with the image recognition information of the entering aircraft to determine the authenticity of the aircraft's entry into the apron. If a discrepancy is determined, this is displayed on the control screen to prevent erroneous entry into the apron.

항공기의 주기장 진입 후 해당 항공기의 진입 속도 등을 판단하여 정지 여부를 판단하며 노즈기어의 위치를 인식하여 항공기의 적절한 주기 위치 파악으로 언더파킹 여부를 판단 가능하며 이를 관제화면에 경고로 표출하여 언더파킹 항공기와 후면 유도선 이동 항공기 간의 충돌을 예방할 수 있다. After the aircraft enters the parking lot, the entry speed of the aircraft is determined to determine whether or not to stop. By recognizing the position of the nose gear, it is possible to determine whether the aircraft is underparked by identifying the appropriate parking position of the aircraft. This is displayed as a warning on the control screen to indicate underparking. Collisions between aircraft and aircraft moving on the rear guide line can be prevented.

진입 항공기의 운항 종료 여부는 열영상 영상에서 수집한 항공기 엔진의 온도 데이터 분석을 통해 가능하며 엔진 On/Off 여부를 참고 데이터로 확보 가능하다. 항공기 진입 단계에서 항공기 주기보호선 내로 차량 또는 인원이 진입하는 경우가 발생하거나 항공기 완전 정지 이전에 탑승교가 이동하는 경우 등을 분석하여 항공기 진출입시 안전을 확보할 수 있다. Whether or not to terminate the operation of an incoming aircraft can be determined by analyzing the temperature data of the aircraft engine collected from thermal imaging images, and whether the engine is turned on or off can be obtained as reference data. Safety can be secured when entering and exiting an aircraft by analyzing cases where vehicles or personnel enter the aircraft parking protection line during the aircraft entry phase or when the boarding bridge moves before the aircraft comes to a complete stop.

견인 항공기가 주기장에 입항하는 경우 영상분석을 통해 견인 항공기 유/무 및 항공기 기종을 판단 가능하며 이를 운항 데이터와 검토하여 자력 입항 항공기와 동일한 검증 기능을 제공할 수 있다. When a towed aircraft enters the apron, the presence/absence of the towed aircraft and aircraft type can be determined through video analysis, and this can be reviewed with flight data to provide the same verification function as that of self-arriving aircraft.

도 9는 도 8에 따른 푸쉬백 준비 상태를 보여주는 도면이다. 부연하면, 푸쉬백 준비 상태의 분석에 따라 주기장 조업 상황 분석 및 운항 스테이지를 예측한다. 자력 입항이 완료된 항공기 또는 견인으로 주기장에 이동이 완료된 항공기의 이동 종료시 해당 항공기의 조업상황 분석 및 운항 스테이지의 예측 분석을 시작한다. Figure 9 is a diagram showing the pushback preparation state according to Figure 8. In other words, the apron operation situation is analyzed and the operation stage is predicted according to the analysis of the pushback readiness state. At the end of the movement of an aircraft that has completed self-introduction or has been moved to the apron by towing, analysis of the operation status of the aircraft and predictive analysis of the operation stage begin.

분석은 해당 주기장에 설치된 디지털 카메라와 열영상 카메라 영상분석을 활용하며 해당 분석에는 주기장내 탑승교 접현, 승객 승/하기, 전/후방 카고도어 개폐여부, 카고로더 이동 및 작업 상황, 터그카 이동 및 작업 상황, 달리 및 달리탑재 카고와 ULD이동 및 탑재 상황, 벨트로더 운영상황, 애드백 차량 운영상황, 오수차량 운영상황, 청수차량 운영상황, 케이터링 트럭 운영상황, 쓰레기차 운영상황, 기내청소 및 소독, 기체 외부 강설 정도, 항공기 엔진 시동 여부, 정비차량 운영상황, 급유 펌프카 운영상황, 토잉카 존재 유무 확인, 토잉카 토우바 연결 여부 확인, Wing-guard 인원 배치여부 확인 등의 상황을 분석하여 이를 해당 항공기의 운항 스테이지별 예측의 자료로 사용한다.The analysis utilizes video analysis from digital cameras and thermal imaging cameras installed at the apron, and the analysis includes access to the boarding bridge within the apron, passenger boarding/disembarkation, front/rear cargo door opening/closing, cargo loader movement and work status, tug car movement and Work status, Dali and Dali-loaded cargo and ULD movement and loading status, belt loader operation status, add-back vehicle operation status, sewage vehicle operation status, fresh water vehicle operation status, catering truck operation status, garbage truck operation status, cabin cleaning and disinfection , the degree of snowfall outside the aircraft, whether the aircraft engine is started, the operation status of the maintenance vehicle, the operation status of the refueling pump car, confirmation of the presence of a toy car, confirmation of whether the tow bar of the toy car is connected, and confirmation of the deployment of wing-guard personnel, etc. It is used as data for predictions for each stage of aircraft operation.

도 9를 참조하면, 푸쉬백 준비 상태를 3 스테이지로 검증한다. Referring to Figure 9, the pushback readiness state is verified in three stages.

1)스테이지: 토잉카와 항공기(즉, 비행기)의 위치 확인 1) Stage: Check the location of the toy car and aircraft (i.e. airplane)

2)스테이지: 탑승교(PBB:Passenger boarding bridge) 분리 확인2) Stage: Check the separation of the passenger boarding bridge (PBB)

3)스테이지: 항공기 좌우, 후방 차량 유무 확인3) Stage: Check the presence of vehicles on the left, right, and rear of the aircraft

도 10은 도 8에 따른 푸쉬백 불가 상황을 보여주는 도면이다. 즉 다음의 3가지 상황에서는 푸쉬백 불가 판정을 한다.FIG. 10 is a diagram showing a pushback impossible situation according to FIG. 8. In other words, in the following three situations, pushback is judged impossible.

1) 주위에 차량 존재1) Presence of vehicles around

2) 탑승교 설치 상태2) Boarding bridge installation status

3) 토잉카 미인식3) Toy Car not recognized

도 11은 본 발명의 일실시예에 따른 항공기 후방견인 제한사항 식별 및 경고의 개념도이다. 도 11을 참조하면, 1) 음성교신 내용을 분석, 2) 해당 항공기 후방견인 준비 상태 검증, 3) 해당 항공기 인근 교통상황 검증이 이루어진다.Figure 11 is a conceptual diagram of aircraft rear towing restrictions identification and warning according to an embodiment of the present invention. Referring to Figure 11, 1) the voice communication content is analyzed, 2) the aircraft's rear towing readiness status is verified, and 3) the traffic situation near the aircraft is verified.

1) 음성교신 내용을 분석은 조종사 출발 후방견인 요청, 음성 내용분석, 대상 항공기 및 주기장 특정이 될 수 있다.1) Analysis of voice communication contents can include pilot departure request for rear towing, voice content analysis, and target aircraft and apron identification.

2) 해당 항공기 후방견인 준비 상태 검증은 항공기 출발 준비 확인 영상 확인, 주기장(인원, 차량) 준비 영상 확인, 비행허가(ATC(Air Traffic Control) Clearance) 획득 확인, 항공 교통 흐름 관리 시간 확인이 될 수 있다.2) Verification of the aircraft's rear towing readiness status can be confirmed by video confirmation of aircraft departure preparation, video confirmation of stand preparation (personnel, vehicle), confirmation of acquisition of flight permit (ATC (Air Traffic Control) Clearance), and confirmation of air traffic flow management time. there is.

3) 해당 항공기 인근 교통상황 검증은 자력 이동 항공기 확인, 인근 주기장 후방견인 항공기 확인, 작업인원, 차량 확인이 될 수 있다.3) Verification of traffic conditions near the aircraft can include verification of self-moving aircraft, verification of aircraft towing the rear of a nearby apron, and verification of workers and vehicles.

주기장의 영상 분석을 통해 인접 주기장에서 출발을 위한 후방견인 항공기가 근접했거나 소산이동을 위한 후방견인 항공기가 근접한 경우 해당 주기장의 후방견인 항공기의 안전 확보를 위해 강화된 주기장 영상분석과 제한사항 식별 및 경고 기능을 작동한다. Through video analysis of the apron, if a rear-traction aircraft for departure from an adjacent apron is close or a rear-traction aircraft for dissipation movement is close, enhanced apron video analysis and restriction identification and warning are provided to ensure the safety of the rear-traction aircraft at the relevant apron. The function works.

후방견인 허가의 발부 여부를 IIS, EFS 또는 관제음성 분석을 통해 획득하며 해당 주기장의 항공기에 후방견인 허가 발부 여부를 바탕으로 식별과 경고 기능이 작동한다. 주기장 주기 항공기의 후방견인 준비 여부는 항공기 존재 여부, 항공기 외장이 출발 후방견인에 적합한지(전/후방 카고도어 닫힘, 탑승구 닫힘 등)여부, 탑승교의 정위치 확인, 견인트럭의 존재 여부, 견인트럭과 토우바 그리고 항공기 노즈기어의 연결 여부, Wing-guard 인원 배치여부, 엔진 On/Off 여부, 항공기의 비행허가 획득 여부 등을 확인한다. 해당 조건들이 충족되지 않은 채 후방견인 허가 발부 시 이를 관제화면에 표출하여 관제사에게 해당 미충족 항목을 인지시켜 후방견인 안전 확보가 가능하다.Whether or not a rear tow permit is issued is obtained through IIS, EFS, or air traffic control voice analysis, and identification and warning functions are activated based on whether a rear tow permit is issued to the aircraft at the relevant apron. Preparation for rear towing of a parking aircraft depends on the presence of an aircraft, whether the aircraft exterior is suitable for departure rear towing (front/rear cargo doors closed, boarding gate closed, etc.), confirmation of the correct position of the boarding bridge, presence of a tow truck, and tow truck. Check whether the tow bar and nose gear of the aircraft are connected, whether wing-guard personnel are deployed, whether the engine is turned on/off, and whether flight permission for the aircraft is obtained. When a rear towing permit is issued without the relevant conditions being met, it is displayed on the control screen and the controller is made aware of the unmet items, thereby ensuring rear towing safety.

또한, 여기에 개시된 실시형태들과 관련하여 설명된 방법 또는 알고리즘의 단계들은, 마이크로프로세서, 프로세서, CPU(Central Processing Unit) 등과 같은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 (명령) 코드, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. Additionally, the steps of the method or algorithm described in relation to the embodiments disclosed herein are implemented in the form of program instructions that can be executed through various computer means such as a microprocessor, processor, CPU (Central Processing Unit), etc., and are computer readable. Can be recorded on any available medium. The computer-readable medium may include program (instruction) codes, data files, data structures, etc., singly or in combination.

상기 매체에 기록되는 프로그램 (명령) 코드는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프 등과 같은 자기 매체(magnetic media), CD-ROM, DVD, 블루레이 등과 같은 광기록 매체(optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 (명령) 코드를 저장하고 수행하도록 특별히 구성된 반도체 기억 소자가 포함될 수 있다. The program (instruction) code recorded on the medium may be specially designed and constructed for the present invention, or may be known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROM, DVD, and Blu-ray, and ROM and RAM. Semiconductor memory elements specially configured to store and execute program (instruction) code, such as RAM), flash memory, etc., may be included.

여기서, 프로그램 (명령) 코드의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Here, examples of program (instruction) code include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

100: 스마트 공항 관제 시스템
120: 센서계 130: 통신망
140: 관리 서버 141: 데이터베이스
150: 관제탑 서버
210: 통신부 220: 수집부
230: 분석부 240: 분석 제공 정보 생성부
250: 출력부 310: 입력부
320: 처리부 330: 뷰생성부
340: 저장부
351: 파노라마뷰 352: 주기장뷰
353: 어라운드뷰 354: 추적용 CCTV(Closed Circuit Television)뷰
410: 데이터 인식 모듈 420: 데이터 분석 모듈
430: 운항 상황 정보 생성 모듈
100: Smart airport control system
120: sensor system 130: communication network
140: management server 141: database
150: Control tower server
210: Communication Department 220: Collection Department
230: analysis unit 240: analysis provision information generation unit
250: output unit 310: input unit
320: Processing unit 330: View creation unit
340: storage unit
351: Panoramic view 352: Apron view
353: Around view 354: CCTV (Closed Circuit Television) view for tracking
410: Data recognition module 420: Data analysis module
430: Flight situation information generation module

Claims (10)

계류장내 항공기(110)를 포함하는 이동 객체를 센싱하여 센싱 정보를 생성하는 센서계(120);
다수의 감시 장비로부터 상기 항공기(110)에 대한 비행정보를 획득하는 관리 서버(140); 및
상기 센싱 정보 및 상기 비행정보를 이용하여 주기장에서 상기 항공기 상황에 관한 검증요소를 영상 인식 및 관제사와 상기 이동 객체의 사용자간 음성 통신되는 관제 지시에 대한 음성 인식을 분석하는 관제탑 서버(150);를 포함하며,
상기 관제탑 서버(150)는 분석된 상기 영상 인식 및 상기 음성 인식 결과에 따라 관제탑에 경고 메지지를 제공하고,
상기 관제탑 서버(150)는 상기 이동 객체의 움직임에 따라 수집되는 상기 센싱 정보와 상기 관제지시의 수행이 부합되는지를 판정하고, 상기 판정 결과에 따라 상기 경고 메시지를 출력하며,
상기 관제탑 서버(150)는, 상기 항공기(110)가 주기장 영역(Gate Zone)에 미리 설정되는 설정값이상 진입시 주기장 진입 상황으로 판단하고 출력하고,
상기 관제탑 서버(150)는, 상기 항공기(110)의 항공기 편명, 등록기호, 및 도착 게이트를 포함하는 운항 정보와 상기 주기장 영역으로 진입하는 상기 항공기(110)의 영상인식 정보를 비교하여 불일치 여부를 판단하고, 판단 결과를 표시하는 것을 특징으로 하는 인식 기술을 이용한 공항 관제 시스템.
A sensor system 120 that generates sensing information by sensing a moving object including an aircraft 110 in the apron;
A management server 140 that obtains flight information about the aircraft 110 from a plurality of monitoring equipment; and
A control tower server 150 that uses the sensing information and the flight information to recognize verification elements regarding the aircraft situation at the apron by image recognition and to analyze voice recognition for control instructions communicated between a controller and a user of the moving object; Includes,
The control tower server 150 provides a warning message to the control tower according to the analyzed image recognition and voice recognition results,
The control tower server 150 determines whether the sensing information collected according to the movement of the moving object matches the execution of the control instruction, and outputs the warning message according to the determination result,
The control tower server 150 determines that the aircraft 110 is entering the gate zone when it enters the gate zone by more than a preset value, and outputs the judgment,
The control tower server 150 compares the flight information including the flight number, registration number, and arrival gate of the aircraft 110 with the image recognition information of the aircraft 110 entering the apron area to determine whether there is a discrepancy. An airport control system using recognition technology that makes judgments and displays the judgment results.
삭제delete 제 1 항에 있어서,
상기 관제 지시의 분석은,
음성 녹음으로 기록되는 상기 관제 지시를 텍스트로 변환하고, 상기 텍스트로부터 상기 관제 지시의 명령어를 추출하는 것을 통해 이루어지는 것을 특징으로 하는 인식 기술을 이용한 공항 관제 시스템.
According to claim 1,
The analysis of the above control instructions is,
An airport control system using recognition technology, characterized in that the control instructions recorded as voice recordings are converted into text and the commands of the control instructions are extracted from the text.
제 1 항에 있어서,
상기 관제탑 서버(150)는 상기 관제사와 상기 이동 객체의 사용자간 음성 통신되는 교신 내용(610)에 따라 항공기 위치(620)를 출력하는 것을 특징으로 하는 인식 기술을 이용한 공항 관제 시스템.
According to claim 1,
The control tower server (150) is an airport control system using recognition technology, characterized in that the aircraft location (620) is output according to the content of voice communication (610) between the controller and the user of the moving object.
제 4 항에 있어서
상기 관제탑 서버(150)는 상기 교신 내용(610) 및 상기 항공기 위치(620)를 동시 출력하는 것을 특징으로 하는 인식 기술을 이용한 공항 관제 시스템.
In clause 4
The control tower server (150) is an airport control system using recognition technology, characterized in that the communication content (610) and the aircraft location (620) are simultaneously output.
제 4 항에 있어서,
상기 관제탑 서버(150)는 상기 교신 내용(610)의 분석에 따른 항공기 위치, 항공기 상태, 운항 스테이지, 특이사항 및 복행사유를 동시 출력하는 것을 특징으로 하는 인식 기술을 이용한 공항 관제 시스템.
According to claim 4,
The control tower server (150) is an airport control system using recognition technology, wherein the control tower server (150) simultaneously outputs the aircraft location, aircraft status, operation stage, unusual information, and reason for go-around according to the analysis of the communication content (610).
삭제delete 삭제delete 계류장내 항공기(110)를 포함하는 이동 객체를 센싱하여 센싱 정보를 생성하는 센서계(120);
다수의 감시 장비로부터 상기 항공기(110)에 대한 비행정보를 획득하는 관리 서버(140); 및
상기 센싱 정보 및 상기 비행정보를 이용하여 주기장에서 상기 항공기 상황에 관한 검증요소를 영상 인식 및 관제사와 상기 이동 객체의 사용자간 음성 통신되는 관제 지시에 대한 음성 인식을 분석하는 관제탑 서버(150);를 포함하며,
상기 관제탑 서버(150)는 분석된 상기 영상 인식 및 상기 음성 인식 결과에 따라 관제탑에 경고 메지지를 제공하고,
상기 관제탑 서버(150)는 상기 이동 객체의 움직임에 따라 수집되는 상기 센싱 정보와 상기 관제지시의 수행이 부합되는지를 판정하고, 상기 판정 결과에 따라 상기 경고 메시지를 출력하며,
상기 관제탑 서버(150)는, 상기 항공기(110)가 주기장 영역(Gate Zone)에 미리 설정되는 설정값이상 진입시 주기장 진입 상황으로 판단하고 출력하고,
상기 관제탑 서버(150)는, 상기 주기장 진입 상황이 완료된후 상기 항공기(110)의 이동 종료시 영상분석을 통해 상기 항공기(110)의 운항 스테이지를 예측하는 것을 특징으로 하는 인식 기술을 이용한 공항 관제 시스템.
A sensor system 120 that generates sensing information by sensing a moving object including an aircraft 110 in the apron;
A management server 140 that obtains flight information about the aircraft 110 from a plurality of monitoring equipment; and
A control tower server 150 that uses the sensing information and the flight information to recognize verification elements regarding the aircraft situation at the apron by image recognition and to analyze voice recognition for control instructions communicated between a controller and a user of the moving object; Includes,
The control tower server 150 provides a warning message to the control tower according to the analyzed image recognition and voice recognition results,
The control tower server 150 determines whether the sensing information collected according to the movement of the moving object matches the execution of the control instruction, and outputs the warning message according to the determination result,
The control tower server 150 determines that the aircraft 110 is entering the gate zone when it enters the gate zone by more than a preset value, and outputs the judgment,
The control tower server 150 predicts the operation stage of the aircraft 110 through video analysis at the end of movement of the aircraft 110 after the apron entry situation is completed. An airport control system using recognition technology.
(a) 센서계(120)가 계류장내 항공기(110)를 포함하는 이동 객체를 센싱하여 센싱 정보를 생성하는 단계;
(b) 관리 서버(140)가 다수의 감시 장비로부터 상기 항공기에 대한 비행정보를 획득하는 단계; 및
(c) 관제탑 서버(150)가 상기 센싱 정보 및 상기 비행정보를 이용하여 주기장에서 상기 항공기 상황에 관한 검증요소를 영상 인식 및 관제사와 상기 이동 객체의 사용자간 음성 통신되는 관제 지시에 대한 음성 인식을 분석하는 단계; 를 포함하며,
상기 관제탑 서버(150)는 분석된 상기 영상 인식 및 상기 음성 인식 결과에 따라 관제탑에 경고 메시지를 제공하고,
상기 관제탑 서버(150)는 상기 이동 객체의 움직임에 따라 수집되는 상기 센싱 정보와 상기 관제지시의 수행이 부합되는지를 판정하고, 상기 판정 결과에 따라 상기 경고 메시지를 출력하며,
상기 관제탑 서버(150)는, 상기 항공기(110)가 주기장 영역(Gate Zone)에 미리 설정되는 설정값이상 진입시 주기장 진입 상황으로 판단하고 출력하고,
상기 관제탑 서버(150)는, 상기 항공기(110)의 항공기 편명, 등록기호, 및 도착 게이트를 포함하는 운항 정보와 상기 주기장 영역으로 진입하는 상기 항공기(110)의 영상인식 정보를 비교하여 불일치 여부를 판단하고, 판단 결과를 표시하는 것을 특징으로 하는 인식 기술을 이용한 공항 관제 방법.
(a) the sensor system 120 generating sensing information by sensing a moving object including the aircraft 110 in the apron;
(b) the management server 140 acquiring flight information about the aircraft from a plurality of monitoring equipment; and
(c) The control tower server 150 uses the sensing information and the flight information to recognize verification elements regarding the aircraft situation at the apron by image recognition and voice recognition of control instructions communicated between the controller and the user of the moving object. Analyzing step; Includes,
The control tower server 150 provides a warning message to the control tower according to the analyzed image recognition and voice recognition results,
The control tower server 150 determines whether the sensing information collected according to the movement of the moving object matches the execution of the control instruction, and outputs the warning message according to the determination result,
The control tower server 150 determines that the aircraft 110 is entering the gate zone when it enters the gate zone by more than a preset value, and outputs the judgment,
The control tower server 150 compares the flight information including the flight number, registration number, and arrival gate of the aircraft 110 with the image recognition information of the aircraft 110 entering the apron area to determine whether there is a discrepancy. An airport control method using recognition technology characterized by making a judgment and displaying the judgment result.
KR1020210119270A 2021-09-07 2021-09-07 System and Method for controlling airport using recognition technology KR102631326B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210119270A KR102631326B1 (en) 2021-09-07 2021-09-07 System and Method for controlling airport using recognition technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210119270A KR102631326B1 (en) 2021-09-07 2021-09-07 System and Method for controlling airport using recognition technology

Publications (2)

Publication Number Publication Date
KR20230036428A KR20230036428A (en) 2023-03-14
KR102631326B1 true KR102631326B1 (en) 2024-02-01

Family

ID=85502393

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210119270A KR102631326B1 (en) 2021-09-07 2021-09-07 System and Method for controlling airport using recognition technology

Country Status (1)

Country Link
KR (1) KR102631326B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102615009B1 (en) * 2023-06-07 2023-12-19 (주)위플로 Adjustable horizontally inspection apparatus for aircraft
CN118116373A (en) * 2024-03-13 2024-05-31 首都机场集团有限公司 Airport runway voice analysis and security management method, system, terminal and computer storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074600A (en) 2000-08-31 2002-03-15 Hitachi Ltd Inter-airport trafic controller
JP2004145566A (en) 2002-10-23 2004-05-20 Nec Corp Air traffic control instruction error correction system and air traffic control instruction error correction method
JP2012043200A (en) * 2010-08-19 2012-03-01 Toshiba Corp Control operation support device and control operation instruction method
KR101407862B1 (en) * 2012-11-01 2014-06-20 인하대학교 산학협력단 Controller working position and display method for air traffic control
KR101922378B1 (en) * 2018-02-08 2018-11-26 강지이 Method for providing real-time air traffic control monitoring service

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102063158B1 (en) 2018-08-20 2020-01-07 주식회사 유니텍 System for monitoring Air Control System

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074600A (en) 2000-08-31 2002-03-15 Hitachi Ltd Inter-airport trafic controller
JP2004145566A (en) 2002-10-23 2004-05-20 Nec Corp Air traffic control instruction error correction system and air traffic control instruction error correction method
JP2012043200A (en) * 2010-08-19 2012-03-01 Toshiba Corp Control operation support device and control operation instruction method
KR101407862B1 (en) * 2012-11-01 2014-06-20 인하대학교 산학협력단 Controller working position and display method for air traffic control
KR101922378B1 (en) * 2018-02-08 2018-11-26 강지이 Method for providing real-time air traffic control monitoring service

Also Published As

Publication number Publication date
KR20230036428A (en) 2023-03-14

Similar Documents

Publication Publication Date Title
CN108460995B (en) Display system and method for runway intrusion prevention
US20180061243A1 (en) System and methods for automated airport air traffic control services
RU2634502C2 (en) Method and device for traffic control at aerodrome
US5557278A (en) Airport integrated hazard response apparatus
KR102631326B1 (en) System and Method for controlling airport using recognition technology
US20020109625A1 (en) Automatic method of tracking and organizing vehicle movement on the ground and of identifying foreign bodies on runways in an airport zone
US6606035B2 (en) System and method for airport runway monitoring
EP3444791A2 (en) System and methods for automated airport air traffic control services
CN109598983A (en) A kind of airdrome scene optoelectronic monitoring warning system and method
EP3064407B1 (en) Augmented aircraft autobrake systems for preventing runway incursions and related processes
CN111462534B (en) Airport moving target detection system and method based on intelligent perception analysis
CN101244765A (en) Visual guidance for takeoff and landing of airplane in low visibility condition, monitor system and technique thereof
CN112446921A (en) System and method for vehicle back-push collision notification and avoidance
EP4291491A1 (en) Systems and methods for monitoring activities in an aviation environment
CN114120716A (en) Airborne warning method and system for traffic collision on airport scene
US20230038694A1 (en) Airport ground collision alerting system
Guérin et al. Certifying emergency landing for safe urban uav
KR102631325B1 (en) System and Method for controlling smart airport
KR102631327B1 (en) Airport control System for monitoring aircraft on route
Franciscone et al. Challenges to the Operational Safety and Security of eVTOL Aircraft in Metropolitan Regions: A Literature Review
KR101119887B1 (en) Intelligent system for controlling aerial lamp
Lee et al. Preliminary analysis of separation standards for urban air mobility using unmitigated fast-time simulation
Okolo et al. Identification of safety metrics for airport surface operations
Ding Analysis and simulation of advanced ground motion guidance and control system
Savvaris et al. Advanced surface movement and obstacle detection using thermal camera for UAVs

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right