KR20170101519A - Apparatus and method for disaster monitoring using unmanned aerial vehicle - Google Patents

Apparatus and method for disaster monitoring using unmanned aerial vehicle Download PDF

Info

Publication number
KR20170101519A
KR20170101519A KR1020160024134A KR20160024134A KR20170101519A KR 20170101519 A KR20170101519 A KR 20170101519A KR 1020160024134 A KR1020160024134 A KR 1020160024134A KR 20160024134 A KR20160024134 A KR 20160024134A KR 20170101519 A KR20170101519 A KR 20170101519A
Authority
KR
South Korea
Prior art keywords
disaster
image data
analysis
image
data
Prior art date
Application number
KR1020160024134A
Other languages
Korean (ko)
Inventor
박영수
이용태
권은정
이원재
이현우
조경섭
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160024134A priority Critical patent/KR20170101519A/en
Publication of KR20170101519A publication Critical patent/KR20170101519A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • B64C2201/127
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A50/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE in human health protection, e.g. against extreme weather

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Geology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Alarm Systems (AREA)

Abstract

A disaster monitoring apparatus using an unmanned aerial vehicle and a method thereof are presented. According to the present invention, the disaster monitoring apparatus using an unmanned aerial vehicle comprises a communication part, an image data analysis part, a disaster situation prediction part and a disaster situation counteracting part. The communication part transmits a control signal to an unmanned aerial vehicle and receives collection information including at least one among image data, voice data, and sensing data from the unmanned aerial vehicle. The image data analysis part analyzes the image data by at least one among a mechanical learning based-analysis method, an analysis method through combination of a plurality of image data and an analysis method through relation with the sensing data. The disaster situation prediction part applies an analysis result of the image data and weather information received from the outside to a prediction model to generate a prediction result. The disaster situation counteracting part transmits disaster alarm information, which is generated based on a scenario corresponding to the analysis result and the prediction result, to an external integral alarm system or outputs the disaster alarm information.

Description

무인 항공기를 이용한 재난 감시 장치 및 방법{APPARATUS AND METHOD FOR DISASTER MONITORING USING UNMANNED AERIAL VEHICLE}[0001] APPARATUS AND METHOD FOR DISASTER MONITORING USING UNMANNED AERIAL VEHICLE [0002]

본 발명은 무인 항공기를 이용한 재난 감시 기술에 관한 것으로, 특히 무인 항공기를 이용하여 주변을 감시하고, 산불, 홍수, 산사태 등의 재난 발생을 예측하여 재난 상황에 대응할 수 있도록 하는 기술에 관한 것이다.TECHNICAL FIELD The present invention relates to a disaster monitoring technique using an unmanned airplane, and more particularly, to a technique for monitoring a surrounding area by using an unmanned airplane, and anticipating a disaster such as a forest fire, flood or landslide to cope with a disaster situation.

산악이나 해안에서 발생하는 산불이나 해일 등의 재난 발생을 감시하거나, 자연 생태계를 감시하기 위하여 다양한 방법들이 사용되고 있다. 종래에는 주로 고정적인 감시 초소나 감시탑을 설치하고, 감시 초소 또는 감시탑에 설치된 CCTV를 이용하여 주변을 감시하였다. Various methods have been used to monitor disasters such as forest fires and tsunamis, or to monitor natural ecosystems. In the past, mainly fixed monitoring stations or monitoring towers were installed, and the surroundings were monitored using CCTV installed at the monitoring station or the monitoring tower.

CCTV를 이용할 경우, 저렴한 가격으로 주변을 감시할 수는 있다는 장점이 있으나 CCTV가 고정적인 탑에 설치되는 방식이므로 필요한 지역마다 CCTV를 설치해야 한다. 그리고 CCTV가 설치되지 않은 장소에서는 발견자의 신고에 의한 정보만으로 상황을 파악해야 하므로 불편하고, 상황 파악의 정확성이 떨어진다는 문제점이 있다. If CCTV is used, CCTV is installed in a fixed tower, although CCTV is advantageous in that it can monitor the surroundings at a low price. In a place where the CCTV is not installed, it is inconvenient to grasp the situation by only the information by the report of the detector, and the accuracy of the situation grasping becomes poor.

또한, CCTV를 수리하고자 하는 경우 사람이 직접 CCTV가 설치된 곳으로 가서 높은 곳에 설치된 CCTV를 수리하여야 하므로, CCTV를 이용한 감시 방법은 추락 등의 위험성을 내재한다. 따라서 CCTV는 주로 한정된 지역에서의 감시에 사용되고 있다.Also, in case of repairing the CCTV, the person must go to the place where the CCTV is directly installed and repair the CCTV installed in the high place. Therefore, the monitoring method using the CCTV inherits the risk of falling. Therefore, CCTV is mainly used for monitoring in limited areas.

그리고 환경 오염 및 기후 변화의 심화 등의 요인에 의한 자연 재난 재해의 발생빈도가 증가함에 따라, 다양한 재난재해의 가능성과 피해 상황을 분석하기 위하여 위성 정보가 활용되기도 한다. As the frequency of natural disasters increases due to factors such as environmental pollution and deepening of climate change, satellite information is used to analyze the possibility of various disasters and the damage situation.

그러나, 인공위성이 특정지역에 머무를 수 있는 시간이 한정되어 있으므로, 인공위성을 이용하는 감시는 주로 이상 변화를 발견하는 정도에만 사용되고 있다. 따라서 특정 지역에 대한 감시는 CCTV나 무인 항공기로부터 획득한 주변 지역 정보를 활용한다. However, since the time for a satellite to stay in a specific area is limited, surveillance using a satellite is mainly used only to detect an abnormal change. Therefore, surveillance for a specific area utilizes the surrounding area information obtained from CCTV or unmanned aircraft.

특히, 무인 항공기를 이용한 감시 기술은 재해가 발생한 경우 사람이 접근하기 힘든 사고 현장의 상황을 실시간으로 제공받을 수 있다. 따라서 사고 시 골든 타임을 가장 빠른 시간에 확보할 수 있는 조난자 수색 및 구조 장비로도 각광을 받고 있다. In particular, surveillance technology using unmanned aerial vehicles can be provided in real time at the scene of an accident where people can not approach in the event of a disaster. Therefore, it is attracting attention as a victim search and rescue equipment that can secure the golden time in the earliest time.

또한, 무인 항공기에 탑재되어 있는 카메라나 센서를 통해 건설현장 감리, 건물 안전진단, 교통위반 단속, 우범지역 감시, 노후시설관리, 상수도 오염감시, 불법폐기물감시, 불법폐수방출 감시, 적조현상감시 등 공공의 피해를 방지할 수 있는데 활용될 수 있다. In addition, through cameras and sensors installed on unmanned airplanes, construction site supervision, building safety diagnosis, traffic violation control, hunting area monitoring, aging facility management, water pollution monitoring, illegal waste monitoring, illegal waste water emission monitoring, It can be used to prevent public damage.

그리고, 호우 및 지진 등의 복합 재해에 의한 시설물 주변 토석류 발생 유형 조사에도 무인 항공기가 활용되고, 원격탐사, 현장물리탐사, 모니터링 감시 기술을 통하여 토사재해(산사태, 토석류 등) 발생 가능지역을 추출하거나, 3차원 가시화 기법을 통하여 토사재해 위험지역을 관리할 때에도 무인 항공기가 활용된다. Unmanned aerial vehicles are also used to investigate the types of earthquakes that occur near the facilities due to combined disasters such as heavy rains and earthquakes. Remote sensing, field physics exploration and monitoring surveillance techniques are used to extract areas where landslides (landslides, landslides, etc.) Unmanned airplanes are also used to manage hazardous areas in the soil through 3D visualization techniques.

이외에도 해양에서의 불법 조업 감시, 국경지대의 감시, 목표물 탐지 및 추적 등 ICT 기술과의 융합 및 기상 정보와의 연계분석을 통해, 통합적인 대응체계 구축에 효율적인 기술로 인식되고 있다. In addition, it is recognized as an effective technology for building an integrated response system through monitoring illegal fishing in the ocean, monitoring border areas, detecting and tracking targets, and analyzing linkage with ICT technology and linking with weather information.

따라서, 무인 항공기의 특징을 활용하여, 재난을 감시 및 예측하고, 재난 발생시 재난 상황에 대응할 수 있도록 하는 기술의 개발이 필요하다. Therefore, it is necessary to develop technologies that can monitor and forecast disasters by utilizing the characteristics of UAVs and respond to disasters in case of disasters.

한국 공개 특허 제10-2003-0015547호, 2003년 02월 25일 공개(명칭: 무인 운용 재난 경보장치)Korean Patent Publication No. 10-2003-0015547, February 25, 2003 (name: unmanned operation disaster alarm device)

본 발명의 목적은 산, 해안가 등과 같이 사람이 접근하기 힘든 장소의 감시 정보를 실시간으로 제공받을 수 있도록 하는 것이다. An object of the present invention is to provide surveillance information of a place that is difficult for a person to approach, such as a mountain, a coast, etc., to be provided in real time.

또한, 본 발명의 목적은 실시간으로 전송받은 감시 정보를 이용하여, 산불, 홍수, 산사태 등의 재난 발생을 예측하고, 재난 상황에 대응할 수 있도록 하는 것이다. It is also an object of the present invention to predict occurrence of disasters such as forest fires, floods, and landslides using surveillance information transmitted in real time, and to respond to disaster situations.

또한, 본 발명의 목적은 영상 데이터 및 음성 데이터를 이용하여, 재난이 발생한 위치를 추적할 수 있도록 하는 것이다. It is also an object of the present invention to make it possible to track a location where a disaster occurred using video data and audio data.

상기한 목적을 달성하기 위한 본 발명에 따른 무인 항공기를 이용한 재난 감시 장치는 무인 항공기로 제어 신호를 전송하거나, 상기 무인 항공기로부터 영상 데이터, 음성 데이터 및 센싱 데이터 중 적어도 하나를 포함하는 수집 정보를 수신하는 통신부, 기계학습기반 분석, 복수의 영상 데이터들의 결합 분석 및 상기 센싱 데이터와의 연계 분석 중 적어도 어느 하나의 분석 방법으로 상기 영상 데이터를 분석하는 영상 데이터 분석부, 상기 영상 데이터의 분석 결과 및 외부로부터 수신한 기상 정보를 예측 모델에 적용하여, 예측 결과를 생성하는 재난 상황 예측부, 그리고 상기 분석 결과 및 상기 예측 결과에 상응하는 대응 시나리오를 기반으로 생성한 재난 경보 정보를 외부의 통합경보 시스템으로 전송하거나, 상기 재난 경보 정보를 출력하는 재난 상황 대응부를 포함한다. According to another aspect of the present invention, there is provided an apparatus for monitoring a disaster using an unmanned airplane, the apparatus comprising: a control unit for transmitting a control signal to an unmanned airplane or receiving collected information including at least one of image data, An analysis unit for analyzing the image data using at least one of an analysis method based on a machine learning based analysis, a combined analysis of a plurality of image data, and an analysis of association with the sensing data, And a disaster alert information generation unit for generating disaster alert information based on the analysis result and the corresponding scenario corresponding to the prediction result, to an external integrated alarm system Disaster to transmit the disaster alert information And a situation counterpart.

또한, 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 장치에 의해 수행되는 재난 감시 방법은 무인 항공기로부터 영상 데이터, 음성 데이터 및 센싱 데이터 중 적어도 하나를 포함하는 수집 정보를 수신하는 단계, 기계학습기반 분석, 복수의 영상 데이터들의 결합 분석 및 상기 센싱 데이터와의 연계 분석 중 적어도 어느 하나의 분석 방법으로 상기 영상 데이터를 분석하는 단계, 상기 영상 데이터의 분석 결과 및 외부로부터 수신한 기상 정보를 예측 모델에 적용하여, 예측 결과를 생성하는 단계, 상기 분석 결과 및 상기 예측 결과에 상응하는 대응 시나리오를 기반으로 생성한 재난 경보 정보를 외부의 통합경보 시스템으로 전송하거나, 상기 재난 경보 정보를 출력하는 단계를 포함한다. According to another aspect of the present invention, there is provided a disaster monitoring method performed by a disaster monitoring apparatus using an unmanned aerial vehicle, comprising: receiving acquisition information including at least one of image data, voice data, and sensing data from an unmanned air vehicle; Analyzing the image data using at least one of a learning-based analysis, a combined analysis of a plurality of image data, and a correlation analysis with the sensing data, analyzing the analysis result of the image data and the weather information received from the outside Model, generating a prediction result, transmitting the disaster alert information generated based on the analysis result and the corresponding scenario corresponding to the prediction result to an external integrated alarm system, or outputting the disaster alert information .

본 발명에 따르면, 산, 해안가 등과 같이 사람이 접근하기 힘든 장소의 감시 정보를 실시간으로 제공받을 수 있다. According to the present invention, it is possible to receive surveillance information of a place that is hard to access by people, such as a mountain or a coast, in real time.

또한 본 발명에 따르면, 실시간으로 전송받은 감시 정보를 이용하여, 산불, 홍수, 산사태 등의 재난 발생을 예측하고, 재난 상황에 대응할 수 있다. Further, according to the present invention, it is possible to predict the occurrence of disasters such as forest fires, floods, and landslides using the monitoring information transmitted in real time, and to respond to a disaster situation.

또한 본 발명에 따르면, 영상 데이터 및 음성 데이터를 이용하여, 재난이 발생한 위치를 추적할 수 있다. Further, according to the present invention, it is possible to track a location where a disaster occurred by using image data and voice data.

도 1은 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 장치가 적용되는 환경을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 장치의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 따른 영상 데이터 분석부의 구성을 나타낸 블록도이다.
도 4는 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 방법을 설명하기 위한 순서도이다.
도 5는 도 4의 S420 단계에서 다중 센서 영상 데이터를 융합하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
FIG. 1 is a schematic view of an environment to which a disaster monitoring apparatus using an unmanned aerial vehicle according to an embodiment of the present invention is applied.
2 is a block diagram illustrating a configuration of a disaster monitoring apparatus using an unmanned aerial vehicle according to an embodiment of the present invention.
3 is a block diagram illustrating a configuration of an image data analysis unit according to an embodiment of the present invention.
4 is a flowchart illustrating a disaster monitoring method using an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 5 is a diagram for explaining a process of fusing multi-sensor image data in step S420 of FIG.
6 is a block diagram illustrating a computer system in accordance with an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will now be described in detail with reference to the accompanying drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 장치가 적용되는 환경을 개략적으로 나타낸 도면이다.FIG. 1 is a schematic view of an environment to which a disaster monitoring apparatus using an unmanned aerial vehicle according to an embodiment of the present invention is applied.

도 1에 도시한 바와 같이, 무인 항공기를 이용한 재난 감시 시스템은 무인 항공기(100), 무인 항공기를 이용한 재난 감시 장치(200) 및 통합 경보 시스템(300)을 포함한다. As shown in FIG. 1, a disaster monitoring system using an unmanned aircraft includes a unmanned airplane 100, a disaster monitoring apparatus 200 using an unmanned airplane, and an integrated alarm system 300.

먼저, 무인 항공기(100)는 넓은 지역을 이동하면서 영상을 촬영하고 감시하여 감시 정보를 생성한다. 그리고 무인 항공기(100)는 생성된 감시 정보를 실시간으로 무인 항공기를 이용한 재난 감시 장치(200)로 전송한다. 이때, 무인 항공기(100)는 기 수립된 감시 운행 계획에 상응하도록 비행하거나, 무인 항공기를 이용한 재난 감시 장치(200)로부터 수신된 명령 신호 및 제어 신호에 상응하도록 비행할 수 있다. First, the UAV 100 captures and monitors an image while moving over a wide area, and generates surveillance information. Then, the unmanned airplane 100 transmits the generated monitoring information to the disaster monitoring apparatus 200 using the unmanned airplane in real time. At this time, the UAV 100 may fly to correspond to the established surveillance operation plan, or may fly in accordance with command signals and control signals received from the disaster monitoring apparatus 200 using the UAV.

그리고 무인 항공기(100)는 비행 제어 모듈과 운용 제어 모듈로 구성될 수 있다. 이때, 비행 제어 모듈은 무인 항공기를 이용한 재난 감시 장치(200)로부터 명령 신호 및 제어 신호를 수신하고, 무인 항공기를 이용한 재난 감시 장치(200)로 비행 정보를 전송할 수 있다. 그리고 비행 제어 모듈은 무인 항공기(100)의 이착륙, 항법 및 통신 등과 같은 전반적인 무인 항공기(100)의 운영을 담당하는 무인 항공기 컨트롤러의 역할을 수행할 수 있다. And the UAV 100 may include a flight control module and an operation control module. At this time, the flight control module receives the command signal and the control signal from the disaster monitoring device 200 using the unmanned airplane, and can transmit the flight information to the disaster monitoring device 200 using the unmanned airplane. The flight control module may serve as an unmanned airplane controller responsible for the overall operation of the UAV 100, such as landing and landing, navigation, and communication of the UAV 100.

또한, 비행 제어 모듈은 무인 항공기(100)에 탑재된 데이터 수집용 탑재 장비(탑재체)들을 연동하는 센서 연동 기능과 무인 항공기(100)의 비행을 조종하는 비행 조종 기능을 수행할 수 있다. In addition, the flight control module can perform a sensor interlocking function for interlocking the data acquisition equipment (payloads) mounted on the UAV 100 and a flight control function for controlling the flight of the UAV 100.

이때, 비행 제어를 위하여, 무인 항공기(100)에는 가속도 센서, 자이로 센서, 고도 센서, 자기 센서 및 GPS 등의 센서들이 연결될 수 있으며, 비행 제어 모듈은 이러한 각종 센서들의 연결 및 제어를 수행한다. 그리고 비행 제어 모듈은 비행 정보 송신, 무인 항공기(100)의 이착륙, 항법 및 통신 등과 관련된 전반적인 운영을 담당하는 무인 항공기 컨트롤러일 수 있다. At this time, for the flight control, sensors such as an acceleration sensor, a gyro sensor, an altitude sensor, a magnetic sensor and a GPS may be connected to the UAV 100, and the flight control module performs connection and control of these various sensors. The flight control module may be an unmanned airplane controller responsible for overall operation related to flight information transmission, take-off and landing, navigation and communication of the UAV 100.

그리고, 무인 항공기(100)의 운용 제어 모듈은 무인 항공기(100)에 탑재되는 카메라, 센서 등의 데이터 수집용 탑재 장비(탑재체)를 제어하고, 촬영 영상 메모리를 제어하며, USB 포트를 제어하거나, 전력을 제어할 수 있으며, 통신 모뎀 등의 운용을 제어할 수도 있다.The operation control module of the UAV 100 controls the data acquisition equipment (payload) such as a camera and a sensor mounted on the UAV 100, controls the captured image memory, controls the USB port, Power can be controlled, and operation of a communication modem or the like can be controlled.

다음으로 무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기(100)로부터 영상 데이터, 음성 데이터 및 센싱 데이터 중에서 적어도 하나를 포함하는 수집 정보를 수신하고, 수신된 수집 정보를 이용하여 재난 발생을 감지하고, 재난 방재 및 재난 상황에 대한 대응을 수행한다. 또한, 무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기(100)의 비행 자세 및 고도를 제어하거나, 자동 수직이착륙 및 자율 주행을 제어할 수 있다.Next, a disaster monitoring apparatus 200 using an unmanned airplane receives collection information including at least one of image data, voice data, and sensing data from the UAV 100, and detects occurrence of a disaster using the received collection information Disaster prevention, and response to disaster situations. In addition, the disaster monitoring apparatus 200 using the UAV can control the attitude and altitude of the UAV 100, and can control the automatic vertical takeoff and landing and autonomous travel.

무인 항공기를 이용한 재난 감시 장치(200)에서 무인 항공기(100)로의 상향 링크는 명령 신호 및 제어 신호를 송신한다. 그리고 무인 항공기(100)에서 무인 항공기를 이용한 재난 감시 장치(200)로의 하향 링크는 비행 정보, 영상 데이터, 음성 데이터 및 센싱 데이터 중에서 적어도 하나를 포함하는 수집 정보를 전송한다. The uplink from the disaster monitoring apparatus 200 using the unmanned airplane to the UAV 100 transmits a command signal and a control signal. The downlink from the UAV 100 to the disaster monitoring apparatus 200 using an unmanned airplane transmits collection information including at least one of flight information, image data, voice data, and sensing data.

이때, 무인 항공기를 이용한 재난 감시 장치(200)와 무인 항공기(100)는 Wi-Fi/LTE RF 통신을 이용하여 재난 상황의 수집 정보를 전송할 수 있으며, 통신 방법은 이에 한정되지 않는다. 그리고 무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기(100)의 관제를 위하여, 무인 항공기(100)의 제어가 가능한 동작 범위 영역의 지역 내에 위치할 수 있으며, 무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기(100)의 제어, 감시, 방재 및 대응을 위한 실시간 동영상을 무인 항공기(100)로부터 수신할 수 있다. At this time, the disaster monitoring apparatus 200 using the unmanned airplane and the UAV 100 can transmit the collection information of the disaster situation using the Wi-Fi / LTE RF communication, and the communication method is not limited thereto. The disaster monitoring apparatus 200 using the unmanned airplane may be located within an area of the operation range area where the unmanned airplane 100 can be controlled for controlling the unmanned airplane 100, 200 can receive real-time moving images for control, monitoring, disaster prevention, and response of the UAV 100 from the UAV 100.

그리고 무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기(100)로부터 수신된 수집 정보인 영상 데이터, 음성 데이터 및 센싱 데이터를 처리하고, 처리된 결과를 이용하여, 재난 방재 및 재난 상황에 대한 대응을 수행 할 수 있다. The disaster monitoring apparatus 200 using the unmanned airplane processes the image data, the sound data, and the sensing data, which are collected information received from the UAV 100, and uses the processed result to perform disaster prevention and response to a disaster situation Can be performed.

무인 항공기를 이용한 재난 감시 장치(200)는 기계학습기반 분석, 복수의 영상 데이터들의 결합 분석 및 센싱 데이터와의 연계 분석 중에서 적어도 하나의 분석 방법으로 영상 데이터를 분석할 수 있다. 또한 음성 데이터에 상응하는 위치의 영상 데이터를 이용하여 영상 데이터를 분석할 수 있으며, 영상 데이터의 분석 결과를 이용하여 재난 발생 여부를 판단한다. The disaster monitoring apparatus 200 using an unmanned aerial vehicle can analyze image data using at least one analysis method among a machine learning based analysis, a combination analysis of a plurality of image data, and a linkage analysis with sensing data. Also, the image data can be analyzed using the image data corresponding to the voice data, and the occurrence of a disaster can be determined using the analysis result of the image data.

또한, 무인 항공기를 이용한 재난 감시 장치(200)는 재난이 발생한 것으로 판단된 경우, 무인 항공기(100)의 비행을 제어한다. 그리고 무인 항공기(100)로부터 수신한 수집 정보를 재난별 예측 모델에 적용하여, 예측 결과를 생성한다. In addition, the disaster monitoring apparatus 200 using the unmanned airplane controls the flight of the unmanned airplane 100 when it is determined that a disaster has occurred. And applies the collected information received from the UAV 100 to the disaster prediction model to generate a prediction result.

또한, 무인 항공기를 이용한 재난 감시 장치(200)는 분석 결과 및 예측 결과에 상응하는 대응 시나리오를 기반으로 재난 경보 정보를 생성하고, 생성된 재난 경보 정보를 외부의 통합경보 시스템으로 전송할 수 있다. 그리고 무인 항공기를 이용한 재난 감시 장치(200)는 생성된 재난 경보 정보를 스피커 또는 디스플레이 등의 다양한 방법으로 출력할 수도 있다.Also, the disaster monitoring apparatus 200 using the unmanned airplane can generate disaster alert information based on the analysis result and the corresponding scenario corresponding to the predicted result, and transmit the generated disaster alert information to the external integrated alarm system. The disaster monitoring apparatus 200 using the unmanned airplane may output the generated disaster alarm information through various methods such as a speaker or a display.

이하에서는, 무인 항공기(100)의 구성 및 기능에 대하여 더욱 상세하게 설명한다. Hereinafter, the configuration and function of the UAV 100 will be described in more detail.

무인 항공기(100)는 비행 제어 모듈 및 운용 제어 모듈을 포함하고, 비행 제어 모듈은 센서 연동 기능 및 비행 조종 기능을 수행한다. The UAV 100 includes a flight control module and an operation control module, and the flight control module performs a sensor interlock function and a flight control function.

비행 제어 모듈의 센서 연동 기능은 무인 항공기(100)에 탑재된 데이터 수집용 탑재 장비들을 관리하고, 센서 연동을 수행한다. 그리고 비행 제어 모듈의 센서 연동 기능은 재난 감시, 방재 및 대응 임무를 수행하기 위한 데이터 수집용 탑재 장비들과 해당 장비들을 탑재하기 위한 센서 플러그인/아웃 모듈을 포함할 수 있다. 또한, 무인 항공기(100)의 센서 연동 기능은 촬영된 영상 및 센싱 데이터를 저장하기 위한 영상/센싱 저장 모듈을 포함할 수도 있다. The sensor interlocking function of the flight control module manages the data acquisition equipment mounted on the UAV 100 and performs the sensor interlocking. The sensor interlocking function of the flight control module may include a device for data collection for performing disaster monitoring, disaster prevention and response missions, and a sensor plug-in / out module for mounting the devices. In addition, the sensor interlocking function of the UAV 100 may include an image / sensing storage module for storing captured images and sensing data.

이때, 무인 항공기(100)에 탑재된 데이터 수집용 탑재 장비는, 가시광선 카메라, 적외선 카메라, 초분광 센서, 라이다(Light Detection and Ranging, LIDAR), SAR(Synthetic Aperture Radar), 마이크로폰(마이크) 중에서 적어도 어느 하나를 포함할 수 있다. 그리고 카메라 등과 같은 영상 데이터, 음성 데이터 및 센싱 데이터 중에서 적어도 하나를 포함하는 수집 정보를 수집하기 위한 데이터 수집용 탑재 장비들은 짐벌을 통하여 탑재될 수 있다. In this case, the data acquisition equipment mounted on the UAV 100 may be a visible light camera, an infrared camera, an ultrasound sensor, a light detection and ranging (LIDAR), a SAR (synthetic aperture radar) Or the like. And data collection equipment for collecting collection information including at least one of image data such as a camera and the like, voice data and sensing data can be loaded through the gimbals.

무인 항공기(100)에 장착되는 가시광선 카메라는 가시광선 대역에서 검출될 수 있는 화염, 연기 감지, 침수지 감지 및 지표면 변화 감지 등에 사용되며, 정지 영상(스틸컷) 및 동영상을 취득하여 저장한다. 그리고 취득한 정지 영상 및 동영상을 무선으로 무인 항공기를 이용한 재난 감시 장치(200)로 전송할 수 있다. 그리고 적외선(열화상) 카메라는 온도 측정을 통하여, 화염 및 열원을 감지하고, 지표 온도를 감지할 수 있다. The visible light camera mounted on the UAV 100 is used for flame, smoke detection, immersion detection, and surface change detection which can be detected in the visible light band, and captures and stores still images (still cuts) and moving images. The acquired still images and moving images can be wirelessly transmitted to the disaster monitoring apparatus 200 using the unmanned airplane. And infrared (thermal) cameras can detect flames and heat sources and detect surface temperatures through temperature measurements.

또한, 무인 항공기(100)는 지표물의 분광특성을 획득할 수 있는 초분광 센서를 탑재하여, 연기 및 열원을 감지하거나, 침수지를 감지하며, 토양의 수분 및 식생 피복 등을 확인할 수 있다. 그리고 무인 항공기(100)는 라이다를 탑재할 수도 있으며, 라이다의 레이저를 이용하여 거리를 측정할 수 있다. 이를 통하여, 무인 항공기(100)는 연기 및 지형 변화를 감지할 수 있으며, 표면 거칠기 등을 감지할 수도 있다. In addition, the UAV 100 is equipped with an ultra-spectral sensor capable of acquiring the spectral characteristics of the surface water to detect smoke and heat sources, detect immersion sites, and confirm the moisture and vegetation coverage of the soil. The unmanned airplane 100 may be equipped with a lidar and the distance may be measured using a laser of lidar. Accordingly, the UAV 100 can sense smoke and topography changes, and can detect surface roughness and the like.

무인 항공기(100)가 SAR을 포함하는 경우, 무인 항공기는 마이크로파, 라디오파 등의 주파수 대역을 이용하여 물체를 탐지하거나, 거리를 측정할 수 있다. 그리고 이를 통하여, 식물을 감지하거나, 지형 변화 및 표면 거칠기 등을 감지할 수 있다. When the unmanned air vehicle 100 includes the SAR, the unmanned airplane can detect an object or measure a distance using a frequency band such as microwave or radio wave. Through this, it is possible to detect plants, detect terrain changes and surface roughness, and the like.

이외에도 무인 항공기(100)는 온도 및 습도, 풍향 및 풍속 등을 수집하는 환경 센서를 탑재할 수 있다. 이때, 무인 항공기(100)에 탑재되는 센서의 종류는 이에 한정되지 않는다. 또한, 무인 항공기(100)는 마이크로폰(마이크)을 통하여 감지된 폭발음, 총소리 등의 위급 상황 관련 음성 데이터의 위치 정보를 추적할 수 있으며, 무인 항공기(100)는 위급 상황 관련 음성 데이터의 위치로 이동하여, 해당 위치의 상황을 감시하거나, 영상 데이터와 음성 데이터를 결합하여 목표물을 추적할 수도 있다.In addition, the UAV 100 may be equipped with an environmental sensor for collecting temperature, humidity, wind direction and wind speed. At this time, the types of sensors mounted on the UAV 100 are not limited thereto. In addition, the UAV 100 can track location information of emergency data related to an emergency such as explosion sound or gunshot detected through a microphone (microphone), and the UAV 100 can move to the location of emergency data , It is possible to monitor the situation of the position or to track the target by combining the video data and the audio data.

센서 플러그인/아웃 모듈은 무인 항공기(100)에 장착되는 데이터 수집용 탑재 장비들 및 카메라 제어 모듈들을 재난 감시 및 방재, 재난 발생 시 대응 상황에 적합하도록 플러그인/아웃이 가능한 형태로 제공한다. 그리고 센서 플러그인/아웃 모듈은 영상/센싱 저장 모듈로 수집된 수집 정보를 전송한다. The sensor plug-in / out module provides the data acquisition equipment and camera control module mounted on the UAV 100 in a form that can be plugged in / out to suit the situation in case of disaster monitoring, disaster prevention and disaster. The sensor plug-in / out module transmits the collected information to the image / sensing storage module.

다음으로, 비행 제어 모듈의 비행 조종 기능은 무인 항공기(100)의 가속도 센서, 자이로 센서, 고도 센서, 자기 센서 및 GPS 센서 등을 이용하여 무인 항공기(100)의 비행을 조종할 수 있다. 그리고 비행 조종 기능은 무인 항공기(100)의 조종을 위한 수신 조종 수신기 및 자동 운용을 위한 자동 운용 통신 모듈을 포함할 수도 있다. Next, the flight control function of the flight control module can control the flight of the UAV 100 using an acceleration sensor, a gyro sensor, an altitude sensor, a magnetic sensor, and a GPS sensor of the UAV 100. And the flight control function may include a receiver control receiver for steering the UAV 100 and a self-operating communication module for automatic operation.

도 2는 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 장치의 구성을 나타낸 블록도이다. 2 is a block diagram illustrating a configuration of a disaster monitoring apparatus using an unmanned aerial vehicle according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 무인 항공기를 이용한 재난 감시 장치(200)는 통신부(210), 영상 데이터 분석부(220), 재난 상황 예측부(230) 및 재난 상황 대응부(240)를 포함한다. 2, the disaster monitoring apparatus 200 using an unmanned aerial vehicle includes a communication unit 210, an image data analysis unit 220, a disaster situation predicting unit 230, and a disaster situation counterpart 240 .

먼저, 통신부(210)는 무인 항공기로 제어 신호를 전송하거나, 무인 항공기로부터 영상 데이터, 음성 데이터 및 센싱 데이터 중 적어도 하나를 포함하는 수집 정보를 수신한다. First, the communication unit 210 transmits a control signal to an unmanned airplane or receives collection information including at least one of image data, voice data, and sensing data from an unmanned airplane.

통신부(210)는 수립된 감시 운행 계획에 상응하도록 비행하거나, 무인 항공기를 이용한 재난 감시 장치(200)의 제어 신호에 상응하도록 비행하는 무인 항공기로부터 영상 데이터, 음성 데이터 및 센싱 데이터 중에서 적어도 하나를 포함하는 수집 정보를 수신한다. The communication unit 210 includes at least one of image data, voice data, and sensing data from an unmanned airplane flying in accordance with the established surveillance operation plan or flying in accordance with the control signal of the disaster monitoring apparatus 200 using the unmanned airplane And collects the collected information.

이때, 통신부(210)는 무인 항공기로부터 실시간으로 정지 영상 및 동영상 중 적어도 어느 하나를 포함하는 영상 데이터, 음성 데이터 및 센싱 데이터를 수신할 수 있다. At this time, the communication unit 210 can receive image data, audio data, and sensing data including at least one of a still image and a moving image from an unmanned aerial vehicle in real time.

그리고 영상 데이터 분석부(220)는 기계학습기반 분석, 복수의 영상 데이터들의 결합 분석 및 센싱 데이터와의 연계 분석 중 적어도 어느 하나의 분석 방법으로 영상 데이터를 분석할 수 있다. The image data analysis unit 220 may analyze the image data using at least one of analysis method based on machine learning based analysis, combined analysis of a plurality of image data, and analysis linked with sensing data.

영상 데이터 분석부(220)는 무인 항공기로부터 수신된 영상 데이터의 노이즈를 제거하고, 보정을 수행하는 전처리 과정을 수행할 수 있다. 이때, 영상 데이터 분석부(220)는 무인 항공기에 장착된 데이터 수집용 탑재 장비의 특성에 따라 영상 데이터를 보정할 수 있다. The image data analyzing unit 220 may perform a preprocessing process of removing noise of the image data received from the UAV and performing correction. At this time, the image data analyzing unit 220 can correct the image data according to the characteristics of the equipment for data collection mounted on the UAV.

이때, 영상 데이터 분석부(220)는 영상 데이터로부터 영상 특징점 및 ROI(Region of Interest)를 검출 한 후 영상 데이터 분석을 수행할 수 있다. 또한, 영상 데이터 분석부(220)는 영상 데이터의 분석 결과를 이용하여 재난 발생 여부를 판단할 수 있다. At this time, the image data analyzer 220 may perform image data analysis after detecting image feature points and ROI (Region of Interest) from the image data. In addition, the image data analyzing unit 220 can use the analysis result of the image data to determine whether or not a disaster occurs.

그리고, 영상 데이터 분석부(220)는 수집 정보의 분석 결과를 이용하여 재난 상황에 활용될 수 있는 재난 취약 구역을 설정하고, 위험 분석 지도를 작성할 수 있다. 그리고 영상 데이터 분석부(220)는 설정된 재난 취약 구역에 상응하는 장소 또는 위험 분석 지도에 상응하는 장소를 중점적으로 감시하여, 재난이 발생하였는지 여부를 판단할 수 있다. Then, the image data analysis unit 220 can use the analysis result of the collected information to set a disaster-vulnerable area that can be utilized in a disaster situation and prepare a hazard analysis map. The image data analyzing unit 220 may focus on a place corresponding to the disaster vulnerable zone set or a place corresponding to the danger analysis map to determine whether a disaster has occurred.

다음으로 재난 상황 예측부(230)는 영상 데이터의 분석 결과 및 외부로부터 수신한 기상 정보를 예측 모델에 적용하여, 예측 결과를 생성한다. 그리고 재난 상황 예측부(240)는 산불 등의 재난 이동 경로 추정, 강우 분포 측정, 강우 취약 지반의 물 감시 및 지형 지물의 미세한 변화 감지 등의 방재를 수행할 수 있다. Next, the disaster state predicting unit 230 applies the analysis result of the image data and the weather information received from the outside to the prediction model to generate the prediction result. The disaster state predicting unit 240 can perform disaster prevention measures such as disaster movement path estimation such as forest fire, measurement of rainfall distribution, water monitoring of a vulnerable ground for rainfall, and minute change detection of a terrain.

마지막으로, 재난 상황 대응부(240)는 분석 결과 및 예측 결과에 상응하는 대응 시나리오를 기반으로 재난 경보 정보를 생성한다. 그리고 재난 상황 대응부(240)는 생성된 재난 경보 정보를 외부의 통합 경보 시스템으로 전송하거나, 재난 보를 출력한다. Finally, the disaster state counter 240 generates the disaster alarm information based on the analysis result and the corresponding scenario corresponding to the prediction result. Then, the disaster state counter 240 transmits the generated disaster alarm information to the external integrated alarm system or outputs the disaster alarm.

이때, 재난 상황 대응부(240)는 재난 상황별 대응 시나리오를 제시하고, 재난 경보 정보를 시각화하여 표출하거나, 통합 경보 시스템으로 실시간으로 재난 경보 정보를 전송함으로써, 재난 지역의 모니터링과 함께 재난 발생에 대한 위험을 경고할 수 있다. At this time, the disaster situation counterpart 240 presents the corresponding scenario according to the disaster situation, visualizes and displays the disaster alert information, or transmits the disaster alert information in real time to the integrated alarm system to monitor the disaster area, You can warn about danger.

도 3은 본 발명의 일실시예에 따른 영상 데이터 분석부의 구성을 나타낸 블록도이다. 3 is a block diagram illustrating a configuration of an image data analysis unit according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 무인 항공기를 이용한 재난 감시 장치(200)의 영상 데이터 분석부(220)는 영상 데이터를 처리하여 분석하기 위한 모듈로, 영상 전처리 모듈(221), 영상 보정 모듈(223), 영상 분석 모듈(225) 및 영상 저장 모듈(227)을 포함할 수 있다. 3, the image data analyzing unit 220 of the disaster monitoring apparatus 200 using an unmanned aerial vehicle is a module for processing and analyzing image data. The image data analyzing unit 220 includes an image preprocessing module 221, an image correction module 223 An image analysis module 225, and an image storage module 227.

먼저, 영상 전처리 모듈(221)은 수신된 영상 데이터의 노이즈를 제거하고, 보정하는 영상 전처리를 수행할 수 있다. First, the image preprocessing module 221 can perform image preprocessing for removing noise of the received image data and correcting the noise.

영상 전처리 모듈(221)은 무인 항공기에 탑재된 영상 장비를 이용하여 촬영한 영상 특성에 대한 기하 보정, 저조도 영상 보정, 노이즈 감소, 악천후 영상 보정 등의 보정을 수행할 수 있다. The image preprocessing module 221 may perform correction such as geometric correction, low-illuminance image correction, noise reduction, and bad image correction on the image characteristics photographed using the image equipment mounted on the UAV.

저조도 영상 및 노이즈 영상 보정은 Adaptive Gamma Correction과 Short Time Fourier Transform 등의 기술을 이용하여 수행하고, 악천후 영상 보정은 Atmospheric Light의 MSE(Mean Squared Error) 등의 기법을 이용하여 수행할 수 있으며, 보정 기법은 이에 한정되지 않는다. The low-illuminance image and the noise image correction can be performed using techniques such as Adaptive Gamma Correction and Short Time Fourier Transform, and the bad weather image correction can be performed using techniques such as MSE (Mean Squared Error) of Atmospheric Light, But is not limited thereto.

그리고 영상 보정 모듈(223)은 무인 항공기에 장착된 데이터 수집용 탑재 장비의 특성에 따라 영상 데이터를 보정할 수 있다. The image correction module 223 can correct the image data according to the characteristics of the data acquisition equipment mounted on the UAV.

영상 보정 모듈(223)은 센서의 고도 및 자세, 속도 변화, 지구곡률, 대기반사 등에 의한 왜곡 현상으로 발생하는 기하학적 왜곡 범위의 보정을 수행할 수 있다. The image correction module 223 can correct the geometric distortion range caused by the distortion of the sensor due to the altitude, attitude, velocity change, global curvature, and atmospheric reflection.

또한, 영상 보정 모듈(223)은 대기효과에 의한 밝기 값의 감소 효과를 보정할 수 있다. 이때, 영상 보정 모듈(223)은 영상 화소의 영상 좌표와 실제 지리 좌표 간 오차를 비교하기 위해 GCP(Ground Control Point)를 기준으로 기하 정확도 측정하여 보정하는 기하 보정을 수행할 수 있다. 그리고 영상 보정 모듈(223)은 센서 감도 변화를 보정하기 위해 영상의 대비와 밝기를 조정하는 영상처리 기법인 방사 보정을 수행할 수도 있다. Further, the image correction module 223 can correct the reduction effect of the brightness value due to the atmospheric effect. At this time, the image correction module 223 may perform geometric correction to measure and correct the geometric accuracy based on the GCP (ground control point) to compare the error between the image coordinates of the image pixel and the actual geographical coordinates. The image correction module 223 may perform the radiation correction, which is an image processing technique for adjusting the contrast and brightness of the image to correct the sensor sensitivity change.

다음으로 영상 분석 모듈(225)은 영상 특징점 및 ROI(Region of Interest) 검출하고, 기계학습기반 분석, 복수의 영상 데이터들의 결합 분석 및 센싱 데이터와의 연계 분석 중에서 적어도 하나의 분석 방법으로 영상 데이터를 분석할 수 있다. Next, the image analysis module 225 detects the image feature points and the ROI (Region of Interest), and analyzes the image data using at least one of analysis based on machine learning based analysis, combined analysis of a plurality of image data, Can be analyzed.

영상 분석 모듈(225)은 재난 예측, 감시 및 방재에 필요한 영상 특징점 및 ROI를 검출한다. 이때, 영상 분석 모듈(225)은 전처리 된 영상 데이터에 Convolution, Oriented FAST and Rotated BRIEF 알고리즘 등을 적용하여 영상 특징점 및 ROI를 검출할 수 있다. The image analysis module 225 detects image feature points and ROIs necessary for disaster prediction, monitoring, and disaster prevention. At this time, the image analysis module 225 can detect image feature points and ROI by applying Convolution, Oriented FAST and Rotated BRIEF algorithm to the preprocessed image data.

그리고 영상 분석 모듈(225)은 재난의 발생 여부를 판단하기 위하여, 기계학습기반 분석을 수행하거나, 복수의 영상 데이터들을 결합하여 분석할 수 있다. 이때, 영상 분석 모듈(225)은 Artificial Neural Network 등을 사용하여 보정된 영상 이미지, 검출된 영상 특징점 및 ROI를 바탕으로 영상 데이터 분석을 수행할 수 있다. 그리고 영상 분석 모듈(225)은 각각의 이종 영상 데이터들의 분석 결과를 레이어 간 중첩하여 정확하게 영상 데이터를 분석할 수 있다.The image analysis module 225 may perform a machine learning based analysis or analyze a plurality of image data in order to determine whether a disaster occurs or not. At this time, the image analysis module 225 can perform image data analysis based on the corrected image image, the detected image feature point, and the ROI using an artificial neural network or the like. Then, the image analysis module 225 can accurately analyze the image data by superimposing the analysis results of the respective heterogeneous image data between the layers.

또한, 영상 분석 모듈(225)은 영상 데이터, 음성 데이터 및 센싱 데이터 중에서 적어도 둘 이상의 수집 정보를 연계하여 분석함으로써, 재난의 발생 여부를 판단할 수도 있다. 이때, 영상 분석 모듈(225)은 위성 영상, CCTV 영상 및 지상 센서 등으로부터 수신한 센싱 데이터들을 연계하여 분석을 수행할 수 있다. In addition, the image analysis module 225 may analyze at least two pieces of collected information among image data, voice data, and sensing data to determine whether a disaster occurs or not. At this time, the image analysis module 225 can perform analysis by linking the sensing data received from the satellite image, the CCTV image, and the ground sensor.

마지막으로 영상 저장 모듈(227)은 영상 데이터의 분석 결과를 저장한다. Finally, the image storage module 227 stores the analysis result of the image data.

이때, 영상 데이터 분석부(220)는 실시간 처리를 위하여, 영상들을 복수 대의 컴퓨터들, 복수 개의 프로세서 코어들에 나누어 분산 처리할 수 있다. 그리고 영상 데이터 분석부(220)는 GPU(Graphics Processing Unit), MIC(Many Integrated Core)와 같은 가속기를 사용하여 실시간 분석을 실현하고, 최적의 부하 분산으로 컴퓨터 자원을 효과적으로 사용할 수 있다. At this time, the image data analyzing unit 220 may divide the images into a plurality of computers and a plurality of processor cores for real-time processing. The image data analysis unit 220 realizes real-time analysis using accelerators such as a GPU (Graphics Processing Unit) and an MIC (Many Integrated Core), and can efficiently use computer resources with optimal load distribution.

이하에서는 도 4 및 도 5를 통하여, 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 장치에 의해 수행되는 재난 감시 방법에 대하여 더욱 상세하게 설명한다. Hereinafter, a disaster monitoring method performed by the disaster monitoring apparatus using an unmanned aerial vehicle according to an embodiment of the present invention will be described in detail with reference to FIGS. 4 and 5. FIG.

도 4는 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 방법을 설명하기 위한 순서도이다. 4 is a flowchart illustrating a disaster monitoring method using an unmanned aerial vehicle according to an embodiment of the present invention.

먼저, 무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기로부터 영상 데이터, 음성 데이터 및 센싱 데이터 중에서 적어도 하나를 포함하는 수집 정보를 수집한다(S410).First, the disaster monitoring apparatus 200 using the unmanned airplane acquires collection information including at least one of image data, voice data, and sensing data from the unmanned airplane (S410).

무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기로부터 촬영된 영상 정보인 영상 데이터, 음성 데이터 및 센싱 데이터 중에서 적어도 하나를 포함하는 수집 정보를 수집한다. 이를 통하여, 무인 항공기를 이용한 재난 감시 장치(200)는 인력의 접근이 불가능한 지역에 대한 실시간 영상을 획득하거나, 기온, 풍향 및 풍속 등을 포함하는 기상 재원 등을 획득할 수 있다. The disaster monitoring apparatus 200 using an unmanned airplane collects collected information including at least one of image data, sound data, and sensing data, which are image information captured from an unmanned airplane. Accordingly, the disaster monitoring apparatus 200 using the UAV can acquire real-time images of areas where manpower can not be accessed, or obtain meteorological resources including temperature, wind direction, and wind velocity.

다음으로 무인 항공기를 이용한 재난 감시 장치(200)는 수집된 영상 데이터를 분석한다(S420).Next, the disaster monitoring apparatus 200 using the unmanned airplane analyzes the collected image data (S420).

무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기로부터 수집된 수집 정보의 전처리를 수행할 수 있다. 특히, 무인 항공기를 이용한 재난 감시 장치(200)는 영상 데이터의 전처리를 수행하고, 영상 특징점 및 ROI를 검출하고, 기계학습기반 분석, 복수의 영상 데이터들의 결합 분석 및 센싱 데이터와의 연계 분석 중에서 적어도 하나의 분석 방법으로 영상 데이터를 분석할 수 있다.The disaster monitoring apparatus 200 using the unmanned airplane can perform the preprocessing of the collected information collected from the unmanned airplane. In particular, the disaster monitoring apparatus 200 using an unmanned aerial vehicle performs pre-processing of image data, detects image feature points and ROIs, and performs at least one of machine learning based analysis, joint analysis of a plurality of image data, It is possible to analyze image data by one analysis method.

또한, 무인 항공기를 이용한 재난 감시 장치(200)는 영상 분석 및 정확한 판독을 위하여, 이종의 영상 데이터를 결합하고, 다시점 영상 데이터를 결합하여, 영상 데이터 분석을 수행할 수도 있다. 이때, 무인 항공기를 이용한 재난 감시 장치(200)는 수집된 영상과의 결합 분석을 수행하고, 픽셀 기반으로 영상과 결합 분석된 결과를 융합할 수도 있다. In addition, the disaster monitoring apparatus 200 using an unmanned aerial vehicle may combine heterogeneous image data and combine multi-view image data to perform image data analysis for image analysis and accurate reading. At this time, the disaster monitoring apparatus 200 using an unmanned airplane may perform a coupling analysis with the collected image, and may fuse the combined analysis result with the image based on the pixel.

도 5는 도 4의 S420 단계에서 다중 센서 영상 데이터를 융합하는 과정을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining a process of fusing multi-sensor image data in step S420 of FIG.

도 5에 도시한 바와 같이, 무인 항공기를 이용한 재난 감시 장치(200)는 가시광선 영상으로부터 공간적 특징을 추출하고, SAR 영상을 지역기반 영상 재조정 할 수 있다. 그리고 무인 항공기를 이용한 재난 감시 장치(200)는 가시광선 영상과 SAR 영상을 흑백 영상 융합하고, 컬러 영상 융합을 수행할 수도 있다. As shown in FIG. 5, the disaster monitoring apparatus 200 using an unmanned aerial vehicle can extract spatial features from visible light images, and re-adjust the SAR based image. The disaster monitoring apparatus 200 using an unmanned aerial vehicle may perform a black-and-white image fusion and a color image fusion of a visible light image and a SAR image.

무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기로부터 수신된 영상 데이터의 노이즈를 제거하고, 보정하여 영상 전처리를 수행한다. 이때, 무인 항공기를 이용한 재난 감시 장치(200)는 무인 항공기에 장착된 데이터 수집용 탑재 장비의 특성에 따라 영상 데이터를 보정할 수 있다. The disaster monitoring apparatus 200 using the unmanned airplane performs image preprocessing by removing noise of the image data received from the unmanned airplane and correcting the noise. At this time, the disaster monitoring apparatus 200 using the unmanned airplane can correct the image data according to characteristics of the data acquisition equipment mounted on the unmanned airplane.

이와 같이, 무인 항공기를 이용한 재난 감시 장치(200)는 정확한 영상의 분석 및 판독을 위하여, 이종의 영상 데이터를 결합하거나, 다시점 영상 데이터를 결합하여, 산사태와 같은 재난 발생의 전조를 감시 및 감지할 수 있으며, 산불과 같은 재난의 이동 경로를 추정할 수 있다. In this manner, the disaster monitoring apparatus 200 using an unmanned airplane combines disparate image data or combines multi-view image data for accurate analysis and reading of images, thereby monitoring and detecting the occurrence of a disaster such as a landslide And can estimate the route of the disaster such as forest fires.

다음으로, 무인 항공기를 이용한 재난 감시 장치(200)는 영상 데이터의 분석 결과에 상응하는 재난이 재난의 전조를 감지할 수 있는 재난 유형인지 여부를 판단한다(S430).Next, the disaster monitoring apparatus 200 using the unmanned airplane determines whether a disaster corresponding to the analysis result of the image data is a disaster type that can detect a precursor of a disaster (S430).

예를 들어, 산사태와 같이 재난의 전조를 감지할 수 있는 재난 유형인 경우, 무인 항공기를 이용한 재난 감시 장치(200)는 후술할 S440 단계를 수행한다. For example, in the case of a disaster type such as a landslide that can detect a precursor of a disaster, the disaster monitoring apparatus 200 using an unmanned airplane performs step S440 described later.

반면, 화재 및 홍수 등과 같이 재난의 전조를 감지하기 어렵거나, 이미 발생한 재난인 경우, 무인 항공기를 이용한 재난 감시 장치(200)는 후술할 S450 단계를 수행한다. On the other hand, if it is difficult to detect a precursor of a disaster such as a fire or a flood, or in case of a disaster already occurring, the disaster monitoring apparatus 200 using the unmanned airplane performs step S450 described later.

즉, 영상 데이터의 분석 결과에 상응하는 재난의 유형이 재난의 전조를 감지할 수 있는 재난인 경우, 무인 항공기를 이용한 재난 감시 장치(200)는 분석 결과를 이용하여 예측 결과를 생성한다(S440).That is, if the type of the disaster corresponding to the analysis result of the image data is a disaster capable of detecting a precursor of the disaster, the disaster monitoring apparatus 200 using the unmanned airplane generates the prediction result using the analysis result (S440) .

무인 항공기를 이용한 재난 감시 장치(200)는 기온, 풍향 및 풍속 중에서 적어도 하나를 포함하는 기상 재원을 수집한다. 그리고 무인 항공기를 이용한 재난 감시 장치(200)는 영상 데이터의 분석 결과와 수집된 기상 재원을 이용하여 재난 상황을 예측할 수 있다. The disaster monitoring apparatus 200 using an unmanned aerial vehicle collects meteorological resources including at least one of temperature, wind direction and wind speed. The disaster monitoring apparatus 200 using the unmanned airplane can predict the disaster situation using the analysis result of the image data and the collected weather resources.

이때, 무인 항공기를 이용한 재난 감시 장치(200)는 예측 결과를 도출하기 위하여, XML 형식의 분석 결과를 이용하여, 재난 상황에 따른 일련의 시나리오 선택 관련 특성 데이터를 내부 데이터베이스로부터 추출할 수 있다. 그리고 추출된 특성 데이터에 부합된 대응 시나리오를 선택할 수 있도록 하는 예측 결과를 생성한다.At this time, the disaster monitoring apparatus 200 using the UAV can extract a series of scenario selection-related characteristic data according to a disaster situation from the internal database using the XML format analysis result, in order to derive a prediction result. And generates a prediction result that allows selection of a corresponding scenario corresponding to the extracted characteristic data.

이때, 기상 재원의 수집은 기상 정보를 제공하는 기관으로부터 수신할 수 있으며, 발생 가능한 재난을 예측하고 재난에 대응하기 위하여 수집한 기상 재원을 내부의 데이터베이스에 저장하여 사용할 수 있다. 여기서, 내부 데이터베이스에는 분석 결과, 기상 재원 등의 정보가 저장되어 있을 수 있다. At this time, the collection of meteorological resources can be received from the organization providing the meteorological information, and the meteorological resources collected in order to predict the possible disasters and respond to the disasters can be stored in the internal database and used. Here, the internal database may store information such as the analysis result and weather resource.

반면, 영상 데이터의 분석 결과에 상응하는 재난의 유형이 재난의 전조를 감지하기 어렵거나, 이미 발생한 재난인 경우, 무인 항공기를 이용한 재난 감시 장치(200)는 S440 단계를 생략하고, 예측 결과를 기반으로 재난 경보 정보를 생성한다(S450). On the other hand, if the type of the disaster corresponding to the analysis result of the image data is difficult to detect a precursor of a disaster, or if the disaster occurred already, the disaster monitoring apparatus 200 using the unmanned airplane omits step S440, To generate the disaster alert information (S450).

또한, 무인 항공기를 이용한 재난 감시 장치(200)는 S440 단계를 수행하여 예측 결과를 생성한 후, S450 단계를 통하여 재난 경보 정보를 생성한다. In addition, the disaster monitoring apparatus 200 using the unmanned aerial vehicle generates the prediction result by performing step S440, and then generates the disaster alert information through step S450.

무인 항공기를 이용한 재난 감시 장치(200)는 분석 결과 및 예측 결과를 기반으로 적절한 재난 대응 시나리오를 선택한다. 설명의 편의상 무인 항공기를 이용한 재난 감시 장치(200)가 대응 시나리오를 선택하는 것으로 설명하였으나, 이에 한정하지 않고 외부로부터 대응 시나리오를 선택 받을 수도 있다. The disaster monitoring apparatus 200 using an unmanned aerial vehicle selects an appropriate disaster response scenario based on the analysis result and the prediction result. For convenience of explanation, it has been described that the disaster monitoring apparatus 200 using the unmanned aerial vehicle selects a corresponding scenario, but the present invention is not limited to this, and a corresponding scenario may be selected from the outside.

마지막으로, 무인 항공기를 이용한 재난 감시 장치(200)는 재난 경보 정보를 통합 경보 시스템으로 전송하거나, 재난 경보 정보를 출력한다(S460).Finally, the disaster monitoring apparatus 200 using the unmanned airplane transmits the disaster alert information to the integrated alarm system or outputs the disaster alert information (S460).

무인 항공기를 이용한 재난 감시 장치(200)는 대응 시나리오를 기반으로 재난 경보 정보를 생성하고, 생성된 재난 경보 정보를 출력하거나, 외부의 통합 경보 시스템으로 전송하여, 재난 상황에 대응한다. The disaster monitoring apparatus 200 using the unmanned airplane generates disaster alert information based on the corresponding scenario and outputs the generated disaster alert information or transmits the generated disaster alert information to an external integrated alarm system to cope with a disaster situation.

이때, 무인 항공기를 이용한 재난 감시 장치(200)는 관리자 또는 사용자에게 재난 정보를 제공하기 위하여, 분석 결과, 예측 결과 및 재난 경보 정보 중에서 적어도 하나를 표출할 수 있다. At this time, the disaster monitoring apparatus 200 using the unmanned airplane can present at least one of the analysis result, the prediction result, and the disaster alert information in order to provide the disaster information to the administrator or the user.

표출의 방법으로 영상, 이미지, 텍스트, 소리 등 다양한 방법이 적용될 수 있으며, 무인 항공기를 이용한 재난 감시 장치(200)는 재난 경보 정보를 표출하거나, 재난 대응 시나리오를 제공하며, 특히 재난 영상 분석 자료, 재난 발생 현황 및 재난 발생 예측 결과 등을 웹 기반으로 시각화 표출하거나, 재난 상황 알림, 재난 상황 별 대응 매뉴얼 및 재난 유형별 대응 시나리오를 제공할 수 있다. Various methods such as image, image, text, sound and the like can be applied as a method of expression, and a disaster monitoring apparatus 200 using an unmanned airplane can display disaster alert information, provide a disaster response scenario, It can visualize the status of disasters and the prediction result of disasters on a web basis, provide disaster situation notification, response manual according to disaster situation, and scenario corresponding to disaster type.

그리고 무인 항공기를 이용한 재난 감시 장치(200)는 외부의 통합 경보 시스템과의 연동으로 분석 결과, 예측 결과 및 대응 시나리오 등과 같은 재난과 관련된 각종 데이터들을 전달할 수 있다. 이때, 무인 항공기를 이용한 재난 감시 장치(200)는 통합 경보 시스템의 프로토콜(일 예로 CAP(Common Alerting Protocol)) 메시지와의 연관 요소를 추출하여, 통합 경보 시스템으로 전송할 메시지를 생성할 수 있으며, 생성된 메시지는 무인 항공기를 이용한 재난 감시 장치(200) 자체의 데이터베이스에 저장될 수 있다. In addition, the disaster monitoring apparatus 200 using an unmanned aerial vehicle can communicate various data related to a disaster such as an analysis result, a prediction result, and a corresponding scenario by interlocking with an external integrated alarm system. At this time, the disaster monitoring apparatus 200 using the unmanned airplane can generate a message to be transmitted to the integrated alarm system by extracting the association element with the protocol of the integrated alarm system (for example, CAP (Common Alerting Protocol)) message, Can be stored in the database of the disaster monitoring apparatus 200 using the unmanned aerial vehicle.

이와 같이, 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 장치(200)는 실시간으로 재난 지역을 모니터링 할 수 있으며, 재난 발생에 대한 위험을 경고할 수 있다. 그리고 화재 진압 정보, 홍수 지도, 실시간으로 추적된 홍수 현황 등의 정보를 제공할 수 있으며, 재난으로 인한 피해 영역에 대한 상세 지도를 작성하여 제공할 수 있다. As described above, the disaster monitoring apparatus 200 using an unmanned aerial vehicle according to an embodiment of the present invention can monitor a disaster area in real time and warn of a risk of a disaster. It can provide information such as fire suppression information, flood map, and flood status tracked in real time, and can provide detailed map of damage area caused by disaster.

또한, 본 발명의 일실시예에 따른 무인 항공기를 이용한 재난 감시 장치(200)는 추가 피해 예상 지역에 대한 경보를 제공하여, 재난 대응 활동을 지원할 수 있다. 그리고 재난으로 인한 피해 구역 산정, 피해 현황 측정 및 지반 복구 대책 수립 등의 복구 작업에도 활용될 수 있다. In addition, the disaster monitoring apparatus 200 using an unmanned aerial vehicle according to an embodiment of the present invention can provide an alert for an additional damage expected area, thereby supporting a disaster response activity. In addition, it can be used for restoration work such as calculation of damage area due to disaster, measurement of damage status, and establishment of measures for restoring the ground.

도 6은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.6 is a block diagram illustrating a computer system in accordance with an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시예는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(600)에서 구현될 수 있다. 도 6에 도시된 바와 같이, 컴퓨터 시스템(600)은 버스(620)를 통하여 서로 통신하는 하나 이상의 프로세서(610), 메모리(630), 사용자 입력 장치(640), 사용자 출력 장치(650) 및 스토리지(660)를 포함할 수 있다. 또한, 컴퓨터 시스템(600)은 네트워크(680)에 연결되는 네트워크 인터페이스(670)를 더 포함할 수 있다. 프로세서(610)는 중앙 처리 장치 또는 메모리(630)나 스토리지(660)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(630) 및 스토리지(660)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(631)이나 RAM(632)을 포함할 수 있다.Referring to FIG. 6, embodiments of the present invention may be implemented in a computer system 600, such as a computer readable recording medium. 6, the computer system 600 includes one or more processors 610, a memory 630, a user input device 640, a user output device 650, and a storage 630, which communicate with one another via a bus 620. [ 660 < / RTI > In addition, the computer system 600 may further include a network interface 670 connected to the network 680. The processor 610 may be a central processing unit or a semiconductor device that executes the processing instructions stored in the memory 630 or the storage 660. [ Memory 630 and storage 660 may be various types of volatile or non-volatile storage media. For example, the memory may include a ROM 631 or a RAM 632. [

따라서, 본 발명의 실시예는 컴퓨터로 구현된 방법이나 컴퓨터에서 실행 가능한 명령어들이 기록된 비일시적인 컴퓨터에서 읽을 수 있는 매체로 구현될 수 있다. 컴퓨터에서 읽을 수 있는 명령어들이 프로세서에 의해서 수행될 때, 컴퓨터에서 읽을 수 있는 명령어들은 본 발명의 적어도 한 가지 태양에 따른 방법을 수행할 수 있다.Thus, embodiments of the invention may be embodied in a computer-implemented method or in a non-volatile computer readable medium having recorded thereon instructions executable by the computer. When computer readable instructions are executed by a processor, the instructions readable by the computer are capable of performing the method according to at least one aspect of the present invention.

이상에서와 같이 본 발명에 따른 무인 항공기를 이용한 재난 감시 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. As described above, the apparatus and method for monitoring a disaster using an unmanned aerial vehicle according to the present invention are not limited to the configurations and methods of the embodiments described above, All or some of the embodiments may be selectively combined.

100: 무인 항공기
200: 무인 항공기를 이용한 재난 감시 장치
210: 통신부 220: 영상 데이터 분석부
230: 재난 상황 예측부 221: 영상 전처리 모듈
223: 영상 보정 모듈 235: 영상 분석 모듈
237: 영상 저장 모듈 240: 재난 상황 대응부
300: 통합 경보 시스템 600: 컴퓨터 시스템
610: 프로세서 620: 버스
630: 메모리 631: 롬
632: 램 640: 사용자 입력 장치
650: 사용자 출력 장치 660: 스토리지
670: 네트워크 인터페이스 680: 네트워크
100: Unmanned aircraft
200: Disaster monitoring system using unmanned aircraft
210: communication unit 220: video data analysis unit
230: Disaster situation predicting unit 221: Image preprocessing module
223: Image correction module 235: Image analysis module
237: image storage module 240: disaster situation counterpart
300: Integrated alarm system 600: Computer system
610: Processor 620: Bus
630: Memory 631: ROM
632: RAM 640: user input device
650: User output device 660: Storage
670: Network interface 680: Network

Claims (1)

무인 항공기로 제어 신호를 전송하거나, 상기 무인 항공기로부터 영상 데이터, 음성 데이터 및 센싱 데이터 중 적어도 하나를 포함하는 수집 정보를 수신하는 통신부,
기계학습기반 분석, 복수의 영상 데이터들의 결합 분석 및 상기 센싱 데이터와의 연계 분석 중 적어도 어느 하나의 분석 방법으로 상기 영상 데이터를 분석하는 영상 데이터 분석부,
상기 영상 데이터의 분석 결과 및 외부로부터 수신한 기상 정보를 예측 모델에 적용하여, 예측 결과를 생성하는 재난 상황 예측부, 그리고
상기 분석 결과 및 상기 예측 결과에 상응하는 대응 시나리오를 기반으로 생성한 재난 경보 정보를 외부의 통합경보 시스템으로 전송하거나, 상기 재난 경보 정보를 출력하는 재난 상황 대응부
를 포함하는 무인 항공기를 이용한 재난 감시 장치.
A communication unit for transmitting a control signal to an unmanned air vehicle or receiving collection information including at least one of image data, voice data and sensing data from the unmanned air vehicle,
An image data analyzing unit for analyzing the image data by at least one of analyzing methods based on a machine learning based analysis, a combined analysis of a plurality of image data, and an analysis of association with the sensing data,
A disaster state prediction unit for applying the analysis result of the image data and the weather information received from outside to the prediction model to generate a prediction result,
A disaster alert counter for outputting the disaster alert information generated based on the analysis result and the corresponding scenario corresponding to the prediction result to an external integrated alarm system,
A disaster monitoring device using an unmanned aircraft.
KR1020160024134A 2016-02-29 2016-02-29 Apparatus and method for disaster monitoring using unmanned aerial vehicle KR20170101519A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160024134A KR20170101519A (en) 2016-02-29 2016-02-29 Apparatus and method for disaster monitoring using unmanned aerial vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160024134A KR20170101519A (en) 2016-02-29 2016-02-29 Apparatus and method for disaster monitoring using unmanned aerial vehicle

Publications (1)

Publication Number Publication Date
KR20170101519A true KR20170101519A (en) 2017-09-06

Family

ID=59925466

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160024134A KR20170101519A (en) 2016-02-29 2016-02-29 Apparatus and method for disaster monitoring using unmanned aerial vehicle

Country Status (1)

Country Link
KR (1) KR20170101519A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101970206B1 (en) * 2018-11-12 2019-04-19 한국지질자원연구원 Drones With X-Ray Fluorescence Spectrometer
LU100765B1 (en) * 2017-10-10 2019-04-25 Pintz Gyoergy Arrangement and method for providing personal warning on watersides
KR101979936B1 (en) * 2018-06-29 2019-05-21 한국지질자원연구원 Real-time 3D geochemical anomaly detection model generating system, model generating method and computer-readable medium having a program recorded therein for executing the same
KR102007028B1 (en) * 2018-10-12 2019-08-02 한국해양과학기술원 Terrestrial Magnetism Drone Apparatus for detecting Landmine and System including the same
CN110705759A (en) * 2019-09-18 2020-01-17 平安科技(深圳)有限公司 Water level early warning monitoring method and device, storage medium and electronic equipment
FR3090970A1 (en) * 2018-12-19 2020-06-26 Safran Electronics & Defense Method and system for collecting and processing images or videos as flight data of an aircraft
KR102203135B1 (en) * 2020-06-24 2021-01-14 대한민국 Method and system for detecting disaster damage information based on artificial intelligence using drone
CN112669571A (en) * 2020-12-16 2021-04-16 中国地质大学(北京) Real-time landslide prediction early warning system based on three-dimensional GIS
WO2021118019A1 (en) * 2019-12-10 2021-06-17 (주)아르고스다인 Landing control device for drone
KR102320264B1 (en) * 2021-05-04 2021-11-02 대한민국 Method and apparatus for identifying disaster affected areas using disaster pront areas features
KR102320262B1 (en) * 2021-05-04 2021-11-02 대한민국 Method and apparatus for estimating size of damage in the disaster affected areas
KR102522094B1 (en) * 2022-11-01 2023-04-14 주식회사 자연과기술 Soil loss prediction system for river flooding based on drone photography
KR102522091B1 (en) * 2022-11-01 2023-04-17 주식회사 자연과기술 River Turbidity Analysis System Using Drone-Based Hyperspectral Image

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU100765B1 (en) * 2017-10-10 2019-04-25 Pintz Gyoergy Arrangement and method for providing personal warning on watersides
KR101979936B1 (en) * 2018-06-29 2019-05-21 한국지질자원연구원 Real-time 3D geochemical anomaly detection model generating system, model generating method and computer-readable medium having a program recorded therein for executing the same
KR102007028B1 (en) * 2018-10-12 2019-08-02 한국해양과학기술원 Terrestrial Magnetism Drone Apparatus for detecting Landmine and System including the same
KR101970206B1 (en) * 2018-11-12 2019-04-19 한국지질자원연구원 Drones With X-Ray Fluorescence Spectrometer
FR3090970A1 (en) * 2018-12-19 2020-06-26 Safran Electronics & Defense Method and system for collecting and processing images or videos as flight data of an aircraft
CN110705759A (en) * 2019-09-18 2020-01-17 平安科技(深圳)有限公司 Water level early warning monitoring method and device, storage medium and electronic equipment
WO2021118019A1 (en) * 2019-12-10 2021-06-17 (주)아르고스다인 Landing control device for drone
KR102203135B1 (en) * 2020-06-24 2021-01-14 대한민국 Method and system for detecting disaster damage information based on artificial intelligence using drone
CN112669571A (en) * 2020-12-16 2021-04-16 中国地质大学(北京) Real-time landslide prediction early warning system based on three-dimensional GIS
CN112669571B (en) * 2020-12-16 2021-08-24 中国地质大学(北京) Real-time landslide prediction early warning system based on three-dimensional GIS
KR102320264B1 (en) * 2021-05-04 2021-11-02 대한민국 Method and apparatus for identifying disaster affected areas using disaster pront areas features
KR102320262B1 (en) * 2021-05-04 2021-11-02 대한민국 Method and apparatus for estimating size of damage in the disaster affected areas
KR102522094B1 (en) * 2022-11-01 2023-04-14 주식회사 자연과기술 Soil loss prediction system for river flooding based on drone photography
KR102522091B1 (en) * 2022-11-01 2023-04-17 주식회사 자연과기술 River Turbidity Analysis System Using Drone-Based Hyperspectral Image

Similar Documents

Publication Publication Date Title
KR20170101519A (en) Apparatus and method for disaster monitoring using unmanned aerial vehicle
Yuan et al. Fire detection using infrared images for UAV-based forest fire surveillance
Sherstjuk et al. Forest fire-fighting monitoring system based on UAV team and remote sensing
KR20170101516A (en) Apparatus and method for fire monitoring using unmanned aerial vehicle
US10332409B2 (en) Midair collision threat detection and assessment using visual information
US20190011920A1 (en) Method and system for generating flight plan of unmanned aerial vehicle for aerial inspection
KR102208152B1 (en) System and method for response disaster situations in mountain area using UAS
CN106546984A (en) The performance of airborne weather radar is improved using outside weather data
US10271016B2 (en) Integrated monitoring CCTV, abnormality detection apparatus, and method for operating the apparatus
US9756280B2 (en) Reduction of sensor captured data streamed to an operator
US20220234764A1 (en) Imaging method of satellite system, and transmission device
CN103038646A (en) System and method for detecting adverse atmospheric conditions ahead of an aircraft
Sherstjuk et al. Forest fire monitoring system based on UAV team, remote sensing, and image processing
Petrides et al. Disaster prevention and emergency response using unmanned aerial systems
US11594142B1 (en) Terrestrial acoustic sensor array
WO2023150888A1 (en) System and method for firefighting and locating hotspots of a wildfire
Blanks UAS applications
CN107045805B (en) Method and system for monitoring small aircraft and airborne objects
Minwalla et al. Experimental evaluation of PICAS: An electro-optical array for non-cooperative collision sensing on unmanned aircraft systems
Zheng et al. Forest farm fire drone monitoring system based on deep learning and unmanned aerial vehicle imagery
Lin et al. Application of multi-band networking and UAV in natural environment protection and disaster prevention
US10718613B2 (en) Ground-based system for geolocation of perpetrators of aircraft laser strikes
Ogan et al. Electrical transmission line inspection using unmanned aircraft
JP2000163673A (en) Monitoring device
Perez-Mato et al. Real-time autonomous wildfire monitoring and georeferencing using rapidly deployable mobile units