KR102203135B1 - Method and system for detecting disaster damage information based on artificial intelligence using drone - Google Patents

Method and system for detecting disaster damage information based on artificial intelligence using drone Download PDF

Info

Publication number
KR102203135B1
KR102203135B1 KR1020200077142A KR20200077142A KR102203135B1 KR 102203135 B1 KR102203135 B1 KR 102203135B1 KR 1020200077142 A KR1020200077142 A KR 1020200077142A KR 20200077142 A KR20200077142 A KR 20200077142A KR 102203135 B1 KR102203135 B1 KR 102203135B1
Authority
KR
South Korea
Prior art keywords
information
disaster
drone
damage
artificial intelligence
Prior art date
Application number
KR1020200077142A
Other languages
Korean (ko)
Inventor
김성삼
신동윤
노현주
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020200077142A priority Critical patent/KR102203135B1/en
Application granted granted Critical
Publication of KR102203135B1 publication Critical patent/KR102203135B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • B64C2201/123
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Abstract

The present invention relates to a method and a system for detecting disaster damage information based on artificial intelligence using a drone. According to the present invention, the method for detecting disaster damage information based on artificial intelligence using a drone comprises the steps of: receiving video information of a disaster area from a drone; determining a disaster type and a disaster damage area; and producing an image map. According to the present invention, disaster damage information can be more accurately detected.

Description

드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법 및 시스템{METHOD AND SYSTEM FOR DETECTING DISASTER DAMAGE INFORMATION BASED ON ARTIFICIAL INTELLIGENCE USING DRONE}Disaster damage information detection method and system based on artificial intelligence using a drone {METHOD AND SYSTEM FOR DETECTING DISASTER DAMAGE INFORMATION BASED ON ARTIFICIAL INTELLIGENCE USING DRONE}

본 발명은 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법 및 시스템에 관한 것으로 보다 상세하게는 드론의 카메라 동영상 정보와 드론의 비행로그 정보를 기반으로한 학습데이터 셋 구축을 통해 인공지능 모델을 구축함으로써, 더욱 정확하고 객관적으로 재난 피해정보를 탐지할 수 있는 기술에 관한 것이다.The present invention relates to a method and system for detecting disaster damage information based on artificial intelligence using a drone, and in more detail, by constructing an artificial intelligence model by constructing a learning data set based on the drone's camera video information and the drone's flight log information. , It relates to a technology that can more accurately and objectively detect disaster damage information.

일반적으로 홍수 등의 자연재해가 발생하는 경우 해당 피해 지역의 지자체나 중앙 기관에서 사유시설 및 공공시설에 대한 피해조사를 실시하고 있다. In general, when natural disasters such as floods occur, local governments or central agencies in the affected area conduct damage investigations on private facilities and public facilities.

그러나 실질적으로 피해조사를 위해 투입되는 조사 인력이 부족함은 물론, 피해 현장에 투입되는 담당 현장 관리자는 목측 등으로 재난 현장의 소하천 주변 도로, 하천 하안, 제내외지 시설물 등을 전수 조사하여 피해규모를 조사 및 산정하고 있는 등 전반적인 조사 실태가 미흡한 실정이다.However, not only the lack of investigative manpower for the actual damage investigation, but also the site manager in charge of the damage site conducted a full investigation of the road around the sub-river at the disaster site, river banks, and facilities in and out of the disaster site to determine the scale of the damage. The overall survey status, such as surveys and calculations, is insufficient.

이와 같이 재난 지역의 피해 규모를 정확하게 조사 및 산정함에 있어서, 조사 인력 및 조사 시간이 부족하고 조사 도구 역시 부실함에 따라, 피해 지역 조사에 따른 결과 정보의 정확도가 현저히 떨어지는 문제점이 발생하고 있다. In this way, in accurately investigating and calculating the magnitude of damage in a disaster area, there is a problem that the accuracy of information as a result of the investigation of the affected area is significantly deteriorated as the number of personnel and survey time is insufficient and the survey tool is also insufficient.

이러한 문제점을 해결하기 위해 최근 재난 지역 상공에 드론을 띄워 광범위한 재난 피해 정보를 신속하고 편리하게 취득할 수 있는 드론을 이용한 조사 플랫폼 기술이 각광받고 있으며, 드론을 더욱 효과적으로 활용하여 신속하고 객관적으로 재난의 유형별 피해 정보를 탐지 및 조사할 수 있는 방안이 요구되고 있다.In order to solve this problem, recently, a drone-based investigation platform technology that can quickly and conveniently acquire a wide range of disaster damage information by flying a drone over a disaster area is in the spotlight.It is more effective to use drones to promptly and objectively detect disasters. There is a need for a way to detect and investigate damage information by type.

인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. Artificial Intelligence (AI) system is a computer system that implements human-level intelligence, and unlike existing Rule-based smart systems, machines learn and judge themselves.

인공지능 시스템은 사용할수록 인식률이 향상되고 대상 유형을 보다 정확하게 이해할 수 있게 되어, 기존 룰(Rule) 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.As artificial intelligence systems are used, the recognition rate improves and target types can be understood more accurately, and the existing rule-based smart systems are gradually being replaced by deep learning-based artificial intelligence systems.

이러한 인공지능을 기반으로 하는 재난 조사 시스템 기술로서 한국공개특허공보 제2020-0065316호의 스마트 드론을 사용한 재난 상황 대응 시스템 기술이 개발되어 있다.As a disaster investigation system technology based on such artificial intelligence, a disaster response system technology using a smart drone of Korean Patent Publication No. 2020-0065316 has been developed.

상기 스마트 드론을 사용한 재난 상황 대응 시스템 기술은 드론이 전송하는 영상 데이터에서 사람, 자동차, 화재, 동물 등의 객체부분에 라벨링을 하여 1차적으로 객체로 인식할 대상을 명시하고, 1차적으로 필터링된 객체 인식 대상을 미리 준비된 재난 상황 객체 인식 모델에 삽입하여 객체 인식 대상과 객체 인식 모델을 2차적으로 매칭시킴으로써 객체인식의 정확도를 향상하되, 매칭이 제대로 이루어지지 않는 라벨링된 객체를 머신러닝을 통해 객체 인식 모델과 매칭되도록 하여 객체 정보를 추출함으로써, 분석된 객체 정보에 기초한 재난 대응 관련 정보(예: 화재 규모, 구조할 사람인원이나 동물수, 차량과 같은 피해 대상물 등) 등의 구체적인 객체 정보를 제공하는 것을 특징으로 하고 있다.The disaster response system technology using the smart drone first specifies the object to be recognized as an object by labeling object parts such as people, cars, fire, and animals in the image data transmitted by the drone, and is primarily filtered. The accuracy of object recognition is improved by inserting the object recognition target into the disaster situation object recognition model prepared in advance to match the object recognition target and the object recognition model secondarily, but the labeled object that does not match properly is the object through machine learning. By extracting object information by matching the recognition model, specific object information such as disaster response-related information (e.g., fire scale, number of people or animals to be rescued, damage targets such as vehicles, etc.) is provided based on the analyzed object information. It is characterized by that.

한편, 머신러닝 등의 인공지능 모델을 구축함에 있어서 재난지역에서 드론의 카메라가 촬영한 영상 정보는 분석장치에 전송되어 모델링을 위한 영상 정보 생성 시 그 기초가 되는바, 분석장치는 드론의 비행정보 로그와 카메라의 동영상 메타정보를 동기화하여 동영상 파일을 저장하게 된다. On the other hand, in constructing artificial intelligence models such as machine learning, the image information captured by the drone's camera in the disaster area is transmitted to the analysis device and becomes the basis for generating image information for modeling. The analysis device is the drone's flight information. The video file is saved by synchronizing the log and the video meta information of the camera.

즉, 동영상을 구성하는 정지영상과 드론의 위치정보를 맵핑(지오태깅)하기 위해서는 동기화가 필요하다. In other words, synchronization is required to map (geotag) the still image constituting the video and the location information of the drone.

이때, 카메라의 촬영 동영상 정보는 일반적으로 평균 초당 30프레임(30Hz)으로 저장되고, 드론의 비행 로그정보(드론의 위치, 속도 및 방향 정보)는 그보다 작은 주기(일 예로 평균 초당 10프레임(10Hz))로 기록되기 때문에 두 데이터의 주기(Hz)가 일치하지 않는 문제가 발생한다.At this time, the video information taken by the camera is generally stored at an average of 30 frames per second (30 Hz), and the flight log information of the drone (the position, speed and direction information of the drone) is less than that (for example, an average of 10 frames per second (10 Hz)). ), the period (Hz) of the two data does not match.

이에, 단순히 드론의 카메라 동영상 정보와, 드론의 비행 로그정보(드론의 위치, 속도 및 방향 정보)의 초기 시간 정보만을 이용해서 순차적으로 시간을 누적해서 동기화하는 경우 시간이 지날수록 오차가 누적되는 문제가 발생한다.Therefore, if time is accumulated and synchronized in sequence using only the drone's camera video information and the drone's flight log information (drone's position, speed, and direction information), errors are accumulated as time passes. Occurs.

따라서, 드론을 이용하여 재난 피해정보를 탐지하기 위한 인공지능(AI) 모델 구축 시 더욱 정확하고 객관적인 학습데이터 셋을 구축하여 모델링함으로써 영역기반의 재난정보를 자동으로 추출하여 정확한 피해 정보를 제공할 수 있는 인공지능 기반 재난 피해정보 탐지 기술이 요구되는 바이다.Therefore, when constructing an artificial intelligence (AI) model for detecting disaster damage information using drones, by constructing and modeling a more accurate and objective learning data set, it is possible to automatically extract area-based disaster information and provide accurate damage information. Disaster damage information detection technology based on artificial intelligence is required.

한국공개특허공보 제10-2020-0065316호Korean Patent Application Publication No. 10-2020-0065316

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로 인공지능과 드론 항공 동영상을 이용하여 재난 종류 및 재난의 피해 지역 정보를 자동으로 탐지하는 방법과 그 시스템을 제시하고자 한다.The present invention has been conceived to solve the above-described problem, and an object of the present invention is to present a method and a system for automatically detecting information on the type of disaster and the area affected by the disaster using artificial intelligence and drone aerial video.

특히, 드론을 이용하여 촬영된 드론의 동영상의 개별 프레임과 드론의 자동비행 로그 정보를 정밀하게 동기화(synchronize)하는 과정을 통해 재난 피해정보를 탐지하기 위한 인공지능(AI) 모델용 학습데이터 셋을 구축하고, 이러한 학습데이터 셋으로 학습된 인공지능 모델을 만들고, 만들어진 인공지능 모델을 이용해 임의의 재난지역을 촬영했을 때, 인공지능 모델이 재난의 유형과 재난 피해 영역을 더욱 정확하고 객관적으로 판단하고, 위치정보를 이용해 지도에 맵핑하여 사용자에게 재난 유형 및 재난 피해 정보를 편리하게 제공해줄 수 있는 기술을 제공하는 것을 목적으로 한다. In particular, the training data set for artificial intelligence (AI) models to detect disaster damage information through the process of precisely synchronizing the individual frames of the drone's video captured using the drone and the drone's automatic flight log information. When constructing, creating an artificial intelligence model trained with these learning data sets, and photographing a random disaster area using the created artificial intelligence model, the artificial intelligence model more accurately and objectively judges the type of disaster and the area affected by the disaster. , It aims to provide a technology that can conveniently provide disaster type and disaster damage information to users by mapping it on a map using location information.

본 발명의 일측면에 따르면, 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템의 재난 피해정보 탐지 방법에 있어서, 드론으로부터 재난 지역의 동영상 정보를 전송받는 단계, 전송된 동영상 정보를 기설정된 인공지능(AI) 모델을 통해 재난 유형 및 재난 피해 영역을 판단하는 단계, 판단된 재난 유형 및 재난 피해 영역 정보를 영상지도로 제작하여 가시화하는 단계를 포함하며, 상기 인공지능(AI) 모델은, 드론의 비행 로그 정보와 동영상 메타 정보의 동기화에 기초한 복수의 학습데이터 셋을 통해 학습됨으로써 형성되는 것을 특징으로 한다.According to an aspect of the present invention, in a disaster damage information detection method of an artificial intelligence-based disaster damage information detection system using a drone, receiving video information of a disaster area from a drone, and pre-set artificial intelligence ( AI) determining the disaster type and the disaster damage area through the model, including the step of making and visualizing the determined disaster type and disaster damage area information as an image map, the artificial intelligence (AI) model, the flight of the drone It is characterized by being formed by learning through a plurality of learning data sets based on synchronization of log information and video meta information.

본 발명의 다른 측면에 따르면, 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템에 있어서, 본체에 탑재된 카메라를 통해 재난 지역을 촬영한 동영상 메타 정보를 획득하고, 본체의 비행 로그 정보를 획득하는 드론 장치 및 상기 드론 장치와 무선 통신하여, 드론으로부터 재난 지역의 동영상 메타 정보 및 드론의 비행 로그 정보를 전송받으며, 기설정된 인공지능(AI) 모델을 통해 전송된 재난 지역의 동영상 정보에 따른 재난 유형 및 재난 피해 영역 정보를 판단하여, 사용자에게 가시화하여 제공하는 워크스테이션 장치;를 포함하여 구성되며, 상기 인공지능(AI) 모델은, 드론의 비행 로그 정보와 동영상 메타 정보의 동기화에 기초한 복수의 학습데이터 셋을 통해 학습됨으로써 형성되는 것을 특징으로 한다.According to another aspect of the present invention, in an artificial intelligence-based disaster damage information detection system using a drone, a drone that acquires video meta information of a disaster area through a camera mounted on the body and obtains flight log information of the body. By wirelessly communicating with the device and the drone device, the video meta information of the disaster area and the flight log information of the drone are transmitted from the drone, and the disaster type according to the video information of the disaster area transmitted through a preset artificial intelligence (AI) model and Comprising: a workstation device that determines disaster damage area information and visualizes it to a user, wherein the artificial intelligence (AI) model includes a plurality of learning data based on synchronization of drone flight log information and video meta information It is characterized by being formed by learning through three.

본 발명에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법 및 시스템은 드론으로 재난 지역을 촬영하고, 촬영된 영상정보를 이용하여 기설정된 인공지능 모델을 통해 재난의 유형 및 재난 피해 영역 정보를 실시간으로 정확하고 용이하게 파악할 수 있는 장점이 있다.The method and system for detecting disaster damage information based on artificial intelligence using a drone according to the present invention captures a disaster area with a drone, and uses the captured image information to obtain real-time information on the type of disaster and disaster damage area through a preset artificial intelligence model. It has the advantage that it can be accurately and easily grasped.

또한, 인공지능 모델 구축을 위한 학습 데이터 셋을 형성함에 있어서, 드론의 동영상 정보와 드론의 비행 정보 간의 정밀한 동기화 작업을 통해 재난 동영상 생성시 발생할 수 있는 동영상의 프레임별 시점간 오차를 줄일 수 있어 더욱 정확하고 객관적인 학습데이터 셋을 구축할 수 있다.In addition, in forming a training data set for building an artificial intelligence model, it is possible to reduce the error between the viewpoints of the video frames that may occur during the creation of a disaster video through precise synchronization between the video information of the drone and the flight information of the drone. You can build an accurate and objective learning data set.

또한, 이렇게 구축된 학습데이터 셋을 통해 구체적이고 다양한 재난 유형별 정보에 따른 레이블링을 수행하여 다수 학습함으로써 정확도가 높은 재난 분석용 인공지능 모델을 구축할 수 있는 효과가 있다. In addition, there is an effect of constructing an artificial intelligence model for disaster analysis with high accuracy by performing labeling according to specific and various types of disaster information through the thus constructed learning data set and learning a number of them.

도 1은 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템의 기본적인 조사 체계를 설명하기 위한 도면.
도 2는 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템의 구성을 보여주는 시스템도.
도 3은 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템의 재난정보 분석부의 구체적인 구성을 보여주는 시스템도.
도 4는 본 발명의 일 실시예에 따른 드론의 비행 로그정보와 동영상 메타정보의 동기화 과정을 설명하기 위한 도면.
도 5는 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법을 설명하기 위한 순서도.
도 6은 본 발명의 일 실시예에 따른 인공지능 모델의 구축 방법을 설명하기 위한 순서도.
도 7은 본 발명에서 산사태 재난 유형에 따른 학습데이터 셋 구축 방법을 설명하기 위한 도면.
도 8은 본 발명에서 호우 재난 유형에 따른 학습데이터 셋 구축 방법을 설명하기 위한 도면.
도 9는 본 발명에서 교통사고 재난 유형에 따른 학습데이터 셋 구축 방법을 설명하기 위한 도면.
1 is a view for explaining a basic investigation system of a disaster damage information detection system based on artificial intelligence using a drone according to an embodiment of the present invention.
2 is a system diagram showing the configuration of an artificial intelligence-based disaster damage information detection system using a drone according to an embodiment of the present invention.
3 is a system diagram showing a detailed configuration of a disaster information analysis unit of an artificial intelligence-based disaster damage information detection system using a drone according to an embodiment of the present invention.
4 is a diagram illustrating a process of synchronizing flight log information and video meta information of a drone according to an embodiment of the present invention.
5 is a flow chart illustrating a method of detecting disaster damage information based on artificial intelligence using a drone according to an embodiment of the present invention.
6 is a flowchart illustrating a method of constructing an artificial intelligence model according to an embodiment of the present invention.
7 is a view for explaining a method of constructing a learning data set according to a landslide disaster type in the present invention.
8 is a diagram for explaining a method of constructing a learning data set according to a type of heavy rain disaster in the present invention.
9 is a view for explaining a method of constructing a learning data set according to a traffic accident disaster type in the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another component.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템(10)의 기본적인 조사 체계를 설명하기 위한 도면이며, 도 2는 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템(10)의 구성을 보여주는 시스템도이며, 도 3은 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템(10)의 재난정보 분석부(300)의 구체적인 구성을 보여주는 시스템도이며, 도 4는 본 발명의 일 실시예에 따른 드론의 비행 로그정보와 동영상 메타정보의 동기화 과정을 설명하기 위한 도면이다.1 is a diagram for explaining a basic investigation system of an artificial intelligence-based disaster damage information detection system 10 using a drone according to an embodiment of the present invention, and FIG. 2 is a diagram using a drone according to an embodiment of the present invention. A system diagram showing the configuration of the artificial intelligence-based disaster damage information detection system 10, and FIG. 3 is a disaster information analysis unit of the artificial intelligence-based disaster damage information detection system 10 using a drone according to an embodiment of the present invention ( 300) is a system diagram showing a specific configuration, and FIG. 4 is a diagram illustrating a process of synchronizing flight log information and video meta information of a drone according to an embodiment of the present invention.

먼저, 도 1을 참조하면, 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템(10)은 드론장치(100)를 통해 재난 지역의 상공을 비행하면서 재난 지역의 전반적인 영역을 촬영하며, 드론장치(100)를 통해 촬영한 동영상 정보 및 드론의 비행 정보를 워크스테이션 장치로 전송하여, 워크스테이션 장치(200)에 기설정된 인공지능 모델을 통해 재난의 유형 및 재난 피해 영역을 빠르고 정확하게 탐지 및 분석하는 체계를 이루고 있다.First, referring to FIG. 1, an artificial intelligence-based disaster damage information detection system 10 using a drone according to an embodiment of the present invention is provided through the drone device 100 while flying over the disaster area. And transmits the video information and the flight information of the drone captured through the drone device 100 to the workstation device, and the type of disaster and the disaster damage area through the artificial intelligence model preset in the workstation device 200. It has a system that detects and analyzes quickly and accurately.

여기서, 워크스테이션 장치(200)는 고성능의 GPU가 탑재된 컴퓨터 장치로서, 재난 현장을 탐사하는 조사 차량에 구비되어 재난현장에서 운용할 수 있는 현장운용 인공지능 체계로 형성할 수 있으며, 또는 별도의 재난관리기관의 자동탐지 서버로 처리되어 고성능으로 자동 탐지하는 내부 운용용 인공지능 체계를 형성할 수 있다.Here, the workstation device 200 is a computer device equipped with a high-performance GPU, and can be formed as a field operation artificial intelligence system that can be operated at the disaster site by being provided in an investigation vehicle that explores the disaster site. It is processed by the disaster management agency's automatic detection server, and can form an artificial intelligence system for internal operation that automatically detects with high performance.

도 2를 참조하면, 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템(10)은 드론장치(100)와 워크스테이션 장치(200)로 구성될 수 있다.Referring to FIG. 2, an artificial intelligence-based disaster damage information detection system 10 using a drone according to an embodiment of the present invention may include a drone device 100 and a workstation device 200.

드론 장치(100)는 본체에 탑재된 카메라 모듈을 통해 재난 지역을 촬영한 동영상 메타 정보를 획득하고 본체의 비행 로그 정보를 획득하여 워크스테이션 장치(200)로 전송하는 역할을 수행한다.The drone device 100 acquires video meta information of a disaster area through a camera module mounted on the body, acquires flight log information of the body, and transmits it to the workstation device 200.

이를 위해 드론 장치(100)는 본체(미도시), 카메라 모듈(110), 센서 모듈(120), 비행 모듈(130), 통신 모듈(140 및 제어 모듈(150)을 포함하여 구성된다.To this end, the drone device 100 is configured to include a body (not shown), a camera module 110, a sensor module 120, a flight module 130, a communication module 140 and a control module 150.

카메라 모듈(110)은 장치의 본체에 구비되며, 광학 카메라로 이루어져 상기 재난 지역을 촬영하여 재난 지역의 영상 정보를 생성한다.The camera module 110 is provided in the main body of the device and is composed of an optical camera to photograph the disaster area to generate image information of the disaster area.

센서 모듈(120)은 본체에 구비되며, Global Navigation Satellite System(GNSS)/Inertial Navigation System(INS), 자이로센서, 가속계 및 기압계 등의 각종 센서들로 이루어질 수 있다.The sensor module 120 is provided in the main body, and may include various sensors such as a Global Navigation Satellite System (GNSS)/Inertial Navigation System (INS), a gyro sensor, an accelerometer and a barometer.

비행 모듈(130)은 본체에 구비되며, 상기 본체를 상공에 띄워 운행시킬 수 있으며, 드론의 비행 운전 시, 드론의 위치, 속도, 카메라 방향 등의 비행 로그 정보를 저장한다.The flight module 130 is provided in the main body and can be operated by floating the main body in the sky, and stores flight log information such as the position, speed, and camera direction of the drone during flight operation of the drone.

여기서, 비행 모듈(130)은 현재 나와있는 다양한 드론용 비행 장치로 적용될 수 있으며, 비행 운전 설정에 따라 다양하게 변경 가능함은 물론이다. Here, the flight module 130 may be applied to various drone flight devices currently available, and of course, it may be variously changed according to a flight operation setting.

통신 모듈(140)은 본체에 구비되며, 주파수 통신 및 LTE 기반의 이동통신 등의 통신장비로 이루어져 상기 워크스테이션 장치(200)와 실시간 무선통신한다.The communication module 140 is provided in the main body and consists of communication equipment such as frequency communication and LTE-based mobile communication, and performs real-time wireless communication with the workstation device 200.

제어 모듈(150)은 본체 내부에 구비되며, 카메라 모듈(110)에서 생성된 영상 정보를 상기 통신 모듈(140)을 통해 상기 워크스테이션 장치(200)로 전송시키고, 상기 워크스테이션 장치(200)로부터 전송되는 제어 신호에 따라 상기 카메라 모듈(110), 센서 모듈(120) 및 비행 모듈(130)을 각각 제어한다.The control module 150 is provided inside the main body, and transmits the image information generated by the camera module 110 to the workstation device 200 through the communication module 140, and from the workstation device 200 The camera module 110, the sensor module 120, and the flight module 130 are respectively controlled according to the transmitted control signal.

워크스테이션 장치(200)는 통신부(210), 재난정보 분석부(300), 영상 처리부(220), 피해정보 분석부(230), 정보 입력부(240), 정보 표시부(250)를 포함하여 구성된다.The workstation device 200 includes a communication unit 210, a disaster information analysis unit 300, an image processing unit 220, a damage information analysis unit 230, an information input unit 240, and an information display unit 250. .

통신부(210)는 주파수 통신 및 LTE 기반의 이동통신 등의 통신모듈로 이루어져 상기 드론 장치(100)와 실시간 무선통신한다.The communication unit 210 is composed of a communication module such as frequency communication and LTE-based mobile communication, and performs real-time wireless communication with the drone device 100.

재난정보 분석부(300)는 상기 드론 장치(100)로부터 전송된 동영상 정보를 기설정된 인공지능 모델을 통해 재난 유형 및 재난 피해 영역 정보를 판단한다.The disaster information analysis unit 300 determines disaster type and disaster damage area information through a preset artificial intelligence model based on the video information transmitted from the drone device 100.

도면 3을 참조하면, 재난정보 분석부(300)는 드론의 비행 로그 정보와 동영상 메타 정보의 동기화에 기초한 복수의 학습데이터 셋을 구축하기 위한 학습데이터 셋 구축부(310)와, 상기 학습데이터 셋 구축부(310)에서 구축된 학습데이터 셋을 통해 다수 학습됨으로써 형성되는 인공지능 모델부(320)를 포함하여 구성된다.Referring to FIG. 3, the disaster information analysis unit 300 includes a learning data set construction unit 310 for constructing a plurality of learning data sets based on synchronization of drone flight log information and video meta information, and the learning data set. It is configured to include an artificial intelligence model unit 320 formed by learning a plurality of learning through the training data set built in the construction unit 310.

학습데이터 셋 구축부(310)는 정보 기록부(311), 정보 동기화부(312), 영상 추출부(313), 영상 보정부(314), 학습정보 생성부(315) 및 데이터베이스부(316)로 이루어진다.The learning data set construction unit 310 includes an information recording unit 311, an information synchronization unit 312, an image extracting unit 313, an image correction unit 314, a learning information generation unit 315, and a database unit 316. Done.

정보 기록부(311)는 드론의 동영상의 메타 정보를 기록 및 저장하며, 정보 동기화부(312)는 기설정된 동기화 알고리즘을 통해 동영상의 개별 프레임과 드론의 비행로그 정보를 동기화시킨다.The information recording unit 311 records and stores meta information of the drone video, and the information synchronization unit 312 synchronizes the individual frames of the video and flight log information of the drone through a preset synchronization algorithm.

여기서, 도 4를 참조하면, 기설정된 동기화 알고리즘은 상기 동영상의 개별 프레임에서, 각 프레임간의 픽셀 변화량이 일정 범위 이상인 제1 특정 시점을 찾고, 상기 드론의 비행 로그 정보에서 드론의 자세 변화량이 일정 범위 이상인 제2 특정 시점을 찾고, 상기 드론의 비행 로그 정보에서 짐벌의 자세 변화량이 일정 범위 이상인 제3 특정 시점을 찾아, 상기 제1, 제2 및 제3 특정 시점들 즉, 동기화 포인트들을 이용하여 드론의 동영상의 개별 프레임과 드론의 비행로그 정보를 동기화시킬 수 있다.Here, referring to FIG. 4, the preset synchronization algorithm finds a first specific time point in which the amount of pixel change between each frame is more than a certain range in the individual frame of the video, and the attitude change amount of the drone in the flight log information of the drone is within a certain range. Find a second specific point in time that is abnormal, find a third specific point in time in which the gimbal's posture change amount is more than a certain range from the flight log information of the drone, and use the first, second, and third specific points in time, that is, synchronization points. You can synchronize the individual frames of the video and the flight log information of the drone.

즉, 전술한 바와 같이, 동영상을 구성하는 정지영상과 드론의 위치정보를 맵핑(지오태깅)하기 위해서는 동기화가 필요한데, 카메라의 촬영 동영상 정보는 일반적으로 평균 초당 30프레임(30Hz)으로 저장되고, 드론의 비행 로그정보(드론의 위치, 속도 및 방향 정보)는 그보다 작은 주기(일 예로 평균 초당 10프레임(10Hz))로 기록되기 때문에, 단순히 드론의 카메라 동영상 정보와, 드론의 비행 로그정보(드론의 위치, 속도 및 방향 정보)의 초기 시간 정보만을 이용해서 순차적으로 시간을 누적하여 동기화하는 경우 시간이 지날수록 오차가 커지는 문제가 발생한다.That is, as described above, synchronization is required in order to map (geotag) the location information of the drone and the still image constituting the video. In general, the video information taken by the camera is stored at an average of 30 frames per second (30 Hz), and Since the flight log information (the drone's position, speed, and direction information) is recorded at a smaller period (for example, an average of 10 frames per second (10Hz)), the drone's camera video information and the drone's flight log information ( When time is accumulated and synchronized sequentially using only initial time information (position, speed, and direction information), an error increases as time passes.

이에 본 발명에서는 동기화 알고리즘을 통해 동영상의 각 프레임간의 픽셀의 변화량(인접한 동영상과의 차분)을 이용해서 동영상 전 구간에서 변화가 큰 특정 시점을 찾고, 비행 로그 정보에서 드론의 자세, 카메라 짐벌 자세의 변화(인접한 로그 정보와의 차분)가 큰 시점을 찾아서 동기화를 시킴으로써 누적되는 동기화 오차를 줄여 그 정확도를 높일 수 있게 된다.Accordingly, in the present invention, a specific time point with a large change in the entire video section is found using the amount of pixel change (difference from adjacent video frames) between each frame of the video through a synchronization algorithm, and the attitude of the drone and the camera gimbal posture from the flight log information. It is possible to improve the accuracy by reducing the accumulated synchronization error by finding and synchronizing the time point where the change (difference from adjacent log information) is large.

영상 추출부(313)는 드론의 동영상의 개별 프레임들 중, 기설정된 키프레임 추출 기준정보에 기초하여 특정 키프레임(정지 영상)을 추출한다. The image extracting unit 313 extracts a specific key frame (still image) based on preset key frame extraction reference information among individual frames of a video of the drone.

특정 키프레임을 추출하는 이유는, 동영상 내의 프레임수가 너무 많고 각 프레임에서 영상의 내용 변화가 거의 없기 때문에, 드론이나 카메라의 자세가 급격히 변하면 카메라에 찍히는 영상도 크게 달라지는 점을 고려하여, 미리 설정된 기준 정보에 의해 일정한 주기별, 영상의 변화량이 큰 부분, 드론/카메라의 자세가 급격히 변하는 특정 키프레임을 추출하게 되는 것이다.The reason for extracting a specific key frame is that the number of frames in the video is too many and there is little change in the content of the video in each frame, so if the attitude of a drone or camera changes rapidly, the image taken by the camera will change significantly. According to the information, a specific key frame in which the posture of the drone/camera changes rapidly is extracted for a certain period, a part with a large amount of change in the image.

이때, 기설정된 키프레임 추출기준 정보는 일정 주기별 정보, 영상의 픽셀 변화량 정보, 드론 및 카메라의 자세 변화량 정보가 포함되며 사용자에 의해 설정 및 변경될 수 있음은 물론이다.At this time, the preset key frame extraction reference information includes information for each period, pixel change amount information, and attitude change amount information of drones and cameras, and can be set and changed by a user.

영상 보정부(314)는 상기 영상 추출부(313)에서 추출된 키프레임의 영상 정보에 해당하는 드론의 로그 정보(위치/자세각 정보)를 영상의 메타 정보로 기록(지오태깅)함으로써 영상의 메타 정보를 보정할 수 있다.The image correction unit 314 records (geotags) the log information (position/position information) of the drone corresponding to the image information of the key frame extracted by the image extraction unit 313 as meta information of the image. Meta information can be corrected.

학습정보 생성부(315)는 추출된 키프레임의 영상 정보에 기설정된 재난 위계정보에 따른 재난 유형과 재난 피해 영역을 레이블링하여 학습데이터를 생성한다. 레이블링된 영역은 학습을 위해서 각각의 픽셀좌표를 Json형태의 파일포맷으로 저장할 수 있다. The learning information generation unit 315 generates learning data by labeling the disaster type and the disaster damage area according to the preset disaster hierarchy information in the extracted image information of the key frame. In the labeled area, each pixel coordinate can be saved in Json format for learning.

즉, 학습정보 생성부(315)는 재난 유형별 복수의 영상 정보를 입력데이터로 하고, 위계에 따른 재난 유형 정보 및 재난 피해 지역에 대해 레이블링한 영역 정보를 출력데이터로 하여 복수 학습시킴으로써 재난 위계 정보에 따른 학습데이터를 생성하게 되는 것이다. That is, the learning information generation unit 315 receives a plurality of image information for each type of disaster as input data, and learns a plurality of pieces of information on the type of disaster according to the hierarchy and the area information labeled for the disaster-damaged area as output data. It is to create the learning data according to.

재난 위계 정보는 재난 유형별로 상위, 중위 및 하위 위계 정보로 분류되어 포함되며, 시스템 제작자, 전문가 또는 관리자에 의해 기설정될 수 있다.Disaster hierarchy information is classified into upper, middle, and lower hierarchy information for each disaster type, and may be preset by a system manufacturer, expert, or manager.

상위 위계 정보는 자연 재난 및 사회 재난 정보가 포함되고, 중위 위계 정보는 태풍, 호우, 한파, 대설, 폭염, 가뭄, 지진, 황사, 해일 , 홍수, 침수, 산사태, 화산을 포함하는 20 여종의 자연 재난 정보와, 화재, 붕괴, 폭발, 산불, 교통사고, 전기사고, 수난사고, 감염병, 미세먼지를 포함하는 20 여종의 사회 재난 정보가 포함될 수 있다.The upper hierarchical information includes natural and social disaster information, and the median hierarchical information includes 20 kinds of nature including typhoon, heavy rain, cold wave, heavy snow, heatwave, drought, earthquake, yellow dust, tsunami, flood, flood, landslide, volcano. Disaster information, fire, collapse, explosion, forest fire, traffic accident, electric accident, water accident, infectious disease, and 20 kinds of social disaster information including fine dust can be included.

또한, 하위 위계 정보에는 자연 재난 및 사회 재난 정보에 따른 토사유출, 시설물 파괴, 도로 파괴, 산사태 유출, 건물 화재, 폭발, 차량 파손을 포함한 구체적인 재난 정보가 포함될 수 있다.In addition, the lower hierarchical information may include specific disaster information including soil leakage, facility destruction, road destruction, landslide leakage, building fire, explosion, and vehicle damage according to natural and social disaster information.

데이터베이스부(316)는 상기 학습정보 생성부(315)를 통해 생성된 복수의 학습데이터를 데이터베이스(DB)화하여 학습데이터 셋을 생성한다.The database unit 316 generates a learning data set by converting a plurality of learning data generated through the learning information generation unit 315 into a database (DB).

상술한 바와 같이 학습데이터 셋 구축부(310)는 피해 지역의 드론 동영상으로부터 적절한 크기의 학습 영상을 생성하고, 재난 유형에 따른 객체를 분류한 후, 위계에 따라 위계별로 레이블링하여 학습데이터를 생성하여 데이터베이스화함으로써 학습데이터 셋을 구축할 수 있게 된다.As described above, the training data set construction unit 310 generates training images of an appropriate size from drone videos in the affected area, classifies objects according to disaster types, and labels them by hierarchy according to the hierarchy to generate learning data. By becoming a database, it is possible to construct a learning data set.

인공지능 모델부(320)는 정보 학습부(321) 및 모델링부(322)로 이루어지며, 학습데이터 셋 구축부(310)에서 구축된 학습데이터 셋을 통해 다수 학습됨으로써 입력되는 재난 영상 정보를 스스로 처리하여 재난 유형 및 재난 피해 정보를 자동적으로 판단하기 위한 인공지능 모델을 구축한다.The artificial intelligence model unit 320 is composed of an information learning unit 321 and a modeling unit 322, and by learning a plurality of the training data set built in the learning data set construction unit 310, the disaster image information input by itself is Processing, and constructing an artificial intelligence model to automatically determine the disaster type and disaster damage information.

정보 학습부(321)는 상기 학습데이터 셋 구축부(310)를 통해 생성된 복수의 학습데이터 셋을 기초로 하여 다양한 재난 이벤트 정보들을 다수번 자동 학습을 통해 복수의 판단 정보를 생성한다. 모델링부(322)는 정보 학습부를 통해 생성되는 복수의 판단 정보를 이용하여 탐지 분석 알고리즘을 형성한다.The information learning unit 321 generates a plurality of determination information through automatic learning of various disaster event information a plurality of times based on a plurality of learning data sets generated through the learning data set construction unit 310. The modeling unit 322 forms a detection and analysis algorithm using a plurality of determination information generated through the information learning unit.

즉, 인공지능 모델부(320)는 드론 동영상으로부터 재난 피해지역을 탐색하고 피해정보를 추출하기 위한 최적의 인공지능 알고리즘을 형성한다.That is, the artificial intelligence model unit 320 searches for a disaster-damaged area from a drone video and forms an optimal artificial intelligence algorithm for extracting damage information.

보다 자세하게는 시스템의 실시간성을 고려하여, HD 이미지가 입력으로 주어졌을 때 짧은 시간 이내에 재난 유무의 영역 기반 의미론적 분할을 행하는 추론이 가능한 뉴럴 네트워크 구조를 형성할 수 있다.In more detail, in consideration of the real-time nature of the system, when an HD image is given as an input, a neural network structure capable of inferencing can be formed by performing domain-based semantic segmentation of the presence or absence of a disaster within a short time.

또한, 인공지능 모델부(320)는 재난 탐지의 특성을 고려하여, 이미지의 지엽적 특징 뿐만 아니라 전역 특징 또한 활용하기 위한 뉴럴 네트워크 모듈로 구성될 수 있으며, 일반적인 재난 상황에서 발생하는 의미론적 분할 데이터베이스에서의 레이블링의 불균형을 보정하기 위한 손실 함수의 기능도 구비할 수 있다.In addition, the artificial intelligence model unit 320 may be configured as a neural network module to utilize not only the local characteristics of the image but also the global characteristics, taking into account the characteristics of disaster detection, and in a semantic segmentation database occurring in a general disaster situation. It may also have a function of a loss function for correcting the unbalance of the labeling of.

한편, 인공지능 모델부(320)는 상기 모델링부(322)를 통해 구축된 인공지능 모델을 평가하기 위한 모델 평가부(미도시)가 포함될 수 있다.Meanwhile, the artificial intelligence model unit 320 may include a model evaluation unit (not shown) for evaluating the artificial intelligence model built through the modeling unit 322.

모델 평가부(미도시)는 구축된 학습 데이터와 탐지 분석 알고리즘을 활용하여 인공지능 학습을 통해 영역기반의 재난정보를 자동으로 추출하여 정확도를 분석하고 성능을 평가한다.The model evaluation unit (not shown) automatically extracts area-based disaster information through artificial intelligence learning using the established training data and detection analysis algorithm, analyzes accuracy, and evaluates performance.

이러한 모델 평가부(미도시)는 구축된 학습 데이터셋을 활용하여 뉴럴 네트워크 모수를 학습을 하는 학습 모듈, 학습된 모델 알고리즘을 활용하여 영역 기반의 재난 정보를 자동으로 추출하는 추출 모듈 및 학습된 모델과 구축된 평가 데이터셋을 활용하여 알고리즘의 성능을 mIOU로서 측정하고 평가하는 평가 모듈로 구성될 수 있다.Such a model evaluation unit (not shown) is a learning module that learns neural network parameters using the built training data set, an extraction module that automatically extracts area-based disaster information using a learned model algorithm, and a trained model. It can be composed of an evaluation module that measures and evaluates the performance of the algorithm as mIOU by using the evaluation data set built in and.

영상 처리부(220)는 상기 재난정보 분석부(300)를 통해 판단된 재난 유형 및 지난 피해 영역 정보를 정사영상지도 정보로 제작하여 가시화한다.The image processing unit 220 creates and visualizes the disaster type and last damage area information determined by the disaster information analysis unit 300 as orthogonal image map information.

이때, 영상 처리부(220)는 동영상의 메타 정보 중 드론의 위치/자세각(X, Y, Z, Roll, Pitch, Yaw) 정보를 이용해서 각 픽셀의 절대적인 위치를 결정하고 정사영상(orthophoto)를 생성한 후, 생성된 정사영상을 웹브라우저에 구동되는 배경맵(OpenstreetMap) 위에 중첩하여 가시화하는 것을 특징으로 한다. 여기서, 사용자는 지도위에 가시화된 정사영상에 마우스로 영역을 그려서 피해지역의 면적을 대락적으로 구할 수도 있다. At this time, the image processing unit 220 determines the absolute position of each pixel using information on the position/posture angle (X, Y, Z, Roll, Pitch, Yaw) of the drone among meta information of the video, and generates an orthophoto. After generation, the generated orthogonal image is visualized by superimposing it on a background map (OpenstreetMap) driven by a web browser. Here, the user may roughly obtain the area of the damaged area by drawing an area with a mouse on the orthogonal image visualized on the map.

또한, 영상 처리부(220)는 3차원 모델링을 수행하여 3차원 점군 자료, 3차원 지형 정보 및 정사영상지도 정보 등의 3차원 영상 정보를 획득할 수도 있다.In addition, the image processing unit 220 may perform 3D modeling to obtain 3D image information such as 3D point cloud data, 3D topographic information, and orthogonal image map information.

피해정보 분석부(230)는 상기 영상 처리부(220)를 통해 획득한 정사영상 정보를 기초로, 기설정된 분석 프로그램을 통해 지형지물의 파손 길이, 면적, 유출량 등을 분석하여 피해규모 정보를 제공한다.The damage information analysis unit 230 analyzes the damage length, area, and outflow amount of the feature through a preset analysis program based on the orthogonal image information acquired through the image processing unit 220 to provide damage scale information.

정보 입력부(240)는 사용자의 각종 입력 정보를 입력받고, 정보 표시부(250)는 사용자에게 각종 입/출력 정보 및 영상 정보를 디스플레이하여 제공한다.The information input unit 240 receives various input information of a user, and the information display unit 250 displays and provides various input/output information and image information to the user.

이와 같이, 본 발명에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템은 드론의 동영상의 개별 프레임과 드론의 자동비행 로그 정보를 정밀하게 동기화(synchronize)하는 과정을 통해 학습데이터 셋을 구축함으로써 정확도가 높은 재난 분석용 인공지능 모델을 제공할 수 있는 특징이 있다. As described above, the artificial intelligence-based disaster damage information detection system using a drone according to the present invention precisely synchronizes individual frames of a drone's video with the drone's automatic flight log information, thereby establishing a learning data set. There are features that can provide artificial intelligence models for high disaster analysis.

이하에서는 상술한 바와 같은 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템을 이용하여 재난 피해 정보를 탐지하는 방법에 대하여 도 5 내지 도 9를 통해 상세하게 설명하기로 한다.Hereinafter, a method of detecting disaster damage information using an artificial intelligence-based disaster damage information detection system using a drone as described above will be described in detail with reference to FIGS. 5 to 9.

도 5는 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법을 설명하기 위한 순서도이며, 도 6은 본 발명의 일 실시예에 따른 인공지능 모델의 구축 방법을 설명하기 위한 순서도이며, 도 7은 본 발명에서 산사태 재난 유형에 따른 학습데이터 셋 구축 방법을 설명하기 위한 도면이며, 도 8은 본 발명에서 호우 재난 유형에 따른 학습데이터 셋 구축 방법을 설명하기 위한 도면이며, 도 9는 본 발명에서 교통사고 재난 유형에 따른 학습데이터 셋 구축 방법을 설명하기 위한 도면이다.5 is a flow chart illustrating a method of detecting disaster damage information based on artificial intelligence using a drone according to an embodiment of the present invention, and FIG. 6 is a flowchart illustrating a method of constructing an artificial intelligence model according to an embodiment of the present invention. It is a flow chart, and FIG. 7 is a diagram for explaining a method of constructing a learning data set according to a type of landslide disaster in the present invention, and FIG. 8 is a diagram for explaining a method of constructing a learning data set according to a type of heavy rain disaster in the present invention. 9 is a diagram for explaining a method of constructing a learning data set according to a traffic accident disaster type in the present invention.

도 5에 도시된 바와 같이, 본 발명의 일 실시예에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법은 드론 장치에 탑재된 카메라 모듈을 통해 재난이 발생한 피해 지역을 촬영하기 이전에, 인공지능 모델 사전 설정(S100) 단계가 수행된다. 이후, 재난지역을 드론장치로 촬영(S200)하고, 촬영된 재난지역의 동영상 정보를 기설정된 인공지능 모델의 실행(S210)을 통해 재난의 유형 정보와 재난 피해 영역 정보를 스스로 판단하여, 판단된 재난의 유형 정보와 재난 피해 영역 정보를 가시화하여 디스플레이 장치 등을 통해 사용자에게 제공(S220)할 수 있다.As shown in FIG. 5, the method for detecting disaster damage information based on artificial intelligence using a drone according to an embodiment of the present invention is, prior to photographing a damaged area where a disaster has occurred through a camera module mounted on the drone device, artificial intelligence The model presetting step S100 is performed. Thereafter, the disaster area is photographed with a drone device (S200), and the recorded disaster area video information is determined by self-determining the type information of the disaster and the disaster-damaged area information through the execution of a preset artificial intelligence model (S210). Disaster type information and disaster damage area information may be visualized and provided to a user through a display device (S220).

도 6을 참조하면, 인공지능 모델 사전 설정(S100) 단계는 먼저 재난 지역에서의 드론의 비행 로그 정보와 드론이 카메라 모듈을 통해 촬영한 동영상 메타정보를 입력(S110)받는다.Referring to FIG. 6, in the step of pre-setting an artificial intelligence model (S100), first, flight log information of a drone in a disaster area and meta information of a video captured by the drone through a camera module are input (S110).

이때, 드론의 비행 로그 정보에는 드론의 위치(보통, GNSS 위경도 좌표, 비행고도) 정보, 드론의 속도정보 및 카메라 자세각 정보가 포함되며, 여기서 드론의 위치 정보는 카메라의 위치정보 이거나 동시에 영상을 촬영하고 있는 위치 정보일 수 있다. At this time, the drone's flight log information includes the drone's location (usually, GNSS latitude and longitude coordinates, flight altitude) information, the drone's speed information, and camera attitude information, where the drone's location information is the camera's location information or the video It may be location information that is photographing.

동영상 메타 정보에는 사진 파일의 크기, 촬영 일시, 조리개, ISO, 카메라 모델명 등 기본 정보와 촬영 당시의 초점 거리(focal length), 드론에 탑재된 GNSS의 위·경도 좌표, 비행고도, 자세각(roll, pitch, yaw) 정보가 포함될 수 있다.The video meta information includes basic information such as the size of the photo file, shooting date and time, aperture, ISO, camera model name, and the focal length at the time of shooting, the latitude/longitude coordinates of the GNSS mounted on the drone, the flight altitude, and the roll angle. , pitch, yaw) information may be included.

이후, 동영상을 구성하는 개별 프레임(정지영상)과 드론의 위치 정보를 맵핑(지오태깅)하기 위해 동영상의 개별 프레임과 드론의 비행로그 정보를 동기화(S120)한다.Thereafter, in order to map (geotag) the individual frames (still images) constituting the video and the location information of the drone, the individual frames of the video and the flight log information of the drone are synchronized (S120).

이때, 정보 동기화에 대한 구체적인 설명은 앞서 본 발명의 정보 동기화부의 드론의 비행 로그정보와 동영상 메타정보의 동기화 과정에 대해 도 4를 통해 상세하게 설명하였으므로 본 실시예에서는 생략하기로 한다.In this case, a detailed description of the information synchronization has been described in detail with reference to FIG. 4 for the synchronization process of the flight log information and the video meta information of the drone of the information synchronization unit of the present invention, and thus will be omitted in this embodiment.

상기 동영상의 개별 프레임과 드론의 비행로그 정보를 동기화(S120) 이후, 기설정된 키프레임 추출 기준정보에 따라 일정한 주기별, 영상의 변화량이 큰 부분, 드론/카메라의 자세가 급격히 변하는 특정 키프레임을 추출(S130)한다.After synchronizing the individual frames of the video with the flight log information of the drone (S120), a specific key frame in which the posture of the drone/camera changes rapidly by a certain period, a part with a large amount of change in the image according to the preset key frame extraction reference information Extract (S130).

이후, 추출한 키프레임의 영상 정보(정지 화면)에 드론의 위치정보를 맵핑(지오태깅)하기 위해, 상기 추출된 키프레임의 영상 정보에 해당하는 드론의 로그 정보(위치/자세각 정보)를 영상의 메타 정보로 기록(지오태킹)(S140)한다.Thereafter, in order to map (geotag) the location information of the drone to the image information (still screen) of the extracted key frame, the log information (position/position information) of the drone corresponding to the image information of the extracted key frame is imaged. Record (geo-taking) with meta information of (S140).

이후, 기설정된 재난 위계 정보에 따라 재난 유형별 복수의 영상 정보를 만들고, 해당 재난 영상 정보에 대해 레이블링(S150)하여 레이블링 영역 정보를 형성한다.Thereafter, a plurality of image information for each disaster type is created according to the preset disaster hierarchy information, and the corresponding disaster image information is labeled (S150) to form labeling area information.

이후, 기설정된 재난 위계 정보에 따라 재난 유형별 복수의 영상 정보를 입력데이터로 하고, 위계에 따른 재난 유형 정보 및 재난 피해 지역에 대한 레이블링 영역 정보를 출력데이터로 하여 복수 학습시킴으로써 재난 위계 정보에 따른 학습데이터를 생성(S160)시킨다.Thereafter, according to the preset disaster hierarchy information, a plurality of image information for each disaster type is used as input data, and the disaster type information according to the hierarchy and the labeling area information for the disaster-damaged area are used as output data to learn according to the disaster hierarchy information. Data is generated (S160).

예를 들어, 도 7을 참조하면, 산사태 재난에 대한 영상 정보를 입력데이터로 하고, 재난 위계 정보를 상위 정보는 자연 재난, 중위 정보는 산사태, 하계 정보는 산사태 유출로 설정하여 산사태 유출이 발생한 영역(붉게 탐지된 영역)을 레이블링하여 출력데이터로 하여 학습시키면, 이후, 해당 재난과 유사한 재난 영상이 입력될 경우, 스스로 자동 판단하여 영상의 재난 유형이 산사태 인것을 판단하게 되고, 재난 피해 영역 또한 추출할 수 있게 되는 것이다.For example, referring to FIG. 7, video information on a landslide disaster is set as input data, and the disaster hierarchy information is set to natural disasters, intermediate information is a landslide, and summer information is set to a landslide leakage. By labeling (red area) and learning it as output data, afterwards, when a disaster image similar to the disaster is input, it automatically determines that the disaster type of the image is a landslide, and the disaster damage area is also extracted. You can do it.

또한, 도 8을 참조하면, 호우 재난에 대한 영상 정보를 입력데이터로 하고, 재난 위계 정보를 상위 정보는 자연 재난, 중위 정보는 호우, 하계 정보는 도로 침수로 설정하여 침수가 발생한 영역을 레이블링하여 출력데이터로 하여 학습시키면, 이후, 해당 재난과 유사한 재난 영상이 입력될 경우, 스스로 자동 판단하여 영상의 재난 유형이 호우인것을 판단하게 되고, 재난 피해 영역 또한 추출할 수 있게 되는 것이다.In addition, referring to FIG. 8, by setting the image information on the heavy rain disaster as input data, the disaster hierarchy information as the natural disaster, the middle information as the heavy rain, and the summer information as the road flood, the area where the inundation occurred is labeled. By learning with the output data, afterwards, when a disaster image similar to the disaster is input, it automatically determines that the disaster type of the image is heavy rain, and the disaster damage area can also be extracted.

더하여, 도 9를 참조하면, 교통사고 재난에 대한 영상 정보를 입력데이터로 하고, 재난 위계 정보를 상위 정보는 사회 재난, 중위 정보는 교통사고, 하계 정보는 차량 파손으로 설정하여 차량 파손이 발생한 영역을 레이블링하여 출력데이터로 하여 학습시키면, 이후, 해당 재난과 유사한 재난 영상이 입력될 경우, 스스로 자동 판단하여 영상의 재난 유형이 교통사고인것을 판단하게 되고, 재난 피해 영역 또한 추출할 수 있게 되는 것이다.In addition, referring to FIG. 9, image information on traffic accidents is set as input data, and disaster hierarchy information is set as social disasters, median information is traffic accidents, and summer information is set as vehicle damage. After labeling and learning as output data, when a disaster image similar to the disaster is input, it automatically determines that the disaster type of the image is a traffic accident, and the disaster damage area can also be extracted. .

이렇게 생성된 복수의 학습 데이터를 이용하여 데이터베이스화하여 학습데이터 셋을 구축(S170)하고, 구축된 학습데이터 셋을 통해 다양한 재난 이벤트 정보들을 다수번 자동 학습하는 과정을 통해 드론 동영상으로부터 재난 피해지역을 탐색하고 피해정보를 스스로 판단 및 추출하기 위한 최적의 재난 분석 인공지능 모델을 구축(S180)할 수 있다.Using the plurality of learning data generated in this way, the training data set is built into a database (S170), and various disaster event information is automatically learned a number of times through the built learning data set to determine the disaster-affected area from the drone video. An optimal disaster analysis artificial intelligence model can be constructed (S180) to search and determine and extract damage information by itself.

상술한 바와 같이, 본 발명에 따른 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법 및 시스템은 드론의 동영상 정보와 드론의 비행 정보 간의 정밀한 동기화 작업을 통해 재난 동영상 생성시 발생할 수 있는 동영상의 프레임별 시점간 오차를 줄일 수 있어 더욱 정확하고 객관적인 학습데이터 셋을 구축하고, 이렇게 구축된 학습데이터 셋을 통해 구체적이고 다양한 재난 유형별 정보에 따른 레이블링을 수행하여 다수 학습함으로써 정확도가 높은 재난 분석용 인공지능 모델을 구축함으로써, 드론장치의 촬영 동영상에서 기설정된 인공지능 모델을 통해 재난의 유형 및 재난 피해 영역 정보를 실시간으로 정확하고 용이하게 파악할 수 있는 효과가 있다.As described above, the method and system for detecting disaster damage information based on artificial intelligence using a drone according to the present invention is a frame-by-frame view of a video that may occur when a disaster video is generated through precise synchronization between the video information of the drone and the flight information of the drone. A more accurate and objective training data set can be reduced by reducing the intermittent error, and an artificial intelligence model for disaster analysis with high accuracy is created by performing labeling according to specific and various types of disaster information through the training data set. By constructing, there is an effect of being able to accurately and easily grasp the type of disaster and information on the disaster damage area in real time through a preset artificial intelligence model in the video taken by the drone device.

10 : 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템
100 : 드론장치
110 : 카메라 모듈, 120 : 센서 모듈
130 : 비행 모듈, 140 : 통신 모듈
150 : 제어 모듈
200 : 워크스테이션 장치
210 : 통신부, 220 : 영상 처리부
230 : 피해정보 분석부, 240 : 정보 입력부
250 : 정보 표시부
300 : 재난정보 분석부
310 : 학습데이터 셋 구축부
311 : 정보 기록부, 312 : 정보 동기화부
313 : 영상 추출부, 314 : 영상 보정부
315 : 학습정보 생성부, 316 : 데이터베이스부
320 : 인공지능 모델부
321 : 정보 학습부, 322 : 모델링부
10: Disaster damage information detection system based on artificial intelligence using drones
100: drone device
110: camera module, 120: sensor module
130: flight module, 140: communication module
150: control module
200: workstation device
210: communication unit, 220: image processing unit
230: damage information analysis unit, 240: information input unit
250: information display unit
300: Disaster Information Analysis Department
310: Learning data set construction unit
311: information recording unit, 312: information synchronization unit
313: image extraction unit, 314: image correction unit
315: learning information generation unit, 316: database unit
320: artificial intelligence model unit
321: Information Learning Department, 322: Modeling Department

Claims (21)

드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템의 재난 피해정보 탐지 방법에 있어서,
드론으로부터 재난 지역의 동영상 정보를 전송받는 단계;
전송된 동영상 정보를 기설정된 인공지능(AI) 모델을 통해 재난 유형 및 재난 피해 영역을 판단하는 단계;
판단된 재난 유형 및 재난 피해 영역 정보를 영상지도로 제작하여 가시화하는 단계;를 포함하며,
상기 인공지능(AI) 모델은,
드론의 비행 로그 정보와 동영상 메타 정보의 동기화에 기초한 복수의 학습데이터 셋을 통해 학습됨으로써 형성되되,
상기 학습데이터 셋의 구축 방법은,
드론으로부터 드론의 재난 지역에 대한 비행 로그 정보와 동영상 메타 정보를 워크스테이션 장치로 각각 전송받는 단계;
전송된 드론의 비행 로그 정보와 동영상 메타 정보를 정보 저장부에 기록 및 저장하는 단계;
기설정된 동기화 알고리즘을 통해 동영상의 개별 프레임과 드론의 비행로그 정보를 동기화시키는 단계;
드론의 동영상의 개별 프레임들 중, 기설정된 키프레임 추출 기준정보에 기초하여 특정 키프레임을 추출하는 단계;
추출된 키프레임의 영상 정보에 해당하는 드론의 로그 정보를 영상의 메타 정보로 기록하는 단계;
추출된 키프레임의 영상 정보에 기설정된 재난 위계정보에 따른 재난 유형과 재난 피해 영역을 레이블링하여 학습데이터를 생성하는 단계; 및
생성된 학습데이터를 데이터베이스화하는 단계;
를 포함하고,
상기 동기화 알고리즘은,
상기 동영상의 개별 프레임에서, 각 프레임간의 픽셀 변화량이 일정 범위 이상인 제1 특정 시점을 찾는 단계;
상기 드론의 비행 로그 정보에서 드론의 자세 변화량이 일정 범위 이상인 제2 특정 시점을 찾는 단계;
상기 드론의 비행 로그 정보에서 짐벌의 자세 변화량이 일정 범위 이상인 제3 특정 시점을 찾는 단계; 및
상기 제1, 제2 및 제3 특정 시점을 이용하여 드론의 동영상의 개별 프레임과 드론의 비행로그 정보를 동기화시키는 단계;
를 포함하는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해 정보 탐지 방법.
In the disaster damage information detection method of a disaster damage information detection system based on artificial intelligence using a drone,
Receiving video information of the disaster area from the drone;
Determining a disaster type and a disaster damage area using the transmitted video information through a preset artificial intelligence (AI) model;
Including; and visualizing the determined disaster type and disaster damage area information by making an image map,
The artificial intelligence (AI) model,
It is formed by learning through a plurality of learning data sets based on synchronization of drone flight log information and video meta information,
The method of constructing the learning data set,
Receiving flight log information and video meta information about the disaster area of the drone from the drone to the workstation device, respectively;
Recording and storing the transmitted flight log information and video meta information of the drone in an information storage unit;
Synchronizing individual frames of the video and flight log information of the drone through a preset synchronization algorithm;
Extracting a specific key frame based on preset key frame extraction reference information from among individual frames of a video of the drone;
Recording log information of the drone corresponding to the image information of the extracted key frame as meta information of the image;
Generating learning data by labeling a disaster type and a disaster damage region according to preset disaster hierarchy information on the extracted image information of the key frame; And
Converting the generated learning data into a database;
Including,
The synchronization algorithm,
Finding a first specific viewpoint in which a pixel change amount between each frame is greater than or equal to a predetermined range in individual frames of the video;
Finding a second specific point in time in which the amount of change in attitude of the drone is greater than a certain range from the flight log information of the drone;
Finding a third specific point in time in which the posture change amount of the gimbal is greater than a certain range from the flight log information of the drone; And
Synchronizing individual frames of the drone video and flight log information of the drone using the first, second and third specific points of view;
Artificial intelligence-based disaster damage information detection method using a drone comprising a.
제 1항에 있어서,
상기 학습데이터 셋은,
재난 유형별 복수의 영상 정보를 입력데이터로 하고, 위계에 따른 재난 유형 정보 및 재난 피해 지역에 대해 레이블링한 영역 정보를 출력데이터로 하여 복수의 학습데이터를 생성함으로써 구축되는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해 정보 탐지 방법.
The method of claim 1,
The training data set,
Artificial using drones, characterized in that it is constructed by generating a plurality of learning data by using a plurality of image information for each disaster type as input data, and using disaster type information according to the hierarchy and labeling area information for the disaster-damaged area as output data. Intelligence-based disaster damage information detection method.
삭제delete 제 1항에 있어서,
상기 동영상 메타 정보에는 사진 파일의 크기, 촬영 일시, 조리개, ISO, 및 카메라 모델명을 포함하는 기본 정보와 촬영 당시의 초점 거리(focal length), 드론에 탑재된 GNSS의 위·경도 좌표, 비행고도 및 자세각(roll, pitch, yaw) 정보가 포함되는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해 정보 탐지 방법.
The method of claim 1,
The video meta information includes basic information including the size of the photo file, the shooting date, aperture, ISO, and the camera model name, the focal length at the time of shooting, the latitude/longitude coordinates of the GNSS mounted on the drone, the flight altitude, and A method of detecting disaster damage information based on artificial intelligence using a drone, characterized in that it includes information about an attitude angle (roll, pitch, yaw).
삭제delete 제 1항에 있어서,
상기 키프레임 추출 기준정보는,
일정 주기별 정보, 영상의 픽셀 변화량 정보, 드론 및 카메라의 자세 변화량 정보가 포함되며 사용자에 의해 설정되어 지는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해 정보 탐지 방법.
The method of claim 1,
The key frame extraction reference information,
A method of detecting disaster damage information based on artificial intelligence using a drone, characterized in that it includes information for each period, pixel change information, and attitude change information of drones and cameras, and is set by a user.
제 1항에 있어서,
상기 재난 위계 정보는,
재난 유형별로 상위, 중위 및 하위 위계 정보가 포함되되,
상위 위계 정보에는 자연 재난 및 사회 재난 정보가 포함되며,
중위 위계 정보에는 태풍, 호우, 한파, 대설, 폭염, 가뭄, 지진, 황사, 해일 , 홍수, 침수, 산사태, 화산을 포함하는 자연 재난 정보와, 화재, 붕괴, 폭발, 산불, 교통사고, 전기사고, 수난사고, 감염병, 미세먼지를 포함하는 사회 재난 정보가 포함되며,
하위 위계 정보에는 자연 재난 및 사회 재난 정보에 따른 토사유출, 시설물 파괴, 도로 파괴, 산사태 유출, 건물 화재, 폭발, 차량 파손을 포함한 구체적인 재난 정보가 포함되는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해 정보 탐지 방법.
The method of claim 1,
The above disaster hierarchy information,
Higher, medium, and lower hierarchical information is included for each type of disaster,
Higher hierarchy information includes natural and social disaster information,
Median hierarchical information includes information on natural disasters including typhoon, heavy rain, cold wave, heavy snow, heatwave, drought, earthquake, yellow dust, tsunami, flood, inundation, landslide, volcano, fire, collapse, explosion, forest fire, traffic accident, electric accident. , Water disaster, infectious disease, and social disaster information including fine dust,
Disaster based on artificial intelligence using drones, characterized in that the lower hierarchical information includes specific disaster information including soil leakage, facility destruction, road destruction, landslide leakage, building fire, explosion, and vehicle damage according to natural and social disaster information. How to detect damage information.
제 1항에 있어서,
상기 재난 유형 및 재난 피해 영역 정보를 영상지도로 제작하여 가시화하는 단계에서는,
동영상의 메타 정보 중 드론의 위치/자세각(X,Y,Z/roll,pitch,yaw) 정보를 이용해서 각 픽셀의 절대적인 위치를 결정하고 정사영상(orthophoto)를 생성한 후, 생성된 정사영상을 웹브라우저에 구동되는 배경맵(OpenstreetMap) 위에 중첩하여 가시화하는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해 정보 탐지 방법.
The method of claim 1,
In the step of making and visualizing the disaster type and disaster damage area information as an image map,
Among the meta information of the video, the absolute position of each pixel is determined using the drone's position/position (X, Y, Z/roll, pitch, and yaw) information, and after generating an orthophoto, the generated orthogonal image A method of detecting disaster damage information based on artificial intelligence using a drone, characterized in that superimposed on and visualized on a background map (OpenstreetMap) driven in a web browser.
제 1항에 있어서,
상기 재난 유형 및 재난 피해 영역 정보를 영상지도로 제작하여 가시화하는 단계 이후에,
기설정된 분석 프로그램을 통해 지형지물의 파손 길이, 면적 및 유출량을 분석하여 피해규모 정보를 제공하는 단계가 추가로 포함되는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해 정보 탐지 방법.
The method of claim 1,
After the step of making and visualizing the disaster type and disaster damage area information as an image map,
An artificial intelligence-based disaster damage information detection method using a drone, characterized in that the step of providing damage scale information by analyzing the damage length, area, and outflow amount of the feature through a preset analysis program.
드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템에 있어서,
본체에 탑재된 카메라를 통해 재난 지역을 촬영한 동영상 메타 정보를 획득하고, 본체의 비행 로그 정보를 획득하는 드론 장치; 및
상기 드론 장치와 무선 통신하여, 드론으로부터 재난 지역의 동영상 메타 정보 및 드론의 비행 로그 정보를 전송받으며, 기설정된 인공지능(AI) 모델을 통해 전송된 재난 지역의 동영상 정보에 따른 재난 유형 및 재난 피해 영역 정보를 판단하여, 사용자에게 가시화하여 제공하는 워크스테이션 장치;를 포함하여 구성되며,
상기 인공지능(AI) 모델은,
드론의 비행 로그 정보와 동영상 메타 정보의 동기화에 기초한 복수의 학습데이터 셋을 통해 학습됨으로써 형성되되,
상기 워크스테이션 장치는,
상기 드론 장치와 무선통신하기 위한 통신부;
상기 드론 장치로부터 전송된 동영상 정보를 기설정된 인공지능 모델을 통해 재난 유형 및 재난 피해 영역 정보를 판단하기 위한 재난정보 분석부;
상기 재난정보 분석부를 통해 판단된 재난 유형 및 재난 피해 영역 정보를 정사영상지도 정보로 제작하여 가시화하기 위한 영상 처리부;
사용자의 각종 입력 정보를 입력받기 위한 정보 입력부; 및
사용자에게 각종 입/출력 정보 및 영상 정보를 디스플레이하기 위한 정보 표시부;
를 포함하여 구성되고,
상기 재난정보 분석부는,
드론의 비행 로그 정보와 동영상 메타 정보의 동기화에 기초한 복수의 학습데이터 셋을 구축하기 위한 학습데이터 셋 구축부; 및
상기 학습데이터 셋 구축부에서 구축된 학습데이터 셋을 통해 다수 학습됨으로써 형성되는 인공지능 모델부;
를 포함하고,
상기 학습데이터 셋 구축부는,
드론의 동영상의 메타 정보를 기록 및 저장하는 정보 기록부;
기설정된 동기화 알고리즘을 통해 동영상의 개별 프레임과 드론의 비행로그 정보를 동기화시키는 정보 동기화부;
드론의 동영상의 개별 프레임들 중, 기설정된 키프레임 추출 기준정보에 기초하여 특정 키프레임을 추출하는 영상 추출부;
추출된 키프레임의 영상 정보에 해당하는 드론의 로그 정보를 영상의 메타 정보로 기록하는 영상 보정부;
추출된 키프레임의 영상 정보에 기설정된 재난 위계정보에 따른 재난 유형과 재난 피해 영역을 레이블링하여 학습데이터를 생성하는 학습정보 생성부; 및
상기 학습정보 생성부를 통해 생성된 복수의 학습데이터를 DB화하여 학습데이터 셋을 생성하는 데이터베이스부;
를 포함하고,
상기 동기화 알고리즘은,
상기 동영상의 개별 프레임에서, 각 프레임간의 픽셀 변화량이 일정 범위 이상인 제1 특정 시점을 찾고, 상기 드론의 비행 로그 정보에서 드론의 자세 변화량이 일정 범위 이상인 제2 특정 시점을 찾고, 상기 드론의 비행 로그 정보에서 짐벌의 자세 변화량이 일정 범위 이상인 제3 특정 시점을 찾아, 상기 제1, 제2 및 제3 특정 시점을 이용하여 드론의 동영상의 개별 프레임과 드론의 비행로그 정보를 동기화시키는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템.
In a disaster damage information detection system based on artificial intelligence using a drone,
A drone device that acquires video meta information of a disaster area through a camera mounted on the body, and acquires flight log information of the body; And
Through wireless communication with the drone device, video meta information of the disaster area and flight log information of the drone are transmitted from the drone, and the disaster type and disaster damage according to the video information of the disaster area transmitted through a preset artificial intelligence (AI) model. It is configured to include; a workstation device that determines the area information and visualizes it to the user,
The artificial intelligence (AI) model,
It is formed by learning through a plurality of learning data sets based on synchronization of drone flight log information and video meta information,
The workstation device,
A communication unit for wireless communication with the drone device;
A disaster information analysis unit for determining disaster type and disaster damage area information through a preset artificial intelligence model from the video information transmitted from the drone device;
An image processing unit for producing and visualizing the disaster type and disaster damage area information determined by the disaster information analysis unit as orthogonal image map information;
An information input unit for receiving various input information of a user; And
An information display unit for displaying various input/output information and image information to a user;
It is composed including,
The disaster information analysis unit,
A learning data set construction unit for constructing a plurality of learning data sets based on synchronization of drone flight log information and video meta information; And
An artificial intelligence model unit formed by learning a plurality of learning data sets constructed by the learning data set construction unit;
Including,
The learning data set construction unit,
An information recording unit for recording and storing meta information of a video of a drone;
An information synchronization unit for synchronizing individual frames of the video and flight log information of the drone through a preset synchronization algorithm;
An image extracting unit for extracting a specific key frame from among individual frames of a video of the drone based on preset key frame extraction reference information;
An image correction unit for recording log information of the drone corresponding to image information of the extracted key frame as meta information of the image;
A learning information generator for generating learning data by labeling a disaster type and a disaster damage area according to preset disaster hierarchy information on the extracted image information of the key frame; And
A database unit for generating a learning data set by converting a plurality of learning data generated through the learning information generation unit into a DB;
Including,
The synchronization algorithm,
In individual frames of the video, a first specific point in time in which the amount of pixel change between each frame is more than a certain range is found, a second specific time point in which the attitude change amount of the drone is more than a certain range is found in the flight log information of the drone, and the flight log of the drone A third specific point in time in which the gimbal's posture change amount is more than a certain range from the information, and the individual frames of the drone's video and the drone's flight log information are synchronized using the first, second, and third specific points of view. Disaster damage information detection system based on artificial intelligence using drones.
제 10항에 있어서,
상기 드론 장치는,
장치의 본체에 구비되며, 광학 카메라로 이루어져 상기 재난 지역을 촬영하여 재난 지역의 동영상 정보를 생성하는 카메라 모듈;
상기 본체에 구비되며, 각종 센서로 이루어지는 센서 모듈;
상기 본체에 구비되며, 상기 본체를 상공에 띄워 운행시키며, 본체의 비행 로그 정보를 생성하는 비행 모듈;
상기 본체에 구비되며, 상기 워크스테이션 장치와 실시간 무선통신하기 위한 통신모듈; 및
상기 본체 내부에 구비되며, 카메라 모듈에서 생성된 동영상 정보를 상기 통신 모듈을 통해 상기 워크스테이션 장치로 전송시키며, 상기 비행 모듈에서 생성된 비행 로그 정보를 상기 통신 모듈을 통해 상기 워크스테이션 장치로 전송하며, 상기 워크스테이션 장치로부터 전송되는 제어 신호에 따라 상기 카메라 모듈, 센서 모듈 및 비행 모듈을 제어하는 제어 모듈;
을 포함하여 구성되는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템.

The method of claim 10,
The drone device,
A camera module provided in the main body of the device and configured of an optical camera to photograph the disaster area to generate video information of the disaster area;
A sensor module provided in the main body and comprising various sensors;
A flight module provided on the main body, floating the main body in the air, and generating flight log information of the main body;
A communication module provided in the main body for real-time wireless communication with the workstation device; And
It is provided inside the main body, transmits video information generated by the camera module to the workstation device through the communication module, and transmits flight log information generated by the flight module to the workstation device through the communication module, A control module for controlling the camera module, the sensor module and the flight module according to the control signal transmitted from the workstation device;
Disaster damage information detection system based on artificial intelligence using a drone, characterized in that configured to include.

삭제delete 삭제delete 삭제delete 제 10항에 있어서,
상기 인공지능 모델부는,
상기 학습데이터 셋 구축부를 통해 생성된 복수의 학습데이터 셋을 이용하여 다양한 재난 관련 정보들을 학습하는 정보 학습부; 및
상기 정보 학습부를 통해 생성되는 복수의 판단 정보를 이용하여 분석 모델을 형성하는 모델링부;
를 포함하는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템.
The method of claim 10,
The artificial intelligence model unit,
An information learning unit for learning various disaster-related information by using a plurality of learning data sets generated through the learning data set construction unit; And
A modeling unit for forming an analysis model using a plurality of determination information generated through the information learning unit;
Disaster damage information detection system based on artificial intelligence using a drone comprising a.
제 10항에 있어서,
상기 학습데이터 셋은,
재난 유형별 복수의 영상 정보를 입력데이터로 하고, 위계에 따른 재난 유형 정보 및 재난 피해 지역에 대해 레이블링한 영역 정보를 출력데이터로 하여 복수의 학습데이터를 생성함으로써 구축되는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템.

The method of claim 10,
The training data set,
Artificial using drones, characterized in that it is constructed by generating a plurality of learning data by using a plurality of image information for each disaster type as input data, and using disaster type information according to the hierarchy and labeling area information for the disaster-damaged area as output data. Intelligence-based disaster damage information detection system.

삭제delete 제 10항에 있어서,
상기 키프레임 추출 기준정보는,
일정 주기별 정보, 영상의 픽셀 변화량 정보, 드론 및 카메라의 자세 변화량 정보가 포함되며 사용자에 의해 설정되어 지는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템.
The method of claim 10,
The key frame extraction reference information,
Disaster damage information detection system based on artificial intelligence using a drone, characterized in that it includes information for each period, pixel change information, and attitude change information of drones and cameras, and is set by a user.
제 10항에 있어서,
상기 재난 위계 정보는,
재난 유형별로 상위, 중위 및 하위 위계 정보가 포함되되,
상위 위계 정보에는 자연 재난 및 사회 재난 정보가 포함되며,
중위 위계 정보에는 태풍, 호우, 한파, 대설, 폭염, 가뭄, 지진, 황사, 해일 , 홍수, 침수, 산사태, 화산을 포함하는 자연 재난 정보와, 화재, 붕괴, 폭발, 산불, 교통사고, 전기사고, 수난사고, 감염병, 미세먼지를 포함하는 사회 재난 정보가 포함되며,
하위 위계 정보에는 자연 재난 및 사회 재난 정보에 따른 토사유출, 시설물 파괴, 도로 파괴, 산사태 유출, 건물 화재, 폭발, 차량 파손을 포함한 구체적인 재난 정보가 포함되는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템.
The method of claim 10,
The above disaster hierarchy information,
Higher, medium, and lower hierarchical information is included for each type of disaster,
Higher hierarchy information includes natural and social disaster information,
Median hierarchical information includes information on natural disasters including typhoon, heavy rain, cold wave, heavy snow, heatwave, drought, earthquake, yellow dust, tsunami, flood, inundation, landslide, volcano, fire, collapse, explosion, forest fire, traffic accident, electric accident. , Water disaster, infectious disease, and social disaster information including fine dust,
Disaster based on artificial intelligence using drones, characterized in that the lower hierarchical information includes specific disaster information including soil leakage, facility destruction, road destruction, landslide leakage, building fire, explosion, and vehicle damage according to natural and social disaster information. Damage information detection system.
제 10항에 있어서,
상기 영상 처리부는,
동영상의 메타 정보 중 드론의 위치/자세각(X,Y,Z/roll,pitch,yaw) 정보를 이용해서 각 픽셀의 절대적인 위치를 결정하고 정사영상(orthophoto)를 생성한 후, 생성된 정사영상을 웹브라우저에 구동되는 배경맵(OpenstreetMap) 위에 중첩하여 가시화하는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템.
The method of claim 10,
The image processing unit,
Among the meta information of the video, the absolute position of each pixel is determined using the drone's position/position (X, Y, Z/roll, pitch, and yaw) information, and after generating an orthophoto, the generated orthogonal image Disaster damage information detection system based on artificial intelligence using a drone, characterized in that superimposed and visualized on a background map (OpenstreetMap) driven in a web browser.
제 10항에 있어서,
상기 영상 처리부를 통해 획득한 정사영상지도 정보를 기초로, 기설정된 분석 프로그램을 통해 지형지물의 파손 길이, 면적 및 유출량을 분석하여 피해규모 정보를 제공하는 피해정보 분석부가 추가로 포함되는 것을 특징으로 하는 드론을 이용한 인공지능 기반 재난 피해정보 탐지 시스템.
The method of claim 10,
Based on the orthogonal image map information obtained through the image processing unit, a damage information analysis unit that analyzes the damage length, area, and outflow amount of the feature through a preset analysis program and provides damage scale information is additionally included. Disaster damage information detection system based on artificial intelligence using drones.
KR1020200077142A 2020-06-24 2020-06-24 Method and system for detecting disaster damage information based on artificial intelligence using drone KR102203135B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200077142A KR102203135B1 (en) 2020-06-24 2020-06-24 Method and system for detecting disaster damage information based on artificial intelligence using drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200077142A KR102203135B1 (en) 2020-06-24 2020-06-24 Method and system for detecting disaster damage information based on artificial intelligence using drone

Publications (1)

Publication Number Publication Date
KR102203135B1 true KR102203135B1 (en) 2021-01-14

Family

ID=74141188

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200077142A KR102203135B1 (en) 2020-06-24 2020-06-24 Method and system for detecting disaster damage information based on artificial intelligence using drone

Country Status (1)

Country Link
KR (1) KR102203135B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102318489B1 (en) 2021-05-07 2021-10-28 대한민국(행정안전부 국립재난안전연구원장) Real-time disaster information detection system and method using artificial intelligence and drone images
KR102320264B1 (en) 2021-05-04 2021-11-02 대한민국 Method and apparatus for identifying disaster affected areas using disaster pront areas features
KR102320262B1 (en) 2021-05-04 2021-11-02 대한민국 Method and apparatus for estimating size of damage in the disaster affected areas
KR102331410B1 (en) * 2021-03-22 2021-12-03 대한민국 Disaster and accident site response drone standard operating method and system thereof
WO2023055223A1 (en) * 2021-10-01 2023-04-06 설윤호 Method for calculating three-dimensional terrain site information of control object
KR20230047934A (en) 2021-10-01 2023-04-10 설윤호 Calculation method of 3D terrain site information of the control object
KR20230086827A (en) 2021-12-08 2023-06-16 정세인 The operating system of artificial intelligence-based logistics delivery drones
KR102568698B1 (en) * 2022-07-13 2023-08-22 한국전자기술연구원 UAV-based image file/transmission validation system and method
WO2024034847A1 (en) * 2022-08-08 2024-02-15 주식회사 빔웍스 Method for predicting lesion on basis of ultrasound image

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747025B1 (en) * 2016-02-26 2017-06-14 충남대학교산학협력단 survey method for flood affected areas using drone
KR20170101516A (en) * 2016-02-29 2017-09-06 한국전자통신연구원 Apparatus and method for fire monitoring using unmanned aerial vehicle
KR20170101519A (en) * 2016-02-29 2017-09-06 한국전자통신연구원 Apparatus and method for disaster monitoring using unmanned aerial vehicle
KR20190051704A (en) * 2017-11-07 2019-05-15 공간정보기술 주식회사 Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
KR20200065316A (en) 2018-11-30 2020-06-09 재단법인 경북아이티융합 산업기술원 System and method for replying disaster situation using smart drone
KR102121974B1 (en) * 2019-12-05 2020-06-12 대한민국 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747025B1 (en) * 2016-02-26 2017-06-14 충남대학교산학협력단 survey method for flood affected areas using drone
KR20170101516A (en) * 2016-02-29 2017-09-06 한국전자통신연구원 Apparatus and method for fire monitoring using unmanned aerial vehicle
KR20170101519A (en) * 2016-02-29 2017-09-06 한국전자통신연구원 Apparatus and method for disaster monitoring using unmanned aerial vehicle
KR20190051704A (en) * 2017-11-07 2019-05-15 공간정보기술 주식회사 Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
KR20200065316A (en) 2018-11-30 2020-06-09 재단법인 경북아이티융합 산업기술원 System and method for replying disaster situation using smart drone
KR102121974B1 (en) * 2019-12-05 2020-06-12 대한민국 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102331410B1 (en) * 2021-03-22 2021-12-03 대한민국 Disaster and accident site response drone standard operating method and system thereof
KR102320264B1 (en) 2021-05-04 2021-11-02 대한민국 Method and apparatus for identifying disaster affected areas using disaster pront areas features
KR102320262B1 (en) 2021-05-04 2021-11-02 대한민국 Method and apparatus for estimating size of damage in the disaster affected areas
KR102318489B1 (en) 2021-05-07 2021-10-28 대한민국(행정안전부 국립재난안전연구원장) Real-time disaster information detection system and method using artificial intelligence and drone images
WO2023055223A1 (en) * 2021-10-01 2023-04-06 설윤호 Method for calculating three-dimensional terrain site information of control object
KR20230047934A (en) 2021-10-01 2023-04-10 설윤호 Calculation method of 3D terrain site information of the control object
KR20230086827A (en) 2021-12-08 2023-06-16 정세인 The operating system of artificial intelligence-based logistics delivery drones
KR102568698B1 (en) * 2022-07-13 2023-08-22 한국전자기술연구원 UAV-based image file/transmission validation system and method
WO2024034847A1 (en) * 2022-08-08 2024-02-15 주식회사 빔웍스 Method for predicting lesion on basis of ultrasound image

Similar Documents

Publication Publication Date Title
KR102203135B1 (en) Method and system for detecting disaster damage information based on artificial intelligence using drone
Geraldes et al. UAV-based situational awareness system using deep learning
CN109583415B (en) Traffic light detection and identification method based on fusion of laser radar and camera
CN108230379A (en) For merging the method and apparatus of point cloud data
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
EP3274964B1 (en) Automatic connection of images using visual features
CN103377476A (en) Image registration of multimodal data using 3d geoarcs
CN103679674A (en) Method and system for splicing images of unmanned aircrafts in real time
US11668577B1 (en) Methods and systems for response vehicle deployment
KR101771492B1 (en) Method and system for mapping using UAV and multi-sensor
CN111339826B (en) Landslide unmanned aerial vehicle linear sensor network frame detecting system
KR102308456B1 (en) Tree species detection system based on LiDAR and RGB camera and Detection method of the same
KR20220064524A (en) Method and system for visual localization
CN112528974B (en) Distance measuring method and device, electronic equipment and readable storage medium
KR102318489B1 (en) Real-time disaster information detection system and method using artificial intelligence and drone images
JP2017201261A (en) Shape information generating system
CN106960027A (en) The UAV Video big data multidate association analysis method of spatial information auxiliary
CN110276379A (en) A kind of the condition of a disaster information rapid extracting method based on video image analysis
KR102053906B1 (en) Methods and system for real-time supervised learning using geo-spatial information
Li et al. 3D map system for tree monitoring in hong kong using google street view imagery and deep learning
Drouin et al. Modeling and simulation framework for airborne camera systems
KR20210083453A (en) System and method for establishing recovery of runway based on image, ai and reinforcement learning at war
Galarreta Urban Structural Damage Assessment Using Object-Oriented Analysis and Semantic Reasoning
Baeck et al. Drone based near real-time human detection with geographic localization
CN115690610A (en) Unmanned aerial vehicle navigation method based on image matching

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant