KR102318489B1 - Real-time disaster information detection system and method using artificial intelligence and drone images - Google Patents

Real-time disaster information detection system and method using artificial intelligence and drone images Download PDF

Info

Publication number
KR102318489B1
KR102318489B1 KR1020210059196A KR20210059196A KR102318489B1 KR 102318489 B1 KR102318489 B1 KR 102318489B1 KR 1020210059196 A KR1020210059196 A KR 1020210059196A KR 20210059196 A KR20210059196 A KR 20210059196A KR 102318489 B1 KR102318489 B1 KR 102318489B1
Authority
KR
South Korea
Prior art keywords
information
drone
disaster
artificial intelligence
server
Prior art date
Application number
KR1020210059196A
Other languages
Korean (ko)
Inventor
김성삼
신동윤
김현주
이임평
정동기
김휘영
Original Assignee
대한민국(행정안전부 국립재난안전연구원장)
주식회사 이노팸
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(행정안전부 국립재난안전연구원장), 주식회사 이노팸 filed Critical 대한민국(행정안전부 국립재난안전연구원장)
Priority to KR1020210059196A priority Critical patent/KR102318489B1/en
Application granted granted Critical
Publication of KR102318489B1 publication Critical patent/KR102318489B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • G06K9/00624
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • B64C2201/127
    • B64C2201/146

Abstract

The present invention relates to a real-time information detection system and a method using artificial intelligence and drone images, and more specifically, to a real-time information detection system and a method using artificial intelligence and drone images, wherein drones, artificial intelligence and real-time mapping techniques are connected as a single system to make disaster investigation practices convenient and to construct an advanced system capable of grasping a disaster situation swiftly. According to an aspect of the present invention, comprised are: a drone for photographing a disaster area through a camera mounted on a main body to obtain still image information and video information; a controller for controlling the flight of the drone by communicating wirelessly with the drone and receiving information related to the flight of the drone and the still image information and video information of the disaster area; a router for communicating wirelessly with the controller; and an analysis server connected to the router to receive the information related to the flight of the drone and the still image information and video information of the disaster area, which are transmitted through the router from the controller, and to store the same in a database, analyzing disaster type detection information by inference from the still image information based on a preset artificial intelligence model, analyzing human detection information by inference from the video information, and visualizing and providing the analyzed disaster type detection information and the human detection information through an online web.

Description

인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템 및 방법{REAL-TIME DISASTER INFORMATION DETECTION SYSTEM AND METHOD USING ARTIFICIAL INTELLIGENCE AND DRONE IMAGES}Real-time disaster information detection system and method using artificial intelligence and drone images

본 발명은 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 드론, 인공지능, 실시간 매핑 기술을 하나의 체계로 연계하여 재난조사 실무에서 편리하고, 신속하게 재난 상황을 파악할 수 있는 고도화된 체계를 구축할 수 있는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for detecting real-time disaster information using artificial intelligence and drone images, and more particularly, by linking drones, artificial intelligence, and real-time mapping technologies into one system, it is convenient and promptly It relates to a real-time disaster information detection system and method using artificial intelligence and drone images that can build an advanced system that can understand the situation.

현재 재난 원인조사에 드론을 활용하는 방법은 최초 재난이 발생하면 현장에 도착해 드론을 띄워 주로 동영상 촬영을 하고, 획득한 동영상에서 침수, 범람 등의 재난현장이 확인되면 필요에 따라서 다시 정지영상으로 정밀 촬영을 하고 있다.Currently, the method of using drones to investigate the causes of disasters is to arrive at the site when a disaster occurs, fly the drone, and shoot video mainly. Precise shooting.

이러한 업무 프로세스는 재난지역에서 침수, 범람, 산사태 등과 같은 재난 현상을 탐지하기 위해 작업자가 화면을 지속적으로 지켜보면서 직접 찾아야 한다.In order to detect disaster phenomena such as flooding, flooding, and landslides in the disaster area, the worker must continuously watch the screen to find it.

또한, 재난 현장을 동영상 혹은 정지 영상에서 찾았다 하더라도 해당 위치를 자세하게 파악하기 어렵기 때문에 정사영상과 같은 정밀한 데이터를 취득하기 위해 드론 비행을 재수행해야 하며, 이때 비행은 드론을 이용한 항공측량 영상과 같이 고도, 중복도 등을 고려해서 정밀하게 촬영되도록 이루어져야 한다.In addition, even if a disaster site is found in a video or still image, it is difficult to grasp the location in detail, so it is necessary to re-fly the drone to acquire precise data such as an orthographic image. , and the degree of overlap should be taken into account so that it can be photographed precisely.

하지만 일반적으로 드론 비행 시 작업자가 자신의 경험에 의존하여 드론 비행을 수행하고 있어 잘못된 지역을 촬영할 수도 있으며, 이를 감안하여 작업자가 다수번의 드론 비행을 수행하게 되어 작업의 효율성이 떨어지는 문제점이 있다.However, in general, when flying a drone, a worker may shoot the wrong area because he or she is flying a drone depending on his or her own experience.

이러한 문제를 해결하기 위해 한국등록특허 제10-2166432의 스마트 드론을 사용한 재난 상황 대응 방법에서는 드론의 안전하고 정확한 비행 운용을 가능하게 하면서도 사고 현장에서 드론이 전송하는 영상으로부터 사람이나 물체를 정확하고 빠르게 인식하는 기술을 보여주고 있다.In order to solve this problem, the disaster situation response method using a smart drone of Korea Patent No. 10-2166432 enables safe and accurate flight operation of the drone while accurately and quickly capturing people or objects from the images transmitted by the drone at the accident site. Demonstrates recognizing skills.

그러나 이러한 종래 기술의 경우, 드론으로부터 전송된 영상정보에서 사람이나 물체 등의 객체정보를 정확하게 파악하여 신속한 응급 조취를 취할 수 있을 뿐, 재난 발생 지역에 대해 홍수나 지진 등의 재난 유형을 신속하게 파악하고, 재난 지역에 대한 구체적인 피해 영역을 정밀하게 분석하여 대응할 수 없다는 문제점이 있다.However, in the case of this prior art, it is possible to accurately grasp object information such as people or objects from the image information transmitted from the drone to take quick emergency measures, and to quickly identify the types of disasters such as floods or earthquakes in the disaster area. However, there is a problem in that it is not possible to precisely analyze and respond to the specific damage area for the disaster area.

또한, 드론의 이동 경로 정보를 역으로 취하여 드론을 출발 위치로 복귀시키고만 있을뿐, 드론이 촬영한 영상 정보 및 관련 이동 좌표 정보를 따로 저장해두지 않고 있어, 재난 지역에 대해 정밀한 분석이 필요한 경우 여전히 드론 비행을 다수번 수행하여 피해 영역을 찾아야 하기 때문에 작업 효율이 떨어진다는 단점이 있다.In addition, the drone takes the movement route information of the drone in reverse and returns the drone to the starting position, but does not separately store the image information captured by the drone and the related movement coordinate information. There is a disadvantage in that the work efficiency is lowered because the drone has to fly a number of times to find the damaged area.

한편, 또 다른 종래 기술인 한국등록특허 제10-2203135호의 드론을 이용한 인공지능 기반 재난 피해정보 탐지 방법 및 시스템의 경우, 드론의 카메라 동영상 정보와 드론의 비행로그 정보를 기반으로한 학습데이터 셋 구축을 통해 인공지능 모델을 구축함으로써, 재난 피해 유형 및 영역 정보를 정확하게 탐지할 수 있는 기술을 보이고 있다.On the other hand, in the case of the AI-based disaster damage information detection method and system using the drone of Korea Patent No. 10-2203135, which is another prior art, the construction of a learning data set based on the drone's camera video information and the drone's flight log information By building an artificial intelligence model through

그러나, 이러한 종래 기술의 경우, 미리 구축된 학습데이터 셋에 기초한 인고지능 모델을 통해 드론 영상으로부터 재난 유형 및 피해 영역만을 도출할 수 있을 뿐, 별도의 객체 인식 기능이 없으므로 재난 현장에서 인명 피해나 인명 구조를 취할 수 없다는 문제점이 있다.However, in the case of this prior art, only the disaster type and damage area can be derived from the drone image through the artificial intelligence model based on the pre-built learning data set, and since there is no separate object recognition function, there is no separate object recognition function. There is a problem that the structure cannot be taken.

또한, 해당 종래 기술 역시 상기 한국등록특허 제10-2166432의 스마트 드론을 사용한 재난 상황 대응 방법의 기술에서와 같이, 드론 이동에 따른 트랙정보(비행 궤적, 센서 위치 및 자세 정보 등)나 촬영 영상 정보 등을 별도로 저장해두지 않고 있어, 재난 지역에 대해 정밀한 분석이 필요한 경우 여전히 작업자의 경험에 의존하여 드론 비행을 다수번 수행해야 하는 단점이 있다.In addition, the prior art is also track information (flight trajectory, sensor position and attitude information, etc.) or captured image information according to the movement of the drone, as in the technology of the disaster situation response method using the smart drone of the Korea Patent No. 10-2166432 above. Since there is no separate storage for the disaster area, there is a disadvantage in that the drone flight must be performed multiple times depending on the experience of the operator when a precise analysis of the disaster area is required.

이에, 인공지능을 활용하여 재난 발생 지역에 대한 드론 비행을 수행하면서 재난 유형 및 재난 피해 영역을 파악할 수 있고, 또한, 사람 및 물체 등의 객체를 식별하여 구조 대응을 할 수 있으며, 동시에, 드론이 촬영한 영상 정보 및 드론의 이동 관련 정보들을 별도의 데이터베이스에 실시간 자동 저장하여 후처리 가능하도록 함으로써, 드론 재비행 시, 효과적인 비행 계획을 수립하여 작업 효율을 높일 수 있는 기술이 요구된다.Accordingly, by using artificial intelligence, it is possible to identify the disaster type and disaster damage area while performing drone flight to the disaster area, and also to identify objects such as people and objects to respond to rescue, and at the same time, the drone By automatically storing captured image information and drone movement-related information in a separate database in real time to enable post-processing, a technology is required to establish an effective flight plan and increase work efficiency when re-flying the drone.

한국등록특허 제10-2166432호Korean Patent Registration No. 10-2166432 한국등록특허 제10-2203135호Korean Patent No. 10-2203135

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로 인공지능과 드론 항공 동영상을 이용하여 재난 종류 및 재난의 피해 지역 정보를 자동으로 탐지하고, 사람 및 물체를 포함한 객체 인식을 통해 실종자를 수색할 수 있는 방법과 그 시스템을 제시하고자 한다.The present invention has been devised to solve the above problems, and it is possible to automatically detect the type of disaster and information on the affected area of the disaster using artificial intelligence and drone aerial video, and search for the missing person through object recognition including people and objects. We would like to present a method and its system.

특히, 재난 지역에 대한 드론의 정지영상 정보 및 동영상 정보를 별도의 어플을 통해 각각 획득하여, 인공지능을 이용해 드론의 정지영상 정보로부터 피해 지역 및 재난 유형을 탐지하고, 드론의 동영상 정보로부터 사람(객체)을 탐지하여, 탐지한 재난 피해 유형 정보 및 객체 인식 정보를 사용자의 웹(Web)에 실시간으로 제공할 수 있는 것을 목적으로 한다.In particular, it acquires still image information and video information of the drone for the disaster area through a separate application, detects the damage area and disaster type from the still image information of the drone using artificial intelligence, and uses the human ( object) and provide the detected disaster damage type information and object recognition information to the user's web in real time.

또한, 드론의 각종 이동 관련 정보 및 촬영 정보를 별도의 데이터베이스에 테이블별로 구분하여 저장해둠으로써, 재난 발생 지역에 대한 정밀 촬영을 위해 드론의 재비행 시 비행 계획을 효율적으로 수립할 수 있으며, 사용자가 웹을 통해 기존의 프로젝트에 대한 이력 정보를 조회하여 관련 영상 정보를 용이하게 확인할 수 있도록 하고자 한다. In addition, by storing the various movement-related information and shooting information of the drone in a separate database by table, it is possible to efficiently establish a flight plan when the drone is re-flying for precise shooting of the disaster-prone area, and the user can We want to make it easy to check related video information by inquiring history information about existing projects through the web.

본 발명의 일측면에 따르면, 본체에 탑재된 카메라를 통해 재난 지역을 촬영하여 정지영상 정보 및 동영상 정보를 획득하기 위한 드론, 상기 드론과 무선 통신하여 상기 드론의 비행을 제어하고, 상기 드론의 비행 관련 정보와 재난 지역의 정지영상 정보 및 동영상 정보를 전송받는 조종기, 상기 조종기와 무선 통신하는 공유기 및 상기 공유기와 연결되어, 공유기를 통해 상기 조종기에서 전송되는 드론의 비행 관련 정보와 재난지역의 정지영상 정보 및 동영상 정보를 전송받아 데이터베이스에 저장하고, 기설정된 인공지능 모델을 기반으로 상기 정지영상 정보를 추론하여 재난 유형 탐지 정보를 분석하며, 상기 동영상 정보를 추론하여 사람 탐지 정보를 분석하여, 분석된 재난 유형 탐지 정보 및 사람 탐지 정보를 온라인 웹(Web)을 통해 가시화하여 제공하기 위한 분석 서버를 포함하여 구성되는 것을 특징으로 한다.According to an aspect of the present invention, a drone for acquiring still image information and video information by photographing a disaster area through a camera mounted on a main body, wirelessly communicating with the drone to control the flight of the drone, and flying the drone A remote controller that receives related information and still image information and video information of the disaster area, a router that wirelessly communicates with the remote controller, and a drone flight-related information and a still image of the disaster area that are connected to the router and transmitted from the remote controller through the router Receive information and video information and store it in a database, analyze the disaster type detection information by inferring the still image information based on a preset artificial intelligence model, analyze the human detection information by inferring the video information, It is characterized in that it is configured to include an analysis server for visualizing and providing disaster type detection information and person detection information through an online web (Web).

본 발명에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템 및 방법은 미리 학습된 인공지능 모델을 기반으로, 재난 발생 지역을 비행하는 드론으로부터 정지영상 정보를 전송받아 재난 유형을 탐지하고, 상기 드론으로부터 동영상 정보를 전송받아 사람 및 물체 등의 객체를 식별함으로써, 재난 유형을 정확하게 파악하고 실종자를 신속하게 탐지할 수 있는 효과가 있다.Real-time disaster information detection system and method using artificial intelligence and drone image according to the present invention, based on a pre-learned artificial intelligence model, receives still image information from a drone flying in a disaster-prone area, detects a disaster type, and By receiving video information from the drone and identifying objects such as people and objects, it is possible to accurately identify the type of disaster and quickly detect the missing person.

또한, 실시간 가시화 서비스를 통해 사용자가 웹 상에서 현재 드론이 촬영하고 있는 영상 정보를 실시간으로 확인하는 동시에, 해당 영상정보에서 인공지능 모델이 추론하여 도출해내는 탐지정보를 실시간으로 확인할 수 있어 사용자가 재난 상황 정보를 더욱 용이하게 파악할 수 있는 효과가 있다.In addition, the real-time visualization service allows the user to check the video information currently being filmed by the drone on the web in real time and at the same time to check the detection information derived by the artificial intelligence model from the video information in real time. This has the effect of making it easier to understand information.

또한, 드론으로 전송받은 재난 지역의 정지영상 정보를 정밀처리를 통해 Point Cloud, DSM, 3D Mesh, 정사영상 등을 생성하여 제공해줌으로써, 사용자에게 더욱 정밀하고 다양한 영상 정보를 제공할 수 있는 효과가 있다.In addition, it is possible to provide more precise and diverse image information to users by generating and providing Point Cloud, DSM, 3D Mesh, orthographic images, etc., through precise processing of the still image information of the disaster area received by the drone. .

또한, 드론의 비행 관련 정보, 정지영상 정보 및 동영상 정보를 송수신하는과정에서 관련 정보들을 데이터베이스로 자동 저장시키고, 각각의 서버에서 이루어지는 각종 분석 정보를 데이터베이스로 실시간 저장함으로써, 드론의 재 비행 시, 데이터베이스에 저장된 드론의 비행궤적, 센서의 위치 자세 정보 등 이전의 비행과 관련된 각종 정보를 통해 드론의 정밀한 비행경로 계획을 용이하게 수립할 수 있는 효과가 있다.In addition, in the process of transmitting and receiving flight-related information, still image information, and video information of the drone, related information is automatically stored in the database, and various analysis information made on each server is stored in real time as a database, so that when the drone is re-flyed, the database It has the effect of easily establishing a precise flight path plan of the drone through various information related to the previous flight, such as the flight trajectory of the drone and the position and attitude information of the sensor stored in the .

뿐만 아니라, 데이터베이스를 통해 사용자가 웹 상에서 이전의 재난 발생 목록을 쉽게 조회하여 해당 재난 사건의 영상 정보를 확인할 수 있는 이점이 있다.In addition, there is an advantage that the user can easily search the list of previous disasters on the web through the database to check the video information of the disaster event.

도 1은 본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템의 기본적인 조사 체계를 설명하기 위한 도면.
도 2는 본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템의 구성을 보여주는 시스템도.
도 3은 본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템의 구성에 따른 데이터 흐름을 설명하기 위한 도면.
도 4는 본 발명의 일 실시예에 따른 정지영상 실시간 추론 및 매핑 화면을 보여주는 도면.
도 5는 본 발명의 일 실시예에 따른 동영상 실시간 추론 화면을 보여주는 도면.
도 6은 본 발명의 일 실시예에 따른 동영상 송수신 화면을 보여주는 도면.
도 7은 본 발명의 일 실시예에 따른 드론 영상의 정밀처리에 따른 제공 영상 정보를 설명하기 위한 도면.
도 8은 본 발명의 일 실시예에 따른 데이터베이스의 테이블 구성을 보여주는 시스템도.
도 9는 본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법을 설명하기 위한 순서도.
1 is a diagram for explaining a basic investigation system of a real-time disaster information detection system using artificial intelligence and drone images according to an embodiment of the present invention.
2 is a system diagram showing the configuration of a real-time disaster information detection system using artificial intelligence and drone images according to an embodiment of the present invention.
3 is a diagram for explaining a data flow according to the configuration of a real-time disaster information detection system using artificial intelligence and drone images according to an embodiment of the present invention.
4 is a view showing a still image real-time inference and mapping screen according to an embodiment of the present invention.
5 is a view showing a video real-time inference screen according to an embodiment of the present invention.
6 is a view showing a video transmission/reception screen according to an embodiment of the present invention.
7 is a view for explaining the provided image information according to the precise processing of the drone image according to an embodiment of the present invention.
8 is a system diagram showing a table configuration of a database according to an embodiment of the present invention.
9 is a flowchart illustrating a method for detecting real-time disaster information using artificial intelligence and drone images according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템(10)의 기본적인 조사 체계를 설명하기 위한 도면이며, 도 2는 본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템(10)의 구성을 보여주는 시스템도이며, 도 3은 본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템(10)의 구성에 따른 데이터 흐름을 설명하기 위한 도면이며, 도 4는 본 발명의 일 실시예에 따른 정지영상 실시간 추론 및 매핑 화면을 보여주는 도면이며, 도 5는 본 발명의 일 실시예에 따른 동영상 실시간 추론 화면을 보여주는 도면이며, 도 6은 본 발명의 일 실시예에 따른 동영상 송수신 화면을 보여주는 도면이며, 도 7은 본 발명의 일 실시예에 따른 드론 영상의 정밀처리에 따른 제공 영상 정보를 설명하기 위한 도면이며, 도 8은 본 발명의 일 실시예에 따른 데이터베이스(480)의 테이블 구성을 보여주는 시스템도이다.1 is a diagram for explaining a basic investigation system of a real-time disaster information detection system 10 using artificial intelligence and drone images according to an embodiment of the present invention, and FIG. 2 is an artificial intelligence according to an embodiment of the present invention. and a system diagram showing the configuration of a real-time disaster information detection system 10 using a drone image, and FIG. 3 is a configuration of a real-time disaster information detection system 10 using artificial intelligence and drone images according to an embodiment of the present invention. It is a diagram for explaining a data flow according to the present invention, and FIG. 4 is a diagram showing a still image real-time inference and mapping screen according to an embodiment of the present invention, and FIG. 5 is a diagram showing a real-time video inference screen according to an embodiment of the present invention 6 is a view showing a video transmission/reception screen according to an embodiment of the present invention, and FIG. 7 is a diagram for explaining provided image information according to the precise processing of a drone image according to an embodiment of the present invention, 8 is a system diagram showing a table configuration of the database 480 according to an embodiment of the present invention.

도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템(10)은 조종기(200)를 통해 드론(100)을 무선 제어하여 재난 지역의 상공에서 드론에 탑재된 카메라를 통해 재난 지역의 전반적인 피해 영역을 촬영한다.1 to 3 , the real-time disaster information detection system 10 using artificial intelligence and drone images according to an embodiment of the present invention wirelessly controls the drone 100 through the manipulator 200 to detect the disaster area. A camera mounted on the drone from the sky captures the overall damage area of the disaster area.

이후, 조종기(200)는 획득한 드론(100)의 비행 관련 정보와 재난 지역의 정지영상 정보 및 동영상 정보를 재난현장 조사차량에 구비된 공유기(300)와 무선통신하여 공유기(300)에 연결된 분석 서버(400)로 전송해준다.Thereafter, the controller 200 wirelessly communicates with the router 300 provided in the disaster site investigation vehicle the flight related information of the drone 100 and the still image information and video information of the disaster area to analyze connected to the router 300 . It is transmitted to the server 400 .

분석 서버(400)는 기설정된 인공지능 모델을 기반으로 전송된 정지영상 정보 및 동영상 정보를 추론하여 재난 유형 정보 및 사람/사물 정보를 탐지 및 매핑하여 가시화하는 체계를 이루고 있다.The analysis server 400 forms a system for detecting and mapping disaster type information and person/thing information by inferring transmitted still image information and moving image information based on a preset artificial intelligence model.

여기서, 분석 서버(400)는 고성능의 GPU가 탑재된 컴퓨터 장치로서, 재난 현장을 탐사하는 조사 차량에 구비되어 재난현장에서 운용할 수 있는 현장운용 인공지능 체계로 형성할 수 있으며, 또는 별도의 재난관리기관의 자동탐지 서버로 처리되어 고성능으로 자동 탐지하는 내부 운용용 인공지능 체계를 형성할 수 있다.Here, the analysis server 400 is a computer device equipped with a high-performance GPU, and may be provided in an investigation vehicle that explores a disaster site and may be formed as a field operation artificial intelligence system that can be operated at a disaster site, or a separate disaster site. It can be processed by the management agency's automatic detection server to form an artificial intelligence system for internal operation that automatically detects with high performance.

본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템(10)은 드론(100), 조종기(200), 공유기(300) 및 분석 서버(400)로 구성된다.The real-time disaster information detection system 10 using artificial intelligence and drone images according to an embodiment of the present invention includes a drone 100 , a controller 200 , a router 300 , and an analysis server 400 .

드론(100)은 본체에 탑재된 카메라를 통해 재난 지역을 촬영하여 정지영상 정보 및 동영상 정보를 획득한다.The drone 100 acquires still image information and video information by photographing a disaster area through a camera mounted on the main body.

조종기(200)는 드론(100)과 무선 통신하여 드론(100)의 비행을 제어하고, 드론(100)의 비행 관련 정보와 재난 지역의 정지영상 정보 및 동영상 정보를 전송받는다. 여기서, 드론(100)의 비행 관련 정보는 드론의 롤(roll), 피치(pitch), 요(yaw) 값 외에도 드론에 탑재한 짐벌의 롤(roll), 피치(pitch), 요(yaw) 값을 포함한 드론(100)의 자세 정보 및 위치(X, Y, Z) 정보를 포함한다.The manipulator 200 wirelessly communicates with the drone 100 to control the flight of the drone 100 , and receives flight-related information of the drone 100 and still image information and video information of the disaster area. Here, the flight-related information of the drone 100 includes roll, pitch, and yaw values of the gimbal mounted on the drone in addition to the roll, pitch, and yaw values of the drone. It includes attitude information and position (X, Y, Z) information of the drone 100 including

조종기(200)는 드론(100)을 통해 획득한 정지영상 정보를 실시간 전송하기 위한 정지영상 전송 어플(App) 및 상기 드론(100)을 통해 획득한 동영상 정보를 실시간 전송하기 위한 동영상 전송 어플(App)을 구비한다.The controller 200 includes a still image transmission application (App) for transmitting still image information obtained through the drone 100 in real time and a video transmission application (App) for transmitting the video information obtained through the drone 100 in real time. ) is provided.

즉, 본 실시예에서는 조종기(200)에 태블릿이 부착되어 있어 드론(100)의 비행과 데이터 취득 조건을 설정할 수 있다. 또한, OcuSync 2.0이라는 통신 방식을 이용해 드론 조종과 데이터 전송을 동시에 수행한다. That is, in the present embodiment, since the tablet is attached to the remote controller 200 , flight and data acquisition conditions of the drone 100 can be set. In addition, using a communication method called OcuSync 2.0, drone control and data transmission are performed at the same time.

OcuSync 기술은 크로스레이어 프로토콜(Cros Layer Protocol)이라는 독특한 방식을 사용한다. 이 방식은 조종기(200)와 드론(100)간의 연결이 하나가 아니라 다중의 FDM(Frequency Division Multiflexing), TDM(Time Division Multiflexing) 네트워크로 연결되어 있고 주변의 전파 간섭상황에 따라 주파수 대역 및 대역폭을 조절해 최적의 상태를 유지할 수 있다.OcuSync technology uses a unique method called the Cross Layer Protocol. In this method, the connection between the remote controller 200 and the drone 100 is not one, but multiple FDM (Frequency Division Multiflexing) and TDM (Time Division Multiflexing) networks are connected, and the frequency band and bandwidth are adjusted according to the surrounding radio wave interference situation. You can adjust it to keep it in optimal condition.

공유기(300)는 조종기(200)와 무선 연결되고 조사차량의 분석서버(400)와 유선 연결되며, 조종기(200)와 와이파이(wifi) 무선 통신하여 조종기(200)로부터 드론(100)의 비행 관련 정보와, 재난 지역의 정지영상 정보 및 동영상 정보를 수신받아 분석 서버(400)로 전송하는 역할을 수행한다. The router 300 is wirelessly connected to the remote controller 200 and wired to the analysis server 400 of the investigation vehicle, and performs wireless communication with the remote controller 200 via Wi-Fi to communicate the flight of the drone 100 from the controller 200. It receives information and still image information and video information of the disaster area and transmits it to the analysis server 400 .

이러한 공유기(300)는 현장에서 운용할 땔 필요에 따라서 조사 차량 밖에 안테나를 거치할 수도 있다.The router 300 may mount the antenna outside the survey vehicle as needed to operate in the field.

분석 서버(400)는 공유기(300)를 통해 상기 조종기(200)에서 전송되는 드론(100)의 비행 관련 정보와 재난지역의 정지영상 정보 및 동영상 정보를 전송받아 데이터베이스(480)에 저장하고, 기설정된 인공지능 모델을 기반으로 상기 정지영상 정보를 추론하여 재난 유형 탐지 정보를 분석하며, 상기 동영상 정보를 추론하여 사람 탐지 정보를 분석하여, 분석된 재난 유형 탐지 정보 및 사람 탐지 정보를 웹 화면을 통해 가시화하여 제공하는 역할을 수행한다.The analysis server 400 receives flight-related information of the drone 100 transmitted from the remote controller 200 through the router 300, and still image information and video information of the disaster area, and stores it in the database 480, Based on the set artificial intelligence model, the still image information is inferred to analyze the disaster type detection information, the human detection information is analyzed by inferring the video information, and the analyzed disaster type detection information and person detection information are transmitted through the web screen. It performs the role of providing visualization.

이러한 분석 서버(400)는 이미지 송수신 서버(410), 동영상 송수신 서버(420), 인공지능(AI) 추론서버(430), 매핑 서버(440), 맵 가시화 서버(450), 웹 서비스 서버(460), 정밀처리 서버(470) 및 데이터베이스(480)를 포함하여 구성될 수 있다.The analysis server 400 includes an image transmission/reception server 410, a video transmission/reception server 420, an artificial intelligence (AI) inference server 430, a mapping server 440, a map visualization server 450, and a web service server 460. ), a precision processing server 470 and a database 480 may be included.

이미지 송수신 서버(410)는 공유기(300)를 통해 조종기(200)로부터 전송되는 재난지역의 정지영상 정보를 수신받아, 수신된 정지영상 정보의 이미지와 메타데이터를 데이터베이스(480)에 송신하면서, 인공지능 추론서버(430) 및 매핑 서버(440)로 송신한다.The image transmission/reception server 410 receives the still image information of the disaster area transmitted from the remote controller 200 through the router 300, and transmits the image and metadata of the received still image information to the database 480, while It is transmitted to the intelligent inference server 430 and the mapping server 440 .

여기서, 메타데이터는 위도(latitude), 경도(longitude), 좌우 기울기(roll), 전후 기울기(pitch), 수평회전(yaw), 카메라 모델(camera model) 정보를 포함한다.Here, the metadata includes latitude, longitude, left and right tilt (roll), front and rear tilt (pitch), horizontal rotation (yaw), and camera model information.

동영상 송수신 서버(420)는 공유기(300)를 통해 조종기(200)로부터 전송되는 재난지역의 동영상 정보를 수신받아, 수신된 동영상 정보를 데이터베이스(480)에 송신하면서, 인공지능 추론서버(430)로 송신한다. 이때, 조종기(200)에서 데이터를 수신받을 때는 RTMP라는 동영상전송 프로토콜을 사용할 수 있다.The video transmission/reception server 420 receives the video information of the disaster area transmitted from the remote controller 200 through the router 300, and transmits the received video information to the database 480, to the artificial intelligence inference server 430. send In this case, when receiving data from the remote controller 200, a video transmission protocol called RTMP may be used.

한편, 본 발명에서는 드론(100)을 통해 획득되는 정지영상 정보 및 동영상 정보를 실시간으로 전송받아 데이터베이스(480)에 저장하는 동시에 분석 서버(400)의 분석 프로세스 과정을 거쳐 실시간 가시화되는 것이 특징이므로, 본 발명의 이미지 송수신 서버(410) 및 동영상 송수신 서버(420)는 일반적인 데이터 송수신 기술과는 달리 특징적인 구성요소라 할 수 있다.On the other hand, in the present invention, it is characterized in that the still image information and video information acquired through the drone 100 are received in real time and stored in the database 480, and at the same time are visualized in real time through the analysis process of the analysis server 400, The image transmission/reception server 410 and the video transmission/reception server 420 of the present invention can be said to be characteristic components unlike general data transmission/reception technology.

인공지능(AI) 추론서버(430)는 기설정된 인공지능 모델을 기반으로 정지영상 정보의 이미지와 메타데이터를 이용하여 객체 검출(기하학(geometry), 컨버스(canvas) 좌표)을 통해 재난 유형을 탐지한다.The artificial intelligence (AI) inference server 430 detects a disaster type through object detection (geometry, converse coordinates) using images and metadata of still image information based on a preset artificial intelligence model. do.

또한, 인공지능 추론서버(430)는 동영상 정보에서 객체 검출을 통해 사람 및 사물을 식별하여 사람을 탐지한다.In addition, the artificial intelligence inference server 430 detects people by identifying people and things through object detection in video information.

한편, 재난유형별 최적 학습 기법을 선정하기 위해서는 재난이 아닌 재난피해 유형에 따라 설정한 재난피해 유형 분류체계에 맞추어 분류(classification), 객체탐지(object detection), 분할(segmentation) 모델을 활용할지 결정해야 한다. On the other hand, in order to select the optimal learning technique for each type of disaster, it is necessary to decide whether to use the classification, object detection, and segmentation models according to the disaster damage type classification system set according to the type of disaster damage, not the disaster. do.

이 중, 객체탐지(object detection)는 영상에서 관심 객체를 찾아 바운딩 박스를 생성하고 해당 바운딩 박스가 속하는 클래스를 예측한다. 객체탐지는 건축물 파괴 등의 구조물 피해 현장에 적합하고, 분할은 하천 범람, 급경사지 및 산불 피해 등의 자연환경 피해 현장에 적합하다. Among them, object detection finds an object of interest in an image, creates a bounding box, and predicts a class to which the bounding box belongs. Object detection is suitable for structural damage sites such as building destruction, and division is suitable for natural environment damage sites such as river flooding, steep slopes, and wildfire damage.

또한, 본 발명에 따른 인공지능 모델의 경우, 이미지와 동영상에서 실시간으로 원하는 대상물을 찾아야 하므로 각 데이터에 최적인 모델을 선정하였다. In addition, in the case of the artificial intelligence model according to the present invention, since it is necessary to find a desired object in real time from images and videos, an optimal model for each data was selected.

즉, 드론(100)에서 실시간으로 전송되는 정지영상은 1초에 24~30프레임이 전송되는 동영상보다는 탐지시간에 여유가 있으므로 모델의 크기가 크지만, 정확도가 높은 2-Stage 계열의 Cascade Mask R-CNN 모델을 활용하였다. In other words, the still image transmitted in real time from the drone 100 has a longer detection time than a video that transmits 24 to 30 frames per second, so the model size is large, but the 2-stage Cascade Mask R with high accuracy. -CNN model was used.

Cascade Mask R-CNN 모델의 기본적인 원리는 n개의 분류기는 이전 단계(n-1)의 분류기에서 검출된 바운딩 박스를 입력으로 받아 반복적으로 분류함으로써 분류 정확도를 높일 수 있다.The basic principle of the Cascade Mask R-CNN model is that n classifiers can increase the classification accuracy by repeatedly classifying the bounding boxes detected in the classifier of the previous step (n-1) as input.

상기 Cascade Mask R-CNN 모델의 학습데이터는 정지영상 및 동영상에서 침수, 붕괴, 유실, 산사태를 대상으로 검출하였다. 학습데이터는 VIA(VGG Image Annotator)를 이용하였다.The learning data of the Cascade Mask R-CNN model was detected by submersion, collapse, loss, and landslide in still images and moving images. As training data, VIA (VGG Image Annotator) was used.

모델의 학습은 Pytorch 기반의 MMDetection이라는 API를 이용해 수행하였다. 모델의 Backbone은 ResNeXt101을 이용하였다.The training of the model was performed using an API called MMDetection based on Pytorch. The backbone of the model used ResNeXt101.

학습 결과 각 클래스에 대해 약 70%의 정확도로 객체 영역이 탐지되었다.As a result of the training, the object area was detected with an accuracy of about 70% for each class.

반면에, 동영상은 시간당 전송되는 데이터의 양이 많으므로 정확도가 떨어지지만 가볍고 빠른 1-Stage 계열의 SSD(Single Shot Multibox Detector) 모델 또는 YOLOv3을 활용할 수 있으며, 본 실시예에서는 YOLOv3를 활용하였다. On the other hand, since the amount of data transmitted per hour is large for video, the accuracy is low, but a light and fast 1-stage SSD (Single Shot Multibox Detector) model or YOLOv3 can be utilized, and YOLOv3 was used in this embodiment.

동영상에서 탐지하고자 하는 대상은 드론 영상에 나타나는 사람이며, 실시간에서 특정 객체를 추출하기 위해서는 무엇보다도 처리 속도가 중요하다.The target to be detected in the video is a person appearing in the drone video, and processing speed is of utmost importance to extract a specific object in real time.

YOLOv3 모델은 기존의 YOLO v2에서 속도와 성능을 개선시킨 모델로 AP50 기준으로 RetinaNet과 비슷한 탐지정확도에 훨씬 빠른 탐지 성능을 보인 모델이다.The YOLOv3 model is a model that improves the speed and performance of the existing YOLO v2, and it shows a much faster detection performance with similar detection accuracy to RetinaNet based on AP50.

상기 YOLOv3 모델의 학습데이터는 영상과 오픈데이터 셋인 VisDrone의 사람 클래스를 추출하여 구성한 6,623장의 영상에서 108,226개의 객체를 추출하였다.As the training data of the YOLOv3 model, 108,226 objects were extracted from 6,623 images composed by extracting the image and the human class of VisDrone, an open data set.

평가 데이터셋으로 쓰인 영상에서 가장 많은 비중을 차지하는 Visdrone 데이터에는 사람 수가 매우 많거나, 육안으로 분별이 쉽지 않은 영상이 많았다. 사람을 인식하기 어려운 정도의 고고도 촬영물이나 사람을 수직으로 촬영한 경우 오 탐지하거나 사람으로 인식하지 못하여 낮은 정확도를 보였다. 이에 식별 가능한 영상으로 자체적으로 추론을 재진행하였으며, 비행고도가 비교적 낮고 촬영 각도에 경사를 주어 사람 전신이 식별되는 정도의 평가 영상 204장에서는 68.28%의 정확도를 보였다.In the Visdrone data, which accounts for the largest portion of the images used as the evaluation dataset, there were a lot of images with a very large number of people or images that were not easy to distinguish with the naked eye. In high-altitude images that are difficult to recognize or when people are photographed vertically, the accuracy is low because it is not detected as a person or falsely detected. Therefore, the reasoning was repeated with the identifiable image, and the accuracy of 68.28% was shown in the 204 evaluation images of the relatively low flight altitude and the degree of recognition of the whole human body by giving an inclination to the shooting angle.

매핑 서버(440)는 상기 정지영상 정보의 이미지와 메타데이터를 이용하여 실시간으로 정사영상 정보를 생성하는 역할을 수행한다. 본 실시예에서는 실시간으로 전송되는 정지영상을 매핑하는 LiveDroneMap 기술을 적용하였다. The mapping server 440 serves to generate ortho image information in real time by using the image and metadata of the still image information. In this embodiment, LiveDroneMap technology for mapping still images transmitted in real time is applied.

즉, LiveDroneMap은 실시간으로 전송되는 정지영상을 센서의 촬영당시 취득되는 센서의 위치(X, Y, Z)와 자세(Rol, Pitch, Yaw) 정보를 이용해서 영상의 기하학적인 위치를 결정하는 기술이다. In other words, LiveDroneMap is a technology that determines the geometric position of an image by using the position (X, Y, Z) and posture (Rol, Pitch, Yaw) information of the sensor acquired at the time of capturing the still image transmitted in real time. .

기하학적인 위치가 결정된 영상을 실제로 사람의 눈으로 확인하고 어느 위치인지 인지하기 위해서는 지도와 중첩을 시켜야 한다. 실시간으로 주기적으로 전송되지 않는 정지된 영상을 지도와 중첩하는 방법은 특별히 어려운 추가 개발 없이 기존에 개발된 알고리즘을 활용할 수 있다. 하지만 실시간으로 주기적으로 데이터가 전송되고 이를 가시화하기 위해서는 다양한 측면을 고려해야 한다. In order to actually check the image in which the geometrical location is determined with the human eye and recognize the location, it must be superimposed with the map. The method of superimposing a still image, which is not periodically transmitted in real time, with a map can utilize the previously developed algorithm without particularly difficult additional development. However, data is transmitted periodically in real time and various aspects must be considered in order to visualize it.

특히 본 발명에서는 정지영상뿐만 아니라 영상에서 검출된 객체에 대한 정보를 데이터베이스(480)에 저장하는 동시에 가시화되어야 하므로 영상과 검출 정보의 동기화, 주기적인 정보전송에 대한 통신 등을 고려해야 하는 것을 특징으로 한다.In particular, in the present invention, not only still images but also information on objects detected in images are stored in the database 480 and must be visualized at the same time, so synchronization of images and detection information, communication for periodic information transmission, etc. must be considered. .

맵 가시화 서버(450)는 정지영상 정보를 이용한 재난 유형 탐지 정보의 경우, 사용자의 웹(Web)에 지도화면을 가시화하고, 상기 인공지능 추론서버(430)를 통해 정지영상 정보에서 검출된 객체 정보(재난 영역 인식 정보)와 상기 매핑 서버(440)에서 생성된 정사영상 정보를 지도화면 상에 가시화하여 실시간 재난 유형 탐지 정보를 제공한다.In the case of disaster type detection information using still image information, the map visualization server 450 visualizes a map screen on the user's Web, and object information detected from the still image information through the artificial intelligence inference server 430 . (disaster area recognition information) and ortho image information generated by the mapping server 440 are visualized on a map screen to provide real-time disaster type detection information.

또한, 동영상 정보를 이용한 사람 탐지 정보의 경우, 사용자의 웹에 동영상 화면을 가시화하고, 상기 인공지능 추론서버(430)를 통해 동영상 정보에서 검출된 객체 정보(사람 인식 정보)를 상기 동영상 화면 상에 가시화하여 실시간 사람 탐지 정보를 제공한다.In addition, in the case of human detection information using video information, a video screen is visualized on the user's web, and object information (human recognition information) detected from video information through the artificial intelligence inference server 430 is displayed on the video screen. It provides real-time person detection information by visualizing it.

한편, 본 발명에 따른 가시화 기술은 실시간으로 전송된 영상을 기하보정 후, 정사영상으로 생성하여, 끊김 없이 지도에 매쉬업할 수 있는 것을 특징으로 한다.On the other hand, the visualization technology according to the present invention is characterized in that the image transmitted in real time is geometrically corrected and then generated as an orthographic image, which can be seamlessly mashed up on the map.

웹 서비스 서버(460)는 인터넷 상에 웹 서비스 화면을 제공하여, 제공된 웹 서비스 화면을 통해 상기 인공지능 추론서버(430)에서 분석된 재난 유형 탐지 정보 및 사람 탐지 정보를 사용자에게 실시간으로 제공한다.The web service server 460 provides a web service screen on the Internet, and provides the user with disaster type detection information and person detection information analyzed by the artificial intelligence inference server 430 through the provided web service screen in real time.

여기서, 웹 서비스 화면은 정지영상 정보의 추론 및 맵핑 정보를 제공하기 위한 정지영상 제공 화면부와, 동영상 정보의 추론 및 맵핑 정보를 제공하기 위한 동영상 제공 화면부를 포함하여 이루어진다.Here, the web service screen includes a still image providing screen unit for providing inference and mapping information of still image information, and a video providing screen unit for providing inference and mapping information of moving image information.

정지영상 제공 화면부는 다수의 선택 버튼과, 정보 입력창, 정보 출력창 및 이미지 표시창으로 구성된 이미지정보 선택항목으로 구성되며, 상기 이미지정보 선택항목에는 1)프로젝트 검색/기간, 2)프로젝트 조회/관리, 3)추론/정사영상/지도 가시화(결과 가시화), 4)개별사진 조회, 5)개별 정지영상 가시화, 6)개별 영상정보가 포함된다.The still image providing screen consists of a plurality of selection buttons, an information input window, an information output window, and an image information selection item consisting of an image display window, and the image information selection items include 1) project search/period, 2) project inquiry/management. , 3) inference/orthoimage/map visualization (result visualization), 4) individual photo inquiry, 5) individual still image visualization, and 6) individual image information.

즉, 도 4를 참조하면, 정지영상 제공 화면부는 정지영상 실시간 추론 및 매핑 서비스 화면으로서, 사용자가 서비스에 접속했을 때 가장 먼저 만나게 되는 화면이다. That is, referring to FIG. 4 , the still image providing screen unit is a still image real-time inference and mapping service screen, and is the first screen the user encounters when accessing the service.

화면은 웹브라우저 URL을 통해 접속할 수 있다. 최초 접속하면 크게 6개의 화면으로 분할된 페이지와 만나게 되는데, 각각의 화면은 필요에 따라서 접고 펼 수 있도록 설계되어 화면을 유연하고 폭넓게 사용할 수 있다. The screen can be accessed through a web browser URL. When you first connect, you will come across a page divided into six screens, and each screen is designed to be folded and unfolded as needed, allowing you to use the screen flexibly and widely.

왼쪽 화면은 프로젝트와 관련된 화면으로 한번 연결이 되어 실시간 추론 및 매핑이 진행되면 새로운 프로젝트가 자동으로 생긴다. 프로젝트 목록에서는 기존에 수행했던 프로젝트를 조회할 수 있고, 날짜에 따라 검색을 할 수도 있다. 특정 프 로젝트를 선택하면, 과거 수행된 현장으로 지도화면이 이동하고, 아래쪽에는 각각의 개별영상을 조회할 수 있는 목록이 생성된다. 각각의 영상을 조회할 때마다 지도와 영상뷰어에서 그에 해당하는 영상을 가시화한다. 실시간으로 영상이 전송되고 있는 프로젝트는 라이브라는 아이콘으로 표시가 되고, 라이브라고 표시된 프로젝트를 선택할 경우 실시간으로 전송되는 영상에서 추론, 매핑이 순차적으로 이루어지면서 지도와 영상뷰어에 가시화된다.The screen on the left is connected to the screen related to the project once, and a new project is automatically created when real-time inference and mapping are carried out. In the project list, you can search for projects that have been carried out in the past, and you can also search by date. When a specific project is selected, the map screen moves to the site that has been performed in the past, and a list is created where each individual image can be inquired at the bottom. Whenever each image is inquired, the corresponding image is visualized on the map and image viewer. Projects in which images are being transmitted in real time are displayed as live icons, and when a project marked live is selected, inferences and mappings are sequentially made from the images transmitted in real time, and they are visualized on the map and in the image viewer.

동영상 제공 화면부는 다수의 선택 버튼과, 정보 입력창, 정보 출력창 및 영상 표시창으로 구성된 동영상정보 선택항목으로 구성되며, 상기 동영상정보 선택항목에는 프로젝트 검색(미도시), 프로젝트 조회/관리(미도시), 1)실시간 영상, 2)검출 객체 정보가 포함될 수 있다.The video providing screen unit consists of a plurality of selection buttons, an information input window, an information output window, and a video information selection item consisting of an image display window, and the video information selection item includes project search (not shown), project inquiry/management (not shown). ), 1) real-time image, and 2) detected object information.

즉, 도 5를 참조하면, 동영상 제공 화면부는 동영상 실시간 추론 서비스 화면으로서, 실시간으로 전송되는 동영상에서 사람을 검출하는 화면이다. 사용자는 동영상에서 바운딩박스가 처리된 사람과 확률에 대한 정보를 볼 수 있다.That is, referring to FIG. 5 , the video providing screen unit is a video real-time inference service screen, and is a screen for detecting a person in a video transmitted in real time. The user can see information about the person and the probability that the bounding box was processed in the video.

또한, 도 6을 참조하면, 동영상 제공 화면부에서는 상기 동영상 송수신 서버에서 동영상이 정상적으로 수신되고 전송되는지를 확인할 수 있는 동영상 송수신 화면을 제공할 수 있다. Also, referring to FIG. 6 , the video providing screen unit may provide a video transmission/reception screen for confirming whether a video is normally received and transmitted from the video transmission/reception server.

이러한 동영상 송수신 화면에서는 동영상 스트리밍 목록을 조회하는 1)동영상 스트리밍, 목록을 선택하면 스트리밍되고 있는 동영상을 보여주는 2)동영상 플레이, 스트리밍하고 있는 혹은 스트리밍했던 동영상의 목록을 보여주는 3)동영상 목록으로 구성된 선택항목을 제공할 수 있다. On this video sending/receiving screen, 1) video streaming to view the video streaming list, 2) video play, to show the list of streaming or streamed videos when selecting the list, 3) selection item consisting of video list can provide

정밀처리 서버(470)는 다수의 정지영상 정보를 이용하여 WebODM으로 정밀 처리하여, Point Cloud, DSM, 3D Mesh 및 정사영상을 생성하여 사용자의 웹에 제공하는 역할을 수행한다. The precision processing server 470 performs precise processing with WebODM using a plurality of still image information, generates Point Cloud, DSM, 3D Mesh, and orthographic images, and provides them to the user's web.

즉, 도 7을 참조하면, 현장에서 드론으로 촬영한 여러 장의 드론 영상을 처리해 위치 좌표가 있는 하나의 정사영상과 3D 모델, Point Cloud, DSM 등을 제작하여 웹 화면에 제공함으로써 사용자가 더욱 정밀한 자료를 확인할 수 있다.That is, referring to FIG. 7 , by processing multiple drone images taken with a drone in the field to produce one orthographic image with location coordinates, 3D model, Point Cloud, DSM, etc. can be checked.

데이터베이스(480)는 상기 드론(100)의 비행 관련 정보, 정지영상 정보의 이미지와 메타데이터 및 동영상 정보를 저장하고, 상기 인공지능 추론서버(430)를 통해 추론되는 재난 유형 탐지 정보 및 사람 탐지 정보를 저장하는 역할을 수행한다.The database 480 stores the flight-related information of the drone 100, images of still image information, metadata, and video information, and disaster type detection information and person detection information inferred through the artificial intelligence inference server 430 . It serves to store

도 8을 참조하면, 데이터베이스(480)는 검출 객체 테이블(481), 비행 계획 테이블(482), 트랙 정보 테이블(483), 비행 트랙 테이블(484) 및 비행 영상 정보 데이블(485)을 포함하여 이루어지며, 데이터 처리 중 발생하는 대부분 정보를 데이터베이스(480)로 저장해 향후 필요한 정보를 조회할 수 있도록 구성된다.Referring to FIG. 8 , the database 480 includes a detection object table 481 , a flight plan table 482 , a track information table 483 , a flight track table 484 , and a flight image information table 485 . It is configured so that most information generated during data processing is stored in the database 480 so that necessary information can be inquired in the future.

상기 검출 객체 테이블(481)은 인공지능 추론서버(430)에서 검출한 객체의 정보를 저장하고, 비행 계획 테이블(482)은 드론(100)의 비행 시작, 종료, 토큰 정보를 저장하며, 트랙 정보 테이블(483)은 드론(100)의 비행궤적, 센서의 위치 자세 정보를 저장하며, 비행 트랙 테이블(484)은 트랙 정보에서 연산을 위해 필요한 정보만 따로 추출해서 저장하며, 비행 영상 정보 테이블(485)은 전송되는 각종 영상 정보의 기본 정보를 저장한다.The detection object table 481 stores information of the object detected by the artificial intelligence inference server 430, and the flight plan table 482 stores flight start, end, and token information of the drone 100, and track information The table 483 stores the flight trajectory of the drone 100 and the position and attitude information of the sensor, and the flight track table 484 separately extracts and stores only information necessary for calculation from the track information, and the flight image information table 485 ) stores basic information of various types of transmitted image information.

이외에도 데이터베이스(480)는 별도의 추가적인 정보를 저장하기 위한 복수의 테이블이 포함되어 구성될 수 있음은 물론이다.In addition, of course, the database 480 may include a plurality of tables for storing additional additional information.

즉, 데이터베이스(480)는 드론(100)의 비행 관련 정보, 정지영상 정보 및 동영상 정보 뿐만 아니라 상기 인공지능 추론서버(430)를 통해 추론되는 검출 객체 정보와, 매핑 서버(440)를 통해 생성되는 정사영상 정보 및 가시화 서버(450)를 통해 가시화되는 이미지 및 동영상 정보 등 각각의 서버에서 처리되는 각종 정보들이 자동으로 실시간 저장되는 것을 특징으로 한다. That is, the database 480 includes not only flight-related information, still image information and video information of the drone 100 , but also detection object information inferred through the artificial intelligence inference server 430 , and the mapping server 440 . It is characterized in that various information processed in each server, such as ortho image information and image and video information visualized through the visualization server 450, are automatically stored in real time.

이하에서는 상술한 바와 같은 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템(10)을 이용하여 재난 정보를 탐지하는 방법에 대하여 도 9를 통해 상세하게 설명하기로 한다. Hereinafter, a method of detecting disaster information using the real-time disaster information detection system 10 using the artificial intelligence and drone images as described above will be described in detail with reference to FIG. 9 .

도 9는 본 발명의 도 9는 본 발명의 일 실시예에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법을 설명하기 위한 순서도이다.9 is a flowchart illustrating a method for detecting real-time disaster information using artificial intelligence and drone images according to an embodiment of the present invention.

도 9를 참조하면, 조종기를 통해 드론을 제어하여 드론의 비행 관련 정보와 재난 지역의 정지영상 정보 및 동영상 정보를 획득(S110)한다.Referring to FIG. 9 , by controlling the drone through a controller, flight related information of the drone and still image information and video information of a disaster area are acquired ( S110 ).

이때, 조종기에 구비된 정지영상 전송 어플(App)을 구동하여 재난 지역의 정지영상 정보를 획득하고, 상기 조종기에 구비된 동영상 전송 어플(App)을 구동하여 재난 지역의 동영상 정보를 획득한다.At this time, the still image information of the disaster area is obtained by driving the still image transmission application provided in the remote controller, and the video information of the disaster area is obtained by driving the video transmission application provided in the remote controller.

이후, 조종기에서 획득된 드론의 비행 관련 정보와 재난 지역의 정지영상 정보 및 동영상 정보를 공유기와 무선 통신하여 상기 공유기에 연결된 분석 서버로 전송(S120)한다.Thereafter, the flight-related information of the drone obtained from the remote controller and the still image information and video information of the disaster area are wirelessly communicated with the router and transmitted to the analysis server connected to the router (S120).

분석 서버는 이미지 송수신 서버를 통해 공유기로부터 전송되는 정지영상 정보를 수신받아, 수신된 정지영상 정보의 이미지와 메타데이터를 데이터베이스에 송신하여 저장시키면서, 인공지능 추론서버 및 매핑 서버로 송신한다.The analysis server receives the still image information transmitted from the router through the image transmission/reception server, transmits the image and metadata of the received still image information to the database and stores it, and transmits it to the artificial intelligence inference server and the mapping server.

동시에, 분석 서버는 동영상 송수신 서버를 통해 공유기로부터 전송되는 동영상 정보를 수신받아, 수신된 동영상 정보를 데이터베이스에 송신하여 저장시키면서, 인공지능 추론서버로 송신한다.At the same time, the analysis server receives the video information transmitted from the router through the video transmission/reception server, transmits the received video information to the database, stores it, and transmits it to the artificial intelligence inference server.

인공지능 추론서버는 기설정된 Cascade Mask R-CNN 모델을 기반으로 정지영상 정보의 이미지와 메타데이터를 이용하여 객체 검출을 통해 재난 유형 탐지 정보를 추론하고, 기설정된 YOLOv3 모델을 기반으로 동영상 정보에서 객체 검출을 통해 사람 및 사물을 식별하여 사람 탐지 정보를 추론(S130)한다.The artificial intelligence inference server infers disaster type detection information through object detection using images and metadata of still image information based on the preset Cascade Mask R-CNN model, and infers the disaster type detection information from the video information based on the preset YOLOv3 model. People and things are identified through detection to infer human detection information ( S130 ).

이후, 매핑 서버를 통해 정지영상 정보의 이미지와 메타데이터를 이용하여 정사영상 정보를 생성(S140)한다.Thereafter, orthographic information is generated using the image and metadata of the still image information through the mapping server (S140).

이후, 가시화 서버를 통해 온라인 웹에 지도화면을 가시화하고, 인공지능 추론서버를 통해 정지영상 정보에서 검출된 객체 정보와 매핑 서버에서 생성된 정사영상 정보를 상기 지도화면 상에 가시화(S150)하여 실시간 재난 유형 탐지 정보를 제공한다.Then, the map screen is visualized on the online web through the visualization server, and the object information detected from the still image information and the ortho image information generated by the mapping server are visualized on the map screen through the artificial intelligence inference server (S150) in real time. Provides disaster type detection information.

또한 온라인 웹에 동영상 화면을 가시화하고, 인공지능 추론서버를 통해 동영상 정보에서 검출된 객체 정보를 상기 동영상 화면 상에 가시화(S150)하여 실시간 사람 탐지 정보를 제공한다.In addition, a video screen is visualized on the online web, and object information detected from video information is visualized on the video screen through an artificial intelligence inference server (S150) to provide real-time person detection information.

이때, 웹 서비스 서버를 통해 온라인 상에 웹 서비스 화면을 제공하여, 제공된 웹 서비스 화면을 통해 재난 유형 탐지 정보 및 사람 탐지 정보를 사용자에게 실시간으로 제공할 수 있다.In this case, the web service screen may be provided online through the web service server, and disaster type detection information and person detection information may be provided to the user in real time through the provided web service screen.

여기서 웹 서비스 화면에 대한 구체적인 설명은 앞서 도 4 내지 도 6을 참조하여 전술한 웹 서비스 화면과 동일하므로 이에 대한 구체적인 설명은 생략하기로 한다. Here, a detailed description of the web service screen is the same as the web service screen described above with reference to FIGS. 4 to 6 , and thus a detailed description thereof will be omitted.

또한, 온라인 웹을 통해 사용자로부터 정밀처리 영상정보에 대한 요청 정보가 입력될 경우, 정밀처리 서버를 통해 다수의 정지영상 정보를 이용하여 WebODM으로 정밀 처리하여, Point Cloud, DSM, 3D Mesh 및 정사영상을 생성하여 온라인 웹에 제공할 수 있다.In addition, when request information for precision-processed image information is input from the user through the online web, it uses a number of still image information through the precision processing server and processes it precisely with WebODM, such as Point Cloud, DSM, 3D Mesh, and orthographic image. can be created and provided on the online web.

한편, 인공지능 추론서버를 통해 추론되는 검출 객체 정보와, 매핑 서버를 통해 생성되는 정사영상 정보 및 가시화 서버를 통해 가시화되는 이미지 및 동영상 정보는 상기 데이터베이스에 실시간 저장됨은 물론이다. On the other hand, detection object information inferred through the artificial intelligence inference server, ortho image information generated through the mapping server, and image and video information visualized through the visualization server are stored in the database in real time, of course.

상술한 바와 같이, 본 발명에 따른 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템(10) 및 방법은 미리 학습된 인공지능 모델을 기반으로, 재난 발생 지역을 비행하는 드론(100)으로부터 정지영상 정보를 전송받아 재난 유형을 탐지하고, 상기 드론(100)으로부터 동영상 정보를 전송받아 사람 및 물체 등의 객체를 식별함으로써, 더욱 신속하고 정확하게 현장의 재난원인조사 업무를 수행할 수 있고, 넓은 영역의 실종자 수색을 효과적으로 수행할 수 있는 효과가 있다.As described above, the real-time disaster information detection system 10 and method using artificial intelligence and drone images according to the present invention is based on a pre-learned artificial intelligence model, and a still image from the drone 100 flying in the disaster area. By receiving information to detect the type of disaster, and by receiving video information from the drone 100 to identify objects such as people and objects, it is possible to perform on-site disaster cause investigation more quickly and accurately, and It has the effect of effectively conducting the search for missing persons.

또한, 드론(100)으로 전송받은 재난 지역의 정지영상 정보를 정밀처리를 통해 Point Cloud, DSM, 3D Mesh, 정사영상 등을 생성하여 제공해줌으로써, 사용자에게 더욱 정밀하고 다양한 영상 정보를 제공할 수 있는 효과가 있다.In addition, it is possible to provide more precise and diverse image information to users by generating and providing Point Cloud, DSM, 3D Mesh, orthographic images, etc. through precise processing of the still image information of the disaster area received by the drone 100. It works.

또한, 드론(100)의 비행 관련 정보, 정지영상 정보 및 동영상 정보를 송수신하는과정에서 관련 정보들을 데이터베이스(480)로 자동 저장시키고, 각각의 서버에서 이루어지는 각종 분석 정보를 데이터베이스(480)로 실시간 저장함으로써, 드론(100)의 재 비행 시, 데이터베이스(480)에 저장된 드론(100)의 비행궤적, 센서의 위치 자세 정보 등 이전의 비행과 관련된 각종 정보를 통해 드론(100)의 정밀한 비행경로 계획을 용이하게 수립할 수 있는 효과가 있다. 뿐만 아니라, 데이터베이스(480)를 통해 사용자가 웹 상에서 이전의 재난 발생 목록을 쉽게 조회하여 해당 재난 사건의 영상 정보를 확인할 수 있는 이점이 있다.In addition, in the process of transmitting and receiving flight-related information, still image information, and video information of the drone 100 , related information is automatically stored in the database 480 , and various analysis information performed in each server is stored in the database 480 in real time. By doing so, when the drone 100 is re-flyed, the flight trajectory of the drone 100 stored in the database 480 and the precise flight path plan of the drone 100 through various information related to the previous flight, such as the position and posture information of the sensor There is an effect that can be easily established. In addition, there is an advantage in that the user can easily inquire a list of previous disasters on the web through the database 480 to check image information of the disaster event.

상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.The above-described preferred embodiments of the present invention have been disclosed for purposes of illustration, and various modifications, changes, and additions may be made by those skilled in the art with respect to the present invention within the spirit and scope of the present invention, and such modifications, changes and Additions should be considered to fall within the scope of the following claims.

10 : 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템
100 : 드론
200 : 조종기
300 : 공유기
400 : 분석 서버
410 : 이미지 송수신 서버
420 : 동영상 송수신 서버
430 : 인공지능 추론서버
440 : 매핑 서버
450 : 맵 가시화 서버
460 : 웹 서비스 서버
470 : 정밀처리 서버
480 : 데이터베이스
10: Real-time disaster information detection system using artificial intelligence and drone images
100 : drone
200: remote controller
300: router
400: analysis server
410: image sending/receiving server
420: video transmission and reception server
430: artificial intelligence inference server
440 : mapping server
450: map visualization server
460: web service server
470: precision processing server
480 : database

Claims (26)

본체에 탑재된 카메라를 통해 재난 지역을 촬영하여 정지영상 정보 및 동영상 정보를 획득하기 위한 드론;
상기 드론과 무선 통신하여 상기 드론의 비행을 제어하고, 상기 드론의 비행 관련 정보와 재난 지역의 정지영상 정보 및 동영상 정보를 전송받는 조종기;
상기 조종기와 무선 통신하는 공유기; 및
상기 공유기와 연결되어, 공유기를 통해 상기 조종기에서 전송되는 드론의 비행 관련 정보와 재난지역의 정지영상 정보 및 동영상 정보를 전송받아 데이터베이스에 저장하고, 기설정된 인공지능 모델을 기반으로 상기 정지영상 정보를 추론하여 재난 유형 탐지 정보를 분석하며, 상기 동영상 정보를 추론하여 사람 탐지 정보를 분석하여, 분석된 재난 유형 탐지 정보 및 사람 탐지 정보를 온라인 웹(Web)을 통해 가시화하여 제공하기 위한 분석 서버;를 포함하여 구성되며,
상기 조종기는,
상기 드론을 통해 획득한 정지영상 정보를 실시간 전송하기 위한 정지영상 전송 어플(App) 및 상기 드론을 통해 획득한 동영상 정보를 실시간 전송하기 위한 동영상 전송 어플(App)을 구비하며,
상기 분석 서버는,
기설정된 인공지능 모델을 기반으로 상기 정지영상 정보의 이미지와 메타데이터를 이용하여 객체 검출을 통해 재난 유형을 탐지하고, 상기 동영상 정보에서 객체 검출을 통해 사람 및 사물을 식별하여 사람을 탐지하는 인공지능 추론서버;
상기 정지영상 정보의 이미지와 메타데이터를 이용하여 실시간으로 정사영상 정보를 생성하는 매핑 서버;
온라인 웹에 지도화면을 가시화하고, 상기 인공지능 추론서버를 통해 상기 정지영상 정보에서 검출된 객체 정보와 상기 매핑 서버에서 생성된 정사영상 정보를 상기 지도화면 상에 가시화하여 실시간 재난 유형 탐지 정보를 제공하며, 상기 온라인 웹에 동영상 화면을 가시화하고, 상기 인공지능 추론서버를 통해 상기 동영상 정보에서 검출된 객체 정보를 상기 동영상 화면 상에 가시화하여 실시간 사람 탐지 정보를 제공하는 맵 가시화 서버; 및
상기 드론의 비행 관련 정보, 상기 정지영상 정보의 이미지와 메타데이터 및 상기 동영상 정보를 저장하고, 상기 인공지능 추론서버를 통해 추론되는 재난 유형 탐지 정보 및 사람 탐지 정보를 저장하는 데이터베이스;
공유기를 통해 전송되는 상기 정지영상 정보를 수신받아, 수신된 정지영상 정보의 이미지와 메타데이터를 상기 데이터베이스에 송신하면서, 상기 인공지능 추론서버 및 상기 매핑 서버로 송신하는 이미지 송수신 서버; 및
공유기를 통해 전송되는 상기 동영상 정보를 수신받아, 수신된 동영상 정보를 상기 데이터베이스에 송신하면서, 상기 인공지능 추론서버로 송신하는 동영상 송수신 서버;를 포함하며,
상기 인공지능 추론 서버는,
기설정된 Cascade Mask R-CNN 모델을 이용하여 상기 정지영상 정보에서 재난 유형을 탐지하고, 기설정된 YOLOv3 모델을 이용하여 상기 동영상 정보에서 사람을 탐지하는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템.
a drone for acquiring still image information and video information by photographing a disaster area through a camera mounted on the main body;
a controller for controlling the flight of the drone through wireless communication with the drone and receiving flight related information of the drone and still image information and video information of the disaster area;
a router for wireless communication with the remote controller; and
It is connected to the router, receives the flight-related information of the drone transmitted from the remote controller through the router, and still image information and video information of the disaster area, and stores it in a database, and stores the still image information based on a preset artificial intelligence model. Analysis server for analyzing the disaster type detection information by inferring, analyzing the human detection information by inferring the video information, and providing the analyzed disaster type detection information and person detection information visualized through an online web; consists of,
The controller is
A still image transmission application (App) for transmitting the still image information obtained through the drone in real time and a video transmission application (App) for transmitting the video information obtained through the drone in real time are provided,
The analysis server,
AI that detects disaster types through object detection using images and metadata of the still image information based on a preset artificial intelligence model, and detects people by identifying people and objects through object detection in the video information inference server;
a mapping server for generating ortho image information in real time by using the image and metadata of the still image information;
Visualize a map screen on the online web, and visualize the object information detected from the still image information through the artificial intelligence inference server and the ortho image information generated by the mapping server on the map screen to provide real-time disaster type detection information a map visualization server that visualizes a video screen on the online web and visualizes object information detected from the video information on the video screen through the artificial intelligence inference server to provide real-time person detection information; and
a database for storing flight-related information of the drone, image and metadata of the still image information, and the video information, and storing disaster type detection information and person detection information inferred through the artificial intelligence inference server;
an image transmitting/receiving server that receives the still image information transmitted through a router, transmits the image and metadata of the received still image information to the database, and transmits the image and metadata to the artificial intelligence inference server and the mapping server; and
a video transmission/reception server that receives the video information transmitted through the router, transmits the received video information to the database, and transmits it to the artificial intelligence inference server;
The artificial intelligence inference server,
Real-time disaster using artificial intelligence and drone image, characterized in that the disaster type is detected from the still image information using a preset Cascade Mask R-CNN model, and a person is detected from the video information using a preset YOLOv3 model information detection system.
삭제delete 제 1항에 있어서,
상기 공유기 및 상기 분석 서버는 조사 차량 내부에 구비되며, 유선 연결되는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템.
The method of claim 1,
The router and the analysis server are provided inside the investigation vehicle, and a real-time disaster information detection system using artificial intelligence and drone images, characterized in that it is connected by wire.
삭제delete 삭제delete 제 1항에 있어서,
상기 재난 유형에는 침수, 붕괴, 유실 및 산사태가 포함되는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템.
The method of claim 1,
Real-time disaster information detection system using artificial intelligence and drone images, characterized in that the disaster types include flooding, collapse, loss, and landslides.
삭제delete 제 1항에 있어서,
상기 데이터베이스는,
인공지능 추론서버에서 검출한 객체의 정보를 저장하는 검출 객체 테이블;
드론의 비행 시작, 종료, 토큰 정보를 저장하는 비행 계획 테이블;
드론의 비행궤적, 센서의 위치 자세 정보를 저장하는 트랙 정보 테이블;
트랙 정보에서 연산을 위해 필요한 정보만 따로 추출해서 저장하는 비행 트랙 테이블; 및
전송되는 각종 영상 정보의 기본 정보를 저장하는 비행 영상 정보 테이블;
을 포함하여 구성되는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템.
The method of claim 1,
The database is
a detection object table for storing information on objects detected by the artificial intelligence inference server;
Flight plan table for storing flight start, end, and token information of the drone;
a track information table for storing the flight trajectory of the drone and the position and orientation information of the sensor;
Flight track table for extracting and storing only information necessary for calculation from track information; and
Flight image information table for storing basic information of various types of image information to be transmitted;
Real-time disaster information detection system using artificial intelligence and drone images, characterized in that it comprises a.
제 1항에 있어서,
상기 분석 서버는,
다수의 정지영상 정보를 이용하여 WebODM으로 정밀 처리하여, Point Cloud, DSM, 3D Mesh 및 정사영상을 생성하여 온라인 웹에 제공하는 정밀처리 서버;
를 추가로 포함하는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템.
The method of claim 1,
The analysis server,
A precision processing server that uses a large number of still image information and processes it precisely with WebODM to generate Point Cloud, DSM, 3D Mesh, and orthographic images and provide them to the online web;
Real-time disaster information detection system using artificial intelligence and drone images, characterized in that it further comprises.
제 1항에 있어서,
상기 분석서버는,
온라인 상에 웹 서비스 화면을 제공하여, 제공된 웹 서비스 화면을 통해 상기 분석서버에서 분석된 재난 유형 탐지 정보 및 사람 탐지 정보를 사용자에게 실시간으로 제공하기 위한 웹 서비스 서버;
를 추가로 포함하는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템.
The method of claim 1,
The analysis server,
a web service server for providing a web service screen on-line and providing, in real time, disaster type detection information and person detection information analyzed by the analysis server through the provided web service screen to a user;
Real-time disaster information detection system using artificial intelligence and drone images, characterized in that it further comprises.
제 10항에 있어서,
상기 웹 서비스 화면은,
정지영상 정보의 추론 및 맵핑 정보를 제공하기 위한 정지영상 제공 화면부와, 동영상 정보의 추론 및 맵핑 정보를 제공하기 위한 동영상 제공 화면부를 포함하여 이루어지는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템.
11. The method of claim 10,
The web service screen is
Real-time disaster using artificial intelligence and drone images, characterized in that it comprises a still image providing screen unit for providing inference and mapping information of still image information, and a video providing screen unit for providing inference and mapping information of moving image information information detection system.
제 11항에 있어서,
상기 정지영상 제공 화면부는,
다수의 선택 버튼과, 정보 입력창, 정보 출력창 및 이미지 표시창으로 구성된 이미지정보 선택항목으로 구성되며, 상기 이미지정보 선택항목에는 프로젝트 검색, 프로젝트 조회/관리, 결과 가시화, 개별사진 조회, 개별 정지영상 가시화, 개별 정지영상 정보가 포함되는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템.
12. The method of claim 11,
The still image providing screen unit,
It consists of a plurality of selection buttons, an information input window, an information output window, and an image information selection item consisting of an image display window, and the image information selection items include project search, project inquiry/management, result visualization, individual photo inquiry, and individual still images. Real-time disaster information detection system using artificial intelligence and drone images, characterized in that it includes visualization and individual still image information.
제 11항에 있어서,
상기 동영상 제공 화면부는,
다수의 선택 버튼과, 정보 입력창, 정보 출력창 및 영상 표시창으로 구성된 동영상정보 선택항목으로 구성되며, 상기 동영상정보 선택항목에는 프로젝트 검색, 프로젝트 조회/관리, 실시간 영상, 검출 객체 정보가 포함되는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템.
12. The method of claim 11,
The video providing screen unit,
It consists of a video information selection item consisting of a plurality of selection buttons, an information input window, an information output window, and an image display window, and the video information selection item includes project search, project inquiry/management, real-time image, and detection object information. Real-time disaster information detection system using artificial intelligence and drone images.
인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 시스템의 재난정보 탐지 방법에 있어서,
조종기를 통해 드론을 제어하여 드론의 비행 관련 정보와 재난 지역의 정지영상 정보 및 동영상 정보를 획득하는 단계;
상기 조종기에서 획득된 상기 드론의 비행 관련 정보와 상기 정지영상 정보 및 동영상 정보를 공유기와 무선 통신하여 상기 공유기에 연결된 분석 서버로 전송하는 단계; 및
상기 분석 서버를 통해 상기 공유기에서 전송되는 드론의 비행 관련 정보와 재난지역의 정지영상 정보 및 동영상 정보를 데이터베이스에 저장하고, 기설정된 인공지능 모델을 기반으로 상기 정지영상 정보를 추론하여 재난 유형 탐지 정보를 분석하며, 상기 동영상 정보를 추론하여 사람 탐지 정보를 분석하여, 분석된 재난 유형 탐지 정보 및 사람 탐지 정보를 온라인 웹을 통해 가시화하는 단계;를 포함하며,
상기 조종기는 정지영상 전송 어플(App)을 구비하여 재난 지역의 정지영상 정보를 획득하여 공유기로 전송하고, 동영상 전송 어플(App)을 구비하여 재난 지역의 동영상 정보를 획득하여 공유기로 전송하며,
상기 분석 서버는 분석 서버에 구비된 이미지 송수신 서버를 통해 상기 공유기에서 전송되는 정지영상 정보를 수신받아, 수신된 정지영상 정보의 이미지와 메타데이터를 상기 데이터베이스에 송신하여 저장시키면서 분석 서버에 구비된 인공지능 추론서버 및 매핑 서버로 송신하며,
분석 서버에 구비된 동영상 송수신 서버를 통해 공유기에서 전송되는 상기 동영상 정보를 수신받아, 수신된 동영상 정보를 상기 데이터베이스에 송신하여 저장시키면서 분석 서버의 인공지능 추론서버로 송신하며,
상기 분석 서버의 인공지능 추론서버를 통해 기설정된 인공지능 모델을 기반으로 정지영상 정보의 이미지와 메타데이터에서 객체 검출을 통해 재난 유형을 탐지하고, 동영상 정보에서 객체 검출을 통해 사람 및 사물을 식별하여 사람을 탐지하며,
분석 서버에 구비된 매핑 서버를 통해 정지영상 정보의 이미지와 메타데이터를 이용하여 정사영상 정보를 생성하며,
분석 서버에 구비된 가시화 서버를 통해 온라인 웹에 지도화면을 가시화하고, 인공지능 추론서버를 통해 정지영상 정보에서 검출된 객체 정보와, 매핑 서버에서 생성된 정사영상 정보를 상기 지도화면 상에 가시화하여 실시간 재난 유형 탐지 정보를 제공하며, 온라인 웹에 동영상 화면을 가시화하고 인공지능 추론서버를 통해 동영상 정보에서 검출된 객체 정보를 상기 동영상 화면 상에 가시화하여 실시간 사람 탐지 정보를 제공하며,
상기 인공지능 추론 서버는 기설정된 Cascade Mask R-CNN 모델을 이용하여 정지영상 정보에서 재난 유형을 탐지하고, 기설정된 YOLOv3 모델을 이용하여 동영상 정보에서 사람을 탐지하는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법.
In a disaster information detection method of a real-time disaster information detection system using artificial intelligence and drone images,
controlling the drone through a controller to obtain flight-related information of the drone and still image information and video information of the disaster area;
transmitting the flight-related information, the still image information, and the moving image information of the drone obtained from the controller wirelessly with a router to an analysis server connected to the router; and
Disaster type detection information by storing the flight-related information of the drone transmitted from the router through the analysis server, still image information and video information of the disaster area in a database, and inferring the still image information based on a preset artificial intelligence model and analyzing the human detection information by inferring the video information, and visualizing the analyzed disaster type detection information and person detection information through an online web;
The remote controller has a still image transmission application (App) to acquire still image information of the disaster area and transmits it to the router, and has a video transmission application (App) to acquire and transmit video information of the disaster area to the router,
The analysis server receives the still image information transmitted from the router through the image transmission/reception server provided in the analysis server, and transmits and stores the image and metadata of the received still image information to the database while storing the artificial information provided in the analysis server. It is sent to the intelligent inference server and mapping server,
Receives the video information transmitted from the router through the video transmission/reception server provided in the analysis server, transmits the received video information to the database, and transmits it to the artificial intelligence inference server of the analysis server while storing,
Based on a preset artificial intelligence model through the artificial intelligence inference server of the analysis server, disaster types are detected through object detection in images and metadata of still image information, and people and things are identified through object detection in video information. detect people,
Orthoimage information is generated using the image and metadata of the still image information through the mapping server provided in the analysis server,
The map screen is visualized on the online web through the visualization server provided in the analysis server, and the object information detected from the still image information and the ortho image information generated by the mapping server are visualized on the map screen through the artificial intelligence inference server. Provides real-time disaster type detection information, visualizes a video screen on the online web, and visualizes object information detected from video information on the video screen through an artificial intelligence inference server to provide real-time person detection information,
The artificial intelligence inference server detects a disaster type from still image information using a preset Cascade Mask R-CNN model, and detects a person from video information using a preset YOLOv3 model AI and drone images, characterized in that Real-time disaster information detection method using
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제 14항에 있어서,
상기 인공지능 추론서버를 통해 추론되는 검출 객체 정보와, 매핑 서버를 통해 생성되는 정사영상 정보 및 가시화 서버를 통해 가시화되는 이미지 및 동영상 정보는 상기 데이터베이스에 실시간 저장되는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법.
15. The method of claim 14,
AI and drone image, characterized in that the detection object information inferred through the artificial intelligence inference server, the ortho image information generated through the mapping server, and image and video information visualized through the visualization server are stored in the database in real time. Real-time disaster information detection method using
제 14항에 있어서,
상기 데이터베이스는,
인공지능 추론서버에서 검출한 객체의 정보를 저장하는 검출 객체 테이블;
드론의 비행 시작, 종료, 토큰 정보를 저장하는 비행 계획 테이블;
드론의 비행궤적, 센서의 위치 자세 정보를 저장하는 트랙 정보 테이블;
트랙 정보에서 연산을 위해 필요한 정보만 따로 추출해서 저장하는 비행 트랙 테이블; 및
전송되는 각종 영상 정보의 기본 정보를 저장하는 비행 영상 정보 테이블;
를 포함하여 구성되는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법.
15. The method of claim 14,
The database is
a detection object table for storing information on objects detected by the artificial intelligence inference server;
Flight plan table for storing flight start, end, and token information of the drone;
a track information table for storing the flight trajectory of the drone and the position and orientation information of the sensor;
Flight track table for extracting and storing only information necessary for calculation from track information; and
Flight image information table for storing basic information of various types of image information to be transmitted;
Real-time disaster information detection method using artificial intelligence and drone images, characterized in that it comprises a.
제 14항에 있어서,
상기 분석 서버를 통해 분석된 재난 유형 탐지 정보 및 사람 탐지 정보를 온라인 웹을 통해 가시화하는 단계에 있어서,
분석 서버의 정밀처리 서버를 통해 다수의 정지영상 정보를 이용하여 WebODM으로 정밀 처리하여, Point Cloud, DSM, 3D Mesh 및 정사영상을 생성하여 온라인 웹에 제공하는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법.
15. The method of claim 14,
In the step of visualizing the disaster type detection information and the person detection information analyzed through the analysis server through an online web,
Artificial intelligence and drone images characterized by generating Point Cloud, DSM, 3D Mesh, and orthographic images and providing them to the online web by using WebODM precision processing using a large number of still image information through the precision processing server of the analysis server. Real-time disaster information detection method using
제 14항에 있어서,
상기 분석 서버를 통해 분석된 재난 유형 탐지 정보 및 사람 탐지 정보를 온라인 웹을 통해 가시화하는 단계에 있어서,
분석 서버의 웹 서비스 서버를 통해 온라인 상에 웹 서비스 화면을 제공하여, 제공된 웹 서비스 화면을 통해 상기 재난 유형 탐지 정보 및 사람 탐지 정보를 사용자에게 실시간으로 제공하는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법.
15. The method of claim 14,
In the step of visualizing the disaster type detection information and the person detection information analyzed through the analysis server through an online web,
Artificial intelligence and drone image, characterized in that by providing a web service screen online through the web service server of the analysis server, and providing the disaster type detection information and the person detection information to the user in real time through the provided web service screen Real-time disaster information detection method using
제 23항에 있어서,
상기 웹 서비스 화면은,
정지영상 정보의 추론 및 매핑 정보를 제공하기 위한 정지영상 제공 화면부와, 동영상 정보의 추론 및 매핑 정보를 제공하기 위한 동영상 제공 화면부를 포함하여 이루어지는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법.
24. The method of claim 23,
The web service screen is
Real-time disaster using artificial intelligence and drone images, comprising: a still image providing screen unit for providing inference and mapping information of still image information; and a video providing screen unit for providing inference and mapping information of moving image information How to detect information.
제 24항에 있어서,
상기 정지영상 제공 화면부는,
다수의 선택 버튼과, 정보 입력창, 정보 출력창 및 이미지 표시창으로 구성된 이미지정보 선택항목으로 구성되며, 상기 이미지정보 선택항목에는 프로젝트 검색, 프로젝트 조회/관리, 결과 가시화, 개별사진 조회, 개별 정지영상 가시화, 개별 정지영상 정보가 포함되는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법.
25. The method of claim 24,
The still image providing screen unit,
It consists of a plurality of selection buttons, an information input window, an information output window, and an image information selection item consisting of an image display window, and the image information selection items include project search, project inquiry/management, result visualization, individual photo inquiry, and individual still images. Real-time disaster information detection method using artificial intelligence and drone image, characterized in that it includes visualization and individual still image information.
제 24항에 있어서,
상기 동영상 제공 화면부는,
다수의 선택 버튼과, 정보 입력창, 정보 출력창 및 영상 표시창으로 구성된 동영상정보 선택항목으로 구성되며, 상기 동영상정보 선택항목에는 프로젝트 검색, 프로젝트 조회/관리, 실시간 영상, 검출 객체 정보가 포함되는 것을 특징으로 하는 인공지능과 드론 영상을 이용한 실시간 재난정보 탐지 방법.
25. The method of claim 24,
The video providing screen unit,
It consists of a video information selection item consisting of a plurality of selection buttons, an information input window, an information output window, and an image display window, and the video information selection item includes project search, project inquiry/management, real-time image, and detection object information. Real-time disaster information detection method using artificial intelligence and drone images.
KR1020210059196A 2021-05-07 2021-05-07 Real-time disaster information detection system and method using artificial intelligence and drone images KR102318489B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210059196A KR102318489B1 (en) 2021-05-07 2021-05-07 Real-time disaster information detection system and method using artificial intelligence and drone images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210059196A KR102318489B1 (en) 2021-05-07 2021-05-07 Real-time disaster information detection system and method using artificial intelligence and drone images

Publications (1)

Publication Number Publication Date
KR102318489B1 true KR102318489B1 (en) 2021-10-28

Family

ID=78232476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210059196A KR102318489B1 (en) 2021-05-07 2021-05-07 Real-time disaster information detection system and method using artificial intelligence and drone images

Country Status (1)

Country Link
KR (1) KR102318489B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102473045B1 (en) 2022-06-21 2022-12-06 대한민국 Disaster situation communication network infrastructure supplementation method and system using unmanned mobile device
KR102569499B1 (en) 2022-06-21 2023-08-25 대한민국 Buried person search device using detachable module
KR102636143B1 (en) * 2023-09-08 2024-02-14 주식회사 무브파크 Drone video-based advertising content suitability judgment method and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200052418A (en) * 2018-10-25 2020-05-15 주식회사 유캔스타 Automated Violence Detecting System based on Deep Learning
KR102118347B1 (en) * 2019-04-09 2020-06-29 제이씨현시스템주식회사 System for implementing autonomic fly and Monitoring Danger Area through Thermal Image Data Shooted by Drone
KR102166432B1 (en) 2018-11-30 2020-10-15 재단법인 경북아이티융합 산업기술원 Method for replying disaster situation using smart drone
KR102203135B1 (en) 2020-06-24 2021-01-14 대한민국 Method and system for detecting disaster damage information based on artificial intelligence using drone

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200052418A (en) * 2018-10-25 2020-05-15 주식회사 유캔스타 Automated Violence Detecting System based on Deep Learning
KR102166432B1 (en) 2018-11-30 2020-10-15 재단법인 경북아이티융합 산업기술원 Method for replying disaster situation using smart drone
KR102118347B1 (en) * 2019-04-09 2020-06-29 제이씨현시스템주식회사 System for implementing autonomic fly and Monitoring Danger Area through Thermal Image Data Shooted by Drone
KR102203135B1 (en) 2020-06-24 2021-01-14 대한민국 Method and system for detecting disaster damage information based on artificial intelligence using drone

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102473045B1 (en) 2022-06-21 2022-12-06 대한민국 Disaster situation communication network infrastructure supplementation method and system using unmanned mobile device
KR102569499B1 (en) 2022-06-21 2023-08-25 대한민국 Buried person search device using detachable module
KR102636143B1 (en) * 2023-09-08 2024-02-14 주식회사 무브파크 Drone video-based advertising content suitability judgment method and system

Similar Documents

Publication Publication Date Title
KR102318489B1 (en) Real-time disaster information detection system and method using artificial intelligence and drone images
US20200357170A1 (en) Automated spatial indexing of images based on floorplan features
Geraldes et al. UAV-based situational awareness system using deep learning
KR102203135B1 (en) Method and system for detecting disaster damage information based on artificial intelligence using drone
EP3340177B1 (en) Method and system for creating virtual message onto a moving object and searching the same
US20160165187A1 (en) Systems and methods for automated visual surveillance
US10839612B1 (en) Method and system for visualizing overlays in virtual environments
US11668577B1 (en) Methods and systems for response vehicle deployment
US20220027038A1 (en) Interactive virtual interface
CN107451527A (en) A kind of large-scale public place hunting system based on unmanned plane
KR102166432B1 (en) Method for replying disaster situation using smart drone
CN111796603A (en) Smoke inspection unmanned aerial vehicle system, inspection detection method and storage medium
CN111639825A (en) Method and system for indicating escape path of forest fire based on A-Star algorithm
US20210221502A1 (en) Method and a system for real-time data processing, tracking, and monitoring of an asset using uav
JP6583840B1 (en) Inspection system
KR101827249B1 (en) Intelligent system for object detection drone based on smart device using VPN, and Intelligent object detection method for the same
KR20200067979A (en) Method and apparatus for determining stereoscopic multimedia information
CN107704851A (en) Character recognition method, Public Media exhibiting device, server and system
Novac et al. A framework for wildfire inspection using deep convolutional neural networks
US10970923B1 (en) Method and system for virtual area visualization
KR102527771B1 (en) System and Method for Monitoring Behavior Observation and Abnormal Behavior of the Elderly Living alone by Using TOF Camera and Digital Twin Technology
WO2017160381A1 (en) System for georeferenced, geo-oriented real time video streams
JP7437930B2 (en) Mobile objects and imaging systems
KR102181809B1 (en) Apparatus and method for checking facility
JP6435640B2 (en) Congestion degree estimation system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant