KR20220096573A - Apparatus for efficient arrangement of rescue resources in use of the unmanned aerial vehicle, and method thereof, and computer recordable medium stroring program to perform the method - Google Patents

Apparatus for efficient arrangement of rescue resources in use of the unmanned aerial vehicle, and method thereof, and computer recordable medium stroring program to perform the method Download PDF

Info

Publication number
KR20220096573A
KR20220096573A KR1020200189143A KR20200189143A KR20220096573A KR 20220096573 A KR20220096573 A KR 20220096573A KR 1020200189143 A KR1020200189143 A KR 1020200189143A KR 20200189143 A KR20200189143 A KR 20200189143A KR 20220096573 A KR20220096573 A KR 20220096573A
Authority
KR
South Korea
Prior art keywords
area
rescue
unmanned aerial
aerial vehicle
image
Prior art date
Application number
KR1020200189143A
Other languages
Korean (ko)
Inventor
박경수
송제인
이재훈
김병조
Original Assignee
줌인터넷 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 줌인터넷 주식회사 filed Critical 줌인터넷 주식회사
Priority to KR1020200189143A priority Critical patent/KR20220096573A/en
Publication of KR20220096573A publication Critical patent/KR20220096573A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Resources & Organizations (AREA)
  • Evolutionary Computation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Databases & Information Systems (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Alarm Systems (AREA)

Abstract

Provided is a control device for efficient arrangement of rescue resources using an unmanned aerial vehicle. The control device comprises: an image collection unit which collects images on a plurality of zones in a disaster area through a wireless communication network from an unmanned aerial vehicle equipped with a photographing unit; a global image generation unit which extracts a plurality of feature points from the respective collected images on the plurality of zones, matches the plurality of feature points to calculate a relative distance of the feature points for the respective images, and generates a global image projected on the coordinate system for the entirety of the disaster area; a global image analysis unit which calculates a distribution chart of persons to be rescued, including geographical location information by each rescue area and the number of persons to be rescued by each rescue area, based on the global image; and a rescue resource allocation unit which arranges a plurality of rescue resource units based on the distribution chart of persons to be rescued.

Description

무인항공기를 이용한 구조자원의 효율적 배치를 위한 관제장치, 이를 위한 방법 및 이 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독가능한 기록매체{Apparatus for efficient arrangement of rescue resources in use of the unmanned aerial vehicle, and method thereof, and computer recordable medium stroring program to perform the method}A control device for efficient arrangement of rescue resources using an unmanned aerial vehicle, a method for the same, and a computer readable recording medium on which a program for executing the method is recorded method thereof, and computer recordable medium storing program to perform the method}

본 발명은 무인항공기(UAV: Unmanned Aerial Vehicle) 기술에 관한 것으로, 보다 상세하게는, 무인항공기를 이용하여 재난지역에서 구조자원을 효율적으로 배치하기 위한 관제장치 및 이를 위한 방법에 관한 것이다. The present invention relates to unmanned aerial vehicle (UAV) technology, and more particularly, to a control device for efficiently disposing rescue resources in a disaster area using an unmanned aerial vehicle and a method therefor.

지진, 해일, 화재와 같이 사람이 접근하기 어려운 재난 상황에서 드론과 같은 무인항공기를 활용한 인명 구조 활동이 주목을 받고 있다. 특히, 재난 상황에서는 광범위한 영역에서 구조를 요하는 사람들(즉, 요구조자)이 산포된 지역 및 인원수를 빨리 파악하고 그에 맞는 구조자원을 신족하게 배치하여야 시급을 요하는 재난환경에서 골든타임을 놓치지 않고 효과적인 구조가 가능하게 된다. 그러나, 종래의 무인항공기를 이용한 재난구조시스템은 단순히 재난지역의 상황을 드론을 이용하여 영상으로 촬영하는 것에 그치고 있어서, 구조자원의 효과적인 배치를 위해 필요한 정보를 신속하게 수집하는 데 한계가 있었다.Lifesaving activities using unmanned aerial vehicles such as drones are drawing attention in disaster situations that are difficult for humans to access, such as earthquakes, tsunamis, and fires. In particular, in a disaster situation, it is necessary to quickly identify the area and the number of people in need of rescue in a wide area (that is, the person in need) and to deploy the appropriate rescue resources quickly, so as not to miss the golden hour in a disaster environment that requires urgent wages and to be effective structure becomes possible. However, the conventional disaster relief system using an unmanned aerial vehicle merely captures the situation of the disaster area with an image using a drone, so there is a limit in quickly collecting information necessary for the effective arrangement of rescue resources.

한국공개특허 제2020-0002361호 2020년 01월 08일 공개 (명칭: 자율 주행 드론을 이용하여 항공 영상을 제공하기 위한 시스템 및 그 방법)Korean Patent Laid-Open Patent No. 2020-0002361 published on January 08, 2020 (Title: System and method for providing aerial image using autonomous driving drone)

본 발명의 목적은 광범위한 지역에 재난이 발생한 경우 무인항공기를 이용하여 구조자원을 신속하고 효율적으로 배치하기 위한 관제장치, 이를 위한 방법을 제공함에 있다. An object of the present invention is to provide a control device for quickly and efficiently arranging rescue resources using an unmanned aerial vehicle when a disaster occurs in a wide area, and a method therefor.

상술한 바와 같은 목적을 달성하기 위한 본 발명은, 무인항공기를 이용한 구조자원의 효율적 배치를 위한 관제장치로서, 촬영부를 구비한 무인항공기로부터 무선통신망을 통해 재난지역의 복수의 영역에 대한 영상을 수집하는 영상수집부와, 수집된 상기 복수의 영역에 대한 각각의 영상으로부터 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점들을 매칭시켜 각각의 영상에 대한 상기 특징점들의 상대적 거리를 산출하여, 상기 재난지역의 전역에 대한 좌표계에 투영된 전역영상을 생성하는 전역영상생성부와, 상기 전역영상을 기초로 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수를 포함하는 요구조자 분포도를 산출하는 전역영상분석부와, 상기 요구조자의 분포도에 기초하여 복수의 구조자원부를 배치하는 구조자원 배속부를 포함하여 달성될 수 있다.The present invention for achieving the above object is a control device for the efficient arrangement of rescue resources using an unmanned aerial vehicle, and collects images for a plurality of areas of a disaster area from an unmanned aerial vehicle equipped with a photographing unit through a wireless communication network. and extracting a plurality of feature points from each image for the plurality of areas collected, matching the extracted feature points to calculate the relative distance of the feature points for each image, and the disaster A global image generation unit that generates a global image projected on the coordinate system for the entire region of the region, and a global image analysis that calculates a distribution map of users based on the global image including geographic location information for each structural area and the number of users for each structural region It can be achieved by including a rescue resource assignment unit for disposing a plurality of rescue resource units based on the distribution of the requesting person and the department.

여기서, 상기 무인항공기에 상기 재난지역의 지리적 위치 정보를 제공하는 재난지역설정부를 더 포함할 수 있다.Here, it may further include a disaster area setting unit that provides geographic location information of the disaster area to the unmanned aerial vehicle.

또한, 상기 전역영상분석부는, 상기 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내에 객체가 사람일 확률을 산출하여 출력하도록 학습된 인공신경망 모델인 객체분류모델을 포함하고, 상기 객체분류모델이 연산을 통해 상기 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 사람일 확률을 산출하여 출력하고, 출력된 확률이 기 설정된 임계치 이상인 경우 해당 영역박스 내에 요구조자가 존재하는 것으로 인식하며, 요구조자가 존재하는 영역박스의 좌표 및 개수를 기초로, 일정한 범위 내에 속하는 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수를 포함하는 요구조자 분포도를 산출할 수 있다.In addition, the global image analysis unit includes an object classification model that is an artificial neural network model trained to calculate and output coordinates of an area box indicating an area occupied by an object included in the image and a probability that an object is a human in the area box, The object classification model calculates and outputs the coordinates of the area box indicating the area occupied by the object included in the image through calculation and the probability that the object in the area box is a person, and if the output probability is greater than or equal to a preset threshold, the area box Recognizes that there is a requester within, and based on the coordinates and number of area boxes in which the requestor is present, a distribution map of users including geographic location information for each structural area within a certain range and the number of requesters for each structural area can be calculated. .

아울러, 상기 구조자원배속부는 요구조자 분포도에 기초하여 통신망으로 연결된 복수의 구조자원부에 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수에 대한 정보를 전송할 수 있다.In addition, the rescue resource assignment unit may transmit geographic location information for each rescue area and information on the number of rescuers for each rescue area to a plurality of rescue resource units connected through a communication network based on the distribution of rescuers.

다른 경지에서 본 발명은, 영상수집부가 촬영부를 구비한 무인항공기로부터 무선통신망을 통해 재난지역의 복수의 영역에 대한 영상을 수집하는 단계와, 전역영상생성부가 수집된 상기 복수의 영역에 대한 각각의 영상으로부터 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점들을 매칭시켜 각각의 영상에 대한 상기 특징점들의 상대적 거리를 산출하여, 상기 재난지역의 전역에 대한 좌표계에 투영된 전역영상을 생성하는 단계와, 전역영상분석부가 상기 전역영상을 기초로 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수를 포함하는 요구조자 분포도를 산출하는 단계와, 구조자원배속부가 상기 요구조자의 분포도에 기초하여 복수의 구조자원부를 배치하는 단계를 포함하는, 무인항공기를 이용한 구조자원의 효율적 배치를 위한 방법을 제공한다.In another aspect, the present invention includes the steps of: an image collection unit collecting images for a plurality of regions of a disaster area through a wireless communication network from an unmanned aerial vehicle equipped with a photographing unit; extracting a plurality of feature points from an image, matching the extracted feature points to calculate the relative distance of the feature points with respect to each image, and generating a global image projected on the coordinate system for the entire area of the disaster area; , calculating, by the global image analysis unit, a distribution map of persons requesting including geographic location information for each structure area and the number of persons requesting each structure area based on the global image; It provides a method for the efficient deployment of rescue resources using an unmanned aerial vehicle, comprising the step of deploying.

여기서, 재난지역설정부가 상기 무인항공기에 상기 재난지역의 지리적 위치 정보를 제공하는 단계를 더 포함할 수 있다.Here, the method may further include providing, by the disaster area setting unit, geographic location information of the disaster area to the unmanned aerial vehicle.

또한, 상기 전역영상분석부는, 상기 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내에 객체가 사람일 확률을 산출하여 출력하도록 학습된 인공신경망 모델인 객체분류모델을 포함하고, 상기 객체분류모델이 연산을 통해 상기 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 사람일 확률을 산출하여 출력하고, 출력된 확률이 기 설정된 임계치 이상인 경우 해당 영역박스 내에 요구조자가 존재하는 것으로 인식하며, 요구조자가 존재하는 영역박스의 좌표 및 개수를 기초로, 일정한 범위 내에 속하는 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수를 포함하는 요구조자 분포도를 산출할 수 있다.In addition, the global image analysis unit includes an object classification model that is an artificial neural network model trained to calculate and output coordinates of an area box indicating an area occupied by an object included in the image and a probability that an object is a human in the area box, The object classification model calculates and outputs the coordinates of the area box indicating the area occupied by the object included in the image through calculation and the probability that the object in the area box is a person, and if the output probability is greater than or equal to a preset threshold, the area box Recognizes that there is a requester within, and based on the coordinates and number of area boxes in which the requestor is present, a distribution map of users including geographic location information for each structural area within a certain range and the number of requesters for each structural area can be calculated. .

아울러, 상기 구조자원배속부는 요구조자 분포도에 기초하여 통신망으로 연결된 복수의 구조자원부에 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수에 대한 정보를 전송할 수 있다.In addition, the rescue resource assignment unit may transmit geographic location information for each rescue area and information on the number of rescuers for each rescue area to a plurality of rescue resource units connected through a communication network based on the distribution of rescuers.

또 다른 견지에서, 본 발명은 상술한 무인항공기를 이용한 구조자원의 효율적 배치를 위한 방법을 컴퓨터 장치에서 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공한다.In another aspect, the present invention provides a computer-readable recording medium in which a program for executing the above-described method for efficient allocation of rescue resources using an unmanned aerial vehicle is recorded in a computer device.

본 발명에 따르면, 무인항공기(UAV: Unmanned Aerial Vehicle)가 촬영한 영상을 인공지능 및 컴퓨터비전 기술을 통해 분석함으로써 상황을 인지하고, 재난지역의 전역영상을 생성하여 요구조자 분포도를 산출함으로써, 요구조자 밀도에 따라 필요한 구조자원을 효율적으로 신속하게 배치함으로써, 시급을 다투는 재난 상황에서 인명구조의 효율성을 극대화할 수 있다.According to the present invention, by analyzing the image taken by an unmanned aerial vehicle (UAV) through artificial intelligence and computer vision technology, the situation is recognized, and a global image of the disaster area is generated to calculate the distribution of the victims, so that the demanders density By arranging the necessary rescue resources efficiently and quickly according to

도 1은 본 발명의 실시예에 따른 무인항공기를 이용한 구조자원을 효율적으로 배치하기 위한 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 관제장치의 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 블록도이다.
도 4는 본 발명의 실시예에 따른 무인항공기를 이용한 구조자원을 효율적으로 배치하기 위한 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시예에 따라 재난지역의 각 영역에 대한 복수의 영상으로부터 재난지역 전역에 대한 하나의 전역영상을 생성하는 예를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따라 한 객체분류모델을 통해 전역영상으로부터 요구조자의 존재를 인식하는 방법에 대한 예시도이다.
도 7은 본 발명의 실시예에 따른 요구조자 분포도에 따라 적절한 규모의 구조자원을 배치하는 방법을 설명하기 위한 도면이다.
1 is a view for explaining a system for efficiently arranging rescue resources using an unmanned aerial vehicle according to an embodiment of the present invention.
2 is a block diagram for explaining the configuration of a control device according to an embodiment of the present invention.
3 is a block diagram for explaining the configuration of an unmanned aerial vehicle according to an embodiment of the present invention.
4 is a flowchart illustrating a method for efficiently arranging rescue resources using an unmanned aerial vehicle according to an embodiment of the present invention.
5 is a diagram for explaining an example of generating one global image for the entire disaster area from a plurality of images for each area of the disaster area according to an embodiment of the present invention.
6 is an exemplary diagram of a method for recognizing the presence of a requester from a global image through an object classification model according to an embodiment of the present invention.
7 is a diagram for explaining a method of arranging a rescue resource of an appropriate size according to a distribution diagram of users according to an embodiment of the present invention.

본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, the terms or words used in the present specification and claims described below should not be construed as being limited to their ordinary or dictionary meanings, and the inventors should develop their own inventions in the best way. It should be interpreted as meaning and concept consistent with the technical idea of the present invention based on the principle that it can be appropriately defined as a concept of a term for explanation. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all the technical spirit of the present invention, so various equivalents that can be substituted for them at the time of the present application It should be understood that there may be water and variations.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that in the accompanying drawings, the same components are denoted by the same reference numerals as much as possible. In addition, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted. For the same reason, some components are exaggerated, omitted, or schematically illustrated in the accompanying drawings, and the size of each component does not fully reflect the actual size.

먼저, 본 발명의 실시예에 따른 무인항공기를 이용한 구조자원의 효율적 배치를 위한 시스템에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 본 발명의 실시예에 따른 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 본 발명의 실시예에 따른 본 발명의 실시예에 따른 무인항공기를 이용한 구조자원의 효율적 배치를 위한 시스템은 기본적으로, 관제장치(100), 무인항공기(200) 및 구조자원부(300)를 포함한다. First, a system for efficiently disposing rescue resources using an unmanned aerial vehicle according to an embodiment of the present invention will be described. 1 is a diagram for explaining a system according to an embodiment of the present invention according to an embodiment of the present invention. Referring to FIG. 1 , a system for efficient deployment of rescue resources using an unmanned aerial vehicle according to an embodiment of the present invention is basically a control device 100 , an unmanned aerial vehicle 200 , and the Ministry of Rescue Resources. (300).

관제장치(100)는 무선통신망을 통해 무인항공기(200)를 제어하며, 무인항공기(200)가 촬영한 재난지역에 대한 영상을 수집한다.The control device 100 controls the unmanned aerial vehicle 200 through a wireless communication network, and collects images of the disaster area photographed by the unmanned aerial vehicle 200 .

무인항공기(200)는 관제장치(100)로부터 재난지역(A)에 대한 지리적 위치 정보를 수신하여 재난 현장 주변을 비행하며, 재난지역을 촬영한 영상을 관제장치(100)로 전송한다.The unmanned aerial vehicle 200 receives geographic location information on the disaster area A from the control device 100 and flies around the disaster site, and transmits an image of the disaster area to the control device 100 .

구조자원부(300)는 관제장치(100)로부터 구조가 요구되는 구조영역에 대한 지리적 위치정보와 해당 구조영역에 존재하는 요구조자의 수에 대한 정보를 수신한다. 구조자원부(300) 다양한 형태의 구조자원으로 마련될 수 있으며, 차량의 종류, 구조 가능한 인원 등에 대한 구조가능인력규모에 대한 정보가 관제장치(100)에 등록된다. The rescue resource unit 300 receives from the control device 100 geographic location information on the rescue area for which a rescue is requested and information on the number of rescuers existing in the rescue zone. Rescue resource unit 300 may be provided with various types of rescue resources, and information on the size of rescue workers for types of vehicles, rescue workers, etc. is registered in the control device 100 .

그러면, 본 발명의 실시예에 따른 관제장치(100)에 대해서 더 자세히 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 관제장치의 구성을 설명하기 위한 블록도이다. 도 2를 참조하면, 본 발명의 실시예에 따른 관제장치(100)는 통신모듈(110), 저장모듈(120) 및 제어모듈(130)을 포함한다. Then, the control device 100 according to the embodiment of the present invention will be described in more detail. 2 is a block diagram for explaining the configuration of a control device according to an embodiment of the present invention. Referring to FIG. 2 , the control device 100 according to an embodiment of the present invention includes a communication module 110 , a storage module 120 , and a control module 130 .

통신모듈(110)은 무인항공기(200) 및 구조자원부(300)와 통신을 위한 것이다. 이러한 통신모듈(110)은 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신모듈(110)은 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. 통신모듈(110)은 제어모듈(130)로부터 전달받은 무인항공기(200)를 제어하기 위한 다양한 제어 명령을 수신하여 무인항공기(200)로 전송할 수 있다. 특히, 재난 상황이 발생한 경우, 무인항공기(200)가 재난 현장으로 이동하도록 재난 현장의 위치를 나타내는 지리적 위치, 즉, GPS 좌표를 무인항공기(200)로 전송할 수 있다. 또한, 통신모듈(110)은 무인항공기(200)로부터 다양한 데이터, 영상 등을 수신하여 제어모듈(130)로 전달할 수 있다. The communication module 110 is for communication with the unmanned aerial vehicle 200 and the rescue resource unit 300 . The communication module 110 may include an RF (Radio Frequency) transmitter (Tx) for up-converting and amplifying the frequency of a transmitted signal, and an RF receiver (Rx) for low-noise amplifying a received signal and down-converting the frequency. have. In addition, the communication module 110 may include a modem that modulates a transmitted signal and demodulates a received signal. The communication module 110 may receive various control commands for controlling the unmanned aerial vehicle 200 received from the control module 130 and transmit it to the unmanned aerial vehicle 200 . In particular, when a disaster situation occurs, a geographic location indicating the location of the disaster site, ie, GPS coordinates, may be transmitted to the unmanned aerial vehicle 200 so that the unmanned aerial vehicle 200 moves to the disaster site. In addition, the communication module 110 may receive various data, images, etc. from the unmanned aerial vehicle 200 and transmit it to the control module 130 .

저장모듈(120)은 관제장치(100)의 동작에 필요한 각종 데이터, 애플리케이션, 관제장치(100)의 동작에 따라 발생된 각종 데이터를 저장한다. 이러한 저장모듈(120)은 스토리지, 메모리 등이 될 수 있다. 특히, 저장모듈(120)은 선택적으로, 관제장치(100)의 부팅(booting) 및 운영(operation)을 위한 운영체제(OS, Operating System), 본 발명의 실시예에 따른 애플리케이션을 저장할 수 있다. 저장모듈(120)에 저장되는 각종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. 또한, 저장모듈(120)에는, 외부로부터 재난이 발생한 지역에 대한 지리적 위치 정보를 수신 또는 입력받아 저장될 수 있고, 또한 무인항공기(200)으로부터 수신된 재난지역(A)에 대한 영상이 저장될 수 있으며, 또한 구조자원부(300)로부터 구조가능인원규모에 대한 정보를 수신하여 각 구조자원부(300)에 따라 식별하여 저장할 수 있다.The storage module 120 stores various data necessary for the operation of the control device 100 , applications, and various data generated according to the operation of the control device 100 . The storage module 120 may be storage, memory, or the like. In particular, the storage module 120 may selectively store an operating system (OS) for booting and operation of the control device 100 and an application according to an embodiment of the present invention. Various data stored in the storage module 120 may be deleted, changed, or added according to a user's operation. In addition, the storage module 120 may receive or input geographic location information on an area where a disaster occurs from the outside and store it, and also an image of the disaster area A received from the unmanned aerial vehicle 200 is stored. In addition, information on the number of people available for rescue may be received from the rescue resource unit 300 , and may be identified and stored according to each rescue resource unit 300 .

제어모듈(130)은 관제장치(100)의 전반적인 동작 및 관제장치(100)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어모듈(130)은 중앙 처리 장치(Central Processing Unit : CPU), 애플리케이션 프로세서(Application Processor), GPU(Graphic Processing Unit) 등이 될 수 있다. 제어모듈(130)은 각 기능별로, 무인항공기(200)에 재난지역에 대한 지리적 위치정보를 제공하는 재난지역설정부(131)와, 무인항공기(200)로부터 수신한 재난지역의 복수의 영역에 대한 영상을 수집하는 영상수집부(132)와, 수집된 복수의 영상들을 통합하여 재난지역의 전역에 대한 전영영상을 생성하는 전역영상생성부(133)와, 생성된 전역영상을 기초로 구조영역별 지리적 위치정보 및 요구조자 수를 포함하는 요구조자 분포도를 산출하는 전역영상분석부(134)와, 산출된 요구조자 분포도에 기초하여 복수의 구조자원부를 배치하는 구조자원배속부(135)를 포함하여 구성될 수 있다. 제어모듈(130)를 구성하는 각 구성에 대해서는 이하에서 더 자세히 설명할 것이다.The control module 130 may control the overall operation of the control device 100 and the signal flow between internal blocks of the control device 100 , and may perform a data processing function of processing data. The control module 130 may be a central processing unit (CPU), an application processor, a graphic processing unit (GPU), or the like. The control module 130 includes a disaster area setting unit 131 that provides geographic location information on the disaster area to the unmanned aerial vehicle 200 for each function, and a plurality of areas of the disaster area received from the unmanned aerial vehicle 200 . An image collection unit 132 that collects images of A global image analysis unit 134 that calculates a distribution map of persons in need including geographic location information and the number of persons in need, and a rescue resource allocation unit 135 that arranges a plurality of rescue resources based on the calculated distribution map of persons in need. can Each configuration constituting the control module 130 will be described in more detail below.

다음으로, 본 발명의 실시예에 따른 무인항공기(200)에 대해서 설명하기로 한다. 도 3은 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 블록도이다. Next, the unmanned aerial vehicle 200 according to an embodiment of the present invention will be described. 3 is a block diagram for explaining the configuration of an unmanned aerial vehicle according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에 따른 무인항공기(200)는 제어부(210), 촬영부(220), 항법부(230), 구동부(240), 통신부(250), 저장부(260)를 포함하여 구성될 수 있다.Referring to FIG. 3 , the unmanned aerial vehicle 200 according to an embodiment of the present invention includes a control unit 210 , a photographing unit 220 , a navigation unit 230 , a driving unit 240 , a communication unit 250 , and a storage unit 260 . ) may be included.

촬영부(220)는 재난 현장에 대한 영상을 촬영하기 위한 것이다. 촬영부(220)는 촬영을 통해 복수의 영상을 생성한다. 이러한 촬영부(220)는 렌즈, 이미지센서 및 컨버터를 포함한다. 그 밖에, 소정의 필터 등이 촬영부(220)의 구성으로 더 포함될 수 있으며, 기구적으로, 렌즈, 이미지 센서 및 컨버터는 액추에이터(actuator)를 포함하는 하우징 내에 장착되고, 이러한 액추에이터를 구동시키는 드라이버 등이 촬영부(220)에 포함될 수 있다. 렌즈는 촬영부(220)에 입사되는 가시광선이 이미지 센서 상에 초점이 맺히도록 한다. 이미지 센서는 반도체 소자의 제조 기술을 이용하여 집적된 광전변환소자이다. 이미지 센서는 예컨대, CCD(charge-coupled device) 이미지 센서 혹은 CMOS(complementary metal-oxide semiconductor) 이미지 센서가 될 수 있다. 이러한 이미지 센서는 가시광선을 감지하여 영상을 구성하는 아날로그 신호인 아날로그 영상 신호를 출력한다. 그러면, 컨버터는 아날로그 영상 신호를 영상을 구성하는 디지털 신호인 디지털 영상 신호로 변환하여 제어부(210)로 전달한다. 특히, 본 발명의 실시예에 따른 촬영부(220)는 3D 센서(깊이 센서)를 포함할 수 있다. 3D 센서는 비접촉 방식으로 영상의 각 픽셀에 대한 3차원 좌표를 획득하기 위한 센서이다. 촬영부(220)는 객체를 촬영함과 동시에 3D 센서를 통해 촬영된 영상의 각 픽셀에 대한 3차원 좌표의 좌표값(예컨대, x, y, z값)을 검출할 수 있다. 이때, 3차원 좌표의 좌표값은 촬영부(220)의 이미지 센서의 초점을 0점으로 하였을 때의 좌표값이다. 3D 센서는 레이저, 적외선, 가시광 등을 이용하는 다양한 방식의 센서를 이용할 수 있다. 이러한 3D 센서는 TOP(Time of Flight), 위상변위(Phase-shift) 및 온라인 웨이브폼 분석(Online Waveform Analysis) 중 어느 하나를 이용하는 레이저 방식 3차원 스캐너, 광 삼각법을 이용하는 레이저 방식 3차원 스캐너, 백색광 혹은 변조광을 이용하는 광학방식 3차원 스캐너, 핸드헬드 리얼 타임(Handheld Real Time) 방식의 사진촬영(PHOTO), 광학방식 3차원 스캐너, 패턴 프로젝션(Pattern Projection) 혹은 라인 스캐닝(Line Scanning)을 이용하는 광학방식, 레이저 방식 전신 스캐너, 사진 측량(Photogrammetry)을 이용하는 사진방식 스캐너, 키네틱 퓨전(Kinect Fusion)을 이용하는 실시간(Real Time) 스캐너 등을 예시할 수 있다. 이에 따라, 촬영부(220)는 촬영된 영상에서 3차원의 좌표를 추출할 수 있으며, 이에 따라, 촬영부(220)의 현재 위치, 즉, 무인항공기(200)의 현재의 지리적 위치(GPS 좌표)로부터 촬영된 영상까지의 실제 거리를 측정할 수 있다. 무인항공기(200)의 현재의 지리적 위치(GPS 좌표)는 항법부(230)에 의해 획득할 수 있다. The photographing unit 220 is for photographing an image of the disaster site. The photographing unit 220 generates a plurality of images through photographing. The photographing unit 220 includes a lens, an image sensor, and a converter. In addition, a predetermined filter and the like may be further included in the configuration of the photographing unit 220 , and mechanically, the lens, the image sensor, and the converter are mounted in a housing including an actuator, and a driver that drives the actuator and the like may be included in the photographing unit 220 . The lens allows visible light incident on the photographing unit 220 to be focused on the image sensor. The image sensor is a photoelectric conversion device integrated using a semiconductor device manufacturing technology. The image sensor may be, for example, a charge-coupled device (CCD) image sensor or a complementary metal-oxide semiconductor (CMOS) image sensor. Such an image sensor detects visible light and outputs an analog image signal that is an analog signal constituting an image. Then, the converter converts the analog image signal into a digital image signal that is a digital signal constituting the image and transmits it to the controller 210 . In particular, the photographing unit 220 according to an embodiment of the present invention may include a 3D sensor (depth sensor). The 3D sensor is a sensor for acquiring 3D coordinates for each pixel of an image in a non-contact manner. The photographing unit 220 may detect the coordinate values (eg, x, y, and z values) of the three-dimensional coordinates for each pixel of the image photographed through the 3D sensor while photographing the object. In this case, the coordinate values of the three-dimensional coordinates are coordinate values when the focus of the image sensor of the photographing unit 220 is set to zero. As the 3D sensor, various types of sensors using laser, infrared, or visible light may be used. These 3D sensors are a laser type 3D scanner using any one of TOP (Time of Flight), phase-shift, and online waveform analysis, a laser type 3D scanner using optical triangulation, and white light. Alternatively, optical 3D scanner using modulated light, Handheld Real Time PHOTO, optical 3D scanner, Pattern Projection or Line Scanning method, a laser-type full-body scanner, a photographic scanner using photogrammetry, a real-time scanner using Kinect Fusion, and the like can be exemplified. Accordingly, the photographing unit 220 may extract three-dimensional coordinates from the captured image, and accordingly, the current location of the photographing unit 220 , that is, the current geographic location (GPS coordinates) of the unmanned aerial vehicle 200 . ) can measure the actual distance from the captured image. The current geographic location (GPS coordinates) of the unmanned aerial vehicle 200 may be acquired by the navigation unit 230 .

항법부(230)는 무인항공기(200)의 현재의 지리적 위치(위도, 경도, 고도) 및 자세(yaw, roll, pitch) 등을 측정하기 위한 것이다. 이러한 항법부(250)는 GPS 위성으로부터 GPS 신호를 수신하기 위한 GPS 신호 수신 모듈, 모션을 측정하기 위한 자이로센서, 각속도, 가속도 등의 센서를 포함한다. 항법부(230)는 GPS 신호 및 센서들이 측정한 센서값을 이용하여 현재의 지리적 위치 및 자세를 측정하고, 측정된 현재 지리적 위치 및 자세를 제어부(210)로 전송한다. The navigation unit 230 is for measuring the current geographical position (latitude, longitude, altitude) and posture (yaw, roll, pitch) of the unmanned aerial vehicle 200 . The navigation unit 250 includes a GPS signal receiving module for receiving a GPS signal from a GPS satellite, a gyro sensor for measuring motion, and sensors such as angular velocity and acceleration. The navigation unit 230 measures the current geographic position and attitude by using the GPS signal and the sensor values measured by the sensors, and transmits the measured current geographical position and attitude to the controller 210 .

구동부(240)는 양력을 발생시켜 무인항공기(200)가 비행할 수 있도록 하기 위한 것이다. 이러한 구동부(240)는 프로펠러, 모터 등을 포함한다. 구동부(240)는 제어부(210)의 제어에 따른 방향 및 속도로 무인항공기(200)를 비행하도록 한다. 특히, 구동부(240)는 제어부(210)의 제어에 따라 소정 영역 내에서 무인항공기(200)가 정지 비행(hovering)할 수 있도록 프로펠러의 회전 속도를 조절할 수 있다. 특히, 구동부(240)는 제어부(210)의 제어에 따라 무인항공기(200)가 현재 위치로부터 재난 현장의 위치로 설정한 경로를 따라 비행하도록 프로펠러, 모터 등을 구동시킬 수 있다. 구동부(240)는 제어부(210)의 제어에 따라 촬영부(220)가 재난지역(A)의 각 영역을 촬영할 수 있도록 프로펠러, 모터 등을 구동시켜 무인항공기(200)를 이동시킬 수 있다.The driving unit 240 is for generating lift so that the unmanned aerial vehicle 200 can fly. The driving unit 240 includes a propeller, a motor, and the like. The driving unit 240 allows the unmanned aerial vehicle 200 to fly in a direction and speed according to the control of the control unit 210 . In particular, the driving unit 240 may adjust the rotation speed of the propeller so that the unmanned aerial vehicle 200 can hover within a predetermined area according to the control of the controller 210 . In particular, the driving unit 240 may drive a propeller, a motor, or the like, so that the unmanned aerial vehicle 200 flies along a path set from the current location to the location of the disaster site under the control of the controller 210 . The driving unit 240 may move the unmanned aerial vehicle 200 by driving a propeller, a motor, etc. so that the photographing unit 220 may photograph each area of the disaster area A under the control of the control unit 210 .

통신부(250)는 관제장치(100)와 통신하기 위한 것이다. 통신부(250)는 송신하기 위한 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신부(250)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. 통신부(250)는 제어부(290)의 제어에 따라 재난지역의 영상을 관제장치(100)로 전송한다. The communication unit 250 is for communicating with the control device 100 . The communication unit 250 may include a radio frequency (RF) transmitter (Tx) for up-converting and amplifying the frequency of a signal for transmission, and an RF receiver (Rx) for low-noise amplifying a received signal and down-converting the frequency. . In addition, the communication unit 250 may include a modem that modulates a transmitted signal and demodulates a received signal. The communication unit 250 transmits an image of the disaster area to the control device 100 under the control of the control unit 290 .

저장부(260)는 무인항공기(200)의 동작에 필요한 각 종 데이터, 애플리케이션, 무인항공기(200)의 동작에 따라 발생된 각 종 데이터를 저장한다. 이러한 저장부(260)는 스토리지, 메모리 등이 될 수 있다. 특히, 저장부(260)는 선택적으로, 무인항공기(200)의 부팅(booting) 및 운영(operation)을 위한 운영체제(OS, Operating System), 본 발명의 실시예에 따른 재난 현장의 영상 등의 데이터를 저장할 수 있다. 저장부(260)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The storage unit 260 stores various types of data required for the operation of the unmanned aerial vehicle 200 , applications, and various types of data generated according to the operation of the unmanned aerial vehicle 200 . The storage unit 260 may be storage, memory, or the like. In particular, the storage unit 260 selectively stores data such as an operating system (OS) for booting and operation of the unmanned aerial vehicle 200, and an image of a disaster site according to an embodiment of the present invention. can be saved. Various types of data stored in the storage unit 260 may be deleted, changed, or added according to a user's manipulation.

제어부(210)는 무인항공기(200)의 전반적인 동작 및 무인항공기(200)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(290)는 중앙 처리 장치(Central Processing Unit : CPU), 애플리케이션 프로세서(Application Processor), GPU(Graphic Processing Unit) 등이 될 수 있다. 제어부(210)는 관제장치(100)로부터 수신된 재난지역(A)의 지리적 위치정보에 따라 구동부(240)를 통해 무인항공기(200)의 비행 방향을 제어할 수 있다. 이때, 제어부(210)는 재난지역을 구분하는 복수의 영역에 따라 촬영부(220)가 각 영역의 영상을 촬영할 수 있도록 구동부(240)를 제어하여 무인항공기(200)를 이동시킨다. The controller 210 may control the overall operation of the unmanned aerial vehicle 200 and the signal flow between internal blocks of the unmanned aerial vehicle 200 , and may perform a data processing function of processing data. The control unit 290 may be a central processing unit (CPU), an application processor, a graphic processing unit (GPU), or the like. The controller 210 may control the flight direction of the unmanned aerial vehicle 200 through the driving unit 240 according to the geographic location information of the disaster area A received from the control device 100 . At this time, the control unit 210 moves the unmanned aerial vehicle 200 by controlling the driving unit 240 so that the photographing unit 220 can capture an image of each area according to a plurality of areas dividing the disaster area.

다음으로, 본 발명의 실시예에 따른 무인항공기를 이용하여 구조자원을 효율적으로 배치하기 위한 방법에 대해서 설명하기로 한다. 도 4는 본 발명의 실시예에 따른 무인항공기를 이용하여 구조자원을 효율적으로 배치하기 위한 방법을 설명하기 위한 흐름도이다.Next, a method for efficiently arranging rescue resources using an unmanned aerial vehicle according to an embodiment of the present invention will be described. 4 is a flowchart illustrating a method for efficiently arranging rescue resources using an unmanned aerial vehicle according to an embodiment of the present invention.

도 4를 참조하면, 재난이 발생하면, 관제장치(100)에 전송 또는 입력된 재난 지역에 대한 지리적 정보를 재난지역설정부(131)를 통해, 무인항공기(200)에 전송한다. 무인항공기(200)의 제어부(210)는 S110 단계에서 통신부(250)를 통해 관제장치(100)로부터 목적 위치에 대한 위치 정보를 지리적 위치(GPS 좌표)로 수신하고, 항법부(230)를 통해 현재 위치로부터 수신된 목적 위치로 경로를 설정하여 해당 경로를 따라 비행하도록 구동부(240)를 제어하여 수신된 목적 위치로 이동한다. 여기서, 관제장치(100)로부터 수신된 목적 위치는 재난 현장의 위치가 될 수 있다. Referring to FIG. 4 , when a disaster occurs, geographic information on the disaster area transmitted or input to the control device 100 is transmitted to the unmanned aerial vehicle 200 through the disaster area setting unit 131 . The control unit 210 of the unmanned aerial vehicle 200 receives location information about the target location from the control device 100 as a geographic location (GPS coordinates) through the communication unit 250 in step S110, and through the navigation unit 230 It sets a route from the current location to the received target location and controls the driving unit 240 to fly along the corresponding route to move to the received target location. Here, the target location received from the control device 100 may be the location of the disaster site.

목적 위치에 도착하면 제어부(210)는 촬영부(220)를 통해 현장을 촬영한다. 이때, 재난지역의 범위에 따라 복수의 무인항공기(200)를 이용할 수 있다. 무인항공기(200)에 설치된 촬영부(220)는 일정한 영역을 커버할 수 있으므로, 재난지역이 광범위한 경우, 재난지역설정부(131)에 의해 설정된 재난지역(A)의 복수의 영역을 슬라이딩 윈도우잉(sliding windowing) 기법에 따라 순차적으로 촬영할 수 있다. 복수의 무인항공기(200)를 이용하는 경우, 각각의 무인항공기(200)가 커버하는 영역이 다르게 설정될 수 있다.Upon arrival at the target location, the control unit 210 captures the scene through the photographing unit 220 . In this case, a plurality of unmanned aerial vehicles 200 may be used according to the range of the disaster area. Since the photographing unit 220 installed in the unmanned aerial vehicle 200 can cover a certain area, if the disaster area is wide, sliding windowing a plurality of areas of the disaster area A set by the disaster area setting unit 131 (Sliding windowing) can be taken sequentially. When a plurality of unmanned aerial vehicles 200 are used, an area covered by each unmanned aerial vehicle 200 may be set differently.

이렇게 무인항공기(200)에 의해 촬영된 각 영역에 대한 영상이 관제장치(100)로 전송되고, 영상수집부(132)는 하나 또는 2 이상의 무인항공기(200)에 의해 촬영된 복수의 영역에 대한 영상을 수집한다. 이렇게 수집된 영상은, 촬영된 영역이 각각 다르고, 또한 무인항공기(100)에 의해 촬영된 각도도 일정하지 않게 된다. 영상수집부(132)는, 도 5에서 보듯이, 수집된 복수의 영상(P1, P2, ..., Pn)을 재난지역(A)에 대한 영상으로서 저장모듈(120)에 저장한다.In this way, the image for each area photographed by the unmanned aerial vehicle 200 is transmitted to the control device 100 , and the image collection unit 132 provides information on a plurality of areas photographed by one or two or more unmanned aerial vehicle 200 . collect images. In the images collected in this way, the photographed areas are different, and the angle photographed by the unmanned aerial vehicle 100 is also not constant. The image collection unit 132 stores the plurality of collected images P1, P2, ..., Pn as images for the disaster area A in the storage module 120 as shown in FIG. 5 .

다음으로, S120 단계에서, 전역영상생성부(133)는, 저장모듈(120)에 저장된 해당 재난지역(A)에 대해 수집된 복수의 영상을 기초로 재난지역 전역에 대한 전역영상을 생성한다. 전역영상생성부(133)는, 수집된 각 영영에 대한 영상으로부터 복수의 특징점을 추출하고, 추출된 복수의 특징점들을 매칭시켜 각각의 영상에 대한 특징점들의 상대적 거리를 산출하여, 재난지역 전역에 대한 좌표계에 투영된 전역영상을 생성한다.Next, in step S120 , the global image generation unit 133 generates a global image for the entire disaster area based on a plurality of images collected for the corresponding disaster area A stored in the storage module 120 . The global image generator 133 extracts a plurality of feature points from the collected images for each domain, matches the extracted feature points to calculate the relative distances of the feature points for each image, Creates a global image projected on the coordinate system.

즉, 도 5에서 보듯이, 재난지역의 각 영역에 대한 복수의 영상(P1, P2,..., Pn) 각각에서 먼저 특징점을 추출한다. 예컨대, 호모그라피(Homography)는 평면물체의 2D 이미지 변환관계를 설명하는 모델로서, 2차원 상에서 물체의 변환관계를 알 수 있는 변환행렬을 의미한다. 예를 들어, 2차원 상에 놓여 있는 두 사각형이 있을 때, 한쪽 사각형에서 다른 쪽 사각형으로 모든 점들을 이동시킬 수 있는 변환행렬을 호모그라피 행렬이라 한다. 호모그라피를 계산하기 위해서는 두 사각형을 구성하는 점들의 대응관계를 알아야 한다. 이를 이용하여, 두 영상 프레임 사이의 대응관계가 존재하는 점들을 알면, 호모그라피 행렬을 계산할 수 있고, 계산된 변환행렬은 카메라의 움직임 정보를 나타낸다. 따라서, 복수의 영상들(P1, P2, ..., Pn)을 구성하는 각 프레임마다 대응점들을 찾아 특징점 추출을 수행하고, 이들을 매칭시켜 카메라 호모그라피(Camera Homography)를 계산한다. 이를 통해, 카메라를 특정 시점으로 고정시킨 다음 영상을 재변환해 카메라 중심의 좌표계를 생성할 수 있다. 이와 같은 방법으로, 전역영상생성부(133)는, 복수의 영상들(P1, P2, ..., Pn)을 통합하여 재난지역 전역에 대한 좌표를 설정하고(도 5의 (b)), 전역 좌표계에 투영된 하나의 전역영상(도 5의 (c))을 생성한다.That is, as shown in FIG. 5 , feature points are first extracted from each of the plurality of images P1, P2, ..., Pn for each area of the disaster area. For example, homography is a model for explaining a 2D image transformation relationship of a flat object, and refers to a transformation matrix that can know the transformation relationship of an object in two dimensions. For example, when there are two quadrilaterals lying in two dimensions, a transformation matrix that can move all points from one quadrangle to the other is called a homography matrix. In order to calculate the homography, it is necessary to know the correspondence between the points constituting the two quadrilaterals. Using this, if it is known that there is a correspondence between two image frames, a homography matrix can be calculated, and the calculated transformation matrix represents camera motion information. Accordingly, corresponding points are found for each frame constituting the plurality of images P1, P2, ..., Pn, and feature point extraction is performed, and camera homography is calculated by matching them. Through this, a camera-centered coordinate system can be created by fixing the camera to a specific viewpoint and then re-transforming the image. In this way, the global image generation unit 133 sets the coordinates for the entire disaster area by integrating the plurality of images P1, P2, ..., Pn (FIG. 5 (b)), One global image (FIG. 5(c)) projected on the global coordinate system is generated.

다음으로, S130 단계에서, 전역영상분석부(134)는 전역영상 내에 존재하는 사람을 검출한다. 예컨대, 전역영상분석부(134)는, 도 6에 도시된 바와 같이, 영상에서 객체(obj)가 차지하는 영역을 나타내는 영역박스(B: Bounding Box)의 좌표(x, y, w, h) 및 해당 객체(obj)가 적어도 하나의 기 설정된 클래스(예컨대, Person class, Car class, Tree class 등)에 속할 확률(예컨대, Person = 0.88, Car = 0.01, Person = 0.11)을 출력하도록 학습된 인공신경망 모델인 객체분류모델을 포함할 수 있다. 이러한 객체분류모델은 YOLO, YOLOv2, YOLO9000, YOLOv3 등을 예시할 수 있다. 영역박스(B)의 좌표 중 x, y, 는 영상에서 영역박스(B)의 중심 좌표이며, w는 폭, h는 높이를 나타낸다. Next, in step S130 , the global image analysis unit 134 detects a person existing in the global image. For example, as shown in FIG. 6 , the global image analysis unit 134 includes coordinates (x, y, w, h) and An artificial neural network trained to output the probability (eg, Person = 0.88, Car = 0.01, Person = 0.11) that the corresponding object obj belongs to at least one preset class (eg, Person class, Car class, Tree class, etc.) It may include an object classification model, which is a model. Such object classification models can be exemplified by YOLO, YOLOv2, YOLO9000, YOLOv3, and the like. Among the coordinates of the area box (B), x, y, are the center coordinates of the area box (B) in the image, w represents the width, and h represents the height.

전역영상분석부(134)는 객체분류모델에 전역영상생성부(133)가 생성한 전역영상을 입력하여 객체분류모델이 연산을 통해 영역박스(B)의 좌표(x, y, w, h) 및 영역박스(B) 내의 객체가 사람일 확률을 출력하면, 출력된 확률이 기 설정된 임계치(예컨대, 0.80 = 80%) 이상이면, 영역박스(B) 내에 요구조자가 존재하는 것으로 인식하고, 이를 검출할 수 있다. The global image analysis unit 134 inputs the global image generated by the global image generation unit 133 to the object classification model, and the object classification model calculates the coordinates (x, y, w, h) of the area box B. And if the output probability that the object in the area box B is a person is greater than or equal to a preset threshold (eg, 0.80 = 80%), it is recognized that the requestor is present in the area box B, and it is detected can do.

또한, 전역영상분석부(134)는 영역박스(B)의 중심 좌표(x, y)를 지리적 좌표, 즉, GPS 좌표로 변환할 수 있다. 즉, 전역영상분석부(220)는 전역좌표계에 투영된 전역영상을 기초로, 요구조자가 존재하는 영역박스의 좌표(GPS 위치) 및 요구조자가 존재하는 것으로 인식된 영역박스의 개수를 산출하여, 구조영역별 지리적 위치정보 및 구조영역별 요구조자 수를 포함하는 요구조자 분포도를 생성한다(S140) 여기서, 요구조자 분포도는, 일정한 거리 범위 내에 존재하는 영역박스(B)를 하나의 구조영역으로 설정하고, 하나의 구조영역으로 설정된 복수의 영역박스(B)의 좌표를 통합하여 해당 구조영역에 대한 지리적 위치정보(GPS 위치)를 산출한다. 또한, 하나의 구조영역에 포함되는 영역박스(B)의 개수를 카운팅하여 해당 구조영역에 존재하는 요구조자 수를 산출한다. 이렇게 산출된 구조영역별 지리적 위치정보 및 요구조자 수는 요구조자 밀도로 계산될 수 있으며, 이를 기초로 요구조자 분포도가 산출될 수 있다.Also, the global image analysis unit 134 may convert the center coordinates (x, y) of the area box B into geographic coordinates, that is, GPS coordinates. That is, the global image analysis unit 220 calculates, based on the global image projected on the global coordinate system, the coordinates (GPS location) of the area box where the requestor exists and the number of area boxes recognized as the presence of the requester, A distribution map of users including geographic location information for each area and the number of users for each rescue area is generated (S140). By integrating the coordinates of a plurality of area boxes (B) set as the structure area, geographic location information (GPS location) for the structure area is calculated. In addition, by counting the number of area boxes (B) included in one structure area, the number of requesters existing in the structure area is calculated. The calculated geographical location information and the number of people for each structural area can be calculated as the density of people who need them, and based on this, the distribution of people can be calculated.

다음으로, 구조자원배속부(135)는 산출된 요구조자 분포도에 기초하여 통신망으로 연결된 구조자원부의 종류에 따라 배치하고, 구조를 수행하도록 요청한다(S150). 즉, 도 7에서 보듯이, 관제장치(100)의 저장모듈(120)에 저장된 복수의 구조자원부(300)의 종류(즉, 구조가능인원수)에 따라, 구조가능인원수가 큰 구조자원 3을 요구조자 밀도가 높은 지역에 우선적으로 배치하고, 상대적으로 구조가능인원수가 작은 구조자원 1을 요구조자 밀도가 낮은 지역에 배치한다. 이를 통해, 광범위한 지역에 재난이 발생한 경우, 구조자원을 효율적으로 배치할 수 있으며, 따라서, 인명구조의 효율성을 배가시킬 수 있다. 구조자원배속부(135)는 요구조자 분포도에 기초하여 통신망으로 연결된 복수의 구조자원부에 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수에 대한 정보를 전송할 수 있다.Next, the rescue resource allocation unit 135 arranges according to the type of the rescue resource unit connected through a communication network based on the calculated distribution of rescuers and requests to perform the rescue (S150). That is, as shown in FIG. 7 , depending on the type of the plurality of rescue resource units 300 stored in the storage module 120 of the control device 100 (ie, the number of rescuers), the rescuer requesting the rescue resource 3 with a large number of rescuers Priority is given to areas with high density, and Rescue Resource 1 with a relatively small number of rescuers is placed in areas with low density of rescuers. Through this, in case of a disaster in a wide area, rescue resources can be efficiently deployed, and thus, the efficiency of lifesaving can be doubled. The rescue resource allocation unit 135 may transmit geographic location information for each rescue area and information on the number of rescuers for each rescue area to a plurality of rescue resource units connected through a communication network based on the distribution of rescuers.

한편, 앞서 설명된 본 발명의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. Meanwhile, the method according to the embodiment of the present invention described above may be implemented in the form of a program readable by various computer means and recorded in a computer readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language wires such as those generated by a compiler, but also high-level language wires that can be executed by a computer using an interpreter or the like.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. Although the present invention has been described above using several preferred embodiments, these examples are illustrative and not restrictive. As such, those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made in accordance with the doctrine of equivalents without departing from the spirit of the present invention and the scope of rights set forth in the appended claims.

Claims (9)

무인항공기를 이용한 구조자원의 효율적 배치를 위한 관제장치로서,
촬영부를 구비한 무인항공기로부터 무선통신망을 통해 재난지역의 복수의 영역에 대한 영상을 수집하는 영상수집부와,
수집된 상기 복수의 영역에 대한 각각의 영상으로부터 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점들을 매칭시켜 각각의 영상에 대한 상기 특징점들의 상대적 거리를 산출하여, 상기 재난지역의 전역에 대한 좌표계에 투영된 전역영상을 생성하는 전역영상생성부와,
상기 전역영상을 기초로 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수를 포함하는 요구조자 분포도를 산출하는 전역영상분석부와,
상기 요구조자의 분포도에 기초하여 복수의 구조자원부를 배치하는 구조자원 배속부를 포함하는, 관제장치.
As a control device for efficient deployment of rescue resources using unmanned aerial vehicles,
An image collection unit that collects images of a plurality of areas of a disaster area through a wireless communication network from an unmanned aerial vehicle equipped with a photographing unit;
A plurality of feature points are extracted from each image for the plurality of areas collected, and a relative distance of the feature points for each image is calculated by matching the plurality of extracted feature points, and a coordinate system for the entire disaster area A global image generation unit for generating a global image projected on the
a global image analysis unit that calculates a distribution map of demanded persons including geographic location information for each structural area and the number of requestors for each structural area based on the global image;
A control device comprising a rescue resource assignment unit for arranging a plurality of rescue resource units based on the distribution map of the person in need.
제 1 항에 있어서,
상기 무인항공기에 상기 재난지역의 지리적 위치 정보를 제공하는 재난지역설정부를 더 포함하는 것을 특징으로 하는, 관제장치.
The method of claim 1,
The control device, characterized in that it further comprises a disaster area setting unit for providing the geographical location information of the disaster area to the unmanned aerial vehicle.
제 1 항에 있어서,
상기 전역영상분석부는,
상기 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내에 객체가 사람일 확률을 산출하여 출력하도록 학습된 인공신경망 모델인 객체분류모델을 포함하고,
상기 객체분류모델이 연산을 통해 상기 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 사람일 확률을 산출하여 출력하고, 출력된 확률이 기 설정된 임계치 이상인 경우 해당 영역박스 내에 요구조자가 존재하는 것으로 인식하며,
요구조자가 존재하는 영역박스의 좌표 및 개수를 기초로, 일정한 범위 내에 속하는 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수를 포함하는 요구조자 분포도를 산출하는 것을 특징으로 하는, 무인항공기를 이용한 구조자원의 효율적 배치를 위한 장치.
The method of claim 1,
The global image analysis unit,
and an object classification model, which is an artificial neural network model trained to calculate and output the coordinates of the area box indicating the area occupied by the object included in the image and the probability that the object is a person in the area box,
The object classification model calculates and outputs the coordinates of the area box indicating the area occupied by the object included in the image through calculation and the probability that the object in the area box is a person, and if the output probability is greater than or equal to a preset threshold, the area box Recognizing that the requestor exists within,
Rescue resources using an unmanned aerial vehicle, characterized in that based on the coordinates and number of area boxes in which the persons in need are present, a distribution map of persons in need including geographic location information for each structure area within a certain range and the number of persons requesting persons per structure area is calculated. device for the efficient deployment of
제 1 항에 있어서,
상기 구조자원배속부는 요구조자 분포도에 기초하여 통신망으로 연결된 복수의 구조자원부에 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수에 대한 정보를 전송하는 것을 특징으로 하는, 관제장치.
The method of claim 1,
The rescue resource allocation unit transmits geographic location information for each rescue area and information on the number of people requesting for each rescue area to a plurality of rescue resource units connected through a communication network based on the distribution of rescuers.
영상수집부가 촬영부를 구비한 무인항공기로부터 무선통신망을 통해 재난지역의 복수의 영역에 대한 영상을 수집하는 단계와,
전역영상생성부가 수집된 상기 복수의 영역에 대한 각각의 영상으로부터 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점들을 매칭시켜 각각의 영상에 대한 상기 특징점들의 상대적 거리를 산출하여, 상기 재난지역의 전역에 대한 좌표계에 투영된 전역영상을 생성하는 단계와,
전역영상분석부가 상기 전역영상을 기초로 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수를 포함하는 요구조자 분포도를 산출하는 단계와,
구조자원배속부가 상기 요구조자의 분포도에 기초하여 복수의 구조자원부를 배치하는 단계를 포함하는, 무인항공기를 이용한 구조자원의 효율적 배치를 위한 방법.
A step of collecting images for a plurality of areas in a disaster area through a wireless communication network from an unmanned aerial vehicle equipped with a photographing unit by an image collecting unit;
The global image generator extracts a plurality of feature points from each image for the plurality of areas collected, matches the extracted feature points to calculate the relative distance of the feature points for each image, generating a global image projected on a coordinate system for the global;
calculating, by a global image analysis unit, a distribution map of claimants including geographic location information for each structural area and the number of people requesting for each structural area based on the global image;
A method for efficient deployment of rescue resources using an unmanned aerial vehicle, comprising the step of disposing a plurality of rescue resource units based on the distribution map of the rescuers by the rescue resource assignment unit.
제 5 항에 있어서,
재난지역설정부가 상기 무인항공기에 상기 재난지역의 지리적 위치 정보를 제공하는 단계를 더 포함하는 것을 특징으로 하는, 무인항공기를 이용한 구조자원의 효율적 배치를 위한 방법.
6. The method of claim 5,
The method for efficient deployment of rescue resources using an unmanned aerial vehicle, characterized in that it further comprises the step of providing the disaster area setting unit geographical location information of the disaster area to the unmanned aerial vehicle.
제 5 항에 있어서,
상기 전역영상분석부는, 상기 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내에 객체가 사람일 확률을 산출하여 출력하도록 학습된 인공신경망 모델인 객체분류모델을 포함하고,
상기 객체분류모델이 연산을 통해 상기 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 사람일 확률을 산출하여 출력하고, 출력된 확률이 기 설정된 임계치 이상인 경우 해당 영역박스 내에 요구조자가 존재하는 것으로 인식하며,
요구조자가 존재하는 영역박스의 좌표 및 개수를 기초로, 일정한 범위 내에 속하는 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수를 포함하는 요구조자 분포도를 산출하는 것을 특징으로 하는, 무인항공기를 이용한 구조자원의 효율적 배치를 위한 방법.
6. The method of claim 5,
The global image analysis unit includes an object classification model that is an artificial neural network model trained to calculate and output coordinates of an area box indicating an area occupied by an object included in the image and a probability that an object is a human in the area box,
The object classification model calculates and outputs the coordinates of the area box indicating the area occupied by the object included in the image through calculation and the probability that the object in the area box is a person, and if the output probability is greater than or equal to a preset threshold, the area box Recognizing that the requestor exists within,
Rescue resources using an unmanned aerial vehicle, characterized in that based on the coordinates and number of area boxes in which the persons in need are present, a distribution map of persons in need including geographic location information for each structure area within a certain range and the number of persons requesting persons per structure area is calculated. method for the efficient deployment of
제 5 항에 있어서,
상기 구조자원배속부는 요구조자 분포도에 기초하여 통신망으로 연결된 복수의 구조자원부에 구조영역별 지리적 위치정보 및 구조영역별 요구조자의 수에 대한 정보를 전송하는 것을 특징으로 하는, 무인항공기를 이용한 구조자원의 효율적 배치를 위한 방법.
6. The method of claim 5,
Efficient use of rescue resources using unmanned aerial vehicles, characterized in that the rescue resource allocation unit transmits geographic location information for each rescue area and information on the number of rescuers for each rescue area to a plurality of rescue resource units connected through a communication network based on the distribution map of rescuers method for placement.
제5항 내지 제8항에 따른 무인항공기를 이용한 구조자원의 효율적 배치를 위한 방법을 컴퓨터 장치에서 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체. A computer-readable recording medium in which a program for executing the method for efficient allocation of rescue resources using an unmanned aerial vehicle according to claim 5 to 8 in a computer device is recorded.
KR1020200189143A 2020-12-31 2020-12-31 Apparatus for efficient arrangement of rescue resources in use of the unmanned aerial vehicle, and method thereof, and computer recordable medium stroring program to perform the method KR20220096573A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200189143A KR20220096573A (en) 2020-12-31 2020-12-31 Apparatus for efficient arrangement of rescue resources in use of the unmanned aerial vehicle, and method thereof, and computer recordable medium stroring program to perform the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200189143A KR20220096573A (en) 2020-12-31 2020-12-31 Apparatus for efficient arrangement of rescue resources in use of the unmanned aerial vehicle, and method thereof, and computer recordable medium stroring program to perform the method

Publications (1)

Publication Number Publication Date
KR20220096573A true KR20220096573A (en) 2022-07-07

Family

ID=82398146

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200189143A KR20220096573A (en) 2020-12-31 2020-12-31 Apparatus for efficient arrangement of rescue resources in use of the unmanned aerial vehicle, and method thereof, and computer recordable medium stroring program to perform the method

Country Status (1)

Country Link
KR (1) KR20220096573A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200002361A (en) 2018-06-29 2020-01-08 (주)글루버 System for porviding aerial image using automatic driving drone and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200002361A (en) 2018-06-29 2020-01-08 (주)글루버 System for porviding aerial image using automatic driving drone and method thereof

Similar Documents

Publication Publication Date Title
US20230236611A1 (en) Unmanned Aerial Vehicle Sensor Activation and Correlation System
US11550315B2 (en) Unmanned aerial vehicle inspection system
US11704812B2 (en) Methods and system for multi-target tracking
US20200218289A1 (en) Information processing apparatus, aerial photography path generation method, program and recording medium
US11019322B2 (en) Estimation system and automobile
US20170123425A1 (en) Salient feature based vehicle positioning
US10409292B2 (en) Movement control method, autonomous mobile robot, and recording medium storing program
WO2020024185A1 (en) Techniques for motion-based automatic image capture
WO2018195869A1 (en) Systems and methods for generating real-time map using movable object
JP2017537484A (en) System and method for detecting and tracking movable objects
KR102289752B1 (en) A drone for performring route flight in gps blocked area and methed therefor
JP2023100642A (en) inspection system
KR20220141716A (en) Unmanned drone for automatically setting moving path according to detection situation, and operating method thereof
US20220221857A1 (en) Information processing apparatus, information processing method, program, and information processing system
KR102351057B1 (en) Apparatus and method for controlling the unmanned aerial vehicle based on disaster complexity
KR20220096573A (en) Apparatus for efficient arrangement of rescue resources in use of the unmanned aerial vehicle, and method thereof, and computer recordable medium stroring program to perform the method
KR102235589B1 (en) UAV landing system
KR102467855B1 (en) A method for setting an autonomous navigation map, a method for an unmanned aerial vehicle to fly autonomously based on an autonomous navigation map, and a system for implementing the same
KR102439142B1 (en) Method and apparatus for acquiring image of object
Amanatiadis et al. The HCUAV project: Electronics and software development for medium altitude remote sensing
JP7295320B1 (en) Information processing device, program, system, and information processing method
WO2017022057A1 (en) Location estimation device, location estimation method, and computer readable recording medium
JP7295321B1 (en) Information processing device, program, system, and information processing method
US20240098225A1 (en) System and method for providing scene information
KR102237342B1 (en) Apparatus and method for generating flight plan information

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application