KR20210115428A - Apparatus and method for controlling the unmanned aerial vehicle based on disaster complexity - Google Patents
Apparatus and method for controlling the unmanned aerial vehicle based on disaster complexity Download PDFInfo
- Publication number
- KR20210115428A KR20210115428A KR1020200031199A KR20200031199A KR20210115428A KR 20210115428 A KR20210115428 A KR 20210115428A KR 1020200031199 A KR1020200031199 A KR 1020200031199A KR 20200031199 A KR20200031199 A KR 20200031199A KR 20210115428 A KR20210115428 A KR 20210115428A
- Authority
- KR
- South Korea
- Prior art keywords
- unmanned aerial
- aerial vehicle
- unit
- controlling
- photographing
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 29
- 238000004458 analytical method Methods 0.000 claims abstract description 41
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 238000004891 communication Methods 0.000 claims description 28
- 238000013145 classification model Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/0202—Control of position or course in two dimensions specially adapted to aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H04N5/23206—
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Alarm Systems (AREA)
Abstract
Description
본 발명은 무인항공기(UAV: Unmanned Aerial Vehicle) 기술에 관한 것으로, 보다 상세하게는, 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 장치 및 이를 위한 방법에 관한 것이다. The present invention relates to unmanned aerial vehicle (UAV) technology, and more particularly, to an apparatus for controlling an unmanned aerial vehicle based on disaster situation complexity and a method therefor.
지진, 해일, 화재와 같이 사람이 접근하기 어려운 재난 상황에서 드론을 활용한 인명 구조 활동이 주목을 받고 있다. Lifesaving activities using drones in disaster situations that are difficult for humans to access, such as earthquakes, tsunamis, and fires, are attracting attention.
본 발명의 목적은 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 장치 및 이를 위한 방법을 제공함에 있다. An object of the present invention is to provide an apparatus for controlling an unmanned aerial vehicle based on the complexity of a disaster situation and a method therefor.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 장치는 무인항공기가 목적 위치로 비행하도록 양력을 발생시키는 구동부와, 촬영을 통해 복수의 영상을 생성하는 촬영부와, 상기 복수의 영상에서 객체를 검출하는 검출부와, 상기 복수의 영상에서 검출부가 검출한 객체를 추적하는 추적부와, 상기 복수의 영상을 기초로 재난 상황 여부를 판단하고, 상기 판단 결과, 재난 상황이면, 상기 복수의 영상을 기초로 재난 상황 복잡도를 산출하는 분석부와, 상기 산출된 재난 상황 복잡도에 따라 상기 구동부를 통해 무인항공기의 비행 방향을 제어하고 상기 촬영부의 촬영 주기를 제어하는 제어부를 포함한다. An apparatus for controlling an unmanned aerial vehicle based on the complexity of a disaster situation according to a preferred embodiment of the present invention for achieving the above object includes a driving unit that generates lift so that the unmanned aerial vehicle flies to a target location, and a plurality of A photographing unit generating an image of, a detecting unit detecting an object from the plurality of images, a tracking unit tracking the object detected by the detecting unit in the plurality of images, and determining whether a disaster situation exists based on the plurality of images and, as a result of the determination, if it is a disaster situation, an analysis unit that calculates disaster situation complexity based on the plurality of images, and controls the flight direction of the unmanned aerial vehicle through the driving unit according to the calculated disaster situation complexity, and the photographing unit It includes a control unit for controlling the photographing period.
상기 분석부는 상기 복수의 영상에서 검출된 객체 중 요구조자 존재 여부, 요구조자의 수, 요구조자의 수의 증감 및 요구조자의 밀도에 따라 재난 상황 복잡도를 산출하는 것을 특징으로 한다. The analysis unit is characterized in that the disaster situation complexity is calculated according to the presence or absence of a requester among the objects detected in the plurality of images, the number of requesters, the increase/decrease in the number of requesters, and the density of the requesters.
상기 제어부는 상기 산출된 재난 상황 복잡도가 기 설정된 임계 수준 이상이면, 상기 촬영부의 촬영 주기를 기 설정된 기준치 이상으로 증가시켜 촬영하도록 제어하고, 상기 산출된 재난 상황 복잡도가 기 설정된 임계 수준 미만이면, 상기 촬영부의 촬영 주기를 기 설정된 기준치 미만으로 감소시켜 촬영하도록 제어하는 것을 특징으로 한다. When the calculated disaster situation complexity is greater than or equal to a preset threshold level, the controller controls the photographing unit to increase the photographing period to a preset reference value or more, and when the calculated disaster situation complexity is less than a preset threshold level, the It is characterized in that the photographing unit is controlled to photograph by reducing the photographing period to less than a preset reference value.
상기 제어부는 상기 산출된 재난 상황 복잡도가 소정의 임계 수준 이상이면, 상기 요구조자의 위치가 상기 촬영부가 촬영하는 영상의 중심에 위치하도록 상기 구동부를 제어하여 무인항공기를 이동시키는 것을 특징으로 한다. When the calculated disaster situation complexity is greater than or equal to a predetermined threshold level, the control unit controls the driving unit to move the unmanned aerial vehicle so that the position of the requestor is located at the center of the image captured by the photographing unit.
상기 장치는 관제장치와 통신을 위한 통신부와, 무인항공기의 현재의 위치 정보를 도출하는 항법부를 더 포함한다. 이에 따라, 상기 제어부는 상기 촬영부가 촬영한 영상으로부터 무인항공기를 기준으로 하는 상기 요구조자의 상대적 위치를 검출하고, 상기 항법부를 통해 무인항공기의 지리적 위치를 도출하고, 상기 무인항공기의 지리적 위치를 기초로 상기 요구조자의 상대적 위치를 지리적 위치로 변환한 후, 상기 변환된 지리적 위치를 상기 통신부를 통해 상기 관제장치로 전송할 수 있다. The device further includes a communication unit for communication with the control device, and a navigation unit for deriving current location information of the unmanned aerial vehicle. Accordingly, the control unit detects the relative position of the requesting party with respect to the unmanned aerial vehicle from the image captured by the photographing unit, derives the geographical position of the unmanned aerial vehicle through the navigation unit, and based on the geographical position of the unmanned aerial vehicle After converting the relative location of the requestor into a geographic location, the converted geographic location may be transmitted to the control device through the communication unit.
상기 제어부는 상기 산출된 재난 상황 복잡도가 소정의 임계 수준 미만이면, 상기 목적 위치를 중심으로 무인항공기가 선회하도록 상기 구동부를 제어하는 것을 특징으로 한다. When the calculated disaster situation complexity is less than a predetermined threshold level, the controller controls the driving unit to turn the unmanned aerial vehicle around the target location.
상기 분석부는 영상이 입력되면, 입력되는 영상이 재난 상황에 속하는지 여부에 대한 확률을 산출하여 출력하도록 학습한 인공신경망 모델인 상황판단모델을 포함한다. 이에 따라, 상기 분석부는 상기 상황판단모델이 상기 촬영부가 촬영한 영상에 대해 산출한 상기 확률에 따라 상기 재난 상황 여부를 판단할 수 있다. 즉, 상기 분석부는 상기 확률이 기 설정된 수치 이상이면, 재난 상황인 것으로 판단한다. The analysis unit includes a situation judgment model, which is an artificial neural network model learned to calculate and output a probability of whether the input image belongs to a disaster situation when an image is input. Accordingly, the analysis unit may determine whether the disaster situation exists according to the probability calculated by the situation determination model for the image captured by the photographing unit. That is, if the probability is greater than or equal to a preset value, the analysis unit determines that the disaster situation is present.
상기 검출부는 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 적어도 하나의 기 설정된 클래스에 속할 확률을 산출하여 출력하도록 학습된 인공신경망 모델인 객체분류모델을 포함한다. 이에 따라, 상기 객체분류모델이 연산을 통해 상기 촬영부가 촬영한 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 적어도 하나의 기 설정된 클래스에 속할 확률을 산출하여 출력하면, 상기 산출된 클래스에 속할 확률이 기 설정된 임계치 이상인 경우, 해당 영역박스 내에 해당 클래스의 객체가 존재하는 것으로 인식할 수 있다. The detector includes an object classification model, which is an artificial neural network model trained to calculate and output coordinates of an area box indicating an area occupied by an object included in an image and a probability that an object in the area box belongs to at least one preset class. Accordingly, if the object classification model calculates and outputs the coordinates of the area box indicating the area occupied by the object included in the image captured by the photographing unit through calculation and the probability that the object in the area box belongs to at least one preset class, , when the probability of belonging to the calculated class is equal to or greater than a preset threshold, it may be recognized that the object of the corresponding class exists in the corresponding area box.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 방법은 구동부가 무인항공기가 관제장치로부터 수신된 목적 위치로 비행하도록 양력을 발생시키는 단계와, 촬영부가 상기 목적 위치에서 촬영을 통해 복수의 영상을 생성하는 단계와, 검출부가 상기 복수의 영상에서 객체를 검출하는 단계와, 추적부가 상기 복수의 영상에서 검출한 객체를 추적하는 단계와, 분석부가 상기 복수의 영상을 기초로 재난 상황 복잡도를 산출하는 단계와, 제어부가 상기 산출된 재난 상황 복잡도에 따라 상기 무인항공기의 비행 방향을 제어하고 상기 촬영부의 촬영 주기를 제어하는 단계를 포함한다. In a method for controlling an unmanned aerial vehicle based on the complexity of a disaster situation according to a preferred embodiment of the present invention for achieving the above object, the driving unit generates lift so that the unmanned aerial vehicle flies to the target position received from the control device. generating a plurality of images by a photographing unit through photographing at the target location; detecting an object in the plurality of images by a detection unit; and tracking an object detected in the plurality of images by a tracking unit; , calculating a disaster situation complexity based on the plurality of images by an analysis unit, and a control unit controlling a flight direction of the unmanned aerial vehicle according to the calculated disaster situation complexity and controlling a shooting period of the photographing unit. .
상기 재난 상황 복잡도를 산출하는 단계는 상기 분석부가 상기 복수의 영상에서 검출된 객체 중 요구조자 존재 여부, 요구조자의 수, 요구조자의 수의 증감 및 요구조자의 밀도에 따라 재난 상황 복잡도를 산출하는 것을 특징으로 한다. The calculating of the disaster situation complexity is characterized in that the analysis unit calculates the disaster situation complexity according to the presence or absence of a requester among the objects detected in the plurality of images, the number of requesters, the increase/decrease in the number of requesters, and the density of the requesters. .
상기 제어하는 단계는 상기 제어부가 상기 산출된 재난 상황 복잡도가 기 설정된 임계 수준 이상이면, 상기 촬영부의 촬영 주기를 기 설정된 기준치 이상으로 증가시켜 촬영하도록 제어하는 것이 바람직하다. 또한, 상기 제어하는 단계는 상기 산출된 재난 상황 복잡도가 기 설정된 임계 수준 미만이면, 상기 촬영부의 촬영 주기를 기 설정된 기준치 미만으로 감소시켜 촬영하도록 제어하는 것이 바람직하다. In the controlling, if the calculated disaster situation complexity is equal to or greater than a preset threshold level, it is preferable that the controller increases the photographing period of the photographing unit to a preset reference value or more and controls the photographing operation. In addition, in the controlling step, if the calculated disaster situation complexity is less than a preset threshold level, it is preferable to reduce the photographing period of the photographing unit to be less than a predetermined reference value to control the photographing.
상기 제어하는 단계는 상기 제어부가 상기 산출된 재난 상황 복잡도가 소정의 임계 수준 이상이면, 상기 요구조자의 위치가 상기 촬영부가 촬영하는 영상의 중심에 위치하도록 상기 구동부를 제어하여 상기 무인항공기를 이동시키는 것을 특징으로 한다. In the controlling step, when the calculated disaster situation complexity is greater than or equal to a predetermined threshold level, the controlling unit controls the driving unit to move the unmanned aerial vehicle so that the position of the requestor is located at the center of the image captured by the photographing unit. characterized.
상기 제어하는 단계는 상기 제어부가 상기 촬영부가 촬영한 영상으로부터 무인항공기를 기준으로 하는 상기 요구조자의 상대적 위치를 검출하고, 상기 무인항공기의 항법부를 통해 무인항공기의 지리적 위치를 도출하고, 상기 무인항공기의 지리적 위치를 기초로 상기 요구조자의 상대적 위치를 지리적 위치로 변환한 후, 상기 변환된 지리적 위치를 상기 무인항공기의 통신부를 통해 상기 관제장치로 전송할 수 있다. In the controlling step, the control unit detects the relative position of the requesting person with respect to the unmanned aerial vehicle from the image captured by the photographing unit, derives the geographic position of the unmanned aerial vehicle through the navigation unit of the unmanned aerial vehicle, and After converting the relative location of the requestor into a geographic location based on the geographic location, the converted geographic location may be transmitted to the control device through the communication unit of the unmanned aerial vehicle.
상기 제어하는 단계는 상기 산출된 재난 상황 복잡도가 소정의 임계 수준 미만이면, 상기 제어부가 상기 구동부를 통해 상기 무인항공기가 상기 목적 위치를 중심으로 선회하도록 하는 것을 특징으로 한다. In the controlling, if the calculated disaster situation complexity is less than a predetermined threshold level, the control unit may cause the unmanned aerial vehicle to pivot around the target location through the driving unit.
상기 재난 상황 복잡도를 산출하는 단계는 상기 분석부의 상황판단모델이 상기 촬영부가 촬영한 영상이 재난 상황에 속하는지 여부에 대한 확률을 산출하는 단계와, 상기 분석부가 상기 산출된 확률에 따라 상기 재난 상황 여부를 판단하는 단계를 포함한다. 상기 분석부가 상기 산출된 확률에 따라 상기 재난 상황 여부를 판단하는 단계는 상기 분석부가 상기 산출된 확률이 기 설정된 수치 이상이면 재난 상황인 것으로 판단하는 것이 바람직하다. The calculating of the disaster situation complexity includes: calculating, by the situation determination model of the analysis unit, a probability of whether the image captured by the photographing unit belongs to a disaster situation, and the analysis unit according to the calculated probability determining whether or not In the step of the analysis unit determining whether the disaster situation exists according to the calculated probability, it is preferable that the analysis unit determine the disaster situation if the calculated probability is greater than or equal to a preset value.
상기 객체를 검출하는 단계는 상기 검출부의 객체분류모델이 연산을 통해 상기 촬영부가 촬영한 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 적어도 하나의 기 설정된 클래스에 속할 확률을 산출하여 출력하는 단계와, 상기 검출부가 상기 산출된 클래스에 속할 확률이 기 설정된 임계치 이상인 경우, 해당 영역박스 내에 해당 클래스의 객체가 존재하는 것으로 인식하는 단계를 포함한다. In the detecting of the object, coordinates of an area box indicating an area occupied by an object included in an image captured by the photographing unit through an object classification model of the detection unit and an object in the area box belong to at least one preset class calculating and outputting a probability; and recognizing that an object of the corresponding class exists in the corresponding area box when the probability that the detection unit belongs to the calculated class is equal to or greater than a preset threshold.
본 발명에 따르면, 무인항공기(UAV: Unmanned Aerial Vehicle)가 촬영한 영상을 인공지능 및 컴퓨터비전 기술을 통해 분석함으로써 상황을 인지하고, 재난 상황 복잡도를 판단한다. 그리고 재난 상황 복잡도에 따라 무인항공기의 이동 및 영상 촬영을 자체적으로 제어함으로써 인력 자원을 최소화 시키며 효율적인 제어가 가능해진다. 결과적으로 본 발명을 통해 무인항공기의 사용 전력을 최소화하면서 동시에 다수의 무인항공기을 활용할 수 있어 인명 구조 활동을 최대화 할 수 있다. According to the present invention, a situation is recognized and the complexity of a disaster situation is determined by analyzing an image captured by an unmanned aerial vehicle (UAV) through artificial intelligence and computer vision technology. In addition, by autonomously controlling the movement and video recording of the unmanned aerial vehicle according to the complexity of the disaster situation, manpower resources are minimized and efficient control becomes possible. As a result, through the present invention, it is possible to minimize the power used by the unmanned aerial vehicle and to utilize a plurality of unmanned aerial vehicles at the same time, thereby maximizing the lifesaving activity.
도 1은 본 발명의 실시예에 따른 본 발명의 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 관제장치의 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 블록도이다.
도 4 및 도 5는 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 화면 예이다.
도 6은 본 발명의 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 방법을 설명하기 위한 흐름도이다.
도 7 및 도 8은 본 발명의 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 방법을 설명하기 위한 화면 예이다. 1 is a view for explaining a system for controlling an unmanned aerial vehicle based on a disaster situation complexity according to an embodiment of the present invention according to an embodiment of the present invention.
2 is a block diagram for explaining the configuration of a control device according to an embodiment of the present invention.
3 is a block diagram for explaining the configuration of an unmanned aerial vehicle according to an embodiment of the present invention.
4 and 5 are screen examples for explaining the configuration of an unmanned aerial vehicle according to an embodiment of the present invention.
6 is a flowchart illustrating a method for controlling an unmanned aerial vehicle based on a disaster situation complexity according to an embodiment of the present invention.
7 and 8 are screen examples for explaining a method for controlling an unmanned aerial vehicle based on a disaster situation complexity according to an embodiment of the present invention.
본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, the terms or words used in the present specification and claims described below should not be construed as being limited to their ordinary or dictionary meanings, and the inventors should develop their own inventions in the best way. For explanation, it should be interpreted as meaning and concept consistent with the technical idea of the present invention based on the principle that it can be appropriately defined as a concept of a term. Accordingly, the embodiments described in this specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all of the technical spirit of the present invention, so various equivalents that can be substituted for them at the time of the present application It should be understood that there may be water and variations.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that the same components in the accompanying drawings are denoted by the same reference numerals as much as possible. In addition, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted. For the same reason, some components are exaggerated, omitted, or schematically illustrated in the accompanying drawings, and the size of each component does not fully reflect the actual size.
먼저, 본 발명의 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 시스템에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 본 발명의 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 본 발명의 실시예에 따른 본 발명의 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 시스템(이하, '제어시스템'으로 축약함)은 기본적으로, 관제장치(100) 및 무인항공기(200)를 포함한다. First, a system for controlling an unmanned aerial vehicle based on the complexity of a disaster situation according to an embodiment of the present invention will be described. 1 is a view for explaining a system for controlling an unmanned aerial vehicle based on a disaster situation complexity according to an embodiment of the present invention according to an embodiment of the present invention. 1 , a system (hereinafter, abbreviated as 'control system') for controlling an unmanned aerial vehicle based on the complexity of a disaster situation according to an embodiment of the present invention is basically a
관제장치(100)는 무선 통신을 통해 무인항공기(200)를 제어하며, 무인항공기(200)로부터 수신되는 요구조자의 위치 등의 정보를 구조자에게 제공한다. The
무인항공기(200)는 재난 현장 주변을 비행하며 재난 현장을 촬영한 후, 촬영된 영상으로부터 구조가 요구되는 요구조자의 위치를 탐지하여 관제장치(100)로 전송함으로써, 구난, 구인에 필요한 정보를 제공하는 역할을 수행한다. After the unmanned
그러면, 보다 상세히, 본 발명의 실시예에 따른 관제장치(100)에 대해서 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 관제장치의 구성을 설명하기 위한 블록도이다. 도 2를 참조하면, 본 발명의 실시예에 따른 관제장치(100)는 통신모듈(110), 입력모듈(120), 표시모듈(130), 저장모듈(140) 및 제어모듈(150)을 포함한다. Then, in more detail, the
통신모듈(110)은 무인항공기(200)와 통신을 위한 것이다. 이러한 통신모듈(110)은 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신모듈(110)은 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. 통신모듈(110)은 제어모듈(150)로부터 전달 받은 무인항공기(200)를 제어하기 위한 다양한 제어 명령을 수신하여 무인항공기(200)로 전송할 수 있다. 특히, 재난 상황이 발생한 경우, 무인항공기(200)가 재난 현장으로 이동하도록 재난 현장의 위치를 나타내는 지리적 위치, 즉, GPS 좌표를 무인항공기(200)로 전송할 수 있다. 또한, 통신모듈(110)은 무인항공기(200)로부터 다양한 데이터, 영상 등을 수신하여 제어모듈(150)로 전달할 수 있다. The
입력모듈(120)은 관제장치(100)의 각 종 기능, 동작 등을 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어모듈(150)에 전달한다. 입력모듈(120)은 전원을 켜거나, 끄기 위한 전원 키를 비롯하여, 관제장치(100)에 특정 입력을 위한 문자 키, 숫자 키, 방향키 등의 다양한 키를 포함할 수 있다. 입력모듈(120)의 기능은 표시모듈(130)이 터치스크린으로 구현된 경우, 표시모듈(130)에서 이루어질 수 있으며, 표시모듈(130)만으로 모든 기능을 수행할 수 있는 경우, 입력모듈(120)은 생략될 수도 있다. The
표시모듈(130)은 제어모듈(150)로부터 화면 표시를 위한 데이터를 수신하여 수신된 데이터를 화면으로 표시할 수 있다. 예컨대, 본 발명의 실시예에 따른 재난 현장의 영상, 요구조자의 영상, 요구조자의 위치 등을 수신하면 제어모듈(150)은 재난 현장의 영상, 요구조자의 영상, 요구조자의 위치를 표시하도록 하는 데이터를 제공하고, 표시모듈(130)은 이를 화면으로 표시한다. 또한, 표시모듈(130)은 관제장치(100)의 메뉴, 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공할 수 있다. 표시모듈(130)이 터치스크린으로 형성되는 경우, 입력모듈(120)의 기능의 일부 또는 전부를 대신 수행할 수 있다. 표시모듈(130)은 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. The
저장모듈(140)은 관제장치(100)의 동작에 필요한 각 종 데이터, 애플리케이션, 관제장치(100)의 동작에 따라 발생된 각 종 데이터를 저장한다. 이러한 저장모듈(140)은 스토리지, 메모리 등이 될 수 있다. 특히, 저장모듈(140)은 선택적으로, 관제장치(100)의 부팅(booting) 및 운영(operation)을 위한 운영체제(OS, Operating System), 본 발명의 실시예에 따른 애플리케이션을 저장할 수 있다. 저장모듈(140)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The
제어모듈(150)은 관제장치(100)의 전반적인 동작 및 관제장치(100)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어모듈(150)은 중앙 처리 장치(Central Processing Unit : CPU), 애플리케이션 프로세서(Application Processor), GPU(Graphic Processing Unit) 등이 될 수 있다. 제어모듈(150)은 재난 상황이 발생한 경우, 무인항공기(200)가 재난 현장으로 이동하도록 재난 현장의 위치를 나타내는 지리적 위치, 즉, GPS 좌표를 포함하는 출동 명령을 통신모듈(100)을 통해 무인항공기(200)로 전송할 수 있다. 또한, 제어모듈(150)은 통신모듈(110)을 통해 무인항공기(200)로부터 재난 현장의 영상, 요구조자의 위치 정보 등을 수신하면, 수신된 영상 및 요구조자의 위치 정보 등을 구조자가 식별할 수 있도록 표시모듈(130)을 통해 표시하도록 제어할 수 있다. 그 밖에 제어모듈(150)의 동작은 아래에서 보다 상세하게 설명될 것이다. The
다음으로, 본 발명의 실시예에 따른 무인항공기(200)에 대해서 설명하기로 한다. 도 3은 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 블록도이다. 도 4 및 도 5는 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 화면 예이다. Next, the unmanned
도 3을 참조하면, 본 발명의 실시예에 따른 무인항공기(200)는 촬영부(210), 검출부(220), 추적부(230), 분석부(240), 항법부(250), 구동부(260), 통신부(270), 저장부(280) 및 제어부(290)를 포함한다. Referring to FIG. 3 , the unmanned
촬영부(210)는 재난 현장에 대한 영상을 촬영하기 위한 것이다. 촬영부(210)는 촬영을 통해 복수의 영상을 생성한다. 이러한 촬영부(210)는 렌즈, 이미지센서 및 컨버터를 포함한다. 그 밖에, 소정의 필터 등이 촬영부(210)의 구성으로 더 포함될 수 있으며, 기구적으로, 렌즈, 이미지 센서 및 컨버터는 액추에이터(actuator)를 포함하는 하우징 내에 장착되고, 이러한 액추에이터를 구동시키는 드라이버 등이 촬영부(210)에 포함될 수 있다. 렌즈는 촬영부(210)에 입사되는 가시광선이 이미지 센서 상에 초점이 맺히도록 한다. 이미지 센서는 반도체 소자의 제조 기술을 이용하여 집적된 광전변환소자이다. 이미지 센서는 예컨대, CCD(charge-coupled device) 이미지 센서 혹은 CMOS(complementary metal-oxide semiconductor) 이미지 센서가 될 수 있다. 이러한 이미지 센서는 가시광선을 감지하여 영상을 구성하는 아날로그 신호인 아날로그 영상 신호를 출력한다. 그러면, 컨버터는 아날로그 영상 신호를 영상을 구성하는 디지털 신호인 디지털 영상 신호로 변환하여 제어부(290)로 전달한다. 특히, 본 발명의 실시예에 따른 촬영부(210)는 3D 센서(깊이 센서)를 포함할 수 있다. 3D 센서는 비접촉 방식으로 영상의 각 픽셀에 대한 3차원 좌표를 획득하기 위한 센서이다. 촬영부(210)는 객체를 촬영함과 동시에 3D 센서를 통해 촬영된 영상의 각 픽셀에 대한 3차원 좌표의 좌표값(예컨대, x, y, z값)을 검출할 수 있다. 이때, 3차원 좌표의 좌표값은 촬영부(210)의 이미지 센서의 초점을 0점으로 하였을 때의 좌표값이다. 3D 센서는 레이저, 적외선, 가시광 등을 이용하는 다양한 방식의 센서를 이용할 수 있다. 이러한 3D 센서는 TOP(Time of Flight), 위상변위(Phase-shift) 및 온라인 웨이브폼 분석(Online Waveform Analysis) 중 어느 하나를 이용하는 레이저 방식 3차원 스캐너, 광 삼각법을 이용하는 레이저 방식 3차원 스캐너, 백색광 혹은 변조광을 이용하는 광학방식 3차원 스캐너, 핸드헬드 리얼 타임(Handheld Real Time) 방식의 사진촬영(PHOTO), 광학방식 3차원 스캐너, 패턴 프로젝션(Pattern Projection) 혹은 라인 스캐닝(Line Scanning)을 이용하는 광학방식, 레이저 방식 전신 스캐너, 사진 측량(Photogrammetry)을 이용하는 사진방식 스캐너, 키네틱 퓨전(Kinect Fusion)을 이용하는 실시간(Real Time) 스캐너 등을 예시할 수 있다. 이에 따라, 촬영부(210)는 촬영된 영상에서 3차원의 좌표를 추출할 수 있으며, 이에 따라, 촬영부(210)의 현재 위치, 즉, 무인항공기(200)의 현재의 지리적 위치(GPS 좌표)로부터 촬영된 영상까지의 실제 거리를 측정할 수 있다. 무인항공기(200)의 현재의 지리적 위치(GPS 좌표)는 항법부(250)에 의해 획득할 수 있다. The photographing
촬영부(210)는 소정 주기로 영상을 촬영한다. 특히, 촬영부(210)는 제어부(290)의 제어에 따라 영상 촬영의 주기를 조절할 수 있다. 이때, 촬영부(210)는 재난 상황 복잡도가 높을수록 상대적으로 촬영 주기는 짧으며, 재난 상황 복잡도가 낮을수록 상대적으로 촬영 주기가 길게 조절한다. The photographing
검출부(220)는 촬영부(210)가 촬영한 복수의 영상으로부터 적어도 하나의 기 설정된 클래스의 객체를 검출한다. 특히, 검출부(220)는 촬영부(210)가 촬영한 영상에서 사람 클래스(person class)의 객체로 요구조자를 검출할 수 있다. 또한, 검출부(220)는 촬영부(210)가 촬영한 영상에서 요구조자와 구조에 도움이 될 만한 객체, 예컨대, 소화기, 소화전, 자동차, 자전거, 오토바이 등을 검출할 수 있다. The
예컨대, 검출부(220)는 도 4에 도시된 바와 같이, 영상에서 객체(obj)가 차지하는 영역을 나타내는 영역박스(B: Bounding Box)의 좌표(x, y, w, h) 및 해당 객체(obj)가 적어도 하나의 기 설정된 클래스(예컨대, Person class, Car class, Tree class 등)에 속할 확률(예컨대, Person = 0.88, Car = 0.01, Person = 0.11)을 출력하도록 학습된 인공신경망 모델인 객체분류모델을 포함한다. 이러한 객체분류모델은 YOLO, YOLOv2, YOLO9000, YOLOv3 등을 예시할 수 있다. 영역박스(B)의 좌표 중 x, y, 는 영상에서 영역박스(B)의 중심 좌표이며, w는 폭, h는 높이를 나타낸다. For example, as shown in FIG. 4 , the
검출부(220)는 객체분류모델에 촬영부(210)가 촬영한 영상을 입력하여 객체분류모델이 촬영부(210)가 촬영한 영상에 대한 연산을 통해 영역박스(B)의 좌표(x, y, w, h) 및 영역박스(B) 내의 객체가 적어도 하나의 기 설정된 클래스에 속할 확률을 출력하면, 출력된 적어도 하나의 기 설정된 클래스에 속할 확률이 기 설정된 임계치(예컨대, 0.80 = 80%) 이상이면, 영역박스(B) 내에 해당 클래스의 객체가 존재하는 것으로 인식하고, 이를 검출할 수 있다. The
또한, 검출부(220)는 제어부(290)의 제어에 따라 영역박스(B)의 중심 좌표(x, y)를 지리적 좌표, 즉, GPS 좌표로 변환할 수 있다. 즉, 검출부(220)는 항법부(250)를 통해 도출된 무인항공기(200)의 현재의 지리적 위치(GPS 위치) 및 촬영부(210)의 3D 센서(깊이 센서)를 통해 도출되는 무인항공기(200)로부터 촬영된 영역박스(B)의 객체까지의 거리를 통해 중심 좌표(x, y)를 지리적 좌표(GPS 좌표)로 변환할 수 있다. Also, the
추적부(230)는 촬영부(210)가 촬영한 복수의 영상에서 검출부(220)가 검출한 복수의 객체를 추적하기 위한 것이다. 추적부(230)는 촬영부(210)가 촬영한 복수의 영상이 시간 순서로 존재할 때, 이전 영상에서 검출부(220)가 검출한 객체와 현재 영상에서 검출부(220)가 검출한 객체 간의 동일한 객체인지 여부를 판단하고, 일련번호를 부여한다. 이에 따라, 추적부(230)는 개별 객체를 모두 구분하여 객체를 추적할 수 있다. 예컨대, 추적부(230)는 도 5의 (a)의 영상과 같이, 검출된 사람 객체에 일련번호 ①을 부여하고 차량 두 대에 일련번호 ② 및 ③을 부여한다. 또한, 도 5의 (a)에서 포커스가 변경된 도 5의 (b)와 같은 영상에서와 같이, 동일한 객체인 사람 및 차량 객체에 일련번호 ① 및 ②가 유지되고, 새로 검출된 차량 객체에 일련번호 ④를 할당함으로써 중복을 피할 수 있다. The
분석부(240)는 촬영부(210)가 촬영한 복수의 영상으로부터 재난 상황 여부를 확인하기 위한 것이다. 분석부(240)는 영상이 입력되면, 입력되는 영상이 재난 상황에 속하는지 여부에 대한 확률을 산출하여 출력하도록 학습한 인공신경망 모델인 상황판단모델을 포함한다. 이러한 상황판단모델은 대표적으로, CNN(convolution neural network)을 통해 생성할 수 있으며, 예컨대 기존에 알려진 딥러닝 기반의 모델로 재난 장면(예를 들어, 화재, 지진, 홍수, 산사태 등)을 학습한 이미지 분류를 이용하여 판별이 가능하다. 분석부(240)는 상황판단모델에 촬영부(210)가 촬영한 영상을 입력한다. 그러면, 상황판단모델은 촬영부(210)가 촬영한 영상에 대해 연산을 통해 재난 상황에 속하는지 여부에 대한 확률을 산출한다. 예컨대, 상황판단모델은 재난 상황일 확률 및 재난 상황이 아닐 확률을 출력할 수 있다. 그러면, 분석부(240)는 상황판단모델의 출력, 즉, 재난 상황에 속하는지 여부에 대한 확률에 따라 재난 상황 여부를 확인할 수 있다. 이때, 분석부(240)는 재난 상황일 확률이 기 설정된 수치 이상인 경우에 재난 상황인 것으로 판단한다. 예컨대, 기 설정된 수치가 75%라고 가정한다. 일례로, 상황판단모델의 출력이 재난 상황일 확률 70% 그리고 재난 상황이 아닐 확률이 30%이면, 분석부(240)는 재난 상황이 아닌 것으로 판단한다. 다른 예로, 상황판단모델의 출력이 재난 상황일 확률 76% 그리고 재난 상황이 아닐 확률이 24%이면, 분석부(240)는 재난 상황인 것으로 판단한다. The
또한, 분석부(240)는 재난 상황인 경우, 재난 상황 복잡도를 산출할 수 있다. 재난 상황 복잡도는 현재 영상에 존재하는 요구조자의 수와 재난 상황 판별을 통해 복합적으로 계산한다. 일 실시예에 따르면, 분석부(240)는 복수의 영상에서 검출된 객체 중 요구조자(예컨대, Person class) 존재 여부, 요구조자의 수, 요구조자의 수의 증감 및 요구조자의 밀도에 따라 재난 상황 복잡도를 산출할 수 있다. 분석부(240)는 예컨대, 재난 상황의 복잡도를 양호, 주의, 심각, 긴급의 4단계로 구분할 수 있다. Also, in the case of a disaster situation, the
항법부(250)는 무인항공기(200)의 현재의 지리적 위치(위도, 경도, 고도) 및 자세(yaw, roll, pitch) 등을 측정하기 위한 것이다. 이러한 항법부(250)는 GPS 위성으로부터 GPS 신호를 수신하기 위한 GPS 신호 수신 모듈, 모션을 측정하기 위한 자이로센서, 각속도, 가속도 등의 센서를 포함한다. 항법부(250)는 GPS 신호 및 센서들이 측정한 센서값을 이용하여 현재의 지리적 위치 및 자세를 측정하고, 측정된 현재 지리적 위치 및 자세를 제어부(290)로 전송한다. The
구동부(260)는 양력을 발생시켜 무인항공기(200)가 비행할 수 있도록 하기 위한 것이다. 이러한 구동부(260)는 프로펠러, 모터 등을 포함한다. 구동부(260)는 제어부(290)의 제어에 따른 방향 및 속도로 무인항공기(200)를 비행하도록 한다. 특히, 구동부(260)는 제어부(290)의 제어에 따라 소정 영역 내에서 무인항공기(200)가 정지 비행(hovering)할 수 있도록 프로펠러의 회전 속도를 조절할 수 있다. 특히, 구동부(260)는 제어부(290)의 제어에 따라 무인항공기(200)가 항법부(250)가 현재 위치로부터 재난 현장의 위치로 설정한 경로를 따라 비행하도록 프로펠러, 모터 등을 구동시킬 수 있다. 구동부(260)는 제어부(290)의 제어에 따라 요구조자의 위치가 촬영부(210)가 촬영하는 영상의 중심에 위치하도록 프로펠러, 모터 등을 구동시켜 무인항공기(200)를 이동시킬 수 있다. 또한, 구동부(260)는 제어부(290)의 제어에 따라 무인항공기(200)가 재난 현장을 선회하도록 프로펠러, 모터 등을 구동시킬 수 있다. The driving
통신부(270)는 관제장치(100) 혹은 다른 무인항공기(200)와 통신하기 위한 것이다. 통신부(270)는 송신하기 위한 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신부(270)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. 통신부(270)는 제어부(290)의 제어에 따라 재난 현장의 영상, 요구조자의 영상, 요구조자의 위치 등을 관제장치(100)로 전송한다. The
저장부(280)는 무인항공기(200)의 동작에 필요한 각 종 데이터, 애플리케이션, 무인항공기(200)의 동작에 따라 발생된 각 종 데이터를 저장한다. 이러한 저장부(280)는 스토리지, 메모리 등이 될 수 있다. 특히, 저장부(280)는 선택적으로, 무인항공기(200)의 부팅(booting) 및 운영(operation)을 위한 운영체제(OS, Operating System), 본 발명의 실시예에 따른 재난 현장의 영상, 검출된 객체, 요구조자의 영상, 요구조자의 위치 등의 데이터를 저장할 수 있다. 저장부(280)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The
제어부(290)는 무인항공기(200)의 전반적인 동작 및 무인항공기(200)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(290)는 중앙 처리 장치(Central Processing Unit : CPU), 애플리케이션 프로세서(Application Processor), GPU(Graphic Processing Unit) 등이 될 수 있다. The
제어부(290)는 재난 상황 복잡도에 따라 구동부(260)를 통해 무인항공기(200)의 비행 방향을 제어할 수 있다. 이때, 제어부(290)는 산출된 재난 상황 복잡도가 소정의 임계 수준 이상이면, 요구조자의 위치가 촬영부(210)가 촬영하는 영상의 중심에 위치하도록 구동부(260)를 제어하여 무인항공기(200)를 이동시킨다. 반면, 제어부(290)는 산출된 재난 상황 복잡도가 소정의 임계 수준 미만이면, 구동부(260)를 제어하여 재난 현장을 중심으로 무인항공기(200)가 선회하도록 할 수 있다. The
제어부(290)는 재난 상황 복잡도에 따라 촬영부(210)의 촬영 주기를 제어할 수 있다. 이때, 제어부(290)는 분석부(240)가 산출한 재난 상황 복잡도가 기 설정된 임계 수준 이상이면, 촬영부(210)의 촬영 주기를 기 설정된 기준치 미만으로 감소시켜 촬영하도록 제어한다. 반면, 분석부(240)가 산출한 재난 상황 복잡도가 기 설정된 임계 수준 미만이면, 촬영부(210)의 촬영 주기를 기 설정된 기준치 이상으로 증가시켜 촬영하도록 제어한다. The
이러한 제어부(290)의 동작은 아래에서 보다 상세하게 설명될 것이다. The operation of the
다음으로, 본 발명의 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 방법에 대해서 설명하기로 한다. 도 6은 본 발명의 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 방법을 설명하기 위한 흐름도이다. 그리고 도 7 및 도 8은 본 발명의 실시예에 따른 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 방법을 설명하기 위한 화면 예이다. Next, a method for controlling an unmanned aerial vehicle based on the complexity of a disaster situation according to an embodiment of the present invention will be described. 6 is a flowchart illustrating a method for controlling an unmanned aerial vehicle based on a disaster situation complexity according to an embodiment of the present invention. 7 and 8 are screen examples for explaining a method for controlling an unmanned aerial vehicle based on a disaster situation complexity according to an embodiment of the present invention.
도 6을 참조하면, 무인항공기(200)의 제어부(290)는 S110 단계에서 통신부(270)를 통해 관제장치(100)로부터 목적 위치에 대한 위치 정보를 지리적 위치(GPS 좌표)로 수신하고, 항법부(250)를 통해 현재 위치로부터 수신된 목적 위치로 경로를 설정하고 해당 경로를 따라 비행하도록 구동부(260)를 제어하여 수신된 목적 위치로 이동한다. 여기서, 관제장치(100)로부터 수신된 목적 위치는 재난 현장의 위치가 될 수 있다. Referring to FIG. 6 , the
목적 위치에 도착하면 제어부(290)는 S120 단계에서 촬영부(210)를 통해 현장을 촬영한다. 그러면, 검출부(220)는 S140 단계에서 촬영부(210)가 촬영한 복수의 영상에서 객체를 검출한다. 예컨대, 검출부(220)는 도 4에 도시된 바와 같이, 영상에서 객체(obj)가 차지하는 영역을 나타내는 영역박스(B: Bounding Box)의 좌표(x, y, w, h) 및 해당 객체(obj)가 적어도 하나의 기 설정된 클래스(예컨대, Person class, Car class, Tree class 등)에 속할 확률(예컨대, Person = 0.88, Car = 0.01, Person = 0.11)을 출력하도록 학습된 인공신경망 모델인 객체분류모델을 포함한다. 이에 따라, 검출부(220)는 객체분류모델에 촬영부(210)가 촬영한 영상을 입력하여 객체분류모델이 촬영부(210)가 촬영한 영상에 대한 연산을 통해 영역박스(B)의 좌표(x, y, w, h) 및 영역박스(B) 내의 객체가 적어도 하나의 기 설정된 클래스에 속할 확률을 출력하면, 출력된 적어도 하나의 기 설정된 클래스에 속할 확률이 기 설정된 임계치(예컨대, 0.80 = 80%) 이상이면, 영역박스(B) 내에 해당 클래스의 객체가 존재하는 것으로 인식하고, 이를 검출한다. When arriving at the target location, the
이어서, 추적부(230)는 S150 단계에서 촬영부(210)가 촬영한 복수의 영상에서 검출부(220)가 검출한 객체를 추적한다. 이때, 추적부(230)는 검출부(220)가 검출한 객체의 일련번호를 할당하고 추적한다. 이에 따라, 모든 객체를 중복 없이 계수할 수 있다. 예컨대, 추적부(230)는 도 5의 (a)의 영상과 같이, 검출된 사람 객체에 일련번호 ①을 부여하고 차량 두 대에 일련번호 ② 및 ③을 부여한다. 또한, 도 5의 (a)에서 포커스가 변경된 도 5의 (b)와 같은 영상에서와 같이, 동일한 객체인 사람 및 차량 객체에 일련번호 ① 및 ②가 유지되고, 새로 검출된 차량 객체에 일련번호 ④를 할당함으로써 중복을 피할 수 있다. Subsequently, the
다음으로, 분석부(240)는 S160 단계에서 촬영부(210)가 촬영한 복수의 영상을 기초로 재난 상황인지 여부 및 재난 상황 복잡도를 산출한다. 이때, 분석부(240)는 촬영부(210)가 촬영한 영상으로부터 재난 상황 여부를 확인한다. 이는 제어부(290)의 제어에 따라 이루어질 수 있다. 전술한 바와 같이, 분석부(240)는 영상이 입력되면, 입력되는 영상이 재난 상황에 속하는지 여부에 대한 확률을 산출하여 출력하도록 학습한 인공신경망 모델인 상황판단모델을 포함한다. 이에 따라, 분석부(240)는 상황판단모델에 촬영부(210)가 촬영한 영상을 입력하며, 상황판단모델이 촬영부가 촬영한 영상에 대해 산출한 재난 상황에 속하는지 여부에 대한 확률에 따라 재난 상황 여부를 확인할 수 있다. 이와 같이, 재난 상황인 것인 것으로 판단된 경우, 분석부(240)는 복수의 영상에서 검출된 객체 중 요구조자(예컨대, Person class) 존재 여부, 요구조자의 수, 요구조자의 수의 증감 및 요구조자의 밀도에 따라 재난 상황 복잡도를 산출할 수 있다. Next, the
그런 다음, 제어부(290)는 S170 단계에서 분석부(240)가 산출한 재난 상황 복잡도에 따라 무인항공기(200)를 제어한다. Then, the
S170 단계의 일례로, 제어부(290)는 재난 상황 복잡도에 따라 구동부(260)를 통해 무인항공기(200)의 비행 방향을 제어할 수 있다. As an example of step S170 , the
보다 구체적으로 설명하면, 제어부(290)는 산출된 재난 상황 복잡도가 소정의 임계 수준 이상이면, 요구조자의 위치가 촬영부(210)가 촬영하는 영상의 중심에 위치하도록 구동부(260)를 제어하여 무인항공기(200)를 이동시킨다. 예컨대, 도 7의 (c)에 도시된 바에 따르면, 검출된 객체인 요구조자(R)는 화면의 측면에 위치한다. 따라서 제어부(290)는 요구조자(R)의 위치가 도 7의 (d)에 도시된 바와 같이 촬영부(210)가 촬영하는 영상의 중심에 위치하도록 구동부(260)를 제어하여 무인항공기(200)를 이동시킬 수 있다. More specifically, if the calculated disaster situation complexity is greater than or equal to a predetermined threshold level, the
이와 같이, 요구조자(R)의 위치가 도 7의 (d)에 도시된 바와 같이 촬영부(210)가 촬영하는 영상의 중심에 위치할 때, 제어부(290)는 요구조자의 지리적 위치를 검출하고, 검출된 요구조자의 지리적 위치를 통신부(270)를 통해 관제장치(100)로 전송할 수 있다. 보다 구체적으로 설명하면 다음과 같다. 제어부(290)는 촬영부(210)가 촬영한 영상으로부터 무인항공기(200)를 기준으로 하는 요구조자의 상대적 위치를 검출하고, 항법부(250)를 통해 무인항공기(200)의 지리적 위치, 즉, GPS 좌표를 도출한다. 그런 다음, 제어부(290)는 무인항공기(200)의 지리적 위치를 기초로 요구조자의 상대적 위치를 지리적 위치로 변환한 후, 변환된 지리적 위치를 통신부(270)를 통해 관제장치(100)로 전송할 수 있다. As such, when the position of the requesting party R is located in the center of the image photographed by the photographing
반면, 제어부(290)는 산출된 재난 상황 복잡도가 소정의 임계 수준 미만이면, 구동부(260)를 제어하여 목적 위치(GPS 좌표)를 중심으로 무인항공기(200)가 선회하도록 할 수 있다. 이때, 제어부(290)는 앞서(S110) 수신된 목적 위치(GPS 좌표)를 중심축으로 소정 거리 이격되어 원주의 경로를 생성하고, 생성된 경로를 따라 비행하며 촬영부(210)를 통해 재난 현장을 촬영 및 모니터링할 수 있다. On the other hand, if the calculated disaster situation complexity is less than a predetermined threshold level, the
S170 단계의 다른 예로, 제어부(290)는 재난 상황 복잡도에 따라 촬영부(210)의 촬영 주기를 제어할 수 있다. 이는 제어부(290)가 무인항공기(200)의 전력 효율을 높이고 효과적인 구조 활동을 위해 재난 상황 복잡도에 따라 촬영 주기를 유동적으로 변경하는 것이다. As another example of step S170 , the
즉, 제어부(290)는 분석부(240)가 산출한 재난 상황 복잡도가 기 설정된 임계 수준 이상이면, 촬영부(210)의 촬영 주기를 기 설정된 기준치 미만으로 감소시켜 촬영하도록 제어한다. 반면, 분석부(240)가 산출한 재난 상황 복잡도가 기 설정된 임계 수준 미만이면, 촬영부(210)의 촬영 주기를 기 설정된 기준치 이상으로 증가시켜 촬영하도록 제어한다. That is, when the disaster situation complexity calculated by the
예컨대, 도 8의 (e)의 제1 영상들을 참조하면, 만일 촬영 주기가 길어 t=2 에 해당하는 영상을 촬영하지 못한다면 부정확한 객체 검출이 발생할 수 있다. 제1 영상들과 같이, 복수의 요구조자가 밀집해 있는 복잡한 재난 상황에서는 촬영 주기를 짧게 잡아 최대한 많은 객체들을 검출할 수 있도록 한다. 반대로 도 8의 (f)의 제2 영상들과 같이 상대적으로 재난 상황 복잡도가 낮은 경우에는 충분히 촬영 주기를 길게 잡더라도 오류 없이 정확한 객체 검출 및 추적을 수행할 수 있다. 즉, 도 8의 (f)의 제2 영상들의 경우, t=2에서 촬영한 영상이 없는 경우에도 객체 검출 및 추적에 문제가 없다. 더욱이, 이러한 경우 촬영 주기를 길게 잡아 불필요한 연산을 제거할 수 있어 무인항공기(200)의 전력 효율이 올라가게 되고, 이는 재난 상황에서 무인항공기(200)의 장시간 비행을 가능하게 해 효과적인 인명 구조 활동을 하는 데 도움이 될 수 있다. For example, referring to the first images of FIG. 8(e) , if the image corresponding to t=2 cannot be captured because the capturing period is long, inaccurate object detection may occur. As in the first images, in a complex disaster situation in which a plurality of users are concentrated, the shooting period is shortened to detect as many objects as possible. Conversely, when the complexity of a disaster situation is relatively low as in the second images of FIG. 8(f) , accurate object detection and tracking can be performed without error even if the shooting period is sufficiently long. That is, in the case of the second images of FIG. 8(f), there is no problem in object detection and tracking even when there is no image taken at t=2. Moreover, in this case, the power efficiency of the unmanned
한편, 앞서 설명된 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Meanwhile, the method according to the embodiment of the present invention described above may be implemented in the form of a program readable through various computer means and recorded in a computer readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language wires such as those generated by a compiler, but also high-level language wires that can be executed by a computer using an interpreter or the like. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. Although the present invention has been described above using several preferred embodiments, these examples are illustrative and not restrictive. As such, those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made in accordance with the doctrine of equivalents without departing from the spirit of the present invention and the scope of rights set forth in the appended claims.
100: 관제장치
110: 통신모듈
120: 입력모듈
130: 표시모듈
140: 저장모듈
150: 제어모듈
200: 무인항공기
210: 촬영부
220: 검출부
230: 추적부
240: 분석부
250: 항법부
260: 구동부
270: 통신부
280: 저장부
290: 제어부 100: control device 110: communication module
120: input module 130: display module
140: storage module 150: control module
200: unmanned aerial vehicle 210: filming unit
220: detection unit 230: tracking unit
240: analysis unit 250: navigation unit
260: driving unit 270: communication unit
280: storage unit 290: control unit
Claims (16)
무인항공기가 목적 위치로 비행하도록 양력을 발생시키는 구동부;
촬영을 통해 복수의 영상을 생성하는 촬영부;
상기 복수의 영상에서 객체를 검출하는 검출부;
상기 복수의 영상에서 검출부가 검출한 객체를 추적하는 추적부;
상기 복수의 영상을 기초로 재난 상황 여부를 판단하고, 상기 판단 결과, 재난 상황이면, 상기 복수의 영상을 기초로 재난 상황 복잡도를 산출하는 분석부; 및
상기 산출된 재난 상황 복잡도에 따라 상기 구동부를 통해 무인항공기의 비행 방향을 제어하고 상기 촬영부의 촬영 주기를 제어하는 제어부;
를 포함하는 것을 특징으로 하는,
무인항공기를 제어하기 위한 장치. In the device for controlling the unmanned aerial vehicle based on the complexity of the disaster situation,
a driving unit for generating lift so that the unmanned aerial vehicle flies to a target position;
a photographing unit generating a plurality of images through photographing;
a detector for detecting an object from the plurality of images;
a tracking unit for tracking the object detected by the detection unit in the plurality of images;
an analysis unit that determines whether a disaster situation exists based on the plurality of images, and if the determination result is a disaster situation, calculates disaster situation complexity based on the plurality of images; and
a control unit for controlling a flight direction of the unmanned aerial vehicle through the driving unit according to the calculated disaster situation complexity and controlling a photographing period of the photographing unit;
characterized in that it comprises,
A device for controlling an unmanned aerial vehicle.
상기 분석부는
상기 복수의 영상에서 검출된 객체 중 요구조자 존재 여부, 요구조자의 수, 요구조자의 수의 증감 및 요구조자의 밀도에 따라 재난 상황 복잡도를 산출하는 것을 특징으로 하는
무인항공기를 제어하기 위한 장치. According to claim 1,
The analysis unit
Disaster situation complexity is calculated according to the presence or absence of a requester among the objects detected in the plurality of images, the number of requesters, the increase/decrease in the number of persons in need, and the density of persons in need
A device for controlling an unmanned aerial vehicle.
상기 제어부는
상기 산출된 재난 상황 복잡도가 기 설정된 임계 수준 이상이면,
상기 촬영부의 촬영 주기를 기 설정된 기준치 이상으로 증가시켜 촬영하도록 제어하고,
상기 산출된 재난 상황 복잡도가 기 설정된 임계 수준 미만이면,
상기 촬영부의 촬영 주기를 기 설정된 기준치 미만으로 감소시켜 촬영하도록 제어하는 것을 특징으로 하는
무인항공기를 제어하기 위한 장치. According to claim 1,
the control unit
If the calculated disaster situation complexity is greater than or equal to a preset threshold level,
Controlling the photographing by increasing the photographing period of the photographing unit to more than a preset reference value,
If the calculated disaster situation complexity is less than a preset threshold level,
Controlling the photographing by reducing the photographing period of the photographing unit to less than a preset reference value
A device for controlling an unmanned aerial vehicle.
상기 제어부는
상기 산출된 재난 상황 복잡도가 소정의 임계 수준 이상이면, 상기 요구조자의 위치가 상기 촬영부가 촬영하는 영상의 중심에 위치하도록 상기 구동부를 제어하여 무인항공기를 이동시키는 것을 특징으로 하는
무인항공기를 제어하기 위한 장치. According to claim 1,
the control unit
When the calculated disaster situation complexity is greater than or equal to a predetermined threshold level, the driving unit is controlled to move the unmanned aerial vehicle so that the position of the requestor is located at the center of the image captured by the photographing unit.
A device for controlling an unmanned aerial vehicle.
상기 장치는
관제장치와 통신을 위한 통신부; 및
무인항공기의 현재의 위치 정보를 도출하는 항법부;를 더 포함하며,
상기 제어부는
상기 촬영부가 촬영한 영상으로부터 무인항공기를 기준으로 하는 상기 요구조자의 상대적 위치를 검출하고, 상기 항법부를 통해 무인항공기의 지리적 위치를 도출하고, 상기 무인항공기의 지리적 위치를 기초로 상기 요구조자의 상대적 위치를 지리적 위치로 변환한 후,
상기 변환된 지리적 위치를 상기 통신부를 통해 상기 관제장치로 전송하는 것을 특징으로 하는
무인항공기를 제어하기 위한 장치. According to claim 1,
the device is
a communication unit for communication with the control device; and
It further includes; a navigation unit for deriving the current location information of the unmanned aerial vehicle;
the control unit
Detecting the relative position of the requesting party with respect to the unmanned aerial vehicle from the image captured by the photographing unit, deriving the geographic location of the unmanned aerial vehicle through the navigation unit, and determining the relative position of the requesting person based on the geographical position of the unmanned aerial vehicle After converting to geographic location,
Transmitting the converted geographic location to the control device through the communication unit
A device for controlling an unmanned aerial vehicle.
상기 제어부는
상기 산출된 재난 상황 복잡도가 소정의 임계 수준 미만이면,
상기 목적 위치를 중심으로 무인항공기가 선회하도록 상기 구동부를 제어하는 것을 특징으로 하는
무인항공기를 제어하기 위한 장치. According to claim 1,
the control unit
If the calculated disaster situation complexity is less than a predetermined threshold level,
Controlling the driving unit so that the unmanned aerial vehicle turns around the target position
A device for controlling an unmanned aerial vehicle.
상기 분석부는
영상이 입력되면, 입력되는 영상이 재난 상황에 속하는지 여부에 대한 확률을 산출하여 출력하도록 학습한 인공신경망 모델인 상황판단모델을 포함하며,
상기 상황판단모델이 상기 촬영부가 촬영한 영상에 대해 산출한 상기 확률에 따라 상기 재난 상황 여부를 판단하는 것을 특징으로 하는
무인항공기를 제어하기 위한 장치. According to claim 1,
The analysis unit
When an image is input, it includes a situation judgment model, which is an artificial neural network model learned to calculate and output a probability of whether the input image belongs to a disaster situation,
characterized in that the situation determination model determines whether the disaster situation exists according to the probability calculated for the image captured by the photographing unit
A device for controlling an unmanned aerial vehicle.
상기 검출부는
영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 적어도 하나의 기 설정된 클래스에 속할 확률을 산출하여 출력하도록 학습된 인공신경망 모델인 객체분류모델을 포함하며,
상기 객체분류모델이 연산을 통해 상기 촬영부가 촬영한 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 적어도 하나의 기 설정된 클래스에 속할 확률을 산출하여 출력하면,
상기 산출된 클래스에 속할 확률이 기 설정된 임계치 이상인 경우, 해당 영역박스 내에 해당 클래스의 객체가 존재하는 것으로 인식하는 것을 특징으로 하는
무인항공기를 제어하기 위한 장치. According to claim 1,
the detection unit
It includes an object classification model, which is an artificial neural network model trained to calculate and output coordinates of an area box indicating an area occupied by an object included in an image and a probability that an object in the area box belongs to at least one preset class,
When the object classification model calculates and outputs the coordinates of the area box indicating the area occupied by the object included in the image captured by the photographing unit through calculation and the probability that the object in the area box belongs to at least one preset class,
When the probability of belonging to the calculated class is greater than or equal to a preset threshold, it is characterized in that it is recognized that an object of the corresponding class exists in the corresponding area box.
A device for controlling an unmanned aerial vehicle.
구동부가 무인항공기가 관제장치로부터 수신된 목적 위치로 비행하도록 양력을 발생시키는 단계;
촬영부가 상기 목적 위치에서 촬영을 통해 복수의 영상을 생성하는 단계;
검출부가 상기 복수의 영상에서 객체를 검출하는 단계;
추적부가 상기 복수의 영상에서 검출한 객체를 추적하는 단계;
분석부가 상기 복수의 영상을 기초로 재난 상황 복잡도를 산출하는 단계; 및
제어부가 상기 산출된 재난 상황 복잡도에 따라 상기 무인항공기의 비행 방향을 제어하고 상기 촬영부의 촬영 주기를 제어하는 단계;
를 포함하는 것을 특징으로 하는
무인항공기를 제어하기 위한 방법. In a method for controlling an unmanned aerial vehicle based on a disaster situation complexity,
generating, by the driving unit, lift force so that the unmanned aerial vehicle flies to the target position received from the control device;
generating, by a photographing unit, a plurality of images through photographing at the target location;
detecting an object in the plurality of images by a detector;
tracking an object detected in the plurality of images by a tracking unit;
calculating, by an analysis unit, a disaster situation complexity based on the plurality of images; and
controlling, by a controller, a flight direction of the unmanned aerial vehicle according to the calculated disaster situation complexity and controlling a photographing period of the photographing unit;
characterized by comprising
A method for controlling an unmanned aerial vehicle.
상기 재난 상황 복잡도를 산출하는 단계는
상기 분석부가 상기 복수의 영상에서 검출된 객체 중 요구조자 존재 여부, 요구조자의 수, 요구조자의 수의 증감 및 요구조자의 밀도에 따라 재난 상황 복잡도를 산출하는 것을 특징으로 하는
무인항공기를 제어하기 위한 방법. 10. The method of claim 9,
The step of calculating the disaster situation complexity is
characterized in that the analysis unit calculates the disaster situation complexity according to the presence or absence of demanders among the objects detected in the plurality of images, the number of demanders, the increase/decrease in the number of demanders, and the density of demanders
A method for controlling an unmanned aerial vehicle.
상기 제어하는 단계는
상기 제어부가 상기 산출된 재난 상황 복잡도가 기 설정된 임계 수준 이상이면, 상기 촬영부의 촬영 주기를 기 설정된 기준치 이상으로 증가시켜 촬영하도록 제어하고,
상기 산출된 재난 상황 복잡도가 기 설정된 임계 수준 미만이면, 상기 촬영부의 촬영 주기를 기 설정된 기준치 미만으로 감소시켜 촬영하도록 제어하는 것을 특징으로 하는
무인항공기를 제어하기 위한 방법. 10. The method of claim 9,
The controlling step is
When the calculated disaster situation complexity is greater than or equal to a preset threshold level, the controller controls the photographing unit to increase the photographing period to a preset reference value or more,
When the calculated disaster situation complexity is less than a preset threshold level, the photographing unit is controlled to photograph by reducing the photographing period to less than a predetermined reference value.
A method for controlling an unmanned aerial vehicle.
상기 제어하는 단계는
상기 제어부가 상기 산출된 재난 상황 복잡도가 소정의 임계 수준 이상이면, 상기 요구조자의 위치가 상기 촬영부가 촬영하는 영상의 중심에 위치하도록 상기 구동부를 제어하여 상기 무인항공기를 이동시키는 것을 특징으로 하는
무인항공기를 제어하기 위한 방법. 10. The method of claim 9,
The controlling step is
When the calculated disaster situation complexity is greater than or equal to a predetermined threshold level, the control unit controls the driving unit to move the unmanned aerial vehicle so that the position of the requestor is located at the center of the image captured by the photographing unit.
A method for controlling an unmanned aerial vehicle.
상기 제어하는 단계는
상기 제어부가 상기 촬영부가 촬영한 영상으로부터 무인항공기를 기준으로 하는 상기 요구조자의 상대적 위치를 검출하고, 상기 무인항공기의 항법부를 통해 무인항공기의 지리적 위치를 도출하고, 상기 무인항공기의 지리적 위치를 기초로 상기 요구조자의 상대적 위치를 지리적 위치로 변환한 후, 상기 변환된 지리적 위치를 상기 무인항공기의 통신부를 통해 상기 관제장치로 전송하는 것을 특징으로 하는
무인항공기를 제어하기 위한 방법. 10. The method of claim 9,
The controlling step is
The control unit detects the relative position of the requesting person with respect to the unmanned aerial vehicle from the image captured by the photographing unit, derives the geographic location of the unmanned aerial vehicle through the navigation unit of the unmanned aerial vehicle, and based on the geographic location of the unmanned aerial vehicle After converting the relative location of the requestor into a geographic location, the converted geographic location is transmitted to the control device through a communication unit of the unmanned aerial vehicle
A method for controlling an unmanned aerial vehicle.
상기 제어하는 단계는
상기 산출된 재난 상황 복잡도가 소정의 임계 수준 미만이면,
상기 제어부가 상기 구동부를 통해 상기 무인항공기가 상기 목적 위치를 중심으로 선회하도록 하는 것을 특징으로 하는
무인항공기를 제어하기 위한 방법. 10. The method of claim 9,
The controlling step is
If the calculated disaster situation complexity is less than a predetermined threshold level,
characterized in that the control unit rotates the unmanned aerial vehicle around the target position through the driving unit
A method for controlling an unmanned aerial vehicle.
상기 재난 상황 복잡도를 산출하는 단계는
상기 분석부의 상황판단모델이 상기 촬영부가 촬영한 영상이 재난 상황에 속하는지 여부에 대한 확률을 산출하는 단계; 및
상기 분석부가 상기 산출된 확률에 따라 상기 재난 상황 여부를 판단하는 단계;를 포함하는 것을 특징으로 하는
무인항공기를 제어하기 위한 방법. 10. The method of claim 9,
The step of calculating the disaster situation complexity is
calculating, by the situation determination model of the analysis unit, a probability of whether the image captured by the photographing unit belongs to a disaster situation; and
and determining, by the analysis unit, whether the disaster situation exists according to the calculated probability.
A method for controlling an unmanned aerial vehicle.
상기 객체를 검출하는 단계는
상기 검출부의 객체분류모델이 연산을 통해 상기 촬영부가 촬영한 영상에 포함된 객체가 차지하는 영역을 나타내는 영역박스의 좌표 및 영역박스 내의 객체가 적어도 하나의 기 설정된 클래스에 속할 확률을 산출하여 출력하는 단계; 및
상기 검출부가 상기 산출된 클래스에 속할 확률이 기 설정된 임계치 이상인 경우, 해당 영역박스 내에 해당 클래스의 객체가 존재하는 것으로 인식하는 단계;를 포함하는 것을 특징으로 하는
무인항공기를 제어하기 위한 방법. 10. The method of claim 9,
The step of detecting the object
Calculating and outputting coordinates of an area box indicating an area occupied by an object included in an image captured by the photographing unit through calculation by the object classification model of the detection unit and a probability that an object in the area box belongs to at least one preset class ; and
Recognizing, by the detection unit, that an object of the corresponding class exists in the corresponding area box when the probability of belonging to the calculated class is greater than or equal to a preset threshold;
A method for controlling an unmanned aerial vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200031199A KR102351057B1 (en) | 2020-03-13 | 2020-03-13 | Apparatus and method for controlling the unmanned aerial vehicle based on disaster complexity |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200031199A KR102351057B1 (en) | 2020-03-13 | 2020-03-13 | Apparatus and method for controlling the unmanned aerial vehicle based on disaster complexity |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210115428A true KR20210115428A (en) | 2021-09-27 |
KR102351057B1 KR102351057B1 (en) | 2022-01-13 |
Family
ID=77925404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200031199A KR102351057B1 (en) | 2020-03-13 | 2020-03-13 | Apparatus and method for controlling the unmanned aerial vehicle based on disaster complexity |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102351057B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102371766B1 (en) * | 2021-09-29 | 2022-03-07 | (주)네온테크 | Data processing device for unmanned aerial vehicle for flight mission big data analysis and AI processing and data processing method for flight mission using the same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070028812A (en) * | 2005-09-08 | 2007-03-13 | 강릉대학교산학협력단 | Method and apparatus for monitoring forest fire using images photographed by camera device |
JP2019074782A (en) * | 2017-10-12 | 2019-05-16 | 能美防災株式会社 | Mobile robot |
KR20200002361A (en) | 2018-06-29 | 2020-01-08 | (주)글루버 | System for porviding aerial image using automatic driving drone and method thereof |
-
2020
- 2020-03-13 KR KR1020200031199A patent/KR102351057B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070028812A (en) * | 2005-09-08 | 2007-03-13 | 강릉대학교산학협력단 | Method and apparatus for monitoring forest fire using images photographed by camera device |
JP2019074782A (en) * | 2017-10-12 | 2019-05-16 | 能美防災株式会社 | Mobile robot |
KR20200002361A (en) | 2018-06-29 | 2020-01-08 | (주)글루버 | System for porviding aerial image using automatic driving drone and method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102371766B1 (en) * | 2021-09-29 | 2022-03-07 | (주)네온테크 | Data processing device for unmanned aerial vehicle for flight mission big data analysis and AI processing and data processing method for flight mission using the same |
Also Published As
Publication number | Publication date |
---|---|
KR102351057B1 (en) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220234733A1 (en) | Aerial Vehicle Smart Landing | |
US11861892B2 (en) | Object tracking by an unmanned aerial vehicle using visual sensors | |
US11749124B2 (en) | User interaction with an autonomous unmanned aerial vehicle | |
US11755041B2 (en) | Objective-based control of an autonomous unmanned aerial vehicle | |
US20210072745A1 (en) | Systems and methods for uav flight control | |
US20240069547A1 (en) | Unmanned Aerial Image Capture Platform | |
WO2018179404A1 (en) | Information processing device, information processing method, and information processing program | |
EP3989034A1 (en) | Automatic safe-landing-site selection for unmanned aerial systems | |
KR102351057B1 (en) | Apparatus and method for controlling the unmanned aerial vehicle based on disaster complexity | |
KR102300349B1 (en) | Unmanned drone for automatically setting moving path according to detection situation, and operating method thereof | |
WO2020225979A1 (en) | Information processing device, information processing method, program, and information processing system | |
KR102300348B1 (en) | Drone for sharing field situation based on real-time image analysis, and control method thereof | |
WO2022004333A1 (en) | Information processing device, information processing system, information processing method, and program | |
KR20220096573A (en) | Apparatus for efficient arrangement of rescue resources in use of the unmanned aerial vehicle, and method thereof, and computer recordable medium stroring program to perform the method | |
KR102237342B1 (en) | Apparatus and method for generating flight plan information | |
KR102526202B1 (en) | Indoor autonomous flying drone control system and method therefor | |
KR102289743B1 (en) | Apparatus and method for searching a target using a plurality of unmanned aerial vehicles | |
JP7295321B1 (en) | Information processing device, program, system, and information processing method | |
KR102266467B1 (en) | Apparatus and method for searching target using unmanned aerial vehicle based on detection probability | |
Elawady et al. | Detecting and avoiding frontal obstacles from monocular camera for micro unmanned aerial vehicles | |
Krishna et al. | Design and Development of Search and Rescue Bot | |
KR20210121944A (en) | Method for controlling steering angle of drone and apparatus thererfor | |
Maghrebi et al. | Autopilot Drone in Construction: A Proof of Concept for Handling Lightweight Instruments and Materials |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |