KR101990981B1 - Method for dropping rescue equipment and drone for rescue using the same - Google Patents

Method for dropping rescue equipment and drone for rescue using the same Download PDF

Info

Publication number
KR101990981B1
KR101990981B1 KR1020170158273A KR20170158273A KR101990981B1 KR 101990981 B1 KR101990981 B1 KR 101990981B1 KR 1020170158273 A KR1020170158273 A KR 1020170158273A KR 20170158273 A KR20170158273 A KR 20170158273A KR 101990981 B1 KR101990981 B1 KR 101990981B1
Authority
KR
South Korea
Prior art keywords
structural
drones
image
altitude
target
Prior art date
Application number
KR1020170158273A
Other languages
Korean (ko)
Other versions
KR20190060249A (en
Inventor
이범수
김형래
Original Assignee
사단법인 캠틱종합기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사단법인 캠틱종합기술원 filed Critical 사단법인 캠틱종합기술원
Priority to KR1020170158273A priority Critical patent/KR101990981B1/en
Publication of KR20190060249A publication Critical patent/KR20190060249A/en
Application granted granted Critical
Publication of KR101990981B1 publication Critical patent/KR101990981B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C9/00Life-saving in water
    • B63C9/01Air-sea rescue devices, i.e. equipment carried by, and capable of being dropped from, an aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C9/00Life-saving in water
    • B63C9/22Devices for holding or launching life-buoys, inflatable life-rafts, or other floatable life-saving equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • B64C2201/128
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명에 따른 구조 장비 투척 방법은 구조용 드론의 영상 획득부를 통하여 이미지를 획득하는 단계, 획득된 이미지에 포함된 객체의 특징 정보를 추출하는 단계, 객체의 특징 정보에 기초하여 타겟을 결정하는 단계, 획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하는 단계, 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하는 단계, 방향 벡터에 기초하여 상기 구조용 드론을 이동시키는 단계 및 구조용 드론이 이동된 위치에서 구조 장비를 투척하는 단계를 포함한다. 이에 의하면 영상 획득부(카메라, 이미지 센서 등)를 이용해 구조 장비의 정확한 투척을 가능하게 할 뿐만 아니라 해상/수상에서 바람의 영향을 고려하여 구조용 드론을 제어하기 때문에 구조 장비 투척의 정확성을 더욱 높일 수 있게 된다.The method includes: acquiring an image through an image acquisition unit of a structural drones; extracting feature information of an object included in the acquired image; determining a target based on feature information of the object; Determining whether the target is located at a center point of the obtained image frame, extracting a direction vector having a center point of the image frame as a start point and an end point of the target as an end point if the target is not located at the center point of the image frame Moving the structural drones based on the step, direction vector, and throwing the structural equipment at the location where the structural drones are moved. According to this, it is possible to accurately project the structural equipment using the image acquisition unit (camera, image sensor, etc.), and to control the structural drones considering the influence of wind on the sea / water, .

Description

구조 장비 투척 방법 및 이를 이용한 구조용 드론{METHOD FOR DROPPING RESCUE EQUIPMENT AND DRONE FOR RESCUE USING THE SAME}METHOD FOR DROPPING RESCUE EQUIPMENT AND DRONE FOR RESCUE USING THE SAME

본 발명은 이미지 센서를 이용한 구조 장비 투척 방법 및 이를 이용한 구조용 드론에 관한 것으로, 더욱 상세하게는 드론을 해상/수상 인명구조용으로 사용함에 있어 요구조자에게 구조장비의 정확한 투척을 가능하게 하는 구조 장비 투척 방법 및 구조용 드론에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of throwing a structural apparatus using an image sensor and a structural drones using the same, and more particularly, to a structural apparatus for throwing a drones into a marine / And a structural drones.

일반적으로, 물놀이 안전사고 발생 시 구명 튜브 등의 구조 장비를 이용하여 구조를 하고 있다. 구명 조끼나 구명 튜브 등의 물놀이 안전 기구는 물놀이를 하는 본인이 준비하거나 또는 안전 관리소 등에 비치하여 물놀이자에게 공급되도록 하고 있다. Generally, in case of water safety accident, rescue equipment such as life tube is used. Water safety equipment such as life jackets and life tube is prepared by the person who plays with the water,

그런데, 물놀이자 스스로 자신의 수영능력을 과시하거나, 또는 물놀이 안전 기구의 부족 등으로 인해 상기 물놀이 안전 기구를 착용하지 않은 상태로 강가나 해수욕장에서 물놀이를 즐김으로써, 익사 사고가 빈번하게 발생하고 있다. 또한, 물놀이 안전 기구를 착용하였음에도 불구하고, 안전 기구에 갑자기 이상이 발생한 경우에도 익사 사고가 마찬가지로 일어날 수 있다.However, drowning accidents are frequently caused by showing off their own swimming ability by themselves, or by enjoying the water play on a river or a beach without wearing the above water safety equipment due to lack of water safety equipment. In addition, even if a water safety device is worn, if a sudden abnormality occurs in the safety device, a drowning accident may occur as well.

가까이 위치한 조난자에게는 물 밖에서 구명 튜브나 로프 등의 구조 장비를 이용하여 익수자를 구조할 수 있으나, 거리가 먼 경우에는 익수자를 구조할 확률이 낮고, 구조하더라도 시간이 많이 소요됨으로써 자칫 익수자가 구조 후에 의식을 잃어 사망하거나 신체에 치명적인 문제가 발생할 수 있다.For distresses located nearby, it is possible to rescue the submerged persons by using rescue equipment such as liferafts or ropes outside the water. However, if the distances are far, the probability of rescue of the submerged person is low, And may cause death or serious injury to the body.

이에, 강, 호수 바다 등에서 익수자가 발생할 경우 드론으로 신속하게 이동하여 구명 튜브 등의 구조 장비를 익수자에게 전달하는 구조 방법에 관한 연구가 진행되고 있다. 이와 같이 드론을 해상/수상 인명 구조용으로 사용하는 경우, 요구조자가 위치하는 곳에 정확히 구조 장비를 투척하는 일은 매우 어렵고, 대부분 요구조자는 해상/수상에서 스스로 이동하기가 불가능하기 때문에 구조 장비의 정확한 투척은 투구조의 성패를 가르는 중요한 요인이 된다.Therefore, research is being conducted on a structural method of rapidly transferring the structure equipment such as a life tube to a drowning person in the event of a drowning in the river or lake sea. If the drones are used for rescue / rescue purposes, it is very difficult to throw the rescue equipment exactly where the rescuer is located. Since most of the rescuers are unable to move themselves from the sea / aquifer, It is an important factor to separate the success and failure of Joe.

구조 장비의 정확한 투척을 위한 방법으로는 GPS(global positioning system) 좌표를 기반으로 드론이 출동하는 방법과 수동으로 요구조자 근처로 출동하는 방법이 있다. 하지만 두 가지 방법 모두 요구조자 근처 0.5m 범위 내에 구조 장비가 투척되지 않는 이상 구조가 불가능해진다.A method for precise throwing of rescue equipment is based on GPS (global positioning system) coordinates, and a method for moving the drones manually or manually to the near area. However, both methods can not be constructed unless the rescue equipment is thrown within a range of 0.5m near the victim.

드론을 활용한 다양한 종류의 장치가 개발되었지만 실제 실험 결과 구조 장비를 정확한 위치로 투척할 수 있는 장치는 존재하지 않았다. 이를 보완하기 위해 구조 장비에 줄을 연결하여 요구조자가 구조 장비를 붙잡을때까지 드론을 이용해 구조 장비를 견인하는 방법이 고안되기는 했지만 이는 2차 사고의 우려가 높다는 이유로 상용화되지 못했다.Although various kinds of devices using a drone have been developed, there is no device that can throw the rescue equipment to the correct position. In order to compensate for this, it was devised a method of towing rescue equipment by using a drone until the rescuer grasped the rescue equipment by connecting a line to the rescue equipment, but this was not commercialized because of the concern of secondary accident.

특히, 원거리에서 수동으로 컨트롤해야 하는 드론의 특성과 해상/수상의 거친 바람의 영향 때문에 구조 장비의 정확한 투척은 더욱 어렵다. In particular, the precise throwing of structural equipment is more difficult due to the nature of the drone that must be controlled manually from a distance and the effect of the sea / water winds.

대한민국 등록특허공보 제1535401호 (2015.07.02. 등록)Korean Registered Patent No. 1535401 (Registered on July 2, 2015) 대한민국 특허공개공보 제2016-0125681호 (2016.11.01. 공개)Korean Patent Laid-Open Publication No. 2016-0125681 (published on November 1, 2016)

본 발명은 상술한 문제를 감안하여 안출된 것으로, 본 발명의 목적은 영상 획득부(카메라, 이미지 센서 등)를 이용하여 구조 장비의 정확한 투척을 가능하게 하는 구조 장비 투척 방법 및 구조용 드론을 제공함에 있다. 본 발명의 또 다른 목적은 해상/수상에서 바람의 영향을 고려하여 구조 장비를 투척할 수 있는 구조 장비 투척 방법 및 이를 이용한 드론을 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and it is an object of the present invention to provide a structural equipment throwing method and structural drones capable of accurately throwing structural equipment using an image acquisition unit (camera, image sensor, etc.) have. It is another object of the present invention to provide a method of throwing a structural equipment capable of throwing a structural equipment in consideration of the influence of wind on the sea / water, and a dron using the same.

본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위한 본 발명에 따른 구조 장비 투척 방법은 구조용 드론의 영상 획득부를 통하여 이미지를 획득하는 단계; 획득된 이미지에 포함된 객체의 특징 정보를 추출하는 단계; 상기 객체의 특징 정보에 기초하여 타겟을 결정하는 단계; 획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하는 단계; 상기 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하는 단계; 상기 방향 벡터에 기초하여 상기 구조용 드론을 이동시키는 단계; 및 상기 구조용 드론이 이동된 위치에서 구조 장비를 투척하는 단계;를 포함한다.According to an aspect of the present invention, there is provided a method for throwing a structural equipment, comprising: obtaining an image through a structural drones image acquiring unit; Extracting feature information of an object included in the acquired image; Determining a target based on feature information of the object; Determining whether the target is located at a center point of the acquired image frame; Extracting a direction vector having a start point of a center point of the image frame and an end point of the target as an end point if the target is not located at a center point of the image frame; Moving the structural drones based on the direction vector; And throwing the rescue equipment at a location where the structural drones are moved.

그리고, 상기 구조용 드론의 고도를 추출하는 단계; 및 추출된 고도가 기설정된 투척 가능 고도보다 높은 경우, 상기 구조용 드론을 하방으로 이동시키도록 제어하는 단계;를 더 포함할 수 있다.Extracting an elevation of the structural drones; And controlling the structure drone to move downward when the extracted altitude is higher than a predetermined throwable altitude.

또한, 상기 구조용 드론의 기울기를 추출하는 단계; 추출된 기울기에 기초하여 상기 구조용 드론이 위치한 고도에서의 풍속을 산출하는 단계; 산출된 풍속과 기준 풍속을 비교하는 단계; 및 상기 산출된 풍속이 상기 기준 풍속을 초과하는 경우 상기 구조용 드론의 고도를 변경하도록 제어하는 단계;를 더 포함할 수 있다.Extracting a slope of the structural drones; Calculating a wind speed at an altitude at which the structural drones are located based on the extracted slope; Comparing the calculated wind speed with a reference wind speed; And controlling the altitude of the structural drones to change when the calculated wind speed exceeds the reference wind speed.

한편, 상기 목적을 달성하기 위한 본 발명에 따른 구조용 드론은 구조용 드론의 비행 방향, 비행 속도, 위치, 고도 및 기울기 중 적어도 하나의 정보를 센싱하는 센서부; 구조 현장의 이미지를 획득하는 영상 획득부; 상기 영상 획득부에 의해 획득된 이미지 프레임에 포함된 객체의 특징 정보를 추출하고, 상기 객체의 특징 정보에 기초하여 타겟을 결정하는 영상 분석부; 및 획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하고, 상기 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하며, 상기 방향 벡터에 기초하여 상기 구조용 드론을 이동시켜, 이동된 위치에서 구조 장비를 투척하도록 제어하는 제어부;를 포함한다.According to another aspect of the present invention, there is provided a structural dron according to the present invention, comprising: a sensor unit for sensing at least one of a flying direction, a flying speed, a position, an altitude and a slope of a structural drones; An image acquisition unit for acquiring an image of a structural site; An image analysis unit extracting feature information of an object included in the image frame acquired by the image acquisition unit and determining a target based on the feature information of the object; And determining whether the target is located at a center point of the obtained image frame, extracting a direction vector having a center point of the image frame as a start point and an end point of the target as an end point if the target is not located at the center point of the image frame And a control unit for moving the structural drones based on the direction vector and controlling the structure equipment to be thrown at the moved position.

그리고, 상기 제어부는 상기 센서부에 의해 추출된 상기 구조용 드론의 고도가 기설정된 투척 가능 고도보다 높은 경우 상기 구조용 드론을 하방으로 이동시키도록 제어할 수 있다.The control unit may control to move the structural drones downward when the height of the structural drones extracted by the sensor unit is higher than a predetermined throwable altitude.

또한, 제어부는 상기 센서부에 의해 추출된 상기 구조용 드론의 기울기에 기초하여 상기 구조용 드론이 위치한 고도에서의 풍속을 산출하고, 산출된 풍속이 기준 풍속을 초과하는 경우 상기 구조용 드론의 고도를 변경하도록 제어할 수 있다.The control unit calculates the wind speed at the altitude at which the structural drones are located based on the inclination of the structural drones extracted by the sensor unit and changes the altitude of the structural drones when the calculated wind speed exceeds the reference wind speed Can be controlled.

본 발명에 따른 구조 장비 투척 방법 및 이를 이용한 구조용 드론에 의하면 영상 획득부(카메라, 이미지 센서 등)를 이용해 구조 장비의 정확한 투척을 가능하게 할 뿐만 아니라 해상/수상에서 바람의 영향을 고려하여 구조용 드론을 제어하기 때문에 구조 장비 투척의 정확성을 더욱 높일 수 있게 된다.According to the method of throwing the structural equipment according to the present invention and the structural drones using the same, it is possible to accurately project the structural equipment using the image acquisition unit (camera, image sensor, etc.) The accuracy of the throwing of the structural equipment can be further enhanced.

도 1은 본 발명에 따른 구조용 드론의 개념도이다.
도 2는 본 발명에 따른 구조용 드론의 구성을 나타내는 블록도이다.
도 3은 본 발명에 따른 구조용 드론의 제어 방법을 설명하기 위한 개념도이다.
도 4는 본 발명에 따른 구조 장비 투척 방법을 나타내는 흐름도이다.
도 5는 본 발명의 다른 실시예에 따른 구조 장비 투척 방법을 나타내는 흐름도이다.
1 is a conceptual view of a structural drones according to the present invention.
2 is a block diagram showing the structure of a structural drones according to the present invention.
3 is a conceptual diagram for explaining a method of controlling a structural drones according to the present invention.
4 is a flow chart illustrating a method for throwing a structural equipment according to the present invention.
5 is a flowchart illustrating a method for throwing a structural equipment according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, components and / or sections, it is needless to say that these elements, components and / or sections are not limited by these terms. These terms are only used to distinguish one element, element or section from another element, element or section. Therefore, it goes without saying that the first element, the first element or the first section mentioned below may be the second element, the second element or the second section within the technical spirit of the present invention.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "이루어지다(made of)"는 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms "comprises" and / or "made of" means that a component, step, operation, and / or element may be embodied in one or more other components, steps, operations, and / And does not exclude the presence or addition thereof.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다. Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

이때, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하며, 처리 흐름도 도면들의 각 구성과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 구성(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. In this regard, throughout the specification, like reference numerals refer to like elements, and it will be understood that each configuration of the processing flowchart diagrams and combinations of flowchart illustrations may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, so that those instructions, which are executed through a processor of a computer or other programmable data processing apparatus, Thereby creating means for performing functions.

또, 몇 가지 대체 실시예들에서는 구성들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 구성들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 구성들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.It should also be noted that in some alternative embodiments, the functions mentioned in the configurations may occur out of order. For example, the two configurations shown in succession may in fact be performed substantially concurrently, or the configurations may sometimes be performed in reverse order according to the corresponding function.

도 1은 본 발명에 따른 구조용 드론(100)의 개념도이고, 도 2는 본 발명에 따른 구조용 드론(100)의 구성을 나타내는 블록도이다. FIG. 1 is a conceptual diagram of a structural drones 100 according to the present invention, and FIG. 2 is a block diagram showing the construction of a structural drones 100 according to the present invention.

먼저, 도 1에 도시된 바와 같이, 본 발명에 따른 구조용 드론(100)은 본체부(110), 프로펠러(120), 구조 장비 수용부(130) 및 개폐부(140)로 이루어진다.1, the structural drones 100 according to the present invention include a main body 110, a propeller 120, a structural-equipment receiving portion 130, and an opening / closing portion 140. As shown in FIG.

본체부(110)는 구조용 드론(100)의 비행, 통신 등 전반적인 동작을 수행하기 위한 각종 부품이 설치된다. 프로펠러(120)의 개수, 형상 등은 구조용 드론(100)의 종류에 따라 달라질 수 있다. 예를 들어, 듀얼콥터인 경우 2개의 프로펠러(120)가 구비될 수 있고, 쿼드콥터나 헥사콥터인 경우 각각 4개 및 6개의 프로펠러(120)가 구비될 수 있다. 물론 이보다 많거나 적은 수의 프로펠러가 구비되어도 무방하다. 구조 장비 수용부(130)는 구명 튜브, 로프 등의 구명 장비(10)를 수용하는 기능을 가지면, 구명 장비(10)의 크기나 모양에 따라 다양한 형상으로 이루어질 수 있다. 개폐부(140)는 구조 장비 수용부(130) 내부에 수용된 구명 장비(10)가 요구조자의 위치에 투척되도록 도어를 개폐하는 기능을 갖는다. 개폐부(140)는 힌지나 미닫이 구조 등의 다양한 개폐 방식을 이용할 수 있고, 어느 특정 방식에 한정되지 않는다.The main body 110 is provided with various components for performing general operations such as flight, communication, etc. of the structural drones 100. The number, shape and the like of the propeller 120 may vary depending on the type of the structural drones 100. For example, two propellers 120 may be provided for a dual copter, and four and six propellers 120 for a quad copter or a hexacopter, respectively. Of course, more or less propellers may be provided. The structural equipment receiving part 130 may have various shapes according to the size and shape of the life-saving equipment 10 provided that it has the function of accommodating the life-saving equipment 10 such as a life-saving tube and a rope. The opening and closing part 140 has a function of opening and closing the door so that the life-saving equipment 10 accommodated in the structure-equipment accommodating part 130 is thrown to the position of the demanding person. The opening and closing part 140 can use various opening and closing methods such as a hinge and a sliding door structure, and is not limited to any particular method.

도 1에서 본 발명에 따른 구조용 드론(100)의 구조적인 구성을 도시했다면, 도 2는 본 발명에 따른 구조용 드론(100)의 시스템적인 구성을 도시한다. 본 발명에 따른 구조용 드론(100)은 제어부(111), 영상 획득부(112), 영상 분석부(113), 센서부(114), 구동부(115), 통신부(116) 및 저장부(117)를 포함한다.1 shows a structural configuration of a structural drones 100 according to the present invention, Fig. 2 shows a systematic configuration of a structural drones 100 according to the present invention. The structural drones 100 according to the present invention include a control unit 111, an image acquisition unit 112, an image analysis unit 113, a sensor unit 114, a driving unit 115, a communication unit 116, .

제어부(111)는 구조용 드론(100)의 각 구성요소를 제어한다. 제어부(111)는 요구조자의 이미지 획득을 위하여 영상 획득부(112)를 제어하고, 구조용 드론(100)의 비행이나 착륙 등을 위해 구동부(115)를 제어하고, 외부 기기(조종 리모콘 등)로부터 제어신호를 수신하기 위하여 통신부(116)를 제어한다. 또한, 제어부(111)는 구조 장비의 투척을 위하여 개폐부(140)를 직접 제어하거나, 구동부(115)를 제어하여 개폐부(140)의 개폐를 조작할 수도 있다.The control unit 111 controls each component of the structural drones 100. The control unit 111 controls the image acquisition unit 112 to acquire an image of a requesting person and controls the driving unit 115 to fly or land the structured drones 100 and to control the driving unit 115 from an external device And controls the communication unit 116 to receive the signal. The control unit 111 may directly control the opening / closing unit 140 to throw the rescue equipment, or may control the driving unit 115 to open / close the opening / closing unit 140.

영상 획득부(112)는 구조 현장의 이미지를 획득하기 위한 카메라 등으로 구현될 수 있다. 영상 획득부(112)는 비디오 카메라로 구현되는 것이 일반적이지만, 야간 모니터링을 가능하하게 하도록 적외선 카메라나 열화상 카메라로 구현될 수도 있다. 영상 획득부(112)는 색상 추적 모듈을 구비할 수도 있고, 이에 의하여 특정 색상을 가진 객체를 촬영하거나 또는 촬영 대상에서 제외하여 정보의 특정화를 이룰 수 있다. 예를 들어, 요구조자의 옷 색상만을 추적하도록 하거나, 바다의 색상을 제외하여 요구조자의 이미지만을 선택적으로 획득할 수 있다. 영상 획득부(112)는 도 1에 도시된 바와 같이 구조용 드론(100)의 하방을 바라보도록 설치될 수 있지만, 이에 한정되지 않는다. The image acquiring unit 112 may be implemented by a camera or the like for acquiring an image of a structural site. The image acquiring unit 112 is generally implemented as a video camera, but may be implemented with an infrared camera or a thermal imaging camera to enable nighttime monitoring. The image acquiring unit 112 may be provided with a color tracking module so that an object having a specific color can be photographed or excluded from an object to be photographed to achieve information characterization. For example, it is possible to track only the clothes color of the requesting person, or to selectively acquire only the image of the requesting person except for the color of the sea. The image acquiring unit 112 may be installed so as to face downward the structural drones 100 as shown in FIG. 1, but is not limited thereto.

영상 분석부(113)는 영상 획득부(112)에서 획득된 이미지를 전달받아, 해당 이미지를 처리하여 이미지 데이터를 획득하며, 데이터 전송이 용이하도록 이미지를 압축하여 압축 포맷 형태로 변환할 수 있다. 압축된 이미지는 통신부(116)를 통하여 조작자에게 실시간으로 전송되거나, 저장부(117)에 저장될 수 있다. 압축 포맷 형태의 영상 데이터는 MPEG(Moving Picture Experts Group)-1 또는 MPEG-4 등의 다양한 포맷을 가질 수 있다. The image analysis unit 113 receives the image acquired by the image acquisition unit 112, processes the image to acquire image data, compresses the image so as to facilitate data transmission, and converts the image into a compressed format. The compressed image may be transmitted to the operator via the communication unit 116 in real time or may be stored in the storage unit 117. The video data in the form of a compressed format may have various formats such as Moving Picture Experts Group (MPEG) -1 or MPEG-4.

특히, 영상 분석부(113)는 영상 획득부(112)에서 획득된 이미지를 분석하여 객체를 검출하고, 특정 이벤트를 검출할 수 있다. 여기에서, 객체는 요구조자나 관련 물품 등일 수 있고, 이벤트(event)는 요구조자의 위치 변화, 화재 발생 등 특정 상황 등을 포함한다. 이때, 영상 분석부(113)는 영상 획득부(112)에서 획득된 이미지 프레임 내에서 관심 영역을 설정하고, 관심 영역에서 검출된 이벤트의 특징 정보를 도출할 수 있다.In particular, the image analysis unit 113 may detect an object by analyzing the image acquired by the image acquisition unit 112, and may detect a specific event. Here, the object may be a requester or a related item, and an event may include a specific situation such as a change in the position of the requester, a fire or the like. At this time, the image analyzer 113 can set the region of interest in the image frame acquired by the image acquiring unit 112 and derive the feature information of the detected event in the region of interest.

구체적으로, 영상 분석부(113)는 영상 획득부(112)로부터 획득된 이미지로부터 검출하고자 하는 객체의 시각적 특징 정보를 추출하는 특징 추출(feature extraction)과 추출된 특징을 이용하여 물체를 검출할 수 있다. 이때, 객체의 검출 시에 아다부스트(AdaBoost) 또는 SVM(Support Vector Machine) 등과 같은 러닝 머신(learning Machine)을 이용하는 방법과 추출된 특징의 벡터 유사도 등을 이용하는 비학습 방법이 있어 검출하고자 하는 객체 및 배경의 복잡도에 따라 학습 방법과 비학습 방법을 적절히 선택하여 사용할 수 있다. 예를 들어, 영상의 국소적인 특징(local feature)으로 인접한 두 개 이상의 블록 간의 화소(픽셀, pixel) 값의 합의 차, 또는 가중치를 이용하여 가중치 곱의 합을 이용하는 하알-유사 특징(Haar-like feature)을 응용할 수 있다. 하알-유사 특징 추출 시 인접 블록 간의 화소 값의 합의 차를 구하기 위해, 간단한 사각형 특징을 고려한 마스크를 사용한다.Specifically, the image analysis unit 113 performs feature extraction to extract the visual feature information of the object to be detected from the image acquired from the image acquisition unit 112, and to detect the object using the extracted feature have. At this time, there is a method of using a learning machine such as AdaBoost or SVM (Support Vector Machine) at the time of object detection and a non-learning method using vector similarity of extracted features, The learning method and the non-learning method can be appropriately selected depending on the complexity of the background. For example, a Haar-like feature that uses the sum of weight products using the difference in the sum of pixel values (pixels) between two or more adjacent blocks in a local feature of the image, feature can be applied. To extract the difference between the sum of the pixel values of neighboring blocks in extracting the Hahn-like feature, a mask considering a simple square feature is used.

또한, 영상 분석부(113)는 영상 인식 알고리즘을 이용하여 촬영된 영상에서 객체의 위치 변화를 검출할 수 있다. 예를 들어, 평균 이동(Mean Shift) 알고리즘 또는 입자 필터(Particle Filter) 알고리즘 등을 이용하여 영상으로부터 객체의 움직임을 검출할 수 있다. 물론, 다른 알고리즘을 이용하여 객체의 움직임을 검출할 수 있음은 당업자에게 자명하다 할 것이다.In addition, the image analysis unit 113 can detect a change in the position of the object in the photographed image using the image recognition algorithm. For example, the motion of an object can be detected from an image using a mean shift algorithm or a particle filter algorithm. Of course, those skilled in the art will appreciate that other algorithms can be used to detect motion of an object.

여기에서, 평균 이동(Mean Shift) 알고리즘은 영상에서 밀도분포(특징점, 색상)를 기반으로 관심 영역(ROI; Region of Interest) 객체를 고속으로 추적할 수 있게 하며, 초기의 검색 영역의 크기와 위치를 지정하면 반복적인 색 분할 계산에 의해 색상 클러스터가 발생하고, 초기 지정한 색 영역에 기반하여 경계를 결정하여 관심 물체의 움직임을 추출할 수 있다. 또한, 입자 필터(Particle Filter) 알고리즘은 입자를 기반으로 한 칼만 필터의 한 종류로서, 관측된 측정값들과 모델링된 시스템 방정식으로부터 얻은 랜덤 상태변수를 이용하여 현재 상태변수들의 확률 분포를 추정해 나가는 것이다.Here, the mean shift algorithm enables high-speed tracking of a region of interest (ROI) based on density distribution (feature point, color) in an image, , Color clusters are generated by the iterative color division calculation, and the motion of the object of interest can be extracted by determining the boundary based on the initially designated color region. The Particle Filter algorithm is a kind of particle based Kalman filter which estimates the probability distribution of the current state variables by using the observed values and the random state variables obtained from the modeled system equations. will be.

특히, 영상 분석부(113)는 위와 같은 방식으로 영상 획득부(112)에 의해 획득된 이미지 프레임에 포함된 객체의 특징 정보를 추출하여 요구조자에 해당하는지를 파악한다. 영상 획득부(112)에 의해 획득된 이미지 프레임에 포함된 객체의 특징 정보에 기초하여 해당 객체가 요구조자에게 해당된다고 판단하면, 해당 객체를 타겟으로 결정한다. 여기서, 타겟이란 구명 장비를 전달해야 하는 요구조자를 의미할 것이다.In particular, the image analysis unit 113 extracts feature information of an object included in the image frame acquired by the image acquisition unit 112 in the above manner, and determines whether the feature information corresponds to a requestor. If it is determined that the object corresponds to the requesting party based on the feature information of the object included in the image frame acquired by the image obtaining unit 112, the object is determined as the target. Here, the target will mean a person who needs to deliver life-saving equipment.

여기서, 제어부(111)는, 도 3에 도시된 바와 같이, 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치하는지를 판단한다. 도 3의 (a)와 같이 타겟(T)이 이미지 프레임의 중심점(+)에 위치하지 않으면 이미지 프레임의 중심점을 시작점으로 하고, 타겟(T)의 위치를 종료점으로 하는 방향 벡터(점선 화살표)를 추출한다. 그리고, 제어부(111)는 추출된 방향 벡터에 기초하여 구조용 드론(100)을 이동시키도록 구동부(115)를 제어한다(도 3의 (b) 참조). Here, the control unit 111 determines whether the target T is located at the center point (+) of the obtained image frame, as shown in Fig. 3 (a), if the target T is not positioned at the center point (+) of the image frame, a direction vector (dashed line arrow) with the center point of the image frame as the start point and the end position of the target T as the end point . Then, the control unit 111 controls the driving unit 115 to move the structural drones 100 based on the extracted direction vector (see Fig. 3 (b)).

다시 제어부(111)는 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치하는지를 판단한다. 도 3의 (b)과 같이 아직 타겟(T)이 이미지 프레임의 중심점(+)에 위치하지 않다면, 다시 이미지 프레임의 중심점을 시작점으로 하고, 타겟(T)의 위치를 종료점으로 하는 방향 벡터(점선 화살표)를 추출한다. 그리고, 제어부(111)는 추출된 방향 벡터에 기초하여 구조용 드론(100)을 이동시키도록 구동부(115)를 제어한다(도 3의 (c) 참조). The control unit 111 again determines whether the target T is located at the center point (+) of the obtained image frame. If the target T is not positioned at the center point (+) of the image frame as shown in FIG. 3 (b), a direction vector having the center point of the image frame as the starting point and the end point of the target T as an end point Arrow). Then, the control unit 111 controls the driving unit 115 to move the structural drones 100 based on the extracted direction vector (see Fig. 3 (c)).

이와 같은 과정을 반복해서, 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치한다면, 해당 위치에서 구조 장비(10)를 투척하도록 개폐부(140)를 직접 제어하거나, 구동부(115)를 제어하여 개폐부(140)를 오픈시킨다. If the target T is located at the center point (+) of the obtained image frame, the opening / closing unit 140 is directly controlled to throw the structural equipment 10 at the position, or the driving unit 115 And the opening / closing unit 140 is opened.

센서부(114)는 드론(100)의 비행 방향, 비행 속도, 위치, 고도 및 기울기 중 적어도 하나의 정보를 센싱한다. The sensor unit 114 senses at least one of the flying direction, the flying speed, the position, the altitude and the inclination of the drones 100.

센서부(114)는 드론(100)의 비행 방향, 속도, 움직임 및 가속도 등을 측정하기 위하여 지자기센서(magnetometer), 3축 가속도센서(accelerometer), 3축 자이로센서(gyroscope)를 포함할 수 있다. 지자기센서는 나침반 기능을 하는 센서로, 자북을 측정하여 드론(100)의 방향 정보를 제어부(111)로 전달한다. 지자기센서에서 측정한 방위 정보와 후술할 GPS 센서가 측정한 위치 정보, 그리고 가속도센서에서 측정된 이동 정보를 결합하면 드론(100)의 움직임을 파악할 수 있다. 3축 가속도센서는 가속도를 측정하는 센서로, 드론(100)의 3차원(x축,y축,z축) 움직임에 따른 각 축 방향의 가속도를 측정하며, 이를 통해서 중력에 대한 상대적인 위치와 움직임을 측정한다. 3축 가속도센서에서 측정된 정보는 후술할 자이로센서의 오차를 보정하는데 이용될 수 있고, 자이로센서와 함께 드론(100)의 안정적인 자세를 유지하도록 한다. 3축 자이로센서는 드론(100)이 수평을 유지할 수 있도록 하는 센서로, 3차원(x축,y축,z축) 방향의 각가속도를 측정하여 드론(100)의 기울기 정보를 제공한다. 지자기센서, 3축 가속도 센서 및 자이로센서를 이용하면 요(Yaw), 피치(Pitch), 롤(Roll)로 정의되는 회전 운동 상태(Rotational States)를 측정할 수 있다.The sensor unit 114 may include a magnetometer, a three-axis accelerometer, and a three-axis gyroscope to measure the direction, speed, motion, and acceleration of the drones 100 . The geomagnetic sensor is a sensor that functions as a compass, and measures the magnetic north to transmit the direction information of the drones 100 to the control unit 111. The movement of the drones 100 can be grasped by combining the azimuth information measured by the geomagnetic sensor, the position information measured by the GPS sensor described later, and the movement information measured by the acceleration sensor. The three-axis acceleration sensor is a sensor for measuring acceleration. The three-axis acceleration sensor measures the acceleration in each axis direction according to the three-dimensional (x, y, z axis) movement of the drones 100, . The information measured by the three-axis acceleration sensor can be used to correct an error of the gyro sensor, which will be described later, and maintain the stable posture of the drones 100 together with the gyro sensor. The three-axis gyro sensor is a sensor that allows the drones 100 to maintain a horizontal position, and provides angular acceleration information of the drones 100 by measuring angular acceleration in three-dimensional directions (x-axis, y-axis, and z-axis). A geomagnetic sensor, a three-axis acceleration sensor, and a gyro sensor can be used to measure rotational states defined by yaw, pitch, and roll.

한편, 센서부(114)는 드론(100)의 위치 및 고도를 측정하기 위하여 기압계(barometer), GPS(global positioning system) 센서, 거리계(range finder)를 포함하라 수 있다. 기압계는 해수면의 높이에 따라 결정되며, 대기압을 측정하여 드론(100)의 현재 고도를 측정한다. 이때, 기압계의 정확도를 보완하기 위하여 GPS 센서나 초음파 센서 혹은 이미지 센서를 더 채용할 수도 있다. GPS 센서는 인공위성의 신호를 사용하여 드론(100)의 위치 좌표와 고도를 측정한다. 거리계는 초음파, 레이저 또는 라이다(LiDAR) 기반의 센서를 이용하여 드론(100)과 지면 또는 드론(100)과 물체 사이의 거리를 측정한다. 일반적으로는 초음파나 레이저를 발사하고 반사되어 돌아오는 시간차를 측정하는 방식으로 거리를 계산한다. 기압계와 GPS 센서를 이용하면 드론(100)의 병진 운동 상태(Translational States)를 측정할 수 있다.The sensor unit 114 may include a barometer, a global positioning system (GPS) sensor, and a range finder to measure the position and altitude of the drones 100. The barometer is determined by the height of the sea surface and measures atmospheric pressure to measure the current altitude of the drone (100). At this time, a GPS sensor, an ultrasonic sensor, or an image sensor may be further employed to supplement the accuracy of the barometer. The GPS sensor measures the positional coordinates and altitude of the drones 100 using the signals of the satellites. The rangefinder measures the distance between the drones 100 and the ground or drones 100 and the object using an ultrasonic, laser or LiDAR-based sensor. Generally, the distance is calculated by emitting ultrasonic waves or a laser and measuring the time difference between reflected and reflected. By using the barometer and the GPS sensor, translational states of the drones 100 can be measured.

그 밖에도 센서부(114)는 GPS 센서와 연동하여 드론(100)의 이동 방향, 이동 경로, 이동 속도를 유지하기 위한 관성 측정기(IMU)를 더 포함할 수 있다. 관성 측정기는 자력계와 GPS 수신기가 결합된 형태로 그 측정 정보는 제어부로 전달되어 드론(100)의 비행 제어에 이용된다. 더욱 구체적으로, 자이로센서와 가속도센서는 드론의 기체좌표(Body Frame Coordinate)가 지구관성좌표(Earth Centered Inertial Coordinate)에 대해 회전한 상태와 가속된 상태를 측정하며, MEMS(Micro-Electro-Mechanical Systems) 반도체 공정기술을 이용하여 단일칩으로 제작된 것이 관성측정기(IMU: Inertial Measurement Unit)이다. 관성측정기의 칩 내부에는 자이로센서와 가속도센서가 측정한 지구관성좌표 기준의 측정치들을 지역좌표(Local Coordinate), 예를 들어 GPS가 사용하는 NED(North-East-Down) 좌표로 변환해주는 마이크로컨트롤러가 포함될 수 있다.In addition, the sensor unit 114 may further include an inertial measuring unit (IMU) for interlocking with the GPS sensor to maintain the moving direction, moving path, and moving speed of the drone 100. The inertia meter is a combination of a magnetometer and a GPS receiver, and the measurement information is transmitted to the controller to be used for flight control of the drone 100. [ More specifically, the gyro sensor and the acceleration sensor measure the body frame coordinate of the dron with respect to the Earth Centered Inertial Coordinate, ) Inertial Measurement Unit (IMU) is a single chip manufactured using semiconductor process technology. Inside the chip of the inertia meter, there is a microcontroller that converts the measured values of the global inertia coordinates measured by the gyro sensor and the acceleration sensor into local coordinates (eg, NED (North-East-Down) coordinates used by GPS) .

제어부(111)는 센서부(114)에 의해 추출된 구조용 드론(100)의 고도가 기설정된 투척 가능 고도보다 높은 경우 하방으로 비행하도록 제어한다. 즉, 제어부(111)는 센서부(114)의 센싱 결과에 따라 구조용 드론(100)의 비행을 조절하도록 구동부(115)를 제어한다. 이때, 투척 가능 고도는 사용자에 의하여 다양하게 설정되어 있을 수 있다. 이는 구조 장비(10)의 투척시 요구조자가 상해를 입지 않을 정도의 높이를 의미하며, 구조 장비(10)의 크기나 무게에 따라서 달리 설정될 수 있다. 사용자에 의하여 기설정된 투척 가능 고도는 저장부(117)에 저장될 수 있다.The control unit 111 controls the downward flight when the height of the structural drones 100 extracted by the sensor unit 114 is higher than a predetermined throwable altitude. That is, the control unit 111 controls the driving unit 115 to control the flying of the structural drones 100 according to the sensing result of the sensor unit 114. At this time, the throwable altitude may be variously set by the user. This means that the height of the rescue equipment 10 is not to be injured when the rescue equipment 10 is thrown, and can be set differently depending on the size or the weight of the rescue equipment 10. [ The throwable altitude preset by the user may be stored in the storage unit 117. [

또한, 제어부(111)는 센서부(114)에 의해 추출된 구조용 드론(100)의 기울기에 기초하여 현재 고도에서의 풍속을 산출한다. 현재 풍속은 구조용 드론(100)의 기울기가 판단되면, 저장부(117)에 저장된 기울기-풍속 룩업 테이블을 이용하여 구조용 드론(100)의 기울기를 대입하는 방식으로 산출할 수 있다. 산출된 풍속이 기준 풍속보다 빠른 경우에는 구조용 드론(100)의 고도를 변경시키는 방향으로 구조용 드론(100)을 비행시킨다. 이는 바람의 세기를 고려하여 구조용 드론(100)의 위치나 고도를 보정하기 위한 방법이다. 구조용 드론(100)은 공중 정지 상태에 있을 때 바람의 방향과 세기에 비례하여 일정한 기울기를 갖는데, 위에서 설명한 각종 센서에 의하여 센싱된 기울기를 이용하여 풍속을 추정한 후 구조용 드론(100)을 윗바람 지역으로 위치 보정하게 되면, 바람의 영향에 불구하고 요구조자에게 구조 장비가 정확하게 투척될 수 있다. 이때, 기준 풍속은 구조 장비가 안정적으로 투척될 수 있을 만큼 구조용 드론(100)이 안정적인 상황에 놓일 수 있는 풍속을 의미하며, 사용자에 의하여 설정되어 저장부(117)에 저장될 수 있다.The control unit 111 calculates the wind speed at the current altitude based on the slope of the structural drones 100 extracted by the sensor unit 114. [ The current wind speed can be calculated by substituting the slope of the structural drones 100 using the slope-wind speed look-up table stored in the storage unit 117, if the slope of the structural drones 100 is determined. If the calculated wind speed is faster than the reference wind speed, the structural drones 100 are caused to fly in the direction of changing the height of the structural drones 100. This is a method for correcting the position or altitude of the structural drones 100 in consideration of wind strength. The structural drones 100 have a constant slope in proportion to the direction and intensity of the wind when in a suspended state. The wind velocity is estimated using the slope sensed by the various sensors described above, and the structural drones 100 are moved to the upper wind area , The rescue equipment can be thrown correctly to the requester despite the influence of the wind. At this time, the reference wind speed means a wind speed at which the structural drones 100 can be placed in a stable state so that the structural equipment can be stably thrown, and can be set by the user and stored in the storage unit 117.

한편, 기울기에 의한 고도 보정을 도 2의 실시예에 적용할 수도 있다. 예를 들어, 제어부(111)는 영상 획득부(112)에 의하여 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치하는지를 판단하고, 타겟(T)이 이미지 프레임의 중심점(+)에 위치하지 않으면 이미지 프레임의 중심점을 시작점으로 하고, 타겟(T)의 위치를 종료점으로 하는 제1 방향 벡터(점선 화살표)를 추출한다. 이와 함께, 제어부(111)는 센서부(114)에 의해 추출된 구조용 드론(100)의 기울기에 기초하여 현재 고도에서의 풍속을 추출하고, 추출된 풍속이 기준 풍속보다 빠른 경우 현재 구조용 드론(100)의 고도를 변화시키는 방향으로의 제2 방향 벡터를 추출한다. 상기 추출된 제1 방향 벡터와 제2 방향 벡터의 합을 연산하여 제3 방향 벡터를 추출하고, 제어부(111)는 상기 제3 방향 벡터에 기초하여 구조용 드론(100)을 이동시키도록 구동부(115)를 제어한다.On the other hand, the altitude correction by the tilt may be applied to the embodiment of Fig. For example, the control unit 111 determines whether the target T is located at the center point (+) of the image frame obtained by the image obtaining unit 112, and when the target T is located at the center point (+ If it is not positioned, a first direction vector (dashed arrow) is extracted, with the center point of the image frame as the start point and the end position of the target T as the end point. The control unit 111 extracts the wind speed at the current altitude based on the slope of the structural drones 100 extracted by the sensor unit 114. If the extracted wind speed is faster than the reference wind speed, In the direction that changes the altitude of the first direction vector. The controller 111 calculates the sum of the extracted first direction vector and the second direction vector to extract the third direction vector, and the controller 111 controls the driving unit 115 ).

구동부(115)는 위에서 설명한 바와 같이, 구조용 드론(100)의 비행이나 개폐부(140)의 개폐를 직접적으로 조작하는 기능을 갖는다. 구동부(115)는 구조용 드론(100)을 구동시키는 구성으로, BLDC 모터들, 프로펠러들, 모터변속기(ESC: Electronic Speed Controller) 및 리튬폴리머 배터리 등을 포함할 수 있다. 모터변속기는 비행제어기로부터 PWM 신호들을 받아 모터들을 구동시키고, 배터리의 직류 전원을 교류로 바꾸어서 모터로 공급한다. 구동부(115)는 복수의 프로펠러(120)의 회전 속도, 회전 방향, 기울기 등을 조작하여 구조용 드론(100)의 이동, 정지, 이착륙 등을 도모한다.As described above, the driving unit 115 has a function of directly operating the flying of the structural drones 100 or the opening and closing of the opening and closing unit 140. The driving unit 115 may be configured to drive the structural drones 100 and may include BLDC motors, propellers, electronic speed controllers (ESCs), and lithium polymer batteries. The motor transmission receives the PWM signals from the flight controller to drive the motors, converts the DC power of the battery to AC, and supplies it to the motor. The driving unit 115 operates to rotate, stop, take off and land the structural drones 100 by manipulating the rotational speed, rotational direction, tilt, etc. of the plurality of propellers 120.

통신부(116)는 원격조정기(RC: Remote Controller)로부터 비행명령어를 수신하는 수신기, 영상 획득부(112)에서 획득된 이미지 등을 송신하는 이미지 송신기, 그리고 구조용 드론(100)의 위치, 속도, 배터리 잔량 등의 비행 정보를 송신하는 텔레메트리 송신기 등으로 구현될 수 있고, 이때, 텔레메트리 정보는 비디오 데이터와 함께 비디오 송신기를 통해 지상으로 송신될 수도 있다. 한편, 통신부(116)는 외부 이동 단말(미도시)과의 무선 송수신을 가능하게 하며, 외부 이동 단말은 상기 원격조정기를 포함하여, 구조용 드론(100)의 제어와 구조용 드론(100)으로부터 획득되는 영상을 실시간으로 표시한다. The communication unit 116 includes a receiver that receives a flight command from a remote controller (RC), an image transmitter that transmits the image and the like obtained from the image acquisition unit 112, A telemetry transmitter for transmitting flight information such as the remaining amount, and the telemetry information may be transmitted to the ground via the video transmitter together with the video data. Meanwhile, the communication unit 116 enables wireless transmission / reception with an external mobile terminal (not shown), and the external mobile terminal includes the remote controller to control the operation of the structural drones 100 and the structural drones 100 Displays images in real time.

구체적으로, 외부 이동 단말은 네트워크를 통해 구조용 드론(100)에 접속이 가능하며, 구조용 드론(100)의 주행 경로, 이벤트 등 각종 정보를 수신하고, 정밀자료 수십을 위해 직접 구조용 드론(100)을 조종할 수 있다. 외부 이동 단말은 HTML, XML 등 웹 페이지의 내용을 표시할 수 있는 웹 브라우저(넷스케이프, 인터넷 익스플로러, 크롬 등)를 가질 수 있다. 외부 이동 단말은 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone: Personal Communications Services phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000) 등 일반적인 이동 통신 단말, 2G/3G/4G, 와이브로 무선망 서비스가 가능한 단말, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA: Personal Digital Assistant), 스마트폰(Smart phone), 왑폰(WAP phone: Wireless application protocol phone) 등 네크워크(50)에 접속하기 위한 사용자 인터페이스를 갖는 모든 유무선 가전/통신 장치를 포괄적으로 의미할 수 있으며, IEEE 802.11 무선 랜 네트워크 카드 등의 무선랜 접속을 위한 인터페이스가 구비된 기기일 수 있다. 또한, 외부 이동 단말은 이동 통신 단말 이외에 컴퓨터, 노트북 등의 정보 통신 기기이거나 이를 포함하는 장치일 수도 있다. 즉, 차량 등에 싣거나 사람이 직접 휴대가 가능하며, 네트워크를 통해 구조용 드론(100)과 통신이 가능한 모든 유무선 가전/통신 장치를 포함할 수 있다.Specifically, the external mobile terminal can be connected to the structural drones 100 through the network, receive various information such as the traveling path and events of the structural drones 100, and directly connect the structural drones 100 You can steer. The external mobile terminal may have a web browser (Netscape, Internet Explorer, Chrome, etc.) capable of displaying the contents of a web page such as HTML, XML, and the like. The external mobile terminal may be a general mobile communication terminal such as a cellular phone, a Personal Communications Services phone (PCS phone), a synchronous / asynchronous IMT-2000 (International Mobile Telecommunication-2000), a 2G / 3G / 4G, To a network 50 such as a terminal capable of providing a wireless network service, a Palm personal computer, a personal digital assistant (PDA), a smart phone, a WAP phone (wireless application protocol phone) And may be an apparatus having an interface for a wireless LAN connection such as an IEEE 802.11 wireless LAN network card. In addition, the external mobile terminal may be an information communication device such as a computer, a notebook computer, or the like, in addition to the mobile communication terminal. That is, it may include all wired and wireless home appliances / communication devices that can be carried on a vehicle or directly carried by a person, and can communicate with the structural drones 100 through a network.

저장부(117)는 위에서 설명한 바와 같이, 영상 획득부(112)에서 획득된 각종 영상(정지 영상, 동화상 등), 외부로부터 수신되는 각종 정보, 영상 분석부(113)에서 분석된 영상 데이터 등을 저장하는 기능을 갖는다. 또한, 저장부(117)는 영상 획득부(112)에서 획득된 이미지 프레임 내에서 요구조자를 특정하기 위한 각종 객체 정보를 포함할 수 있고, 구조용 드론(100)의 위치를 제어하기 위한 기준이 되는 GIS 정보, 이동 경로 정보, 지형 정보, 투척 가능 고도 및 기준 풍속 등과 관련한 각종 정보를 저장할 수 있다.As described above, the storage unit 117 stores various images (still image, moving image, etc.) obtained in the image acquisition unit 112, various information received from the outside, image data analyzed in the image analysis unit 113, . In addition, the storage unit 117 may include various object information for specifying a requestor in the image frame acquired by the image acquisition unit 112, and may include a GIS as a reference for controlling the position of the structural drones 100, Information such as route information, route information, terrain information, throwable altitude, reference wind speed, and the like.

한편, 구조 장비(10)의 투척을 위한 개폐부(140)의 동작과 관련하여, 구조 장비 수용부(130)에 수용된 다수의 자동 구명 튜브는 압축 공기, 압축 가스 등의 자동 공급으로 개폐부(140)의 오픈과 동시에 팽창하도록 설계될 수 있다. 구조 장비 수용부(130)에 구비된 튜브 장착부는 복수의 자동 구명 튜브가 장착되는 곳으로, 구조용 드론의 하부에 연결 프레임, 연결 지그 등을 이용하여 연결된다. 이러한 튜브 장착부는 복수의 자동 구명 튜브가 위치하는 지지 플레이트와, 상기 지지 플레이트의 하단에 상기 복수의 자동 구명 튜브가 위치하는 수용 공간에 대응하여 개폐부(140)가 각각 설치될 수 있다. 각 개폐부(140) 위에는 자동 구명 튜브가 안착되고, 개폐부(140)의 오픈시 자동으로 자동 구명 튜브가 투하된다. In connection with the operation of the opening and closing part 140 for throwing the rescue equipment 10, a plurality of automatic rescue tubes accommodated in the rescue equipment receiving part 130 are opened and closed by automatic supply of compressed air, compressed gas, It can be designed to expand at the same time as the opening of the housing. The tube mounting part provided in the structural equipment receiving part 130 is a place where a plurality of automatic life tube is mounted, and is connected to a lower part of the structural dron using a connecting frame, a connecting jig, or the like. The tube mounting portion may include a support plate on which a plurality of automatic life tube is placed, and an opening / closing portion 140 corresponding to a receiving space in which the plurality of automatic life tube is located at the lower end of the support plate. An automatic life tube is seated on each opening / closing part 140, and an automatic life tube is automatically discharged when the opening / closing part 140 is opened.

한편, 구동부(115)는 튜브 장착부에서 복수의 자동 구명 튜브 중 적어도 하나를 투하시키기 위한 구동력을 제공한다. 구동부(115)의 작동에 의해 복수의 자동 구명 튜브가 동시에 투하될 수도 있고, 복수의 자동 구명 튜브가 순차적으로 투하될 수도 있다. 튜브 장착부의 각 자동 구명 튜브의 장착 위치에 개폐부(140)가 각각 위치하도록 설계된 경우, 구동부(115)는 개폐부(140)를 동시에 열어 복수의 자동 구명 튜브를 한꺼번에 투척할 수 있다. 이와 달리, 구동부(115)는 개폐부(140)를 순차적으로 오픈시킬 수 있고, 이때에는 개폐부(140)가 오픈된 곳에서만 자동 구명 튜브가 투하된다.On the other hand, the driving unit 115 provides the driving force for releasing at least one of the plurality of automatic life-like tubes at the tube mounting portion. A plurality of automatic life tube may be simultaneously discharged by the operation of the driving unit 115, and a plurality of automatic life tubes may be discharged sequentially. When the opening and closing part 140 is designed to be positioned at the mounting position of each automatic life tube of the tube mounting part, the driving part 115 can simultaneously open the opening and closing part 140 and throw a plurality of automatic life tube at once. Alternatively, the driving unit 115 may sequentially open the opening and closing unit 140, and at this time, the automatic life tube is dropped only when the opening and closing unit 140 is opened.

위에서 설명한 구조용 드론(100)의 동작 방법은 수동 및 자동 모드로 이루어질 수 있다. 자동 모드의 경우에는 저장부(117)에 저장된 구조 장소의 GPS 정보, GIS 정보, RS 정보 등에 기초하여 구조용 드론(100)이 이동하고, 구조 장소에 도착한 뒤 상기 구조 장비 투척 방법의 각 단계가 이루어질 수 있다. 자동 모드와 수동 모드의 조합으로 이루어지는 경우, 통신부(117)를 통한 조작자의 조종 신호에 기초하여 구조용 드론(100)이 구조 장소로 이동하고, GPS 정보, GIS 정보, RS 정보 등에 기초하여 구조 장소의 일정 반경(기설정된 영역) 안에 위치한다고 판단되면, 자동 모드로 전환되어 상술한 구조용 드론(100)의 구조 장비 투척 동작이 이루어질 수 있다.The operation method of the structural drones 100 described above can be performed in a manual and automatic mode. In the case of the automatic mode, the structural drones 100 are moved on the basis of the GPS information, the GIS information, the RS information, and the like of the structure site stored in the storage unit 117. After the structural drones 100 arrive at the structure site, . When the combination of the automatic mode and the manual mode is used, the structural drones 100 are moved to the structure site based on the control signal of the operator via the communication unit 117, If it is determined to be located within the predetermined radius (predetermined area), the automatic mode is switched to perform the above-described structural equipment throwing operation of the structural drones 100.

도 4는 본 발명에 따른 구조 장비 투척 방법을 나타내는 흐름도이다. 4 is a flow chart illustrating a method for throwing a structural equipment according to the present invention.

먼저, 영상 획득부(112)를 통하여 구조 현장의 이미지를 획득한다(S210). 획득된 이미지는 영상 분석부(113)로 전달되고, 영상 분석부(113)는 획득된 이미지 프레임에 포함된 객체의 특징 정보를 추출한 뒤(S220), 객체의 특징 정보에 기초하여 타겟을 결정한다(S230). 즉, 객체의 특징 정보(색상, 형상, 움직임 등)에 기초하여 해당 객체가 요구조자(사람)에 해당한다고 판단할만한 요소가 있다면 타겟으로 결정된다. 이와 같은 판단은 위에서 설명한 다양한 알고리즘을 이용하여 이루어질 수 있다.First, the image of the structure site is acquired through the image acquisition unit 112 (S210). The acquired image is transmitted to the image analysis unit 113. The image analysis unit 113 extracts the feature information of the object included in the acquired image frame (S220), and determines the target based on the feature information of the object (S230). That is, if there is an element that judges that the object corresponds to the requesting person (person) based on the feature information (color, shape, motion, etc.) of the object, the target is determined. Such a determination can be made using various algorithms described above.

이후, 결정된 타겟이 이미지 프레임의 중심점에 위치하는지를 판단(S240)하고, 결정된 타겟이 이미지 프레임의 중심점에 위치하지 않으면(S240-N), 이미지 프레임의 중심점을 시작점으로 하고 타겟의 위치를 종료점으로 하는 방향 벡터 추출하고(S250), 추출된 방향 벡터에 기초하여 구조용 드론(100)의 위치를 이동시키는 단계(S260)를 포함한 뒤 다시 S240 단계를 거친다.If the determined target is not located at the center point of the image frame (S240-N), it is determined whether the determined target is located at the center point of the image frame (S240) Extracting a direction vector (S250), and moving the position of the structural drones 100 based on the extracted direction vector (S260).

만약, 결정된 타겟이 이미지 프레임의 중심점에 위치하면(S240-Y) 구조 장비를 투척한다. 다만, 구조 장비의 투척 전, 구조용 드론(100)이 투척 가능한 고도에 위치하는 지를 판단(S270)하고, 투척 가능 고도에 위치한다면(S270-Y) 구조 장비를 투척한다(S290). 그리고, 투척 가능 고도에 위치하지 않으면(S270-N), 구조 장비의 투척 전 드론을 하방이동시키고(S280), 다시 투척 가능 고도에 위치하는지를 판단(S270)하게 된다. If the determined target is located at the center point of the image frame (S240-Y), the structure equipment is thrown. However, if the structural drones 100 are located at the throwable altitude (S270), the rescue equipment is thrown (S290). If it is not located at the throwable altitude (S270-N), the drones before throwing the rescue equipment are moved downward (S280), and it is judged whether the rescue equipment is located at the throwable altitude again (S270).

위에서 설명한 구조 장비 투척 방법에 의하면 구조 장비를 요구조자의 위치에 정확하고 안전하게 투척하는 것이 가능해진다.The above-described rescue equipment throwing method makes it possible to throw rescue equipment precisely and securely in the position of the requester.

도 5는 본 발명에 따른 구조 장비 투척 방법을 나타내는 흐름도이다. 도 5의 각 단계는 도 4의 단계가 시작되기 전에 이루어질 수도 있고, 필요시마다 이루어질 수도 있다. 5 is a flowchart illustrating a method for throwing a structural equipment according to the present invention. Each step of FIG. 5 may be performed before the step of FIG. 4 is started, or may be performed when necessary.

먼저, 구조용 드론(100)의 센서부(114)는 현재 고도에서의 기울기를 센싱한다(S200). 이후, 저장부(117)에 저장된 룩업테이블 등을 이용하여 기울기에 대응하는 현재 풍속을 산출한다(S201). First, the sensor unit 114 of the structural drones 100 senses the tilt at the current altitude (S200). Thereafter, the current wind speed corresponding to the tilt is calculated using a look-up table stored in the storage unit 117 (S201).

만약, 산출된 풍속이 저장부(117)에 저장된 기준 풍속을 초과하는 경우, 구조용 드론(100)의 고도를 변경시키는 방향으로 비행 제어한다(S203). 바람직하게는, 산출된 풍속이 저장부(117)에 저장된 기준 풍속을 초과하는 경우에는 구조용 드론(100)을 윗바람 영역으로 위치시키기 위하여 구조용 드론(100)을 상방으로 비행시키도록 제어한다.If the calculated wind speed exceeds the reference wind speed stored in the storage unit 117, the flying control is performed in a direction to change the height of the structural drones 100 (S203). Preferably, when the calculated wind speed exceeds the reference wind speed stored in the storage unit 117, the structural drones 100 are controlled to fly upward to position the structural drones 100 in the upwind area.

한편, 도면에 도시되지는 않았지만, 본 발명에 따른 구조 장비 투척 방법은 영상 획득부(112)에 의하여 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치하는지를 판단하고, 타겟(T)이 이미지 프레임의 중심점(+)에 위치하지 않으면 이미지 프레임의 중심점을 시작점으로 하고, 타겟(T)의 위치를 종료점으로 하는 제1 방향 벡터(점선 화살표)를 추출하는 단계와 센서부(114)에 의해 추출된 구조용 드론(100)의 기울기에 기초하여 현재 고도에서의 풍속을 추출하고, 추출된 풍속이 기준 풍속보다 빠른 경우 현재 구조용 드론(100)의 고도를 변화시키는 방향으로의 제2 방향 벡터를 추출하는 단계 및 상기 추출된 제1 방향 벡터와 제2 방향 벡터의 합을 연산하여 제3 방향 벡터를 추출하고, 추출된 제3 방향 벡터에 기초하여 구조용 드론(100)을 이동시키는 단계;를 포함할 수 있다. 이는, 도 4 및 5의 실시예가 도모하는 효과를 동시에 도모할 수 있는 방법으로, 영상 획득부를 이용해 구조 장비의 정확한 투척을 가능하게 할 뿐만 아니라 해상/수상에서 바람의 영향을 고려하여 구조용 드론을 제어하기 때문에 구조 장비 투척의 정확성을 더욱 높일 수 있게 된다.Although not shown in the drawing, the structural equipment throwing method according to the present invention determines whether the target T is located at the center point (+) of the image frame obtained by the image obtaining unit 112, Extracting a first direction vector (dashed line arrow) in which the center point of the image frame is not the center point (+) of the image frame and the end point of the target T is the start point; And a second direction vector in a direction of changing the altitude of the current structural drones 100 when the extracted wind speed is faster than the reference wind speed Extracting a third direction vector by calculating a sum of the extracted first direction vector and a second direction vector, and moving the structural drones 100 based on the extracted third direction vector; Can. This is a method capable of simultaneously achieving the effects of the embodiments of Figs. 4 and 5, enabling accurate throwing of structural equipment using an image acquisition unit, as well as controlling the structural drones The accuracy of throwing the structural equipment can be further increased.

상기 구조 장비 투척 방법은 수동 및 자동 모드로 이루어질 수 있다. 자동 모드의 경우, 구조 장소의 GPS 정보, GIS 정보, RS 정보 등을 파악하여 구조용 드론(100)이 이동하고, 구조 장소에서 상기 구조 장비 투척 방법의 각 단계가 이루어질 수 있다. 자동 모드와 수동 모드의 조합으로 이루어지는 경우, 조작자의 조종에 의하여 구조용 드론(100)이 구조 장소로 이동하고, GPS 정보, GIS 정보, RS 정보 등에 기초하여 구조 장소의 일정 반경(기설정된 영역) 안에 위치한다고 판단되면, 자동 모드로 전환되어 상기 구조 장비 투척 방법의 각 단계가 이루어질 수 있다.The rescue equipment throwing method may be in a manual and automatic mode. In the case of the automatic mode, the structural drones 100 are moved by grasping the GPS information, the GIS information, the RS information, and the like of the rescue site, and each step of the rescue equipment throwing method can be performed at the rescue site. When the combination of the automatic mode and the manual mode is used, the structural drones 100 are moved to the structure site by the operator's manipulation, and the structural drones 100 are moved to a structure space in a predetermined radius (predetermined area) of the structure site based on GPS information, GIS information, If it is determined to be located, the automatic mode is switched to perform each step of the rescue equipment throwing method.

한편, 본 발명의 일 실시예에 따른 구조 장비 투척 방법은 소프트웨어 및 하드웨어에 의해 하나의 모듈로 구현 가능하며, 전술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 롬(ROM), 플로피 디스크, 하드 디스크 등의 자기적 매체, CD, DVD 등의 광학적 매체 및 인터넷을 통한 전송과 같은 캐리어 웨이브와 같은 형태로 구현된다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네크워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the method for throwing a structural equipment according to an embodiment of the present invention can be implemented as one module by software and hardware, and the embodiments of the present invention described above can be implemented as a program that can be executed by a computer, And may be embodied in a general-purpose computer operating the program using a recording medium. The computer-readable recording medium is implemented in the form of a carrier wave such as a ROM, a floppy disk, a magnetic medium such as a hard disk, an optical medium such as a CD or a DVD, and a transmission through the Internet. In addition, the computer-readable recording medium may be distributed to a network-connected computer system so that computer-readable codes may be stored and executed in a distributed manner.

그리고, 본 발명의 실시예에서 사용되는 구성요소 또는 '~부'는 메모리 상의 소정 영역에서 수행되는 태스크, 클래스, 서브 루틴, 프로세스, 오브젝트, 실행 쓰레드, 프로그램과 같은 소프트웨어(software)나, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)로 구현될 수 있으며, 또한 상기 소프트웨어 및 하드웨어의 조합으로 이루어질 수도 있다. 상기 구성요소 또는 '~부'는 컴퓨터로 판독 가능한 저장 매체에 포함되어 있을 수도 있고, 복수의 컴퓨터에 그 일부가 분산되어 분포될 수도 있다.The components or parts used in the embodiments of the present invention may be software such as a task, a class, a subroutine, a process, an object, an execution thread, a program, field-programmable gate array (ASIC), or an application-specific integrated circuit (ASIC), or a combination of the above software and hardware. The components or parts may be included in a computer-readable storage medium, or a part of the components may be distributed to a plurality of computers.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100 : 구조용 드론 110 : 본체
111 : 제어부 112 : 영상 획득부
113 : 영상 분석부 114 : 센서부
115 : 구동부 116 : 통신부
117 : 저장부 120 : 프로펠러
130 : 구조 장비 수용부 140 : 개폐부
100: Structural drones 110: Body
111: control unit 112:
113: Image analysis unit 114: Sensor unit
115: driving unit 116:
117: Storage unit 120: Propeller
130: Rescue equipment receiving part 140:

Claims (6)

구조용 드론의 영상 획득부를 통하여 이미지를 획득하는 단계;
획득된 이미지에 포함된 객체의 특징 정보를 추출하는 단계;
상기 객체의 특징 정보에 기초하여 타겟을 결정하는 단계;
획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하는 단계;
상기 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하는 단계;
상기 방향 벡터에 기초하여 상기 구조용 드론의 위치를 이동시키는 단계;
상기 구조용 드론의 고도가 저장부에 저장된 투척 가능 고도보다 높은 경우 상기 구조용 드론을 하방 이동시키는 단계;
상기 구조용 드론이 위치한 고도에서의 풍속이 상기 저장부에 저장된 기준 풍속을 초과하는 경우 상기 구조용 드론을 상방 이동시키는 단계; 및
상기 구조용 드론의 위치 및 고도가 이동된 위치에서 구조 장비를 투척하는 단계;를 포함하고,
상기 저장부에 저장되는 상기 투척 가능 고도는 상기 구조 장비의 크기 및 무게에 따라 다르게 설정되는 구조 장비 투척 방법.
Acquiring an image through an image acquisition unit of the structural drones;
Extracting feature information of an object included in the acquired image;
Determining a target based on feature information of the object;
Determining whether the target is located at a center point of the acquired image frame;
Extracting a direction vector having a start point of a center point of the image frame and an end point of the target as an end point if the target is not located at a center point of the image frame;
Moving the position of the structural drones based on the direction vector;
Moving the structural drones downward when the height of the structural drones is higher than the storable altitude stored in the storage unit;
Moving the structural drones upward when the wind speed at the altitude where the structural drones are located exceeds the reference wind speed stored in the storage unit; And
Throwing the rescue equipment at a location where the position and altitude of the structural drones have been shifted,
Wherein the throwable altitude stored in the storage unit is set differently according to the size and weight of the rescue equipment.
삭제delete 삭제delete 구조용 드론의 비행 방향, 비행 속도, 위치, 고도 및 기울기 중 적어도 하나의 정보를 센싱하는 센서부;
구조 현장의 이미지를 획득하는 영상 획득부;
상기 영상 획득부에 의해 획득된 이미지 프레임에 포함된 객체의 특징 정보를 추출하고, 상기 객체의 특징 정보에 기초하여 타겟을 결정하는 영상 분석부;
구조 현장에서의 투척 가능 고도 및 기준 풍속을 저장하는 저장부;
복수의 구조 장비를 수용하는 수용 공간에 대응하여 설치되는 복수의 개폐부; 및
획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하고, 상기 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하며, 상기 방향 벡터에 기초하여 상기 구조용 드론을 이동시켜, 이동된 위치에서 구조 장비를 투척하도록 상기 개폐부를 제어하며, 상기 저장부에 저장된 상기 투척 가능 고도에 기초하여 상기 구조용 드론을 하방 이동시키고, 상기 기준 풍속에 기초하여 상기 구조용 드론을 상방 이동시키는 제어부;를 포함하고,
상기 제어부는 상기 센서부에 의해 추출된 상기 구조용 드론의 고도가 상기 저장부에 저장된 상기 투척 가능 고도보다 높은 경우 상기 구조용 드론을 하방으로 이동시키고, 상기 구조용 드론이 위치한 고도에서의 풍속이 상기 저장부에 저장된 상기 기준 풍속을 초과하는 경우 상기 구조용 드론의 고도를 상방으로 이동시키도록 제어하며,
상기 투척 가능 고도는 상기 구조 장비의 크기 및 무게에 따라 다르게 설정되어 상기 저장부에 저장되는 구조용 드론.
A sensor unit for sensing at least one of a flying direction, a flying speed, a position, an altitude, and a slope of the structural drones;
An image acquisition unit for acquiring an image of a structural site;
An image analysis unit extracting feature information of an object included in the image frame acquired by the image acquisition unit and determining a target based on the feature information of the object;
A storage unit for storing the throwable altitude and the reference wind speed at the structural site;
A plurality of opening / closing portions provided corresponding to a receiving space for accommodating a plurality of rescue equipment; And
Determining whether the target is located at the center point of the acquired image frame and extracting a direction vector having a start point of the center point of the image frame and an end point of the target position if the target is not located at the center point of the image frame Moving the structural drones based on the direction vector to control the opening and closing unit to throw the structural equipment at the moved position, moving the structural drones downward based on the storable altitude stored in the storage unit, And a controller for upwardly moving the structural drones based on the reference wind speed,
Wherein the control unit moves the structural drones downward when the height of the structural drones extracted by the sensor unit is higher than the storable altitude stored in the storage unit, Controls the elevation of the structural drones so that the elevation of the structural drones is moved upward,
Wherein the throwable altitude is set differently according to the size and weight of the structural equipment and is stored in the storage unit.
삭제delete 제4항에 있어서,
제어부는 상기 센서부에 의해 추출된 상기 구조용 드론의 기울기에 기초하여 상기 구조용 드론이 위치한 고도에서의 풍속을 산출하는 구조용 드론.
5. The method of claim 4,
Wherein the control unit calculates the wind speed at the altitude at which the structural drones are located based on the inclination of the structural drones extracted by the sensor unit.
KR1020170158273A 2017-11-24 2017-11-24 Method for dropping rescue equipment and drone for rescue using the same KR101990981B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170158273A KR101990981B1 (en) 2017-11-24 2017-11-24 Method for dropping rescue equipment and drone for rescue using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170158273A KR101990981B1 (en) 2017-11-24 2017-11-24 Method for dropping rescue equipment and drone for rescue using the same

Publications (2)

Publication Number Publication Date
KR20190060249A KR20190060249A (en) 2019-06-03
KR101990981B1 true KR101990981B1 (en) 2019-06-19

Family

ID=66849060

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170158273A KR101990981B1 (en) 2017-11-24 2017-11-24 Method for dropping rescue equipment and drone for rescue using the same

Country Status (1)

Country Link
KR (1) KR101990981B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102122752B1 (en) * 2019-10-23 2020-06-15 주식회사 네스앤텍 Unmanned vehicle control method for improving dropping accuracy
CN114608555A (en) * 2022-02-28 2022-06-10 珠海云洲智能科技股份有限公司 Target positioning method, system and storage medium
CN117278837B (en) * 2023-11-16 2024-01-26 新乡天辅电子科技有限公司 Emergency rescue-oriented imaging equipment control method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017098571A1 (en) * 2015-12-07 2017-06-15 楽天株式会社 Wind estimation system, wind estimation method, and program
JP2017144986A (en) * 2015-10-14 2017-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Unmanned air vehicle and flight control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101535401B1 (en) 2015-04-01 2015-07-08 오인선 Drone type life ring dropping device
KR20160125681A (en) 2015-04-22 2016-11-01 김민수 self-motion investigation tube
KR101801348B1 (en) * 2015-07-27 2017-11-24 유에이치에스(주) Drone for rescue at sea and system for rescue at sea using thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017144986A (en) * 2015-10-14 2017-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Unmanned air vehicle and flight control method
WO2017098571A1 (en) * 2015-12-07 2017-06-15 楽天株式会社 Wind estimation system, wind estimation method, and program

Also Published As

Publication number Publication date
KR20190060249A (en) 2019-06-03

Similar Documents

Publication Publication Date Title
US11042074B2 (en) Flying camera with string assembly for localization and interaction
US10824149B2 (en) System and method for automated aerial system operation
CN107531322B (en) Aerial capture platform
EP3519905B1 (en) Drop-off location planning for delivery vehicle
US9665094B1 (en) Automatically deployed UAVs for disaster response
CN108292140B (en) System and method for automatic return voyage
CN108369243B (en) Wind estimation system, wind estimation method, and program
US10023323B1 (en) Estimating wind from an airborne vehicle
EP3249487A2 (en) Uav and uav landing control device and method
KR101574601B1 (en) Multi rotor unmanned aerial vehicle, autonomous flight control method augmented by vision sensor thereof and record media recorded program for implement thereof
US20180005534A1 (en) Autonomous navigation of an unmanned aerial vehicle
KR101990981B1 (en) Method for dropping rescue equipment and drone for rescue using the same
CN112740226A (en) Operating system and method of movable object based on human body indication
CN111465556A (en) Information processing system, information processing method, and program
JP2019505902A (en) System and method for operating an automated aircraft system
KR20180095989A (en) The Apparatus And The Method For Measuring Flight Performance
Lillywhite et al. An embedded vision system for an unmanned four-rotor helicopter
AU2022203829B2 (en) Stereo abort of unmanned aerial vehicle deliveries
Zolich et al. Unmanned Aerial System for deployment and recovery of research equipment at sea
US20230296793A1 (en) Motion-Based Calibration Of An Aerial Device
Nascimento QuadAALper-the ambient assisted living quadcopter
Börjesson et al. Autonomous drone for liferaft detection
KR20210122458A (en) Unmanned aerial vehicle and control method thereof
WO2024019975A1 (en) Machine-learned monocular depth estimation and semantic segmentation for 6-dof absolute localization of a delivery drone

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant