KR101944952B1 - An unmanned aerial vehicle detecting fire - Google Patents

An unmanned aerial vehicle detecting fire Download PDF

Info

Publication number
KR101944952B1
KR101944952B1 KR1020170163955A KR20170163955A KR101944952B1 KR 101944952 B1 KR101944952 B1 KR 101944952B1 KR 1020170163955 A KR1020170163955 A KR 1020170163955A KR 20170163955 A KR20170163955 A KR 20170163955A KR 101944952 B1 KR101944952 B1 KR 101944952B1
Authority
KR
South Korea
Prior art keywords
image
camera
module
information
fire
Prior art date
Application number
KR1020170163955A
Other languages
Korean (ko)
Inventor
이병섭
Original Assignee
이병섭
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이병섭 filed Critical 이병섭
Priority to KR1020170163955A priority Critical patent/KR101944952B1/en
Application granted granted Critical
Publication of KR101944952B1 publication Critical patent/KR101944952B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • H04N5/2259
    • B64C2201/127
    • B64C2201/145
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS

Abstract

The present invention relates to an unmanned aerial vehicle (UAV) with a fire detection function, which automatically detects fire occurring on the ground in real-time to transmit information about a fire location and range to a main server. According to the present invention, the UAV with a fire detection function comprises a flying object (100) having a flying device (130) of a flying control function formed therein and a camera apparatus (200). The camera apparatus (200) comprises: a camera (230, 230′, 230′, hereinafter, referred to as 230) collecting a photographed image including a real image and a thermal image through ground photographing, and installed in the flying object (100); a location checking module (250) to check GPS coordinates; an image analysis module (260) analyzing the photographed image to search for a target image having a set color, movement, and heating temperature, and linking the GPS coordinates of the target image with the photographed image to generate image information; a navigation control module (240) to generate a flying value for navigation of the flying object (100) in accordance with flying course information; and a flying module (220) to control the flying device (130) in accordance with the flying value.

Description

화재 탐지 기능의 무인항공기{AN UNMANNED AERIAL VEHICLE DETECTING FIRE}AN UNMANNED AERIAL VEHICLE DETECTING FIRE "

본 발명은 지상에서 발생한 화재를 실시간으로 자동 탐지해서 화재 위치와 범위 등에 대한 정보를 메인서버로 발신하는 화재 탐지 기능의 무인항공기에 관한 것이다.The present invention relates to an unattended airplane of a fire detection function for automatically detecting a fire occurring on the ground in real time and transmitting information about a fire position and a range to a main server.

인간의 통행이 곤란한 산중이나 섬 등에는 사고 또는 자연 발화로 인해 화재가 발생할 수 있다. In mountains and islands where human traffic is difficult, fires can occur due to accidents or spontaneous fires.

그런데, 이러한 장소의 화재를 인간이 인식할 때쯤이면 화재가 이미 주변으로 확산된 상태이므로 화재 진압이 쉽지 않고 경제적인 손실 또한 클 수밖에 없었다. 더욱이 초기 화재의 인식이 곤란한 장소는 대부분이 발화가 쉬운 초목으로 우거진 곳이므로, 작은 발화에도 화재가 순식간에 번져서 대형 산불로 이어지는 경우가 빈번했다.However, when a person recognizes a fire in such a place, since the fire has already spread to the surrounding area, it is not easy to suppress the fire, and the economic loss is also large. Moreover, in places where it is difficult to recognize the initial fire, most of the places are lush with easy-to-ignite vegetation.

물론 전술한 문제를 해소하기 위해서 산중 곳곳에 화재 감지센서를 설치하여 화재 발생을 조기에 경고하는 경보시스템 기술이 개발되었다. Of course, in order to solve the above-mentioned problem, an alarm system technology has been developed in which fire detection sensors are installed in various places in the mountains to warn the fire early.

하지만 이러한 종래 기술을 실시하기 위해서는 수많은 화재 감지센서를 산중 곳곳에 설치해야 하는 수고가 수반되었고, 다수의 화재 감지센서를 제작해야 하는 경제적인 부담 또한 있었다.However, in order to implement such a conventional technology, it has been necessary to install a large number of fire detection sensors in various places in the mountains, and there has been an economic burden of manufacturing a large number of fire detection sensors.

이후, 무인 항공기를 이용해서 화재 발생을 감지하는 기술이 개발되었다.Thereafter, a technique for detecting the occurrence of a fire using an unmanned airplane was developed.

하지만 이러한 종래 기술은 무인 항공기가 전송한 촬영 영상을 관리자가 일일이 확인해서 화재를 인식해야 하는 번거로움이 있었고, 관리자가 화재 발생을 시각적으로 미처 인식하지 못할 수도 있는 부정확성이 있었다.However, this conventional technology has a problem that the manager has to recognize the fire by checking the shot image transmitted by the unmanned airplane, and there is an inaccuracy that the manager may not visually recognize the occurrence of the fire.

또한 상기 종래 기술은 화재가 발생한 위치를 상기 무인 항공기가 보낸 영상 이미지를 토대로 관리자가 일일이 파악해야 하므로, 화재 발생 위치를 파악하는데에도 적지 않은 시간이 소요됐다.In addition, since the manager has to grasp the position of the fire on the basis of the image image sent by the unmanned airplane, the conventional art takes a long time to grasp the location of the fire.

선행기술문헌 1. 특허등록번호 제10-1566341호(2015.11.05 공고)Prior Art Document 1. Patent Registration No. 10-1566341 (Announced 2015.11.05)

이에 본 발명은 상기의 문제를 해소하기 위해 발명된 것으로, 다수의 카메라를 이용해서 광범위한 지역을 주야의 구분없이 실시간으로 항공 탐지하면서 발화 여부를 파악하고, 발화 위치 또한 자체적으로 추적해서 관리자에게 통지하는 화재 탐지 기능의 무인항공기의 제공을 해결하고자 하는 과제로 한다.Accordingly, the present invention was invented to solve the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for detecting a wide area by using a plurality of cameras in real time without distinction of day and night, A problem to be solved is to provide a unmanned aircraft with a fire detection function.

상기의 과제를 달성하기 위하여 본 발명은,According to an aspect of the present invention,

비행 제어 기능의 항공기기가 구성된 항공기체, 및An aircraft having a flight control aircraft, and

지상 촬영을 통해 실사영상 및 열화상영상으로 된 촬영영상을 수집하며, 항공기체에 설치되는 카메라; GPS좌표를 확인하는 위치확인모듈; 상기 촬영영상을 분석해서 지정 색상과 움직임 및 발열온도를 갖는 타겟이미지를 탐색하고, 상기 타겟이미지의 GPS좌표를 상기 촬영영상에 링크해서 화상정보로 생성하는 화상분석모듈; 비행항로 정보에 따라 항공기체의 운항을 위한 비행값을 생성하는 운항제어모듈; 상기 비행값에 따라 항공기기를 제어하는 비행모듈;이 구성된 카메라 장치A camera installed on an airplane to collect photographed images of a real image and a thermal image through ground photographing; A location confirmation module for confirming GPS coordinates; An image analysis module for analyzing the captured image to search for a target image having a specified color, a movement and a heat generation temperature, and linking the GPS coordinates of the target image to the captured image to generate image information; A flight control module for generating a flight value for flight of the aircraft according to flight route information; A flight module for controlling the aircraft according to the flight value;

를 포함하는 화재 탐지 기능의 무인항공기이다.Which is a fire detection function.

상기의 본 발명은, 다수의 카메라를 이용해서 광범위한 지역을 주야의 구분없이 실시간으로 항공 탐지하면서 발화 여부를 파악하고, 발화 위치 또한 자체적으로 추적해서 관리자에게 통지하는 효과가 있다.According to the present invention, a large number of cameras can be used to detect a wide area in real time without distinction of day and night, and to detect an ignition, and the ignition position is also tracked by itself and notified to the manager.

도 1은 본 발명에 따른 무인항공기에 구성된 무인항공기의 모습을 보인 이미지이고,
도 2는 본 발명에 따른 무인항공기의 무인항공기의 구성을 도시한 블록도이고,
도 3은 본 발명에 따른 무인항공기의 중앙카메라와 제1,2사이드카메라가 항공기에서 촬영 지역을 촬영하는 정면 모습을 도시한 도면이고,
도 4는 상기 중앙카메라와 제1,2사이드카메라가 각각 촬영하여 수집한 촬영영상에 GPS좌표가 적용된 모습을 도시한 도면이고,
도 5는 본 발명에 따른 무인항공기의 동작 모습을 순차로 보인 플로차트이고,
도 6은 본 발명에 따른 무인항공기가 비행 중에 화재로 인식하는 지상의 모습을 개략적으로 도시한 도면이고,
도 7은 본 발명에 따른 무인항공기의 중앙카메라 및 제1,2사이드카메라에 각각 구성된 열화상촬영유닛이 화재를 인식하는 지상의 모습을 보인 이미지이고,
도 8은 본 발명에 따른 무인항공기가 화재로 인식한 지점을 중심으로 맴돌이하는 모습을 개략적으로 도시한 도면이고,
도 9는 본 발명에 따른 중앙카메라 및 제1,2사이드카메라의 내부 구조를 단면도시한 사시도이고,
도 10은 본 발명에 따른 중앙카메라 및 제1,2사이드카메라의 동작 모습을 개략적으로 도시한 저면도이고,
도 11은 본 발명에 따른 중앙카메라 및 제1,2사이드카메라의 완충 구동 모습을 도시한 단면도이다.
FIG. 1 is an image showing a state of an unmanned aerial vehicle according to the present invention,
FIG. 2 is a block diagram illustrating the configuration of an unmanned aerial vehicle according to the present invention,
FIG. 3 is a front view of a central camera and a first and second side cameras of an unmanned aerial vehicle according to the present invention,
4 is a view showing a state in which GPS coordinates are applied to an image captured and collected by the center camera and the first and second side cameras,
FIG. 5 is a flowchart sequentially showing the operation of the UAV according to the present invention,
FIG. 6 is a schematic view of the ground recognized by the unmanned airplane according to the present invention as a fire during flight, and FIG.
FIG. 7 is an image showing a state where fire is recognized by a thermal imaging unit, each of which is comprised of a central camera and a first and a second side camera of the UAV according to the present invention,
FIG. 8 is a view schematically showing a state where an unmanned airplane according to the present invention is swung around a point recognized as a fire, and FIG.
FIG. 9 is a perspective view showing the internal structure of the center camera and the first and second side cameras according to the present invention,
10 is a bottom view schematically showing the operation of the center camera and the first and second side cameras according to the present invention,
11 is a cross-sectional view illustrating a cushioning operation of the center camera and the first and second side cameras according to the present invention.

상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, There will be. The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It is to be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but on the contrary, is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention.

이하, 본 발명을 구체적인 내용이 첨부된 도면에 의거하여 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 무인항공기에 구성된 무인항공기의 모습을 보인 이미지이고, 도 2는 본 발명에 따른 무인항공기의 무인항공기의 구성을 도시한 블록도이고, 도 3은 본 발명에 따른 무인항공기의 중앙카메라와 제1,2사이드카메라가 항공기에서 촬영 지역을 촬영하는 정면 모습을 도시한 도면이고, 도 4는 상기 중앙카메라와 제1,2사이드카메라가 각각 촬영하여 수집한 촬영영상에 GPS좌표가 적용된 모습을 도시한 도면이다.FIG. 2 is a block diagram showing the configuration of an unmanned airplane of the unmanned airplane according to the present invention. FIG. 3 is a block diagram of the unmanned airplane according to the present invention, FIG. 4 is a view showing a front view of the center camera and the first and second side cameras taken by an aircraft, FIG.

본 실시의 무인항공기는, 본체(110)와 날개(120, 120')와 항공기기(130)로 구성된 항공기체(100)와, 항공기체(110)에 설치되어서 지상을 촬영하고 비행 중에 수집한 화상정보를 메인서버(300)로 발신해서 사용자에게 통지하는 카메라 장치(200)로 구성된다.The unmanned aerial vehicle according to the present embodiment includes an air vehicle 100 composed of a main body 110 and wings 120 and 120 'and an aviation device 130, And a camera device 200 that sends image information to the main server 300 and notifies the user.

여기서 항공기체(100)의 항공기기(130)는 무인항공기의 비행을 위한 일반적인 구동엔진(전기모터 포함)과 조향기기와 기타 항공기체의 자세 및 위치 등을 파악하는 가속도계와 수평계 등을 포함할 수 있다.Here, the aviation equipment 130 of the aviation airframe 100 may include a general driving engine (including an electric motor) for flight of the UAV, an accelerometer and a leveling system for grasping the attitude and position of the steerer and other aviation .

무인항공기의 본체(110)와 날개(120, 120')는 이미 공지의 기술이므로, 여기서는 추가 설명을 생략한다.Since the main body 110 and the blades 120 and 120 'of the UAV are well known in the art, further description is omitted here.

계속해서 본 실시의 카메라 장치(200)는, 직하방을 촬영하는 중앙카메라(230); 항공기체(100)의 좌,우측 하방을 각각 촬영하는 제1,2사이드카메라(230', 230");를 포함한다. 여기서 메인 카메라(230)는 중앙에서 직하방 촬영을 위해 항공기체(100)의 본체(110)에 설치되고, 제1,2사이드카메라(230', 230")는 본체(110)의 좌,우측 하방 촬영을 위해 항공기체(100)의 날개(120, 120')에 각각 설치된다. 따라서 중앙카메라(230)는 항공기체(100)가 비행 중에 직하방을 바로 촬영하고, 제1,2사이드카메라(230', 230")는 항공기체(100)가 운항 중에 좌,우측 하방을 각각 촬영할 수 있도록 하되, 중앙카메라(230)의 촬영영상과 제1,2사이드카메라(230', 230")의 촬영영상은 파노라마 형태로 일렬을 이루며 연결되도록 중앙카메라(230)와 제1,2사이드카메라(230', 230")는 일렬로 배치된다.Subsequently, the camera device 200 of the present embodiment includes a central camera 230 for photographing a direct-down room; And a first side camera 230 'and a second side camera 230' for photographing the left and right and lower sides of the air vehicle 100. The main camera 230 includes a main body 230, The first and second side cameras 230 'and 230' are installed on the wings 120 and 120 'of the air vehicle 100 for photographing the left and right sides of the main body 110 Respectively. Accordingly, the central camera 230 photographs the direct and indirect room while the air vehicle 100 is in flight, and the first and second side cameras 230 'and 230 " The center camera 230 and the first and second side cameras 230 'and 230 " are arranged in a line in a panoramic shape so as to be able to photograph the center camera 230 and the first and second side cameras 230' The cameras 230 ', 230 "are arranged in a row.

계속해서, 본 실시의 카메라 장치(200)는, GPS좌표를 확인하는 위치확인모듈(250); 중앙카메라(230)와 제1,2사이드카메라(230', 230")가 각각 촬영한 촬영영상을 분석해서 지정 색상과 발열온도를 갖는 타겟이미지를 탐색하고, 상기 타겟이미지의 GPS좌표를 해당 촬영영상에 입력하여 화상정보를 생성한 후에 통신모듈(200a)을 통해 메인서버로 전송하는 화상분석모듈(260); 항공기의 비행항로 정보를 저장하며, 상기 위치확인모듈(250)로부터 확인된 현재 GPS좌표에 따라 비행값을 생성하는 운항제어모듈(240);을 포함한다. 여기서 운항제어모듈(240)은 메인서버(300)의 제어신호에 따라 항공기체(100)의 운항을 비행모듈(220)을 통해 제어하며, 비행모듈(290)은 카메라 장치(200)와 기존 항공기체(100)의 호환을 위한 어댑터 기능을 수행한다.Subsequently, the camera device 200 of the present embodiment includes a position confirmation module 250 for confirming GPS coordinates; The central camera 230 and the first and second side cameras 230 'and 230 "analyze the photographed images to search for a target image having a specified color and a heat temperature, An image analysis module 260 for generating image information by inputting to the image and transmitting the image information to the main server through the communication module 200a, The navigation control module 240 controls the operation of the air vehicle 100 according to the control signal of the main server 300 to the flight module 220, And the flight module 290 performs an adapter function for compatibility between the camera device 200 and the existing air vehicle 100. [

한편 본 실시의 카메라 장치(200)는, 화상분석모듈(260)이 생성한 화상정보를 저장하는 로그모듈(280)과, 메인서버(300)와의 통신을 중계하는 통신모듈(200a)과, 중앙카메라(230)와 제1,2사이드카메라(230', 230")의 촬영 방향을 제어하는 카메라 조향모듈(290)과, 촬영 시의 주변 환경 상태를 감지해서 환경정보로 생성하는 환경감지모듈(210)을 더 포함한다.The camera device 200 according to the present embodiment includes a log module 280 for storing image information generated by the image analysis module 260, a communication module 200a for relaying communication with the main server 300, A camera steering module 290 for controlling the photographing direction of the camera 230 and the first and second side cameras 230 'and 230 ", an environment detecting module 290 for detecting environmental conditions at the time of photographing, 210).

화상분석모듈(260)을 좀 더 구체적으로 설명하면, 중앙카메라(230)와 제1,2사이드카메라(230', 230")가 촬영해 수집한 촬영영상의 이미지를 분석해서 색상과 발열온도를 확인하고, 이렇게 확인된 파트의 색상과 발열온도가 지정된 기준에 해당하면 타겟이미지로 지정한다. 상기 타겟이미지로 지정하면 카메라 장치(200)는 해당 타겟이미지가 위치하는 촬영영상을 지속적으로 촬영한다.More specifically, the image analysis module 260 analyzes the images of the photographed images captured by the central camera 230 and the first and second side cameras 230 'and 230 " If the color of the part and the heat temperature of the part thus identified are the designated reference, the target image is designated. If the target image is designated, the camera device 200 continuously captures the captured image in which the target image is located.

또한 화상분석모듈(260)은 상기 촬영영상에 출현한 상기 타겟이미지별로 ID를 설정해서 타겟이미지를 식별할 수 있게 한다.Also, the image analysis module 260 sets an ID for each of the target images appearing in the captured image, thereby identifying a target image.

또한 화상분석모듈(260)은 상기 촬영영상에 구성된 촬영 지역별로 해당하는 GPS좌표를 합성하여 입력하는데, 도 4의 (a)도면에서와 같이 중앙카메라(230)가 촬영한 촬영영상에는 항공기체(100)가 위치한 GPS좌표를 기준으로 일정한 간격의 좌표계 레이어를 생성시켜 합성하고, 제1,2사이드카메라(230', 230")가 촬영한 촬영영상에는 도 4의 (b)도면에서와 같이 중앙카메라(230)의 좌표계 레이어를 기준으로 해당 좌표축이 원근에 따라 좁아는 좌표계 레이어를 생성시켜 합성한다. 참고로, 항공기체(100)의 촬영 고도를 일정하게 유지하고, 상기 제1,2사이드카메라(230', 230")는 일정 각도로 측방을 촬영하므로, 화상분석모듈(260)은 상기 촬영 고도와 측방 촬영 각도 등을 기초로 중앙카메라(230) 및 제1,2사이드카메라(230', 230")의 촬영영상에 촬영된 지역의 범위와 GPS좌표를 연산하고 해당 좌표계 레이어를 합성할 수 있다. 제1,2사이드카메라(230', 230")의 촬영영상은 특정 지역을 향한 측방 이미지이므로, 원근감에 의해 항공기체(100)로부터 멀어질수록 GPS좌표의 간격이 좁아진다. 따라서 제1,2사이드카메라(230', 230")의 촬영영상에서 일정 범위만이 유효구역으로 한정하고, 화상분석모듈(260)은 상기 유효구역의 촬영영상으로 화상정보를 생성한다. Also, the image analysis module 260 synthesizes and inputs the corresponding GPS coordinates according to the photographing area configured in the captured image. As shown in FIG. 4 (a), the captured image captured by the central camera 230 includes The center coordinates of the first and second side cameras 230 'and 230' are generated based on the GPS coordinates of the first and second side cameras 230 'and 230' The coordinates of the coordinate system layer of the camera 230 are narrowed according to the perspective of the coordinate system, and the coordinate system layer is synthesized. In this case, the photographing altitude of the air vehicle 100 is kept constant, The image analysis module 260 calculates the distance between the center camera 230 and the first and second side cameras 230 'and 230' based on the photographing altitude and the side photographing angle, 230 ") and the GPS coordinates The captured images of the first and second side cameras 230 'and 230' are side images directed toward a specific region, so that as the distance from the air vehicle 100 is increased by perspective, Is narrowed. Therefore, only a certain range of the photographed images of the first and second side cameras 230 'and 230 "is limited to the effective zone, and the image analysis module 260 generates the image information as the photographed image of the effective zone.

본 실시의 중앙카메라(230)와 제1,2사이드카메라(230', 230")는 각각, 실상촬영유닛(232)과 열화상촬영유닛(233) 중 선택된 하나 이상을 포함한다.Each of the central camera 230 and the first and second side cameras 230 'and 230 "includes at least one selected from a real image capture unit 232 and a thermal image capture unit 233.

더 나아가 본 실시의 중앙카메라(230)와 제1,2사이드카메라는 각각, 실상촬영유닛(232)과 열화상촬영유닛(233)의 구동을 제어하는 구동유닛(234)을 더 포함한다. 또한, 본 실시의 카메라 장치(200)는 특정 타겟을 확대하거나 축소하기 위한 줌촬영유닛(미도시함)을 더 포함할 수 있다.Furthermore, the central camera 230 and the first and second side cameras of the present embodiment further include a driving unit 234 that controls the driving of the photographing unit 232 and the thermal imaging unit 233, respectively. In addition, the camera apparatus 200 of the present embodiment may further include a zoom photographing unit (not shown) for zooming in or zooming out a specific target.

전술한 중앙카메라(230)와 제1,2사이드카메라의 각 구성 유닛(232, 233)은 사용자가 제어하는 구동유닛(234)에 의해 동작 제어된다.The above-described central camera 230 and the respective constituent units 232 and 233 of the first and second side cameras are operated and controlled by a drive unit 234 controlled by the user.

실상촬영유닛(232)은 촬영 지역 또는 특정 타겟을 촬영하여 실사영상을 수집하고, 열화상촬영유닛(233)은 촬영 대상에서 발하는 열을 감지해서 열화상영상(도 7 참고)으로 수집한다.Actually, the photographing unit 232 photographs a photographing region or a specific target to collect a real image, and the thermal image photographing unit 233 senses the heat emitted from the photographing object and collects it as a thermal image (see FIG. 7).

구동유닛(234)은 사용자의 제어신호에 따라 실상촬영유닛(232)과 열화상촬영유닛(233)의 구동을 제어한다.The driving unit 234 controls the driving of the real image sensing unit 232 and the thermal image sensing unit 233 in accordance with the control signal of the user.

도 5는 본 발명에 따른 무인항공기의 동작 모습을 순차로 보인 플로차트이고, 도 6은 본 발명에 따른 무인항공기가 비행 중에 화재로 인식하는 지상의 모습을 개략적으로 도시한 도면이고, 도 7은 본 발명에 따른 무인항공기의 중앙카메라 및 제1,2사이드카메라에 각각 구성된 열화상촬영유닛이 화재를 인식하는 지상의 모습을 보인 이미지이고, 도 8은 본 발명에 따른 무인항공기가 화재로 인식한 지점을 중심으로 맴돌이하는 모습을 개략적으로 도시한 도면이다.FIG. 5 is a flowchart showing the operation of the UAV according to the present invention. FIG. 6 is a schematic view of the ground recognized by the UAV according to the present invention, FIG. 8 is a view showing a state in which a fire alarm is detected by a fire alarm detection unit according to an embodiment of the present invention; and FIG. As shown in FIG.

본 실시의 무인항공기는 비행 중에 지상을 촬영하면서 화재 여부를 탐지하며, 화재가 확인되면 화재 지역을 지속적으로 촬영하면서 주변 정보와 확산 범위 및 확진 진행 방향을 분석해 안내한다. 이를 위해 본 실시의 무인항공기는 아래와 같이 동작한다.The unmanned airplane of this embodiment detects the presence of a fire while shooting the ground during a flight, and when a fire is detected, the fire area is continuously photographed, and the surrounding information, the diffusion range, and the confirmation direction are analyzed and guided. To this end, the unmanned aerial vehicle of this embodiment operates as follows.

S11; 비행항로 비행 단계S11; Flight Route Flight Phase

무인항공기는 비행항로 정보에 따라 비행하면서 지상을 촬영한다. 상기 비행항로 정보는 비행위치정보와 속도정보 및 고도정보로서 항공기기(130)에 설정되며, 항공기기(130)는 상기 비행항로 정보에 맞춰서 무인항공기의 동작을 제어한다.The unmanned airplane takes the ground while flying according to the flight route information. The flight route information is set in the aviation device 130 as flight position information, speed information, and altitude information, and the aviation device 130 controls the operation of the UAV according to the flight route information.

하지만 전술한 자동 비행 방식 외에도 사용자가 메인서버(300)를 이용해서 수동 조작하는 방식으로 무인항공기의 비행을 제어할 수 있다.However, in addition to the above-described automatic flight method, the user can control the flight of the UAV by a manual operation using the main server 300.

S12; 지상 촬영 단계S12; Ground shooting steps

무인항공기의 비행 중에 중앙카메라(230)와 제1,2사이드카메라(230', 230")는 지상을 지속적으로 촬영하며, 이러한 방식으로 촬영영상을 수집한다. 중앙카메라(230) 및 제1,2사이드카메라(230', 230")에 각각 구성된 실상촬영유닛(232)과 열화상촬영유닛(233)은 지상 촬영을 동시에 진행할 수도 있고, 실상촬영유닛(232)만이 지속적인 지상 촬영을 진행하면서, 필요 시에만 열화상촬영유닛(233)이 지상을촬영하도록 할 수도 있다.The center camera 230 and the first and second side cameras 230 'and 230 " continuously photograph the ground and collect photographed images in this manner during the flight of the UAV. The actual image pick-up unit 232 and the thermal image pick-up unit 233 constituted respectively by the two side cameras 230 'and 230 "may simultaneously perform the ground photographing, and only the photographing unit 232, And the thermal imager 233 may photograph the ground only when necessary.

S13; 수집 영상 분석 단계S13; Collected image analysis step

화상분석모듈(260)은 중앙카메라(230) 및 제1,2사이드카메라(230', 230")가 수집한 촬영영상을 분석한다. 촬영영상 분석은 도 6에서와 같이 실상촬영유닛(232)이 촬영한 컬러이미지에서 지정된 색상과 움직임을 검색하는 것이다. 여기서 상기 색상은 하나 또는 둘 이상이 조합해 이루어질 수 있고, 상기 움직임은 해당 색상으로 된 형상이 일 지점에서 반복적인 흔들림을 일으키거나 특정 방향으로만 확산되는 모습을 일 수 있다. 참고로, 화재는 화염과 함께 연기가 발생하는데, 상기 화염은 검붉은 색상을 이루고, 상기 연기는 회색 색상을 이룬다. 따라서 검붉은 색상은 일 지점에서 점차 퍼져가며 반복적인 흔들림이 연출되고, 회색은 풍향을 따라 점차 확산되는 움직임이 연출된다.The image analysis module 260 analyzes the captured images collected by the central camera 230 and the first and second side cameras 230 'and 230 ". The captured image analysis is performed by the actual image capture unit 232, The color may be one or a combination of two or more colors, and the motion may cause the shape of the corresponding color to repeatedly shake at one point, The flame is grayish red, and the smoke is grayish color, so that the sword-red color gradually spreads from one point to the other. Repetitive shaking is produced, and the gray gradually moves along the wind direction.

참고로, 회색 색상의 움직임 확인을 위해서 화상분석모듈(260)은 환경감지모듈(210)이 수집한 풍향과 풍속에 대한 환경정보를 전달받아 활용한다.For reference, the image analysis module 260 receives environmental information about the wind direction and the wind speed collected by the environment detection module 210 for the gray color movement confirmation.

또한, 화상분석모듈(260)은 도 7에서와 같이 열화상촬영유닛(233)이 촬영한 열화상이미지에서 위치별 발열온도를 확인하고, 지정된 기준에 해당하는 지점을 확인한다.7, the image analysis module 260 confirms the heat generation temperature for each position in the thermal image taken by the thermal image pickup unit 233, and confirms a point corresponding to the specified reference.

S14; 화재 여부 확인 단계S14; Steps to check for fire

화상분석모듈(260)이 촬영영상을 분석해서 색상 및 움직임이 지정 기준에 해당하는 지점과 발열온도가 지정 기준에 해당하는 지점이 일치하면, 화상분석모듈(260)은 해당 지점을 타겟이미지로 지정하고, 상기 지점에 화재가 발생한 것으로 간주하여 후속 단계를 진행한다. 색상 및 움직임이 지정 기준에 해당하는 지점과 발열온도가 지정 기준에 해당하는 지점이 일치하지 않으면, 상기 지점은 화재가 아닌 것으로 간주하고 다른 지역에 대한 촬영을 지속하고, 무인항공기는 비행항로 정보를 따라 비행한다.When the image analysis module 260 analyzes the photographed image and the point at which the color and the motion correspond to the specified reference and the point at which the exothermic temperature corresponds to the specified reference match, the image analysis module 260 designates the point as the target image , It is regarded that a fire has occurred at the above point and the subsequent step is carried out. If the point at which the color and motion correspond to the specified reference point and the point at which the heating temperature corresponds to the specified reference point do not match, the point is considered not to be a fire and the shooting for another region is continued. I fly along.

S15; 화재정보 수집 단계S15; Fire information collection phase

화상분석모듈(260)은 화재로 확인하여 타겟이미지로 지정한 위치의 GPS좌표를 위치확인모듈(250)을 통해 확인하고, 상기 위치의 풍향과 풍속 등에 대한 환경정보를 환경감지모듈(210)로부터 실시간으로 확인해서, 상기 타겟이미지가 구성된 촬영영상에 GPS좌표와 환경정보를 링크하고, 화상정보로 생성한다.The image analysis module 260 confirms the GPS coordinates of the location designated as the target image by fire and confirms the GPS coordinates of the location with the location confirmation module 250. The environmental analysis module 260 receives environment information on the wind direction, And links the GPS coordinates and the environment information to the photographed image constituted by the target image, and generates the image information.

S16; 수집정보 발신 단계S16; Step for sending collected information

화상분석모듈(260)은 생성한 화상정보를 통신모듈(200a)을 통해 메인서버(300)로 발신하고, 메인서버(300)는 상기 화상정보를 출력 및 분석해서 사용자가 이를 확인하고 후속 작업을 진행할 수 있도록 한다.The image analysis module 260 transmits the generated image information to the main server 300 through the communication module 200a and the main server 300 outputs and analyzes the image information to confirm the user and perform subsequent operations So that it can proceed.

S17; 항로 변경 단계S17; Route change step

화상분석모듈(260)은 상기 화상정보를 운항제어모듈(240)에 전달하고, 운항제어모듈(240)은 위치확인모듈(250)에서 확인한 현재 GPS좌표와 상기 화상정보에 포함된 타겟이미지의 GPS좌표를 기준으로 비행값을 생성한다.The image analysis module 260 transmits the image information to the navigation control module 240. The navigation control module 240 compares the current GPS coordinates confirmed by the position determination module 250 with the GPS of the target image included in the image information Creates a flight value based on the coordinates.

전술한 바와 같이 무인항공기는 평시에 운항제어모듈(240)에 입력된 비행항로 정보에 따라 비행하는데, 화상분석모듈(260)이 지상에 화재 발생을 인지하면 타겟이미지의 GPS좌표를 향해 비행하는 비행값을 생성하고, 비행모듈(220)에 상기 비행값을 전달한다.As described above, the unmanned airplane flew according to the flight route information input to the navigation control module 240 at a normal time. When the image analysis module 260 recognizes the occurrence of a fire on the ground, And transmits the flight value to the flight module 220. [

비행모듈(220)은 상기 비행값을 항공기기(130)에 전달해서 무인항공기의 움직임을 조정한다.The flight module 220 transmits the flight value to the aviation device 130 to adjust the movement of the unmanned airplane.

한편, 운항제어모듈(240)은 타겟이미지의 GPS좌표를 중심으로 항공기체(100)가 도 8과 같이 맴놀이하도록 비행값을 생성한다. 따라서 무인항공기는 화재로 인식된 지점을 중심으로 둘레를 따라 지속적인 맴돌이를 유지한다.Meanwhile, the navigation control module 240 generates a flight value such that the air vehicle 100 moves around the GPS coordinates of the target image as shown in FIG. Thus, the unmanned aircraft maintains a constant eddy along the perimeter around the spot recognized as a fire.

S18; 화재상황 수집 단계S18; Fire situation collection phase

카메라 조향모듈(290)은 화상분석모듈(260)로부터 타겟이미지를 포함하는 화상정보를 수신하면, 중앙카메라(230) 및 제1,2사이드카메라(230', 230")가 화재지점을 지속해 촬영할 수 있도록 중앙카메라(230) 및 제1,2사이드카메라(230', 230")의 촬영방향을 조정한다.When the camera steering module 290 receives the image information including the target image from the image analysis module 260, the central camera 230 and the first and second side cameras 230 'and 230 " And adjusts the photographing direction of the central camera 230 and the first and second side cameras 230 'and 230 "

카메라 조향모듈(290)은 화상정보에 확인한 타겟이미지의 GPS좌표와, 위치확인모듈(250)에서 실시간으로 확인하는 무인항공기의 현재 위치의 GPS좌표를 비교해서 화재지점의 방향을 인지하고, 환경감지모듈(210)로부터 실시간으로 확인하는 환경정보에서 무인항공기의 고도를 확인한다.The camera steering module 290 recognizes the direction of the fire point by comparing the GPS coordinates of the target image confirmed in the image information with the GPS coordinates of the current position of the UAV that is confirmed in real time in the position determination module 250, The altitude of the unmanned aerial vehicle is checked based on the environment information confirmed in real time from the module 210. [

이렇게 확인한 무인항공기의 현재 위치를 기준으로 화재지점에 대한 수평 촬영각과 수직 촬영각을 연산해서 중앙카메라(230) 및 제1,2사이드카메라(230', 230")의 촬영방향을 조정한다.The photographing direction of the center camera 230 and the first and second side cameras 230 'and 230 " are adjusted by calculating the horizontal photographing angle and the vertical photographing angle with respect to the fire point on the basis of the current position of the UAV.

무인항공기가 맴돌이를 하면 카메라 조향모듈(290)은 무인항공기의 움직임을 따라 중앙카메라(230) 및 제1,2사이드카메라(230', 230")의 촬영방향을 지속적으로 조정하고, 이렇게 수집되는 화상정보는 통신모듈(200a)을 통해 메인서버(300)로 발신된다.When the unmanned airplane swirls, the camera steering module 290 continuously adjusts the photographing direction of the central camera 230 and the first and second side cameras 230 'and 230 "along with the movement of the UAV, The image information is transmitted to the main server 300 through the communication module 200a.

참고로, 메인서버(300)는 무인항공기로부터 전송되는 화상정보를 분석해서 화재 발생 위치와 화재의 확산방향 등을 확인하고, 후속 조치를 신속하게 처리한다.For reference, the main server 300 analyzes the image information transmitted from the unmanned airplane and confirms the location of the fire, the direction of the spread of the fire, and promptly processes the follow-up action.

도 9는 본 발명에 따른 중앙카메라 및 제1,2사이드카메라의 내부 구조를 단면도시한 사시도이고, 도 10은 본 발명에 따른 중앙카메라 및 제1,2사이드카메라의 동작 모습을 개략적으로 도시한 저면도이고, 도 11은 본 발명에 따른 중앙카메라 및 제1,2사이드카메라의 완충 구동 모습을 도시한 단면도이다.FIG. 9 is a perspective view showing the internal structure of the center camera and the first and second side cameras according to the present invention in a sectional view, FIG. 10 is a view schematically showing the operation of the center camera and the first and second side cameras according to the present invention 11 is a cross-sectional view illustrating a cushioning operation of the center camera and the first and second side cameras according to the present invention.

본 실시의 카메라 조향모듈(290)은, 중앙카메라(230) 및 제1,2사이드카메라(230', 230")가 무인항공기의 이동과정에서 발생하는 진동과 고도 변화에 따라 발생하는 흔들림에도 상관 없이 조준 위치에 대한 안정적인 촬영을 유지할 수 있도록 구성된다. 또한 복잡한 구조를 갖추지 않아도 중앙카메라(230) 및 제1,2사이드카메라(230', 230")의 수평 촬영각과 수직 촬영각 조정을 원활히 수행할 수 있는 구조를 이룬다.The camera steering module 290 of the present embodiment is configured such that the central camera 230 and the first and second side cameras 230 'and 230 " The horizontal photographing angle and the vertical photographing angle of the center camera 230 and the first and second side cameras 230 'and 230' can be adjusted smoothly without complicated structure. It is a structure that can be done.

아래에서는 중앙카메라(230) 및 제1,2사이드카메라(230', 230") 중에서 항공기 본체(110)에 설치된 중앙카메라(230)를 예시로 해 설명한다.Hereinafter, a central camera 230 installed in the aircraft main body 110 among the central camera 230 and the first and second side cameras 230 'and 230' will be described as an example.

본 실시의 카메라 조향모듈(290)은, 항공기체(100)에 고정되며 중공에 액상수지(P)가 충진된 원통체(2931)와, 원통체(2931)의 저면에 원주를 따라 일정 간격으로 배치되는 다수의 마디를 구비한 원형으로 돌출 형성된 기준 브래킷(2932)과, 원통체(2931)의 중공 바닥 및 천장에 각각 설치되는 바닥쿠션(2934) 및 천장쿠션(2933)으로 구성된 케이스(293); 원통체(2931)의 바닥쿠션(2933) 및 천장쿠션(2934)과 원통체(2931)를 회전 및 상하 이동이 가능하게 관통하여 입설되는 원형 샤프트(2911)와, 원형 샤프트(2911)와 동축으로 연결되어 원통체(2931)의 중공에 배치되는 종동기어(2912)와, 바닥쿠션(2934)과 종동기어(2912) 사이의 원형 샤프트(2911)에 설치되어서 종동기어(2912)를 지지하는 서포팅쿠션(2913)과, 원형 샤프트(2911)의 하단과 동축으로 연장 형성되는 각형 샤프트(2914)와, 각형 샤프트(2914)의 하단에서 연장 형성되어서 중앙카메라(230)가 회전가능하게 연결되는 플랜지(2915)로 구성된 회전축대(291); 중앙카메라(230)에 회전력을 가하도록 플랜지(2915)에 설치되는 회전모터(294); 종동기어(2912)와 축방향으로 슬라이딩 가능하게 맞물린 주동기어(2921)에 회전력을 가하며, 원통체(2931)의 중공에 설치되는 구동모터(292); 기준 브래킷(2932)을 따라 회전하면서 상기 마디를 카운트하여 회전정보를 생성하고, 상하 이동이 가능하도록 관통한 각형 샤프트(2914)의 동력을 받아 회전하는 회전센서(295); 상기 화상정보의 타겟이미지의 GPS좌표와 현 위치의 GPS좌표를 비교해서 인지한 화재지점의 방향과, 상기 환경정보에서 확인한 현 고도를 기준으로 상기 화재지점에 대한 수평 촬영각과 수직 촬영각을 연산해서 구동모터(292)와 회전모터(294)에 구동신호를 전달하고, 회전센서(295)의 회전정보에 따라 구동신호를 보정하는 컨트롤유닛(296);을 포함한다.The camera steering module 290 of this embodiment includes a cylindrical body 2931 fixed to the air airframe 100 and filled with a liquid resin P in the hollow and a cylindrical body 2931 fixed to the bottom of the cylindrical body 2931 at regular intervals A case 293 composed of a floor cushion 2934 and a ceiling cushion 2933 provided on the hollow bottom and the ceiling of the cylindrical body 2931 and a case 293 formed by a circular protruding reference bracket 2932 having a plurality of nodes arranged thereon, ; A circular shaft 2911 which penetrates the bottom cushion 2933 and the cushion 2934 of the cylindrical body 2931 and the cylindrical body 2931 so as to be able to rotate and move up and down and a circular shaft 2911 coaxial with the circular shaft 2911 A supporting gear 2912 disposed on the circular shaft 2911 between the bottom cushion 2934 and the driven gear 2912 to support the driven gear 2912, A prism 2915 extending from the lower end of the prismatic shaft 2914 and rotatably connected to the center camera 230; a prism 2913 extending from the lower end of the prismatic shaft 2914; A rotary shaft 291 constituted by a rotary shaft 291; A rotation motor 294 installed on the flange 2915 to apply a rotational force to the central camera 230; A drive motor 292 installed in the hollow of the cylindrical body 2931 for applying a rotational force to the driven gear 2921 slidably engaged with the driven gear 2912 in the axial direction; A rotation sensor 295 that rotates along a reference bracket 2932 to generate rotational information by counting the nodes and rotate by receiving power of a prismatic shaft 2914 penetrated to allow upward and downward movement; A horizontal photographing angle and a vertical photographing angle with respect to the fire point are calculated based on the direction of the fire point recognized by comparing the GPS coordinates of the target image of the image information with the GPS coordinates of the current position and the current altitude confirmed in the environment information And a control unit 296 for transmitting a drive signal to the drive motor 292 and the rotation motor 294 and correcting the drive signal according to the rotation information of the rotation sensor 295.

여기서 원형 샤프트(2911)와 각형 샤프트(2914)는 각각 서로 연통하는 중공을 각각 형성하고, 각형 샤프트(2914)의 중공은 하단으로 개구되므로, 중앙카메라(230)와 회전모터(294)와 회전센서(295)로부터 각각 인출된 전선이 상기 중공을 통해 원형 샤프트의 상단 개구부를 통해 인출되어서, 화상분석모듈(260)과 컨트롤유닛(296)과 전기적으로 연결된다. 따라서 원형 샤프트(2911) 및 각형 샤프트(2914)가 원활하게 상하 및 회전 동작을 할 수 있다. 또한, 본 실시는 상기 중공을 따라 배선된 전선의 하단에는 제1 무선 통신유닛이 설치되고, 중앙카메라(230)와 회전모터(294)와 회전센서(295)에는 각각 상기 제1 무선 통신유닛과 무선통신하는 제2 무선 통신유닛이 설치된다. 따라서 상기 제1 무선 통신유닛으로부터 무선 발신된 데이터는 상기 제2 무선 통신유닛을 통해 중앙카메라(230)와 회전모터(294)에 각각 수신되고, 중앙카메라(230)와 회전센서(295)의 발신 데이터는 상기 제2 무선 통신유닛으로부터 무선 발신되어서 제1 무선 통신유닛을 통해 화상분석모듈(260)에 전달된다. 이를 통해 원형 샤프트(2911) 및 각형 샤프트(2914)는 일정 방향으로의 회전을 지속할 수 있다. 참고로, 무선통신은 블루투스 또는 NFC 등의 통신체계가 적용될 수 있다.The circular shaft 2911 and the rectangular shaft 2914 each have a hollow communicating with each other and the hollow of the rectangular shaft 2914 is opened to the lower end so that the central camera 230, the rotary motor 294, The electric wire drawn out from each of the image analysis modules 260 and 295 is drawn through the hollow through the upper opening of the circular shaft to be electrically connected to the image analysis module 260 and the control unit 296. Therefore, the circular shaft 2911 and the rectangular shaft 2914 can smoothly move up and down and rotate. The central camera 230, the rotation motor 294, and the rotation sensor 295 are connected to the first wireless communication unit and the second wireless communication unit, respectively. A second wireless communication unit for wireless communication is installed. Therefore, data wirelessly transmitted from the first wireless communication unit is received by the central camera 230 and the rotation motor 294 through the second wireless communication unit, respectively, and transmitted from the central camera 230 and the rotation sensor 295 Data is transmitted from the second wireless communication unit via radio and transmitted to the image analysis module 260 via the first wireless communication unit. Through this, the circular shaft 2911 and the rectangular shaft 2914 can continue to rotate in a certain direction. For reference, a communication system such as Bluetooth or NFC may be applied to wireless communication.

전술한 바와 같이 컨트롤유닛(296)의 구동신호에 따라 구동하는 구동모터(292)는 주동기어(2921)를 매개로 종동기어(2912)를 회전시키므로, 종동기어(2912)와 동축을 이루는 회전축대(291)를 매개로 중앙카메라(230)는 도 10과 같이 수평으로 회전한다. 이때 회전센서(295)는 기준 브래킷(2932)을 기준으로 회전하면서 카운트한 상기 마디의 개수를 회전정보로 생성하고, 컨트롤유닛(296)은 상기 회전정보를 확인하면서 중앙카메라(230)의 회전각의 오차 여부를 확인하며 구동신호를 보정한다. 또한 컨트롤유닛(296)은 무인항공기의 고도와 화재지점 간에 거리를 연산해서 중앙카메라(230)가 화재지점을 지속적으로 촬영할 수 있는 수직 촬영각이 되도록 회전모터(294)에 구동신호를 전달한다.The drive motor 292 driven in accordance with the drive signal of the control unit 296 rotates the driven gear 2912 via the driven gear 2921 so that the rotation of the driven gear 2912, The central camera 230 rotates horizontally as shown in FIG. At this time, the rotation sensor 295 generates rotation information as the rotation information by counting the rotation of the reference bracket 2932, and the control unit 296 controls the rotation angle of the center camera 230 And corrects the driving signal. The control unit 296 calculates the distance between the altitude of the unmanned airplane and the fire point, and transmits a driving signal to the rotation motor 294 so that the center camera 230 can take a vertical shooting angle continuously.

한편, 원통체(2931)의 중공에는 천장쿠션(2933)과 바닥쿠션(2934)이 각각 배치되어서, 회전축대(291)의 이동을 따라 상하로 이동하여 종동기어(2912)가 원통체(2931)에 직접 충돌하는 것을 방지한다. 또한, 무인항공기의 고도가 갑작스럽게 변하더라도 전술한 구조에 의해 회전축대(291)는 현 위치를 유지하고, 회전축대(291)의 하단에 설치된 중앙카메라(230)는 화재지점을 흔들림 없이 촬영할 수 있다. 더 나아가 원통체(2931)의 중공에는 액상수지(P)가 충진되므로, 회전축대(291)가 빈번하게 흔들리거나 요동치는 것을 방지한다. 참고로, 종동기어(2912) 대비 주동기어(2921)의 높이는 상대적으로 짧게 형성되어서, 무인항공기의 상하 흔들림에도 주동기어(2921)와 종동기어(2912)는 맞물림 상태를 유지하면서 연동을 지속할 수 있다. 이를 위해 주동기어(2921)와 종동기어(2912)의 피치는 상호 간의 슬라이딩을 위해서 회전축대(291)와 나란한 곧은 형상을 이룬다.A ceiling cushion 2933 and a bottom cushion 2934 are disposed in the hollow of the cylindrical body 2931 so that the driven gear 2912 moves up and down along the movement of the rotary shaft 291 to rotate the cylindrical body 2931, Thereby preventing direct collision of the two. Even if the altitude of the unmanned airplane suddenly changes, the rotation shaft 291 maintains the current position due to the above-described structure, and the central camera 230 installed at the lower end of the rotation shaft 291 can shoot the fire spot without shaking have. Furthermore, since the hollow of the cylindrical body 2931 is filled with the liquid resin P, the rotating shaft 291 is prevented from being frequently shaken or oscillated. The height of the driven gear 2921 relative to the driven gear 2912 is relatively short so that the driven gear 2921 and the driven gear 2912 can maintain the interlocked state while maintaining the vertical movement of the UAV have. To this end, the pitches of the main gear 2921 and the driven gear 2912 form a straight shape parallel to the rotational axis 291 for sliding between them.

한편, 종동기어(2912)의 하단에는 서포팅쿠션(2913)이 배치되는데, 서포팅쿠션(2913)은 회전축대(291)에 설치되므로 회전축대(291)와 함께 상하로 이동하고, 평시에는 종동기어(2912)가 제 위치를 원통체(2931)의 바닥쿠션(2934)과 닿지 않도록 지지한다.A supporting cushion 2913 is disposed at the lower end of the driven gear 2912. The supporting cushion 2913 is installed on the rotary shaft 291 so that the supporting cushion 2913 moves up and down together with the rotary shaft 291, 2912 support the position so that it does not come in contact with the bottom cushion 2934 of the cylindrical body 2931.

참고로, 원통체(2931)에 충진되는 액상수지(P)는 원통체(2931)로부터 누출되면 안되므로, 천장쿠션(2933)과 바닥쿠션(2934)은 원통체(2931)의 중공을 밀폐하도록 구성된다. The liquid resin P filled in the cylindrical body 2931 should not leak from the cylindrical body 2931 so that the ceiling cushion 2933 and the bottom cushion 2934 are configured to seal the hollow of the cylindrical body 2931 do.

앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예들을 참조해 설명했지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

Claims (5)

비행 제어 기능의 항공기기(130)가 구성된 항공기체(100): 및
지상 촬영을 통해 실사영상 및 열화상영상으로 된 촬영영상을 수집하며, 항공기체(100)에 설치되는 카메라(230, 230', 230"; 이하 '230'); GPS좌표를 확인하는 위치확인모듈(250); 상기 촬영영상을 분석해서 지정 색상과 움직임 및 발열온도를 갖는 타겟이미지를 탐색하고, 상기 타겟이미지의 GPS좌표를 상기 촬영영상에 링크해서 화상정보로 생성하는 화상분석모듈(260); 비행항로 정보에 따라 항공기체(100)의 운항을 위한 비행값을 생성하는 운항제어모듈(240); 상기 비행값에 따라 항공기기(130)를 제어하는 비행모듈(220)이 구성된 카메라 장치(200):를 포함하는 화재 탐지 기능의 무인항공기에 있어서,
상기 카메라 장치(200)는, 현재 풍향과 풍속과 고도로 구성된 환경정보를 수집하는 환경감지모듈(210)을 더 포함하고; 화상분석모듈(260)은 상기 화상정보의 촬영영상별로 환경정보를 링크하며:
상기 카메라 장치(200)는, 카메라(230)를 항공기체(100)에 설치하고, 상기 타겟이미지를 포함한 화상정보에 따라 카메라(230)의 촬영 방향을 조정하는 카메라 조향모듈(290)을 더 포함하되:
상기 카메라 조향모듈(290)은, 항공기체(100)에 고정되며 중공에 액상수지(P)가 충진된 원통체(2931)와, 원통체(2931)의 저면에 원주를 따라 일정 간격으로 배치되는 다수의 마디를 구비한 원형의 기준 브래킷(2932)과, 원통체(2931)의 중공 바닥 및 천장에 각각 설치되는 바닥쿠션(2934) 및 천장쿠션(2933)으로 구성된 케이스(293); 원통체(2931)의 바닥쿠션(2933) 및 천장쿠션(2934)과 원통체(2931)를 회전 및 상하 이동이 가능하게 관통하여 입설되는 원형 샤프트(2911)와, 원형 샤프트(2911)와 동축으로 연결되어 원통체(2931)의 중공에 배치되는 종동기어(2912)와, 바닥쿠션(2934)과 종동기어(2912) 사이의 원형 샤프트(2911)에 설치되어서 종동기어(2912)를 지지하는 서포팅쿠션(2913)과, 원형 샤프트(2911)의 하단과 동축으로 연장 형성되는 각형 샤프트(2914)와, 각형 샤프트(2914)의 하단에서 연장 형성되어서 중앙카메라(230)가 회전가능하게 연결되는 플랜지(2915)로 구성된 회전축대(291); 중앙카메라(230)에 회전력을 가하도록 플랜지(2915)에 설치되는 회전모터(294); 종동기어(2912)와 축방향으로 슬라이딩 가능하게 맞물린 주동기어(2921)에 회전력을 가하며, 원통체(2931)의 중공에 설치되는 구동모터(292); 기준 브래킷(2932)을 따라 회전하면서 상기 마디를 카운트하여 회전정보를 생성하고, 상하 이동이 가능하도록 관통한 각형 샤프트(2914)의 동력을 받아 회전하는 회전센서(295); 상기 화상정보의 타겟이미지의 GPS좌표와 현 위치의 GPS좌표를 비교해서 인지한 화재지점의 방향과, 상기 환경정보에서 확인한 현 고도를 기준으로 상기 화재지점에 대한 수평 촬영각과 수직 촬영각을 연산해서 구동모터(292)와 회전모터(294)에 구동신호를 전달하고, 회전센서(295)의 회전정보에 따라 구동신호를 보정하는 컨트롤유닛(296);를 포함하는 것:
을 특징으로 하는 화재 탐지 기능의 무인항공기.
An air vehicle (100) comprising flight control function aviation equipment (130): and
230 ', and 230''(hereinafter,' 230 ') installed in the air vehicle 100, collecting photographed images of a real image and a thermal image through the ground photographing, a position determination module An image analysis module 260 for analyzing the captured image to search for a target image having a specified color, a movement, and a heat generation temperature, and linking the GPS coordinates of the target image to the captured image to generate image information; A flight control module 240 for generating a flight value for flight of the air vehicle 100 according to the flight route information, a camera module 200 configured to control the flight module 220 according to the flight value, ): ≪ / RTI >
The camera device 200 may further include an environment sensing module 210 for collecting environment information including current wind direction and wind speed and highly configured environment information; The image analysis module 260 links the environment information for each shot image of the image information,
The camera device 200 further includes a camera steering module 290 for installing the camera 230 on the air vehicle 100 and adjusting the photographing direction of the camera 230 according to image information including the target image However:
The camera steering module 290 includes a cylindrical body 2931 fixed to the air airframe 100 and filled with a liquid resin P in a hollow form and a cylindrical body 2931 fixed at a predetermined interval along the circumference on the bottom surface of the cylindrical body 2931 A circular reference bracket 2932 having a plurality of nodes, a case 293 composed of a floor cushion 2934 and a ceiling cushion 2933 installed in the hollow floor and ceiling of the cylindrical body 2931, respectively; A circular shaft 2911 which penetrates the bottom cushion 2933 and the cushion 2934 of the cylindrical body 2931 and the cylindrical body 2931 so as to be able to rotate and move up and down and a circular shaft 2911 coaxial with the circular shaft 2911 A supporting gear 2912 disposed on the circular shaft 2911 between the bottom cushion 2934 and the driven gear 2912 to support the driven gear 2912, A prism 2915 extending from the lower end of the prismatic shaft 2914 and rotatably connected to the center camera 230; a prism 2913 extending from the lower end of the prismatic shaft 2914; A rotary shaft 291 constituted by a rotary shaft 291; A rotation motor 294 installed on the flange 2915 to apply a rotational force to the central camera 230; A drive motor 292 installed in the hollow of the cylindrical body 2931 for applying a rotational force to the driven gear 2921 slidably engaged with the driven gear 2912 in the axial direction; A rotation sensor 295 that rotates along a reference bracket 2932 to generate rotation information by counting the knobs, and receives rotation of a prismatic shaft 2914 penetrating through the reference bracket 2932 so as to be vertically movable; A horizontal photographing angle and a vertical photographing angle with respect to the fire point are calculated based on the direction of the fire point recognized by comparing the GPS coordinates of the target image of the image information with the GPS coordinates of the current position and the current altitude confirmed in the environment information And a control unit 296 for transmitting a drive signal to the drive motor 292 and the rotation motor 294 and correcting the drive signal according to the rotation information of the rotation sensor 295. [
A fire detection function unmanned aircraft.
제 1 항에 있어서,
상기 운항제어모듈(240)은, 위치확인모듈(250)에서 확인한 현재 GPS좌표와 상기 타겟이미지의 GPS좌표를 비교해서, 항공기체(100)가 상기 타겟이미지의 해당 위치로 운항하도록 하는 비행값을 생성하는 것;을 특징으로 하는 화재 탐지 기능의 무인항공기.
The method according to claim 1,
The navigation control module 240 compares the current GPS coordinates confirmed by the position determination module 250 with the GPS coordinates of the target image to calculate a flight value for allowing the air vehicle 100 to travel to the corresponding position of the target image Generating a fire detection signal;
삭제delete 삭제delete 삭제delete
KR1020170163955A 2017-12-01 2017-12-01 An unmanned aerial vehicle detecting fire KR101944952B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170163955A KR101944952B1 (en) 2017-12-01 2017-12-01 An unmanned aerial vehicle detecting fire

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170163955A KR101944952B1 (en) 2017-12-01 2017-12-01 An unmanned aerial vehicle detecting fire

Publications (1)

Publication Number Publication Date
KR101944952B1 true KR101944952B1 (en) 2019-02-01

Family

ID=65367893

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170163955A KR101944952B1 (en) 2017-12-01 2017-12-01 An unmanned aerial vehicle detecting fire

Country Status (1)

Country Link
KR (1) KR101944952B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117933A1 (en) * 2019-12-09 2021-06-17 대신아이브(주) System for monitoring and extinguishing fire using unmanned aerial vehicle, and method for operating same
CN113110579A (en) * 2021-04-16 2021-07-13 深圳市艾赛克科技有限公司 Unmanned aerial vehicle inspection method and device based on thermal radiation, unmanned aerial vehicle and storage medium
CN113784055A (en) * 2021-11-15 2021-12-10 北京中星时代科技有限公司 Anti-unmanned aerial vehicle image communication system based on shimmer night vision technology
CN117315028A (en) * 2023-10-12 2023-12-29 北京多维视通技术有限公司 Method, device, equipment and medium for positioning fire point of outdoor fire scene
CN117315028B (en) * 2023-10-12 2024-04-30 北京多维视通技术有限公司 Method, device, equipment and medium for positioning fire point of outdoor fire scene

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9026272B2 (en) * 2007-12-14 2015-05-05 The Boeing Company Methods for autonomous tracking and surveillance
KR101566341B1 (en) 2015-06-01 2015-11-05 원기연 A multi- purpose fire fighting drone
US20170053169A1 (en) * 2015-08-20 2017-02-23 Motionloft, Inc. Object detection and analysis via unmanned aerial vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9026272B2 (en) * 2007-12-14 2015-05-05 The Boeing Company Methods for autonomous tracking and surveillance
KR101566341B1 (en) 2015-06-01 2015-11-05 원기연 A multi- purpose fire fighting drone
US20170053169A1 (en) * 2015-08-20 2017-02-23 Motionloft, Inc. Object detection and analysis via unmanned aerial vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117933A1 (en) * 2019-12-09 2021-06-17 대신아이브(주) System for monitoring and extinguishing fire using unmanned aerial vehicle, and method for operating same
CN113110579A (en) * 2021-04-16 2021-07-13 深圳市艾赛克科技有限公司 Unmanned aerial vehicle inspection method and device based on thermal radiation, unmanned aerial vehicle and storage medium
CN113784055A (en) * 2021-11-15 2021-12-10 北京中星时代科技有限公司 Anti-unmanned aerial vehicle image communication system based on shimmer night vision technology
CN117315028A (en) * 2023-10-12 2023-12-29 北京多维视通技术有限公司 Method, device, equipment and medium for positioning fire point of outdoor fire scene
CN117315028B (en) * 2023-10-12 2024-04-30 北京多维视通技术有限公司 Method, device, equipment and medium for positioning fire point of outdoor fire scene

Similar Documents

Publication Publication Date Title
JP6413057B2 (en) Unmanned aerial vehicle and moving body capture system
JP5775632B2 (en) Aircraft flight control system
KR101944952B1 (en) An unmanned aerial vehicle detecting fire
JP6539073B2 (en) Surveillance system and flight robot
US20200372814A1 (en) On-board command unit for a drone system, drone and drone system including the on-board command unit
KR20160034013A (en) System and method for construction site management by using unmaned aerial vehicle
JP2006027448A (en) Aerial photographing method and device using unmanned flying body
JP6539072B2 (en) Surveillance system and flight robot
KR101363066B1 (en) Monitoring system for crime-ridden district using unmanned flight vehicle
KR102217918B1 (en) Drone takeoff and landing control device and control method thereof
KR102335994B1 (en) Integrated control apparatus of surveillance devices for drone surveillance
JP2014192784A (en) Monitoring system
KR20170095056A (en) Security system using a drone having a plurality of rotor
WO2021237618A1 (en) Capture assistance method, ground command platform, unmanned aerial vehicle, system, and storage medium
WO2017169841A1 (en) Display device and display control method
JP6482857B2 (en) Monitoring system
KR101682797B1 (en) Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof
KR20120036684A (en) An intelligent aviation robot using gps
KR20170112714A (en) System for automatic monitoring of distributed area using flying photographing unit
KR101793434B1 (en) Drone and System for monitoring danger using drone
JP5982273B2 (en) Shooting system
KR20190052849A (en) Apparatus for controlling taking off and landing of a dron in a vehicle and method thereof
JP2021138204A (en) Device and method for surveying inside building
KR101865835B1 (en) Monitoring system for a flying object
JP2005207862A (en) Target position information acquiring system and target position information acquiring method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant