KR20170037696A - Emergency rescue system using unmanned aerial vehicle and method thereof - Google Patents

Emergency rescue system using unmanned aerial vehicle and method thereof Download PDF

Info

Publication number
KR20170037696A
KR20170037696A KR1020150135980A KR20150135980A KR20170037696A KR 20170037696 A KR20170037696 A KR 20170037696A KR 1020150135980 A KR1020150135980 A KR 1020150135980A KR 20150135980 A KR20150135980 A KR 20150135980A KR 20170037696 A KR20170037696 A KR 20170037696A
Authority
KR
South Korea
Prior art keywords
information
unmanned aerial
mobile terminal
aerial vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020150135980A
Other languages
Korean (ko)
Other versions
KR101752671B1 (en
Inventor
전석기
소준영
Original Assignee
주식회사 아이티스테이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이티스테이션 filed Critical 주식회사 아이티스테이션
Priority to KR1020150135980A priority Critical patent/KR101752671B1/en
Publication of KR20170037696A publication Critical patent/KR20170037696A/en
Application granted granted Critical
Publication of KR101752671B1 publication Critical patent/KR101752671B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B19/00Alarms responsive to two or more different undesired or abnormal conditions, e.g. burglary and fire, abnormal temperature and abnormal rate of flow
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0269System arrangements wherein the object is to detect the exact location of child or item using a navigation satellite system, e.g. GPS
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B27/00Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
    • B64C2201/127
    • B64C2201/145

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Navigation (AREA)
  • Alarm Systems (AREA)

Abstract

무인 비행체를 이용한 긴급 대응 시스템 및 방법이 제공된다. 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템은, 수신된 목적지 정보에 기초하여 생성되는 비행 경로에 따라 비행하면서 영상 정보를 획득하며, 상기 영상 정보를 분석하여 목적지까지의 주행 경로를 산출하는 무인 비행체; 및 상기 무인 비행체로부터 상기 주행 경로 및 영상 정보를 수신하는 이동 단말을 포함한다.An emergency response system and method using an unmanned aerial vehicle is provided. The emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention acquires image information while flying according to a flight path generated based on the received destination information, analyzes the image information, Computing unmanned aircraft; And a mobile terminal for receiving the traveling route and the image information from the unmanned air vehicle.

Description

무인 비행체를 이용한 긴급 대응 시스템 및 방법{EMERGENCY RESCUE SYSTEM USING UNMANNED AERIAL VEHICLE AND METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an emergency response system using an unmanned aerial vehicle,

본 발명은 무인 비행체를 이용한 긴급 대응 시스템 및 방법에 관한 것으로, 보다 상세하게는 사고 발생 시에 무인 비행체를 이용하여 긴급 대응할 수 있는 무인 비행체를 이용한 긴급 대응 시스템 및 방법에 관한 것이다.The present invention relates to an emergency response system and method using an unmanned aerial vehicle, and more particularly, to an emergency response system and method using an unmanned aerial vehicle capable of emergency response using an unmanned aerial vehicle in the event of an accident.

갑작스러운 의료 사고, 범죄, 화재 및 재난과 같은 각종 비상 상황으로부터 인명을 안전하게 구출하고 재산 손실을 경감하기 위하여 정부 차원에서 112, 119와 같은 긴급 전화 번호를 이용하여 긴급 대응 서비스를 제공하고 있다.The government provides emergency response services using emergency telephone numbers such as 112 and 119 to safely rescue people from various emergency situations such as sudden medical accidents, crime, fire and disaster and to reduce property loss.

이러한 긴급 대응 서비스에 있어서, 인명을 신속하게 안전하게 구출하고, 재물의 손실을 경감시키기 위해서는 최대한 빠른 시간 내에 현장에 도착하는 것이 중요하다. 또한, 현장에 도착한 후에는 사고 상황과 건물의 구조, 구조가 필요한 인원의 위치 파악 등 현장 정보 수집과, 이에 따른 대응 조치가 중요하다.In such an emergency response service, it is important to arrive at the site as soon as possible in order to quickly and safely rescue people and reduce the loss of property. Also, after arriving at the site, it is important to collect information on the site, such as the location of the people who need the structure of the accident, the structure of the building and the structure, and take measures accordingly.

그러나, 좁은 골목길, 교통 체증 등으로 인해 사고 대응팀이 현장에 빠르게 도착하는 것이 어려운 경우가 대부분이고, 고층 빌딩의 복잡한 구조 등 현장의 복잡함으로 인해 정확한 현장 정보 수집과 적절한 대응 조치의 수립이 어려울 수 있다.However, it is often difficult for the incident response team to arrive at the site quickly due to narrow alleys, traffic congestion, etc., and it may be difficult to collect accurate site information and establish appropriate response measures due to the complexity of the site such as the complex structure of high-rise buildings .

대한민국 공개특허 2015-0033241호 (2015.04.01. 공개)Korea Patent Publication No. 2015-0033241 (published on April 21, 2015)

본 발명은 상기 문제점을 해결하기 위한 것으로, 사고 발생 시에 무인 비행체를 이용하여 대응팀이 사고 현장에 빠르게 도착할 수 있고, 사고 현장에서 정확한 정보 수집 및 적절한 대응 조치를 수행하여 사고에 긴급 대응할 수 있는 무인 비행체를 이용한 긴급 대응 시스템 및 방법을 제공한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide an unmanned aerial vehicle capable of rapidly arriving at an accident site using an unmanned air vehicle in the event of an accident, And provides an emergency response system and method using a flight vehicle.

또한, 상기의 무인 비행체를 이용한 긴급 대응 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.The present invention also provides a computer-readable recording medium storing a program for causing a computer to execute an emergency response method using the above-mentioned unmanned aerial vehicle.

본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템은, 수신된 목적지 정보에 기초하여 생성되는 비행 경로에 따라 비행하면서 영상 정보를 획득하며, 상기 영상 정보를 분석하여 목적지까지의 주행 경로를 산출하는 무인 비행체; 및 상기 무인 비행체로부터 상기 주행 경로 및 영상 정보를 수신하는 이동 단말을 포함한다.According to an aspect of the present invention, there is provided an emergency response system using an unmanned aerial vehicle, which acquires image information while flying according to a flight path generated based on received destination information, A unmanned aerial vehicle for calculating a traveling route to a destination; And a mobile terminal for receiving the traveling route and the image information from the unmanned air vehicle.

또한, 상기 무인 비행체는, 상기 이동 단말과 통신하며, 상기 목적지 정보를 수신하는 비행체 통신부; GPS 정보를 수신하는 GPS 수신부; 및 상기 목적지 정보에 기초하여 상기 비행 경로를 생성하며, 상기 GPS 정보에 기초하여 상기 비행 경로에 따라 비행하도록 제어하는 비행체 제어부를 포함할 수 있다.The unmanned air vehicle further includes a flight communication unit for communicating with the mobile terminal and receiving the destination information; A GPS receiver for receiving GPS information; And a flight control unit for generating the flight path based on the destination information and controlling the flight according to the flight path based on the GPS information.

또한, 상기 무인 비행체는, 촬영부; 및 상기 촬영부의 영상을 분석하여 이벤트를 검출하는 영상 분석부를 더 포함할 수 있다.In addition, the unmanned aerial vehicle includes a photographing unit; And an image analyzing unit for analyzing an image of the photographing unit and detecting an event.

또한, 상기 비행체 제어부는, 상기 이벤트에 기초하여 상기 주행 경로를 실시간으로 최적화할 수 있다.In addition, the flight control unit may optimize the traveling route in real time based on the event.

또한, 상기 비행체 제어부는, GIS 정보에 상기 주행 경로를 매핑시켜 상기 비행체 통신부를 통해 상기 이동 단말에 전송할 수 있다.Also, the airplane control unit may map the traveling route to the GIS information and transmit the same to the mobile terminal through the air communication unit.

또한, 상기 영상 분석부는, 상기 목적지의 영상 정보에서 관심 영역을 설정하고, 상기 관심 영역에서 검출된 이벤트의 특징 정보를 도출할 수 있다.In addition, the image analyzer may set a region of interest in the image information of the destination, and may derive feature information of the detected event in the region of interest.

또한, 상기 비행체 제어부는, GIS 정보와 상기 GPS 정보를 이용하여 상기 이벤트에 대한 위치 정보를 산출하고, 상기 위치 정보를 상기 특징 정보와 함께 상기 비행체 통신부를 통해 상기 이동 단말로 전송할 수 있다.In addition, the airplane control unit may calculate positional information on the event using the GIS information and the GPS information, and may transmit the positional information together with the feature information to the mobile terminal through the air communication unit.

또한, 상기 영상 분석부는, 상기 영상의 밝기(brightness) 데이터, 색상(color) 데이터 및 모션(motion) 데이터 중 적어도 하나를 검출할 수 있다.The image analyzing unit may detect at least one of brightness data, color data, and motion data of the image.

또한, 상기 영상 분석부는, 상기 검출된 밝기 데이터, 색상 데이터 및 모션 데이터 중 적어도 하나의 데이터를 임계 밝기 데이터, 임계 색상 데이터, 임계 모션 데이터 중 적어도 하나의 대응되는 데이터와 비교하여 상기 이벤트를 검출할 수 있다.The image analyzing unit may compare at least one of the detected brightness data, color data, and motion data with at least one corresponding data among the threshold brightness data, the threshold color data, and the threshold motion data to detect the event .

또한, 상기 이동 단말은, 상기 무인 비행체에 대한 명령 정보를 입력하는 단말 입력부; 상기 무인 비행체와 무선으로 통신하는 단말 통신부; 상기 명령 정보에 따라 상기 무인 비행체를 원격으로 제어하는 단말 제어부; 및 상기 무인 비행체로부터 전송된 상기 주행 경로 및 영상 정보를 출력하는 단말 출력부를 포함할 수 있다.Also, the mobile terminal includes: a terminal input unit for inputting command information on the unmanned aerial vehicle; A terminal communication unit for wirelessly communicating with the unmanned aerial vehicle; A terminal control unit for remotely controlling the unmanned aerial vehicle according to the command information; And a terminal output unit for outputting the traveling route and the image information transmitted from the unmanned air vehicle.

또한, 상기 이동 단말은, 단말 저장부를 더 포함하며, 상기 저장부는, GIS 정보를 저장하며, 상기 무인 비행체로부터 전송되는 각종 정보를 저장할 수 있다.In addition, the mobile terminal further includes a terminal storage unit, and the storage unit stores GIS information and may store various information transmitted from the unmanned aerial vehicle.

또한, 상기 단말 제어부는, 상기 GIS 정보에 상기 주행 경로를 함께 표시하여 상기 단말 출력부에 출력할 수 있다.Further, the terminal control unit may display the traveling route together with the GIS information and output the same to the terminal output unit.

또한, 상기 이동 단말은, 상기 무인 비행체에 접속할 수 있는 권한을 인증하는 인증부를 더 포함할 수 있다.In addition, the mobile terminal may further include an authentication unit that authenticates an authority to access the unmanned air vehicle.

또한, 상기 이동 단말은, 복수개를 포함하며, 복수개의 이동 단말 중 상기 인증부에 의해 상기 무인 비행체에 접속할 수 있는 권한을 최초로 인증받은 이동 단말이 상기 무인 비행체를 원격으로 제어할 수 있다.In addition, the mobile terminal includes a plurality of mobile terminals, and a mobile terminal, which is first authenticated as an authority to connect to the unmanned air vehicle by the authentication unit among a plurality of mobile terminals, can remotely control the unmanned air vehicle.

또한, 상기 이동 단말은, 복수개를 포함하며, 상기 각 이동 단말은 GPS 정보를 수신하는 GPS 수신부를 더 포함할 수 있다.In addition, the mobile terminal includes a plurality of mobile terminals, and each of the mobile terminals may further include a GPS receiver for receiving GPS information.

그리고, 상기 무인 비행체는, 상기 각 이동 단말의 GPS 정보를 수신하며, 상기 목적지에서의 영상 정보를 분석하여 이벤트를 추출하고, 상기 GPS 정보 및 이벤트에 기초하여 상기 무인 비행체를 원격으로 제어하는 이동 단말의 제어 권한을 다른 이동 단말로 변경할 수 있다.The unmanned aerial vehicle includes GPS information of each mobile terminal, extracts an event by analyzing image information at the destination, and transmits the GPS information and the event to a mobile terminal The control authority of the mobile terminal can be changed to another mobile terminal.

상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법은, 목적지 정보를 수신하는 단계; 상기 목적지 정보에 기초하여 비행 경로를 생성하는 단계; 상기 비행 경로에 따라 비행하는 단계; 상기 비행 중에 촬영하여 영상 정보를 획득하는 단계; 상기 영상 정보를 분석하는 단계; 상기 분석된 영상 정보에 기초하여 목적지까지의 주행 경로를 산출하는 단계; 및 상기 주행 경로를 이동 단말로 전송하는 단계를 포함한다.According to an aspect of the present invention, there is provided an emergency response method using an unmanned aerial vehicle, comprising: receiving destination information; Generating a flight path based on the destination information; Flying according to the flight path; Capturing and acquiring image information during the flight; Analyzing the image information; Calculating a traveling route to a destination based on the analyzed image information; And transmitting the traveling route to the mobile terminal.

또한, 상기 목적지에서 영상 정보를 분석하는 단계; 상기 영상 정보에서 이벤트를 추출하는 단계; 및 상기 영상 정보 및 이벤트를 상기 이동 단말로 전송하는 단계를 더 포함할 수 있다.Analyzing the image information at the destination; Extracting an event from the image information; And transmitting the image information and the event to the mobile terminal.

그리고, 상기 이벤트에서 특징 정보를 도출하는 단계; GIS 정보 및 GPS 정보를 이용하여 상기 이벤트에 대한 위치 정보를 산출하는 단계; 및 상기 위치 정보를 상기 특징 정보와 함께 상기 이동 단말로 전송하는 단계를 더 포함할 수 있다.Deriving the feature information from the event; Calculating location information on the event using GIS information and GPS information; And transmitting the location information together with the feature information to the mobile terminal.

상기 과제를 달성하기 위해 상기의 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기로한 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다.According to another aspect of the present invention, there is provided a computer-readable recording medium storing a program for causing a computer to execute an emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명에 따르면, 사고 발생 시에 무인 비행체를 이용하여 대응팀이 사고 현장에 빠르게 도착할 수 있다.According to the present invention, when an accident occurs, a team can quickly arrive at an accident site using an unmanned aerial vehicle.

또한, 사고 발생 시에 무인 비행체를 이용하여 대응팀이 사고 현장에서 정확한 정보를 수집하여 적절한 대응 조치를 수행할 수 있다.Also, in case of an accident, the team can use the unmanned aerial vehicle to collect correct information at the accident site and take appropriate countermeasures.

그리고, 사고에 정확하고 빠르게 대처함으로써, 각종 비상 상황으로부터 인명을 안전하게 구출하고 재산 손실을 경감할 수 있는 긴급 대응 서비스를 제공할 수 있다.In addition, by responding to accidents accurately and quickly, it is possible to provide an emergency response service capable of safely rescuing persons from various emergency situations and reducing property loss.

도 1은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 개념도이다.
도 2는 도 1의 무인 비행체의 블록 구성도이다.
도 3은 도 1의 이동 단말의 블록 구성도이다.
도 4는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 무인 비행체의 비행 경로를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 이동 단말을 이용한 긴급 대응 차량의 주행 경로를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 이동 단말에 표시되는 주행 경로를 도시한 도면이다.
도 7은 영상 분석의 일례를 설명하기 위한 도면이다.
도 8은 도 7의 관심 영역에서 도출된 특징 정보의 일례를 도시한 도면이다.
도 9은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 신호 흐름도이다.
도 10은 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 개념도이다.
도 11은 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 신호 흐름도이다.
도 12는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법의 순서도이다.
1 is a conceptual diagram of an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
2 is a block diagram of the unmanned aerial vehicle of FIG.
3 is a block diagram of the mobile terminal of FIG.
4 is a diagram illustrating a flight path of an unmanned aerial vehicle in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
5 is a view showing a traveling route of an emergency response vehicle using a mobile terminal in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
6 is a view illustrating a traveling path displayed on a mobile terminal in an emergency response system using an unmanned air vehicle according to an embodiment of the present invention.
7 is a diagram for explaining an example of image analysis.
FIG. 8 is a diagram showing an example of the feature information derived from the ROI in FIG.
9 is a signal flow diagram of an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
10 is a conceptual diagram of an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention.
11 is a signal flow diagram of an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention.
12 is a flowchart of an emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, components and / or sections, it is needless to say that these elements, components and / or sections are not limited by these terms. These terms are only used to distinguish one element, element or section from another element, element or section. Therefore, it goes without saying that the first element, the first element or the first section mentioned below may be the second element, the second element or the second section within the technical spirit of the present invention.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "이루어지다(made of)"는 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms "comprises" and / or "made of" means that a component, step, operation, and / or element may be embodied in one or more other components, steps, operations, and / And does not exclude the presence or addition thereof.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

이때, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하며, 처리 흐름도 도면들의 각 구성과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 구성(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. In this regard, throughout the specification, like reference numerals refer to like elements, and it will be understood that each configuration of the processing flowchart diagrams and combinations of flowchart illustrations may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, so that those instructions, which are executed through a processor of a computer or other programmable data processing apparatus, Thereby creating means for performing functions.

또, 몇 가지 대체 실시예들에서는 구성들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 구성들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 구성들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.It should also be noted that in some alternative embodiments, the functions mentioned in the configurations may occur out of order. For example, the two configurations shown in succession may in fact be performed substantially concurrently, or the configurations may sometimes be performed in reverse order according to the corresponding function.

이하, 본 발명에 대하여 첨부된 도면에 따라 보다 상세히 설명한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 개념도이다. 또한, 도 2는 도 1의 무인 비행체의 블록 구성도이다. 그리고, 도 3은 도 1의 이동 단말의 블록 구성도이다.1 is a conceptual diagram of an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention. 2 is a block diagram of the unmanned aerial vehicle of FIG. 3 is a block diagram of the mobile terminal of FIG.

도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템(10)은 무인 비행체(100) 및 이동 단말(200)을 포함할 수 있다. 여기에서, 무인 비행체(100) 및 이동 단말(200)은 각각 복수개일 수도 있다. 구체적으로, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템(10)을 통해 소방차, 구급차, 경찰차 등을 이용하여 현장에 출동해야 하는 긴급 대응팀에 무인 비행체(100)가 먼저 정보를 수집하고 분석하여 상기 긴급 대응팀의 이동 단말(200)에 정확하고 정밀한 자료를 신속하게 제공할 수 있다.1 to 3, an emergency response system 10 using an unmanned aerial vehicle according to an embodiment of the present invention may include an unmanned aerial vehicle 100 and a mobile terminal 200. Here, the unmanned air vehicle 100 and the mobile terminal 200 may each be plural. Specifically, the unmanned air vehicle 100 firstly collects information from the emergency response team, which must be dispatched on the spot using a fire truck, an ambulance, a police car, etc. through the emergency response system 10 using the unmanned air vehicle according to an embodiment of the present invention. And can accurately and precisely provide accurate data to the mobile terminal 200 of the emergency response team.

무인 비행체(100)는 사람이 탑승하지 않는 날 것(flight things)을 말하며, 긴급 대응을 수행하는 기관에 의해 관리될 수 있다. 이러한 무인 비행체(100)는 수신된 목적지 정보에 기초하여 생성되는 비행 경로에 따라 비행하면서 영상 정보를 획득하며, 상기 영상 정보를 분석하여 목적지까지의 주행 경로를 산출하고, 이러한 정보들을 이동 단말(200)에 전송한다. 여기에서, 목적지 정보는 긴급 대응을 수행하는 기관(예를 들어 경찰서, 소방서 등)에 신고 접수된 내용에 의해 생성되며, 사고가 발생한 현장의 위치에 대한 정보를 포함한다. 이러한 목적지 정보는 긴급 대응을 수행하는 기관의 서버(미도시) 또는 이동 단말(200)에서 무인 비행체(100)로 전송되며, 무인 비행체(100)는 목적지 정보에 따라 사고 현장으로 자동으로 비행하게 된다. 이러한 무인 비행체(100)는 긴급 대응을 수행하는 기관의 서버에 의해 제어될 수도 있고, 이동 단말(200)에 의해 제어될 수도 있다. 또한, 무인 비행체(100)는 촬영된 영상 신호 및 외부에서 전송되는 GPS 신호 등을 이용하여 자체적으로 비행 경로를 수정할 수도 있다.The UAV 100 refers to flight things that a person does not ride on and can be managed by an agency that performs an emergency response. The unmanned aerial vehicle 100 acquires image information while flying according to a flight path generated based on the received destination information, calculates a travel route to the destination by analyzing the image information, and transmits the information to the mobile terminal 200 . Here, the destination information is generated by the contents reported to the agency performing the emergency response (for example, a police station, a fire station, etc.) and includes information on the location of the scene where the accident occurred. The destination information is transmitted from the server (not shown) or the mobile terminal 200 of the agency performing the emergency response to the unmanned air vehicle 100, and the unmanned air vehicle 100 automatically flows to the accident site according to the destination information . The unmanned aerial vehicle 100 may be controlled by a server of an agency that performs an emergency response or may be controlled by a mobile terminal 200. In addition, the unmanned air vehicle 100 may modify its own flight path using a photographed image signal and a GPS signal transmitted from the outside.

도 2에 도시한 바와 같이, 무인 비행체(100)는 비행체 통신부(110), GPS 수신부(120), 비행체 제어부(130), 촬영부(140), 영상 분석부(150), 권한 허용부(160), 비행체 저장부(170) 등을 포함할 수 있다. 2, the unmanned air vehicle 100 includes a flight communication unit 110, a GPS receiving unit 120, a flight control unit 130, a photographing unit 140, an image analysis unit 150, a permission unit 160 , A flight object storage unit 170, and the like.

비행체 통신부(110)는 이동 단말(200)과 통신하며, 특히 긴급 대응 기관의 서버(미도시) 또는 이동 단말(200)에서 목적지 정보를 수신한다. 비행체 통신부(110)는 네트워크(50)를 통해 긴급 대응 기관의 서버 또는 이동 단말(200)과 통신하게 된다. 즉, 비행체 통신부(110)가 네트워크(50)를 통해 무인 비행체(100)를 관리하는 긴급 대응 기관과 연결될 수 있다.The flight communication unit 110 communicates with the mobile terminal 200 and receives destination information from a server (not shown) of the emergency response agency or the mobile terminal 200 in particular. The flight communication unit 110 communicates with the server of the emergency response agency or the mobile terminal 200 through the network 50. That is, the flight communication unit 110 may be connected to the emergency response organization that manages the unmanned air vehicle 100 through the network 50. [

GPS 수신부(120)는 GPS 정보를 수신한다. GPS 수신부(120)에서 수신되는 GPS 정보를 이용하여 무인 비행체(100)가 비행 경로를 따라 비행할 수 있고, 긴급 대응 기관의 서버(미도시) 또는 이동 단말(200)이 무인 비행체(100)의 위치를 확인할 수 있다.The GPS receiving unit 120 receives GPS information. The unmanned air vehicle 100 can fly along the flight path using the GPS information received from the GPS receiving unit 120 and the server of the emergency response agency or the mobile terminal 200 can operate the unmanned air vehicle 100 You can check the location.

비행체 제어부(130)는 무인 비행체(100) 및 이의 각 구성요소를 제어한다. 구체적으로, 비행체 제어부(130)는 목적지 정보에 기초하여 비행 경로를 생성하며, GPS 정보에 기초하여 상기 비행 경로에 따라 비행하도록 무인 비행체(100)를 제어할 수 있다. 예를 들어, 비행체 제어부(130)는 목적지 정보에 따라 사고 현장까지의 최단 거리로 비행하도록 비행 경로를 설정할 수 있고, 최단 거리로 설정된 비행 경로에 따라 비행할 수 있다. 이때, GPS 정보를 참조하여 비행체 제어부(130)가 적절한 높이로 비행 경로를 벗어나지 않고 목적지로 비행하도록 무인 비행체(100)를 제어하게 된다.The airplane control unit 130 controls the unmanned airplane 100 and its components. Specifically, the flight control unit 130 generates a flight path based on the destination information, and can control the unmanned air vehicle 100 to fly along the flight path based on the GPS information. For example, the flight control unit 130 can set the flight path to the shortest distance to the accident site according to the destination information, and can fly according to the flight path set to the shortest distance. At this time, referring to the GPS information, the flight control unit 130 controls the unmanned air vehicle 100 so as to fly to the destination without leaving the flight path at a proper height.

또한, 비행체 제어부(130)는 영상 정보를 분석하여 목적지까지의 주행 경로를 산출한다. 예를 들어, 비행체 제어부(130)는 비행 중에 촬영된 영상의 분석 정보를 기초로 목적지까지 가장 빠른 시간 안에 도달할 수 있는 주행 경로를 산출하고, 이를 비행체 통신부(110)를 통해 이동 단말(200)에 전송할 수 있다. 이에 따라, 이동 단말(200)을 이용하고 있는 긴급 대응팀이 가장 빠른 시간 안에 사고 현장으로 도달할 수 있도록 도움을 주게 된다. 특히, 비행체 제어부(130)는 영상 분석 결과를 기초로 주행 경로를 실시간으로 최적화할 수 있다. 예를 들어, 비행체 제어부(130)는 촬영된 영상에서 교통 사고 등이 발생한 경우, 상기 교통 사고가 발생한 도로를 우회할 수 있는 주행 경로를 산출하여 이동 단말(200)에 전송할 수 있다. 바람직하게는, 비행체 제어부(130)는 GIS 정보에 상기 주행 경로를 매핑시켜 비행체 통신부(110)를 통해 이동 단말(200)에 전송할 수 있다. 이에 대한 구체적인 실시예는 후술하여 살펴 보도록 한다.In addition, the airplane control unit 130 analyzes the image information and calculates the travel route to the destination. For example, the flight control unit 130 calculates a traveling route that can reach the destination in the earliest time based on the analysis information of the image photographed during flight, and transmits the traveling route to the mobile terminal 200 through the flight communication unit 110. [ Lt; / RTI > Accordingly, the emergency response team using the mobile terminal 200 can help to reach the accident site in the earliest time. In particular, the flight control unit 130 can optimize the traveling route in real time based on the image analysis result. For example, when a traffic accident occurs in the photographed image, the flight control unit 130 may calculate a traveling route that can bypass the road where the traffic accident occurred, and transmit the calculated traveling route to the mobile terminal 200. Preferably, the flight control unit 130 may map the traveling route to the GIS information and transmit it to the mobile terminal 200 through the flight communication unit 110. A specific embodiment will be described later.

촬영부(140)는 무인 비행체(100)에서 촬영하여 영상을 획득한다. 촬영부(140)에서 촬영된 영상은 이동 단말(200)로 실시간으로 전송될 수 있고, 영상 분석부(150)에서 분석된 후에 영상 데이터와 함께 이동 단말(200)로 전송될 수 있다. 촬영부(140)는 일반 카메라를 포함하는 것이 통상적이나, 야간에도 모니터링 기능을 수행할 수 있도록 적외선 카메라나 열화상 카메라 등을 더 포함할 수 있다. 또한, 촬영부(140)는 색상 추적 모듈(미도시)을 구비할 수 있으며, 이러한 기능에 의해 특정 색상을 가진 객체를 촬영하거나 또는 촬영 대상에서 제외함으로써 영상 정보의 데이터를 줄이거나 영상 정보의 특정화를 이룰 수 있다. 촬영부(140)에서 획득된 영상 정보는 영상 분석부(150)로 전달된다.The photographing unit 140 photographs the unmanned air vehicle 100 to acquire an image. The image photographed by the photographing unit 140 may be transmitted to the mobile terminal 200 in real time and may be transmitted to the mobile terminal 200 together with the image data after being analyzed by the image analysis unit 150. The photographing unit 140 may include a general camera, but may further include an infrared camera, a thermal camera, and the like so as to perform a monitoring function at night. In addition, the photographing unit 140 may include a color tracking module (not shown). By this function, an object having a specific color is photographed or excluded from the photographing object, thereby reducing data of the image information, . The image information obtained by the photographing unit 140 is transmitted to the image analysis unit 150.

영상 분석부(150)는 영상 정보를 처리하여 영상 데이터를 획득하며, 데이터 전송이 용이하도록 영상을 압축한 압축 포맷 형태로 변환할 수 있다. 압축 포맷 형태의 영상 데이터는 MPEG(Moving Picture Experts Group)-1 또는 MPEG-4 등의 다양한 포맷을 가질 수 있다. 특히, 영상 분석부(150)는 촬영부(140)의 영상을 분석하여 객체를 검출하고, 특정 이벤트를 검출할 수 있다. 여기에서, 객체는 차량, 사람 등 특정 물체를 포함하며, 이벤트(event)는 객체의 위치 변화, 화재 발생 등 특정 상황이 변화는 등 영상의 영상 데이터를 변화시킬 수 있는 모든 상황을 포함한다. 이때, 영상 분석부(150)는 영상 정보에서 관심 영역을 설정하고, 상기 관심 영역에서 검출된 이벤트의 특징 정보를 도출할 수 있다.The image analysis unit 150 processes the image information to acquire image data and convert the image into a compressed format in which the image is compressed to facilitate data transmission. The video data in the form of a compressed format may have various formats such as Moving Picture Experts Group (MPEG) -1 or MPEG-4. In particular, the image analysis unit 150 can detect an object by analyzing the image of the photographing unit 140, and can detect a specific event. Here, the object includes a specific object such as a vehicle or a person, and an event includes all situations in which the image data of the image can be changed, such as a change in the position of the object, a change in a specific situation such as a fire or the like. At this time, the image analyzer 150 may set the region of interest in the image information and derive the feature information of the detected event in the region of interest.

구체적으로, 영상 분석부(150)는 촬영부(140)로부터 입력되는 영상으로부터 검출하고자 하는 객체의 시각적 특징 정보를 추출하는 특징 추출(feature extraction)과 추출된 특징을 이용하여 물체를 검출할 수 있다. 이때, 객체의 검출 시에 아다부스트(AdaBoost) 또는 SVM(Support Vector Machine) 등과 같은 학습기(Learning Machine)를 이용하는 방법과 추출된 특징의 벡터 유사도 등을 이용하는 비학습 방법이 있어 검출하고자 하는 객체 및 배경의 복잡도에 따라 학습 방법과 비학습 방법을 적절히 선택하여 사용할 수 있다. 예를 들어, 영상의 국소적인 특징(local feature)으로 인접한 두 개 이상의 블록 간의 화소(픽셀, pixel) 값의 합의 차, 또는 가중치를 이용하여 가중치 곱의 합을 이용하는 하알-유사 특징(Haar-like feature)을 응용할 수 있다. 하알-유사 특징 추출 시 인접 블록 간의 화소 값의 합의 차를 구하기 위해, 간단한 사각형 특징을 고려한 마스크를 사용한다.Specifically, the image analysis unit 150 can detect an object using feature extraction and feature extraction that extracts visual feature information of an object to be detected from an image input from the photographing unit 140 . At this time, there are a method of using a learning machine such as AdaBoost or SVM (Support Vector Machine) at the time of detecting an object and a non-learning method using vector similarity of extracted features, The learning method and the non-learning method can be appropriately selected and used according to the complexity of the program. For example, a Haar-like feature that uses the sum of weight products using the difference in the sum of pixel values (pixels) between two or more adjacent blocks in a local feature of the image, feature can be applied. To extract the difference between the sum of the pixel values of neighboring blocks in extracting the Hahn-like feature, a mask considering a simple square feature is used.

또한, 영상 분석부(150)는 영상 인식 알고리즘을 이용하여 촬영된 영상에서 객체의 위치 변화를 검출할 수 있다. 예를 들어, 평균 이동(Mean Shift) 알고리즘 또는 입자 필터(Particle Filter) 알고리즘 등을 이용하여 영상으로부터 객체의 움직임을 검출할 수 있다. 물론, 다른 알고리즘을 이용하여 객체의 움직임을 검출할 수 있음은 당업자에게 자명하다 할 것이다.In addition, the image analysis unit 150 can detect a change in the position of the object in the captured image using the image recognition algorithm. For example, the motion of an object can be detected from an image using a mean shift algorithm or a particle filter algorithm. Of course, those skilled in the art will appreciate that other algorithms can be used to detect motion of an object.

여기에서, 평균 이동(Mean Shift) 알고리즘은 영상에서 밀도분포(특징점, 색상)를 기반으로 관심 영역(ROI; Region of Interest) 객체를 고속으로 추적할 수 있게 하며, 초기의 검색 영역의 크기와 위치를 지정하면 반복적인 색 분할 계산에 의해 색상 클러스터가 발생하고, 초기 지정한 색 영역에 기반하여 경계를 결정하여 관심 물체의 움직임을 추출할 수 있다. 또한, 입자 필터(Particle Filter) 알고리즘은 입자를 기반으로 한 칼만 필터의 한 종류로서, 관측된 측정값들과 모델링된 시스템 방정식으로부터 얻은 랜덤 상태변수를 이용하여 현재 상태변수들의 확률 분포를 추정해 나가는 것이다.Here, the mean shift algorithm enables high-speed tracking of a region of interest (ROI) based on density distribution (feature point, color) in an image, , Color clusters are generated by the iterative color division calculation, and the motion of the object of interest can be extracted by determining the boundary based on the initially designated color region. The Particle Filter algorithm is a kind of particle based Kalman filter which estimates the probability distribution of the current state variables by using the observed values and the random state variables obtained from the modeled system equations. will be.

권한 허용부(160)는 무인 비행체(100)를 제어할 수 있는 제어 권한을 외부의 서버나 이동 단말(200)에 허용할 수 있다. 예를 들어, 무인 비행체(100)가 출동 신호를 받고 출발 시에 서버에 의해 조종되다가, 무인 비행체(100)가 사고 현장으로 비행 중이거나 또는 사고 현장에 도착한 경우, 권한 허용부(160)는 서버에서 이동 단말(200)로 자신의 제어 권한을 변경할 수 있다. 또한, 복수의 이동 단말(200)이 있는 경우, 무인 비행체(100)는 각 이동 단말의 GPS 정보를 수신하며, 목적지에서의 영상 정보를 분석하여 이벤트를 추출하고, 권한 허용부(160)는 상기 GPS 정보 및 이벤트에 기초하여 상기 무인 비행체(100)를 원격으로 제어하는 이동 단말(100)의 제어 권한을 다른 이동 단말로 변경할 수 있다.The authority permitting unit 160 may allow an external server or the mobile terminal 200 to control the unmanned aerial vehicle 100. [ For example, when the unmanned air vehicle 100 receives the dispatch signal and is controlled by the server at the start time, and the unmanned air vehicle 100 is flying to the accident site or arriving at the accident site, The control authority of the mobile terminal 200 can be changed. When there are a plurality of mobile terminals 200, the unmanned air vehicle 100 receives the GPS information of each mobile terminal, extracts the event by analyzing the video information at the destination, The control authority of the mobile terminal 100 that remotely controls the UAV 100 may be changed to another mobile terminal based on the GPS information and the event.

비행체 저장부(170)는 외부로부터 수신되는 각종 정보, 데이터를 저장하며, 촬영부(140)에서 촬영된 영상, 영상 분석부(150)에서 분석된 영상 데이터 등 무인 비행체(100)에서 생산된 각정 정보, 데이터를 저장할 수 있다. 특히, GIS 정보를 비행체 통신부(110)를 통해 외부에서 수신할 수도 있으나, 비행체 저장부(170)에 GIS 정보를 저장할 수도 있다. 비행체 제어부(130)는 비행체 저장부(170)에 저장된 GIS 정보에 주행 경로를 매핑시켜 이동 단말(200)에 전송할 수 있으므로, 네트워크(50)를 통해 GIS 정보에 접속할 수 없는 경우에도 안정적으로 이동 단말(200)에 최적의 주행 경로를 제공할 수 있다.The flight body storage unit 170 stores various information and data received from the outside and stores various types of information such as images captured by the photographing unit 140 and image data analyzed by the image analysis unit 150, Information, and data. In particular, the GIS information may be received externally via the flight communication unit 110, but GIS information may be stored in the flight object storage unit 170. The flight control unit 130 can map the traveling route to the GIS information stored in the flight object storage unit 170 and transmit the same to the mobile terminal 200 so that even when the GIS information can not be accessed through the network 50, It is possible to provide an optimal travel route to the mobile terminal 200.

이동 단말(200)은 네트워크(50)를 통해 무인 비행체(100)에 접속이 가능하며, 무인 비행체(100)로부터 주행 경로, 이벤트 등 각종 정보를 수신하고, 정밀자료 수십을 위해 이동 단말(200)이 직접 무인 비행체(100)를 조종할 수 있다. 이러한 이동 단말(200)은 HTML, XML 등 웹 페이지의 내용을 표시할 수 있는 웹 브라우저(넷스케이프, 인터넷 익스플로러, 크롬 등)를 가질 수 있다. 이동 단말(200)은 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone: Personal Communications Services phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000) 등 일반적인 이동 통신 단말, 2G/3G/4G, 와이브로 무선망 서비스가 가능한 단말, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA: Personal Digital Assistant), 스마트폰(Smart phone), 왑폰(WAP phone: Wireless application protocol phone) 등 네크워크(50)에 접속하기 위한 사용자 인터페이스를 갖는 모든 유무선 가전/통신 장치를 포괄적으로 의미할 수 있으며, IEEE 802.11 무선 랜 네트워크 카드 등의 무선랜 접속을 위한 인터페이스가 구비된 기기일 수 있다. 또한, 이동 단말(200)은 이동 통신 단말 이외에 컴퓨터, 노트북 등의 정보 통신 기기이거나 이를 포함하는 장치일 수도 있다. 즉, 차량 등에 싣거나 사람이 직접 휴대가 가능하며, 네트워크(50)를 통해 무인 비행체(100)와 통신이 가능한 모든 유무선 가전/통신 장치를 포함할 수 있다.The mobile terminal 200 can be connected to the unmanned air vehicle 100 through the network 50 and receives various information such as a traveling route and an event from the unmanned air vehicle 100, So that the direct unmanned air vehicle 100 can be controlled. The mobile terminal 200 may have a web browser (Netscape, Internet Explorer, Chrome, etc.) capable of displaying contents of a web page such as HTML, XML, and the like. The mobile terminal 200 may be a general mobile communication terminal such as a cellular phone, a Personal Communications Services phone (PCS phone), a synchronous / asynchronous IMT-2000 (International Mobile Telecommunication 2000) A PDA (Personal Digital Assistant), a smart phone, a WAP phone (wireless application protocol phone), and the like, which are capable of providing a wired wireless network service, a Palm Personal Computer, a Personal Digital Assistant (PDA) And may be an apparatus having an interface for a wireless LAN connection such as an IEEE 802.11 wireless LAN network card or the like. The mobile terminal 200 may be an information communication device such as a computer, a notebook computer, or the like, in addition to the mobile communication terminal. That is, it may include all wired / wireless home appliances / communication devices that can be carried on a vehicle or directly carried by a person, and can communicate with the unmanned air vehicle 100 via the network 50.

도 3에 도시한 바와 같이, 이동 단말(200)은 단말 입력부(210), 단말 통신부(220), 단말 제어부(230), 단말 출력부(240), 단말 저장부(250), 인증부(260), GPS 수신부(270) 등을 포함할 수 있다. 3, the mobile terminal 200 includes a terminal input unit 210, a terminal communication unit 220, a terminal control unit 230, a terminal output unit 240, a terminal storage unit 250, an authentication unit 260 ), A GPS receiver 270, and the like.

단말 입력부(210)는 이동 단말(200)의 사용자(21) 등이 정보를 입력 및 선택하는 입력 인터페이스로써, 무인 비행체(100)에 대한 명령 정보를 입력할 수 있다. 단말 입력부(210)는 버튼, 휠, 조그 셔틀 등을 구비하여 사용자(21)로부터 명령을 입력받을 수 있다. 또한, 디스플레이가 터치 스크린 기능을 제공하는 경우 디스플레이가 단말 입력부(210)의 역할을 수행할 수도 있다. 또한, 단말 입력부(210)는 그 자체만으로 하나의 장치일 수 있는데 예를 들어, 무선 리모콘이 단말 입력부(210)의 역할을 수행할 수 있다. 즉, 무선 리모콘에 구비된 버튼 및 휠 등을 이용하여 사용자(21)는 정보를 입력할 수 있다. 이러한 경우, 무선 리모콘을 조작하여 사용자(21)는 무인 비행체(100)의 비행을 제어할 수 있다. 또한, 단말 입력부(210)는 음성 등을 입력할 수 있는 마이크 등을 더 포함할 수 있다.The terminal input unit 210 is an input interface through which the user 21 or the like of the mobile terminal 200 inputs and selects information, and can input command information for the unmanned aerial vehicle 100. The terminal input unit 210 may include a button, a wheel, a jog shuttle, and the like to receive commands from the user 21. In addition, if the display provides a touch screen function, the display may serve as the terminal input unit 210. [ In addition, the terminal input unit 210 may be a single device by itself, for example, a wireless remote controller may serve as the terminal input unit 210. [ That is, the user 21 can input information using buttons and wheels provided in the wireless remote controller. In this case, the user 21 can control the flight of the unmanned air vehicle 100 by operating the wireless remote controller. In addition, the terminal input unit 210 may further include a microphone or the like capable of inputting voice and the like.

단말 통신부(220)는 무인 비행체(100)와 무선으로 통신하는 역할을 하며, 구체적으로, 단말 통신부(220)와 비행체 통신부(110)가 네트워크(50)를 통해 연결된다. 이러한 단말 통신부(220)는 긴급 대응 기관의 서버(미도시)와 연결되어 상기 서버와 각종 정보를 송수신할 수 있다. 또한, 각 이동 단말(200)의 단말 통신부(220)가 서로 연결되어 각종 정보를 송수신할 수 있다.The terminal communication unit 220 wirelessly communicates with the unmanned air vehicle 100. Specifically, the terminal communication unit 220 and the airborne communication unit 110 are connected to each other through the network 50. [ The terminal communication unit 220 may be connected to a server (not shown) of the emergency response agency and may exchange various information with the server. In addition, the terminal communication units 220 of the mobile terminals 200 may be connected to each other to transmit / receive various kinds of information.

단말 제어부(230)는 무인 비행체를 원격으로 제어할 수 있으며, 사용자(21)가 단말 입력부(210)를 통해 입력한 명령 정보에 따라 무인 비행체를 원격으로 제어할 수 있다. 또한, 단말 제어부(230)는 이동 단말(200) 및 이의 각 구성요소를 제어한다. 구체적으로, 단말 제어부(230)는 무인 비행체(100)에서 생성되어 전송된 주행 경로를 단말 출력부(240)에 표시하여 사용자(21)에게 안내할 수 있다. 예를 들어, 단말 제어부(230)는 무인 비행체(100)에서 생성되어 전송된 주행 경로에 GIS 정보를 함께 표시하여 단말 출력부(240)에 출력할 수 있다. 물론, 전술한 바와 같이, 무인 비행체(100)에서 주행 경로에 GIS 정보를 매핑시켜 전송하고, 단말 제어부(230)가 이를 단말 출력부(240)에 출력할 수도 있다.The terminal control unit 230 can remotely control the unmanned aerial vehicle and can control the unmanned aerial vehicle remotely according to the command information inputted by the user 21 through the terminal input unit 210. [ In addition, the terminal control unit 230 controls the mobile terminal 200 and its constituent elements. Specifically, the terminal control unit 230 may display the traveling route generated and transmitted from the UAV 100 on the terminal output unit 240 and inform the user 21 of the traveling route. For example, the terminal control unit 230 may display the GIS information on the traveling route generated by the unmanned aerial vehicle 100 and output the same to the terminal output unit 240. Of course, as described above, the GIS information may be mapped to the traveling route in the UAV 100, and the terminal control unit 230 may output the GIS information to the terminal output unit 240.

단말 출력부(240)는 사용자(21) 등에게 정보를 표시하여 제공하는 역할을 한다. 단말 출력부(240)는 경고음이나 음성 등의 청각적 표시 수단이나 시각적 표시 수단일 수 있다. 예를 들어, 단말 출력부(240) 소리를 출력할 수 있는 스피커를 포함할 수 있으며, 또한, 문자, 기호 등을 디스플레이할 수 있는 LCD 모니터나 LED 등과 같은 디스플레이 모듈을 포함할 수 있다.The terminal output unit 240 serves to display and provide information to the user 21 and the like. The terminal output unit 240 may be an audible display means such as a warning sound or a voice or a visual display means. For example, it may include a speaker capable of outputting sound of the terminal output unit 240, and may include a display module such as an LCD monitor or an LED capable of displaying characters, symbols, and the like.

단말 저장부(250)는 외부로부터 수신되는 각종 정보, 데이터를 저장하며, 특히, 무인 비행체(100)에서 생산된 각정 정보, 데이터를 수신하여 저장할 수 있다. 특히, 단말 저장부(250)에 GIS 정보를 저장할 수도 있다. 단말 제어부(230)는 단말 저장부(250)에 저장된 GIS 정보에 무인 비행체(100)에서 전송된 주행 경로를 매핑시켜 단말 출력부(240)에서 출력할 수 있다. 물론, 전술한 바와 같이, 무인 비행체(100)에서 GIS 정보에 주행 경로를 매핑시켜 이동 단말(200)로 전송할 수도 있고, 이러한 경우에 단말 저장부(250)는 GIS 정보에 주행 경로를 매핑시킨 정보를 저장하게 될 것이다.The terminal storage unit 250 stores various information and data received from the outside, and can receive and store the information and data generated by the unmanned aerial vehicle 100. In particular, the GIS information may be stored in the terminal storage unit 250. The terminal control unit 230 can map the GIS information stored in the terminal storage unit 250 to the terminal output unit 240 by mapping the traveling route transmitted from the unmanned air vehicle 100. [ Of course, as described above, the unmanned air vehicle 100 may map the traveling route to the GIS information and transmit the same to the mobile terminal 200. In this case, the terminal storage unit 250 may store the information that maps the traveling route to the GIS information Will be stored.

인증부(260)는 무인 비행체(100)에 접속할 수 있는 권한을 인증하는 역할을 한다. 예를 들어, 인증부(260)를 통해 사용자(21) 등의 고유 인증 모듈의 색인자 또는 비밀번호를 통해 무인 비행체(100)에 접속할 수 있는 권한을 인증한다. 인증부(260)는 텍스트파일 인증모듈(mod_auth), Berkeley DB 인증모듈(mod_auth_db), DBM인증모듈 (mod_auth_dbm), Anonymous 인증모듈(mod_auth_anon), PostgreSQL인증모듈, XNS 인증 서비스 중 적어도 하나의 인증 프로토콜을 이용하여 사용자를 인증하게 되나, 이에만 제한되지 않음은 당업자에게 자명하다 할 것이다. 인증부(260)에 의해 인증이 된 경우에만 이동 단말(200)이 무인 비행체(100)에 접속할 수 있으므로, 정보의 안전성, 기밀성 등을 유지할 수 있다.The authentication unit 260 serves to authenticate the authority to access the unmanned aerial vehicle 100. For example, the authentication unit 260 authenticates the right to access the unmanned air vehicle 100 through the indexer or the password of the unique authentication module of the user 21 or the like. The authentication unit 260 receives at least one authentication protocol among the text file authentication module (mod_auth), Berkeley DB authentication module (mod_auth_db), DBM authentication module (mod_auth_dbm), Anonymous authentication module (mod_auth_anon), PostgreSQL authentication module and XNS authentication service But the present invention is not limited thereto. Since the mobile terminal 200 can be connected to the unmanned air vehicle 100 only when it is authenticated by the authentication unit 260, information safety, confidentiality, and the like can be maintained.

GPS 수신부(270)는 GPS 정보를 수신한다. GPS 수신부(270)에서 수신되는 GPS 정보를 이용하여 이동 단말(200)이 주행 경로를 따라 이동할 수 있고, 긴급 대응 기관의 서버(미도시) 또는 무인 비행체(100)가 이동 단말(200)의 위치를 확인할 수 있다.The GPS receiver 270 receives the GPS information. The mobile terminal 200 can move along the traveling route using the GPS information received by the GPS receiver 270 and the server of the emergency response agency or the unmanned air vehicle 100 can move to the location of the mobile terminal 200 .

도 4는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 무인 비행체의 비행 경로를 도시한 도면이다. 또한, 도 5는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 이동 단말을 이용한 긴급 대응 차량의 주행 경로를 도시한 도면이다. 그리고, 도 6은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 이동 단말에 표시되는 주행 경로를 도시한 도면이다.4 is a diagram illustrating a flight path of an unmanned aerial vehicle in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention. 5 is a view showing a traveling route of an emergency response vehicle using a mobile terminal in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention. 6 is a diagram illustrating a traveling route displayed on a mobile terminal in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.

도 4를 참조하면, 소방서 등에 화재 신고가 접수되면, 소방서 등의 관리 하에 있는 무인 비행체(100)가 먼저 화재 현장(D)으로 비행하게 된다. 즉, 신고 접수시 무인 비행체(100)로 목적지 정보가 전송되며, 무인 비행체(100)가 수신된 목적지 정보에 기초하여 비행 경로를 생성하고, 상기 비행 경로에 따라 화재 현장(D)으로 자동으로 비상하여 이동하게 된다.Referring to FIG. 4, when a fire report is received in a fire department or the like, the unmanned air vehicle 100 under the control of a fire department or the like first goes to the fire scene (D). That is, the destination information is transmitted to the unmanned air vehicle 100 when the report is received, the unmanned air vehicle 100 generates a flight route based on the received destination information, .

여기에서, 무인 비행체(100)는 화재 현장(D)으로 직선 비행하는 최단 거리의 비행 경로(P1)를 생성하여 비행하는 것이 일반적이다. 다만, 비행 거리나 비행 시간, 교통 상황, 이동 단말(200)의 위치 등 여러 상황을 고려하여 무인 비행체(100)가 비행하면서 자체적으로 비행 경로를 수정하면서 비행할 수도 있을 것이다.Here, it is general that the unmanned air vehicle 100 generates and flows the shortest flight path P1 that is a straight flight to the fire scene D. However, the unmanned aerial vehicle 100 may be able to fly while modifying its own flight route in consideration of various situations such as the flying distance, the flight time, the traffic situation, and the location of the mobile terminal 200.

그리고, 무인 비행체(100)는 비행 경로에 따라 비행하면서 촬영부(140)에서 영상을 촬영하고, 영상 분석부(150)에서 영상을 분석하여 특이 상황을 확인한다. 촬영부(140)에서 촬영된 영상 및/또는 영상 분석부(150)에서 분석된 영상 정보는 비행체 통신부(110)를 통해 이동 단말(200)에 전송된다. Then, the unmanned air vehicle 100 captures an image at the photographing unit 140 while flying along the flight path, and analyzes the image at the image analyzing unit 150 to confirm a specific situation. The image photographed by the photographing unit 140 and / or the image information analyzed by the image analysis unit 150 are transmitted to the mobile terminal 200 through the flight communication unit 110.

이때, 네트워크(50)의 속도 등을 고려하여 영상 분석부(150)에서 이벤트가 검출된 영상 등 특이 상황이라고 판단되는 영상만을 비행체 제어부(130)가 걸러 내어 이동 단말(200) 등으로 전송할 수 있다. 예를 들어, 도 4에서, 화재 현장(D)으로 출동하려는 소방차(20)가 교통 체증 등을 피해 이동할 수 있도록, 무인 비행체(100)는 영상에서 차량(V) 등이 정체되어 있는 상태가 찍힌 도로 영상을 이동 단말(200)에 전송하여 이동 단말(200)의 사용자에게 정확한 정보를 제공할 수 있다.At this time, in consideration of the speed of the network 50 and the like, only the image determined as a specific situation such as the image in which the event is detected in the image analysis unit 150 may be filtered by the flight control unit 130 and transmitted to the mobile terminal 200 . For example, in FIG. 4, the unmanned air vehicle 100 has a state in which the vehicle V is stagnant from the image so that the fire truck 20 to be moved to the fire scene D can move away from traffic jam and the like The road image may be transmitted to the mobile terminal 200 to provide accurate information to the user of the mobile terminal 200.

도 5를 참조하면, 무인 비행체(100)는 비행 경로에 따라 비행하면서 촬영된 영상을 분석하여 목적지까지의 주행 경로를 산출한다. 소방차(20)의 주행 경로는 소방차(20)에 탑재된 내비게이션 등을 이용할 수도 있으나, 촬영부(140)에서 촬영된 영상을 이용하여 비행체 제어부(130)가 실시간으로 최적의 주행 경로(P2)를 도출할 수 있다. Referring to FIG. 5, the UAV 100 analyzes an image taken while flying along a flight path, and calculates a travel route to a destination. The travel route of the fire truck 20 can be navigation or the like mounted on the fire truck 20 but the flight control unit 130 can use the image photographed by the photographing unit 140 to determine the optimum travel route P2 in real time .

예를 들어, 도 5에서, 무인 비행체(100)는 촬영된 영상을 분석하여 주행 경로를 산출하더라도, 변동되는 교통 상황 등을 고려하여 실시간으로 주행 경로(P2)를 최적화할 수 있다. 최적화된 주행 경로(P2)는 네트워크(50)를 통해 이동 단말(200)에 실시간으로 전송되며, 이러한 주행 경로(P2)는 이동 단말에 표시된다. 이때, 무인 비행체(100)에서 이동 단말(200)로 최적의 주행 경로(P2)만 전송할 수도 있고, GIS 정보에 상기 최적의 주행 경로(P2)를 매핑시켜 전송할 수도 있다.For example, in FIG. 5, even when the unmanned flight vehicle 100 analyzes a photographed image to calculate a traveling route, it can optimize the traveling route P2 in real time considering the fluctuating traffic conditions and the like. The optimized travel route P2 is transmitted in real time to the mobile terminal 200 via the network 50, and this travel route P2 is displayed on the mobile terminal. At this time, only the optimal traveling route P2 may be transmitted from the UAV 100 to the mobile terminal 200, and the optimal traveling route P2 may be mapped to the GIS information.

도 6을 참조하면, 목적지(B34)까지의 무인 비행체(100)에서 산출된 최적의 주행 경로(P2)가 이동 단말(200)에 전송되어 지도(M) 상에 표시되어 있다. 이때, 상술한 바와 같이, 지도(M)는 GIS 정보를 이용할 수 있으며, 이러한 GIS 정보는 이동 단말(200)에 내장되어 있을 수도 있고, 최적의 주행 경로(P2)가 매핑되어 있는 GIS 정보가 무인 비행체(100)에서 전송될 수도 있다. 도 6에 도시한 주행 경로(P2)는 실시간으로 변경될 수 있으며, 이동 단말(200)에 실시간으로 반영될 수 있다.Referring to FIG. 6, the optimal travel route P2 calculated by the unmanned air vehicle 100 up to the destination B34 is transmitted to the mobile terminal 200 and displayed on the map M. At this time, as described above, the map M can use the GIS information. The GIS information may be built in the mobile terminal 200, or the GIS information in which the optimum traveling route P2 is mapped may be unattended Or may be transmitted from the air vehicle 100. The traveling path P2 shown in FIG. 6 can be changed in real time and can be reflected in real time to the mobile terminal 200.

도 7은 영상 분석의 일례를 설명하기 위한 도면이다. 또한, 도 8은 도 7의 관심 영역에서 도출된 특징 정보의 일례를 도시한 도면이다.7 is a diagram for explaining an example of image analysis. FIG. 8 is a diagram showing an example of the feature information derived from the ROI in FIG.

도 7을 참조하면, 무인 비행체(100)는 목적지 정보에 따라 사고 현장으로 자동 출동하며, 목적지의 상공에서 촬영부(140)에서 촬영된 영상은 영상 분석부(150)에서 분석된다. 이때, 영상 분석부(150)는 목적지의 영상 정보(I)에서 관심 영역(ROI)을 설정하고, 상기 관심 영역(ROI)에서 객체(O)를 검출할 수 있다. 즉, 영상 분석부(150)는 목적지의 영상 정보(I)를 분석하여 이벤트를 검출할 수 있으며, 관심 영역(ROI)을 설정하여 사람 등 타겟이 되는 객체(O)를 추적할 수 있다. 이때, 비행체 제어부(130)는 GIS 정보와 GPS 정보를 이용하여 이벤트에 대한 위치 정보를 산출할 수 있다.Referring to FIG. 7, the UAV 100 automatically dispatches to an accident site according to destination information, and the image captured by the photographing unit 140 at a location above the destination is analyzed by the image analysis unit 150. At this time, the image analyzer 150 may set an ROI in the image information I of the destination and may detect the object O in the ROI. That is, the image analyzer 150 can detect the event by analyzing the image information I of the destination, and can set the ROI to track the object O such as a person. At this time, the flight control unit 130 may calculate position information on the event using the GIS information and the GPS information.

구체적으로, 영상 분석부(150)는 영상에서 영상의 밝기(brightness) 데이터, 색상(color) 데이터 및 모션(motion) 데이터 중 적어도 하나를 검출할 수 있으며, 상기 검출된 밝기 데이터, 색상 데이터 및 모션 데이터 중 적어도 하나의 데이터를 임계 밝기 데이터, 임계 색상 데이터, 임계 모션 데이터 중 적어도 하나의 대응되는 데이터와 비교하여 이벤트를 검출할 수 있다. Specifically, the image analysis unit 150 may detect at least one of brightness data, color data, and motion data of the image in the image, and may detect at least one of the detected brightness data, The at least one of the data may be compared with at least one of the threshold brightness data, the threshold color data, and the threshold motion data to detect the event.

예를 들어, 연기의 발생이나, 사람 또는 어떤 물체가 나타나 배경이 어두워지는 경우, 영상의 밝기 데이터가 감소할 수 있다. 이러한 특징을 이용하여 영상 분석부(150)는 밝기 데이터가 미리 설정된 밝기 데이터의 임계값을 초과하여 변동된 경우에 연기의 발생이나 객체의 이동이라는 이벤트를 검출할 수 있다. For example, when smoke occurs, or when a person or an object appears and the background becomes dark, the brightness data of the image may decrease. Using this feature, the image analyzer 150 can detect an event such as the generation of smoke or the movement of the object when the brightness data exceeds the preset threshold value of the brightness data.

또한, 영상 내에 일정 수준 이상의 적색 및 황색 계열의 색체 데이터가 존재하고 있다면 화염이 번지고 있는 상황으로 판단할 수 있다. 이러한 특징을 이용하여 영상 분석부(150)는 색상 데이터 중 적색 및 황색 데이터의 비중이 미리 설정된 임계 비중보다 큰 경우, 화재 발생이라는 이벤트를 검출할 수 있다. In addition, if there are color data of red and yellow series in a certain level or more in the image, it can be judged that the flame is spreading. Using this feature, the image analyzer 150 can detect an event of fire occurrence when the specific gravity of the red and yellow data among the color data is greater than a predetermined threshold specific gravity.

그리고, 영상 내에서 모션이 감지가 될 때, 또는 모션의 정도가 이미 저장된 기준 모션 데이터의 움직임 정도보다 더 크다면, 객체가 움직이거나 화염이 번지는 상황이라는 이벤트를 검출할 수 있다.And, if the motion is detected in the image, or if the degree of motion is greater than the degree of motion of the stored reference motion data, an event can be detected that the object is moving or the flame is worn.

이렇게 영상 분석부(150)에서 검출된 이벤트는 이동 단말(200)에 전송되어 긴급 대응팀이 신속하게 정보를 판단할 수 있는 기초 자료가 되어 빠른 대응 조치를 수립하는데 도움이 된다.The event detected by the image analyzing unit 150 is transmitted to the mobile terminal 200, and is used as a basic data for the emergency response team to quickly determine information, which helps to establish quick response measures.

도 8을 참조하면, 영상 분석부(150)는 관심 영역(ROI)에서 검출된 객체(O)의 특징 정보를 도출할 수 있다. 즉, 영상 분석부(150)는 관심 영역(ROI)에서 검출된 이벤트의 특징 정보를 도출하여 이동 단말(200)에 전송할 수 있다. Referring to FIG. 8, the image analyzer 150 may extract the feature information of the object O detected in the region of interest (ROI). That is, the image analysis unit 150 may extract the feature information of the event detected in the ROI and transmit the feature information to the mobile terminal 200.

예를 들어, 영상 분석부(150)는 영상에 설정된 관심 영역(ROI)에서 검출하고자 하는 객체(O)의 특징 정보를 추출할 수 있다. 일례로, 영상 정보에 나타난 객체(O)의 초기 위치에서 초기 탐색 윈도우 영역을 지정한 후, 색상 확률 분포를 계산하고 탐색 윈도우 영역 내부, 외부에서 객체의 중심 픽셀을 찾고, 그 뒤 둘을 비교하여 수렴하는 경우에 픽셀 위치를 반환하고, 탐색 윈도우 사이즈를 줄인다. 위와 같은 단계를 반복적으로 수행하여 움직이는 객체(O)의 픽셀을 추정하고, 이를 보정 테이블을 이용하여 실제 스케일로 변환한 뒤 출력하는 등의 방법으로 객체(O)의 크기 등을 추정할 수 있다. 이에, 사람인 경우, 객체(O)의 크기 등을 고려하여 성인인지 소아인지 등을 추정할 수 있고, 객체(O)에서 머리카락이 차지하는 크기 등을 탐색하여 남성 또는 여성 등을 추정할 수 있다.For example, the image analyzer 150 may extract the feature information of the object O to be detected in the ROI set in the image. For example, after designating an initial search window area at the initial position of the object O shown in the image information, a color probability distribution is calculated, a central pixel of the object is searched in the inside and outside of the search window area, Return the pixel position, and reduce the search window size. It is possible to estimate the size of the object O by repeating the above steps and estimating the pixels of the moving object O and converting it into the actual scale using the correction table and then outputting it. Accordingly, in the case of a person, it is possible to estimate whether the adult or child can be estimated in consideration of the size of the object O, etc., and to estimate the size of the hair in the object O to estimate a male or female.

이때, 비행체 제어부(130)는 GIS 정보와 GPS 정보를 이용하여 이벤트에 대한 위치 정보를 산출할 수 있는데, 비행체 제어부(130)는 상기 위치 정보를 상기 특징 정보와 함께 비행체 통신부(110)를 통해 이동 단말(200)로 전송할 수 있다. 이를 통해, 이동 단말(200)에서 객체(O)의 특징과 함께 위치도 함께 알 수 있어 구조를 위한 물리적인 이동로를 확보하는데 필요한 정보를 얻을 수 있다.At this time, the flight control unit 130 may calculate position information on the event using the GIS information and the GPS information. The flight control unit 130 transmits the position information together with the feature information through the flight communication unit 110 To the terminal 200. Accordingly, the mobile terminal 200 can recognize the location of the object O along with the characteristics of the object O, thereby obtaining information necessary for securing a physical path for the structure.

도 9은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 신호 흐름도이다.9 is a signal flow diagram of an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템(10)은 무인 비행체(UAV, 100)에서 획득하고, 생성되는 여러 정보를 이동 단말(200)에 전송함으로써, 이동 단말(200)의 사용자가 정밀 정확한 현장 정보 수집을 할 수 있고, 대응팀이 신속한 대응 조치를 수립할 수 있게 된다. 여기에서, 이동 단말(200)은 인증이 이루어져야 무인 비행체(100)에 접속할 수 있는 것이 바람직하다(S210).Referring to FIG. 9, an emergency response system 10 using an unmanned aerial vehicle according to an embodiment of the present invention is acquired by a UAV 100 and transmits various generated information to a mobile terminal 200, The user of the mobile terminal 200 can accurately and precisely collect on-site information, and the correspondent team can establish quick response measures. Here, it is preferable that the mobile terminal 200 can be connected to the UAV 100 only after authentication is performed (S210).

무인 비행체(UAV, 100)는 목적지 정보를 외부에서 수신하면(S110), 자동으로 비행 경로를 생성하여 목적지로 비행하게 된다(S120). 그리고, 무인 비행체(100)는 목적지까지 비행 중에 촬영할 뿐만 아니라, 목적지에 도착한 후에도 목적지의 상공에서도 계속하여 현장을 촬영한다(S130). 무인 비행체(100)에서 촬영된 영상은 무인 비행체(100)에 접속할 권한이 있는 이동 단말(200)에 전송될 수 있으며, 무인 비행체(100)는 모든 영상이 아니라, 영상 분석을 통해 이벤트가 검출된 영상만을 보낼 수 있다. 이렇게 전송된 영상은 이동 단말(200에서 표시된다(S220).When the UAV 100 receives the destination information from the outside (S110), the UAV 100 automatically creates a flight path and then flows to the destination (S120). Then, the unmanned aerial vehicle 100 not only takes a picture to the destination while flying, but also shoots the scene continuously over the destination even after arriving at the destination (S130). The image photographed by the unmanned air vehicle 100 can be transmitted to the mobile terminal 200 that has the authority to access the unmanned air vehicle 100. The unmanned air vehicle 100 can receive not only all images, Only images can be sent. The transmitted image is displayed on the mobile terminal 200 (S220).

또한, 무인 비행체(100)에서 촬영된 영상은 무인 비행체(100)에서 자체적으로 분석하여 영상 데이터를 획득할 수 있으며(S140), 상기 영상 데이터는 무인 비행체(100)에서 이동 단말(200)로 전송될 수 있고, 이동 단말(200)에서 영상과 함께 영상 데이터도 표시될 수 있다(S220). 특히, 무인 비행체(100)는 분석된 영상을 기초로 실시간으로 목적지까지의 최적의 주행 경로를 산출할 수 있고(S150), 상기 최적의 주행 경로는 이동 단말(200)에 전송되어 표시된다(S230).The image captured by the unmanned air vehicle 100 may be analyzed by the unmanned air vehicle 100 itself to acquire image data at step S140 and the image data may be transmitted from the unmanned air vehicle 100 to the mobile terminal 200 And the image data may be displayed together with the image on the mobile terminal 200 (S220). In particular, the unmanned aerial vehicle 100 can calculate an optimum traveling route to the destination in real time based on the analyzed image (S150), and the optimal traveling route is transmitted to the mobile terminal 200 and displayed (S230 ).

또한, 무인 비행체(100)에서 영상 분석을 통해 이벤트를 검출할 수 있으며(S160), 이러한 이벤트에 대한 정보는 이동 단말(200)에 전송되어 표시될 수 있다(S240).In addition, the unmanned aerial vehicle 100 can detect an event through image analysis (S160), and information about the event can be transmitted to the mobile terminal 200 and displayed (S240).

그리고, 무인 비행체(100)에서 GIS 정보와 GPS 정보를 이용하여 이벤트에 대한 위치 정보를 산출할 수 있고, 관심 영역(ROI)에서 검출된 이벤트의 특징 정보를 도출할 수 있다(S170). 위치 정보 및 특징 정보는 무인 비행체 (100)에서 이동 단말(200)로 전송되어 이동 단말(200)에 상기 위치 정보 및 특징 정보가 표시될 수 있다(S250). 이동 단말(200)에서 이벤트의 특징과 함께 위치도 함께 알 수 있어 이동 단말(200)의 사용자가 정밀한 자료를 수집하는데 도움을 받을 수 있다.Then, the UAV 100 can calculate the location information of the event using the GIS information and the GPS information, and derive the feature information of the event detected in the ROI (S170). The location information and the characteristic information are transmitted from the unmanned air vehicle 100 to the mobile terminal 200 and the location information and the characteristic information may be displayed on the mobile terminal 200 in operation S250. The location of the mobile terminal 200 as well as the characteristics of the event can be known together, so that the user of the mobile terminal 200 can be assisted in collecting accurate data.

도 10은 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 개념도이다.10 is a conceptual diagram of an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention.

도 10을 참조하면, 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템은 복수의 무인 비행체(100)와 복수의 이동 단말(200)을 포함할 수 있다. 도 10에서, 세 대의 무인 비행체(100a, 100b, 100c)와 두 대의 이동 단말(200a, 200b)만 도시되어 있으나, 이에만 제한되지 않음은 당업자에게 자명하다 할 것이다. 이하에서는 도 10을 참조하여 설명하도록 한다. 또한, 이하에서 각 무인 비행체(100a, 100b, 100c) 및 각 이동 단말(200a, 200b)의 구체적인 구성요소에 대해서는 상술한 바와 같으므로 생략하도록 한다.Referring to FIG. 10, an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention may include a plurality of unmanned aerial vehicles (100) and a plurality of mobile terminals (200). In FIG. 10, only three unmanned aerial vehicles (100a, 100b, 100c) and two mobile terminals (200a, 200b) are shown but it should be apparent to those skilled in the art. The following description will be made with reference to FIG. Specific components of the respective unmanned aerial vehicles 100a, 100b and 100c and the respective mobile terminals 200a and 200b will be omitted here since they are as described above.

무인 비행체(100)는 복수개를 포함하며, 각 무인 비행체(100a, 100b, 100c)는 응급 상황 발생 시, 사고 현장에 공중으로 비행을 하여 이동한다. 이때, 최단 시간 대응을 위해, 각 무인 비행체(100a, 100b, 100c)는 직선으로 이동을 할 수 있으나, 상황에 따라 목적지까지의 비행 경로를 수정하면서 이동할 수 있다. 바람직하게는, 각 무인 비행체(100a, 100b, 100c)가 서로 다른 비행 경로로 비행하여 최적의 주행 경로를 산출할 수 있다. The unmanned air vehicle 100 includes a plurality of unmanned vehicles 100a, 100b, and 100c, which are moved to an accident site in the air when an emergency occurs. At this time, each of the unmanned aerial vehicles 100a, 100b, and 100c can move in a straight line for the shortest time correspondence, but can move while correcting the flight path to the destination depending on the situation. Preferably, each of the unmanned aerial vehicles 100a, 100b, and 100c can fly over different flight paths to calculate an optimal travel route.

이동 단말(200)은 복수개를 포함하며, 각 이동 단말(200a, 200b)이 적어도 하나의 무인 비행체(100)에 접속할 수 있다. 각 이동 단말(200a, 200b)이 복수개의 무인 비행체(100a, 100b, 100c)를 조종할 수도 있고, 하나의 무인 비행체(100)만 조종할 수도 있다. 또한, 각 무인 비행체(100a, 100b, 100c)는 하나의 이동 단말(200)에 의해 제어될 수도 있고, 복수의 이동 단말(200)에 의해 제어될 수도 있다.The mobile terminal 200 includes a plurality of mobile terminals 200a and 200b and may connect to at least one unmanned aerial vehicle 100. [ Each of the mobile terminals 200a and 200b may control the plurality of unmanned aerial vehicles 100a, 100b and 100c or may control only one unmanned air vehicle 100. [ In addition, each of the unmanned aerial vehicles 100a, 100b, and 100c may be controlled by one mobile terminal 200 or may be controlled by a plurality of mobile terminals 200. [

바람직하게는, 하나의 무인 비행체(100)가 하나의 이동 단말(200)에 의해 제어되는 것이 바람직하다 할 것이다. 이를 위해, 복수개의 이동 단말(200) 중 인증부(260)에 의해 무인 비행체(100)에 접속할 수 있는 권한을 최초로 인증받은 이동 단말(200)이 상기 무인 비행체(100)를 원격으로 제어할 수 있다. 또한, 무인 비행체(100)는 각 이동 단말(200)의 GPS 정보를 수신하며, 목적지에서의 영상 정보를 분석하여 이벤트를 추출하고, 상기 GPS 정보 및 이벤트에 기초하여 상기 무인 비행체(100)를 원격으로 제어하는 이동 단말(200)의 제어 권한을 다른 이동 단말(200)로 변경할 수 있다. 예를 들어, 최초로 무인 비행체 100a에 접속할 수 있는 권한을 인증한 이동 단말 200a가 있더라도, 상기 무인 비행체 100a는 각 이동 단말 200a, 200b의 위치, 사고 현장에 안전하고 빠르게 접근 가능한 이동로에 인접한 이동 단말 200b의 위치를 고려하여 상기 무인 비행체 100a를 원격으로 제어하는 제어 권한을 이동 단말 200a에서 이동 단말 200b로 변경할 수 있다.Preferably, one unmanned aerial vehicle 100 is controlled by one mobile terminal 200. For this purpose, the mobile terminal 200, which is first authenticated as an authority to connect to the unmanned air vehicle 100 by the authentication unit 260 among the plurality of mobile terminals 200, can remotely control the unmanned air vehicle 100 have. The unmanned air vehicle 100 receives GPS information of each mobile terminal 200, extracts an event by analyzing image information at a destination, and transmits the unmanned air vehicle 100 to the remote The control authority of the mobile terminal 200 controlling the mobile terminal 200 can be changed to another mobile terminal 200. For example, even if there is a mobile terminal 200a that has been authorized to connect to the unmanned air vehicle 100a for the first time, the unmanned air vehicle 100a can detect the location of each of the mobile terminals 200a and 200b, The control authority for remotely controlling the UAV 100a can be changed from the mobile terminal 200a to the mobile terminal 200b.

도 11은 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 신호 흐름도이다.11 is a signal flow diagram of an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention.

도 11을 참조하면, 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템은 무인 비행체(100c)에서 획득하고, 생성되는 여러 정보를 각 이동 단말(200a, 200b)에 전송함으로써, 각 이동 단말(200a, 200b)의 사용자가 정밀 정확한 현장 정보 수집을 할 수 있고, 대응팀이 신속한 대응 조치를 수립할 수 있게 된다.11, an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention is acquired by the unmanned air vehicle 100c and transmits various generated information to the mobile terminals 200a and 200b, A user of the terminals 200a and 200b can accurately and precisely collect on-site information, and the correspondent team can establish a quick response measure.

여기에서, 각 이동 단말(200a, 200b)은 인증이 이루어져야 무인 비행체(100)에 접속할 수 있으며(S21, 31), 제일 먼저 인증이 이루어진 이동 단말(200a)이 제어 권한을 획득할 수 있다(S23).In this case, each of the mobile terminals 200a and 200b must be authenticated before they can access the unmanned aerial vehicle 100 (S21 and 31), and the mobile terminal 200a that has been authenticated first can obtain the control right (S23 ).

또한, 무인 비행체(100c)는 비행 중에 촬영한 영상을 각 이동 단말(200a, 200b)에 전송하며, 영상과 함께 영상을 분석한 영상 데이터(예를 들어, 이벤트의 위치 정보, 이벤트의 특징 정보 등)를 전송할 수 있다(S13). In addition, the unmanned air vehicle 100c transmits images photographed during a flight to each of the mobile terminals 200a and 200b and transmits image data (e.g., location information of the event, feature information of the event, etc.) (S13).

그리고, 무인 비행체(100c)의 비행 중, 무인 비행체(100c)는 각 이동 단말(200a, 200b)의 GPS 정보를 수신할 수 있고(S25, S33), 상기 GPS 정보(제1 및 제2 GPS 정보)와 무인 비행체(100c)에서 촬영하여 얻은 이벤트를 기초로 하여 상기 무인 비행체(100c)를 제어할 수 있는 권한을 유지하거나 변경할 수 있다(S17). During the flight of the unmanned air vehicle 100c, the unmanned air vehicle 100c can receive the GPS information of the mobile terminals 200a and 200b (S25 and S33) And the authority to control the unmanned air vehicle 100c can be maintained or changed on the basis of the event obtained by the unmanned air vehicle 100c and the image captured by the unmanned air vehicle 100c (S17).

예를 들어, 여러 건물에 화재가 발생하였는데 이 중 한 건물에 부상자가 있는 경우, 무인 비행체(100c)를 현재 제어할 수 있는 이동 단말(200a)의 사용자가 다른 건물에 투입되어 있고, 다른 이동 단말(200b)의 사용자가 부상자가 있는 건물에 가까이 있으면, 상기 무인 비행체(100c)는 제어 권한을 현재 이동 단말(200a)에서 다른 이동 단말(200b)로 변경할 수 있다(S35). 그런 후에, 제어 권한을 받은 이동 단말(200b)의 사용자는 무인 비행체(100c)를 조작하여 보다 정밀한 자료를 수집하여 보다 실질적인 대응 조치를 수립할 수 있을 것이다. 물론, 무인 비행체(100c)가 아닌 각 이동 단말(200a, 200b) 간에 무인 비행체(100c)의 제어 권한을 이전하도록 운용할 수도 있다.For example, when a fire occurs in a plurality of buildings, and one of the buildings is injured, a user of the mobile terminal 200a capable of currently controlling the unmanned air vehicle 100c is put into another building, If the user of the mobile terminal 200b is close to the building where the injured person is present, the unmanned air vehicle 100c may change the control right from the current mobile terminal 200a to the other mobile terminal 200b (S35). Then, the user of the mobile terminal 200b receiving the control right can collect more precise data by manipulating the unmanned air vehicle 100c and establish a more practical response measure. Of course, the control authority of the unmanned air vehicle 100c may be transferred between the mobile terminals 200a and 200b rather than the unmanned air vehicle 100c.

도 12는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법의 순서도이다.12 is a flowchart of an emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention.

도 12를 참조하면, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법은, 무인 비행체(100)가 목적지 정보를 수신하고(S1), 상기 목적지 정보에 기초하여 비행 경로를 생성하며(S2), 상기 비행 경로에 따라 비행한다(S3). 그리고, 무인 비행체(100)가 비행 중에 촬영하여 영상 정보를 획득하고(S4), 상기 영상 정보를 분석하며(S5), 상기 분석된 영상 정보에 기초하여 목적지까지의 주행 경로를 산출하고(S6), 상기 주행 경로를 이동 단말(200)로 전송함으로써(S7), 이동 단말(200)을 사용하는 긴급 대응팀보다 무인 비행체(100)가 먼저 현장에 이동하면서 현장으로의 이동로를 확보하는데 도움을 주게 된다.Referring to FIG. 12, in an emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention, the unmanned air vehicle 100 receives destination information (S1), generates a flight route based on the destination information S2), and then it is flown according to the flight path (S3). The unmanned aerial vehicle 100 acquires image information in step S4 and acquires image information in step S4. The image information is analyzed in step S5. A traveling route to a destination is calculated based on the analyzed image information in step S6. (S7), the unmanned aerial vehicle 100 moves to the site first rather than the emergency response team using the mobile terminal 200 to help secure the route to the site by transmitting the traveling route to the mobile terminal 200 do.

또한, 무인 비행체(100)는 목적지에서 영상 정보를 분석하고, 상기 영상 정보에서 이벤트를 추출하며, 상기 영상 정보 및 이벤트를 이동 단말(200)로 전송함으로써, 이동 단말(200)을 사용하는 긴급 대응팀에게 여러 정보를 수집하여 제공할 수 있다.In addition, the UAV 100 analyzes image information at a destination, extracts an event from the image information, and transmits the image information and the event to the mobile terminal 200, so that the emergency response team using the mobile terminal 200 Can collect and provide various information.

또한, 무인 비행체(100)는 이벤트에서 특징 정보를 도출하고, GIS 정보 및 GPS 정보를 이용하여 상기 이벤트에 대한 위치 정보를 산출하며, 상기 위치 정보를 상기 특징 정보와 함께 이동 단말로 전송함으로써, 획득되는 정보를 분석하여 긴급 대응팀에게 필요한 정보를 제공할 수 있다.In addition, the UAV 100 derives feature information from the event, calculates position information on the event using GIS information and GPS information, and transmits the position information to the mobile terminal together with the feature information And analyze the information to provide necessary information to the emergency response team.

그리고, 화재 현장 등 긴급 대응팀이 접근하기 매우 어려운 위험 장소에서 이동 단말(200)에서 무인 비행체(100)를 조작하여 보다 정밀한 자료를 얻을 수 있다. 이러한 무인 비행체(100)를 조작할 수 있는 권한은 이동 단말(200) 간에 이전할 수도 있고, 무인 비행체(100)에서 얻은 정보를 분석하여 자체적으로 다른 이동 단말(200)로 변경할 수도 있다.Further, more accurate data can be obtained by operating the unmanned aerial vehicle (100) at the mobile terminal (200) in a dangerous place where the emergency response team such as a fire scene is very difficult to access. The right to operate the unmanned aerial vehicle 100 may be transferred between the mobile terminals 200 or may be changed to another mobile terminal 200 itself by analyzing information obtained from the unmanned air vehicle 100. [

한편, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법은 소프트웨어 및 하드웨어에 의해 하나의 모듈로 구현 가능하며, 전술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 롬(ROM), 플로피 디스크, 하드 디스크 등의 자기적 매체, CD, DVD 등의 광학적 매체 및 인터넷을 통한 전송과 같은 캐리어 웨이브와 같은 형태로 구현된다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네크워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention can be implemented as one module by software and hardware, and the embodiments of the present invention described above can be created as a program that can be executed in a computer, And can be implemented in a general-purpose computer that operates the program using a computer-readable recording medium. The computer-readable recording medium is implemented in the form of a carrier wave such as a ROM, a floppy disk, a magnetic medium such as a hard disk, an optical medium such as a CD or a DVD, and a transmission through the Internet. In addition, the computer-readable recording medium may be distributed to a network-connected computer system so that computer-readable codes may be stored and executed in a distributed manner.

그리고, 본 발명의 실시예에서 사용되는 구성요소 또는 '~부'는 메모리 상의 소정 영역에서 수행되는 태스크, 클래스, 서브 루틴, 프로세스, 오브젝트, 실행 쓰레드, 프로그램과 같은 소프트웨어(software)나, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)로 구현될 수 있으며, 또한 상기 소프트웨어 및 하드웨어의 조합으로 이루어질 수도 있다. 상기 구성요소 또는 '~부'는 컴퓨터로 판독 가능한 저장 매체에 포함되어 있을 수도 있고, 복수의 컴퓨터에 그 일부가 분산되어 분포될 수도 있다.The components or parts used in the embodiments of the present invention may be software such as a task, a class, a subroutine, a process, an object, an execution thread, a program, field-programmable gate array (ASIC), or an application-specific integrated circuit (ASIC), or a combination of the above software and hardware. The components or parts may be included in a computer-readable storage medium, or a part of the components may be distributed to a plurality of computers.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

10: 무인 비행체를 이용한 긴급 대응 시스템
100: 무인 비행체
110: 비행체 통신부 120: GPS 수신부
130: 비행체 제어부 140: 촬영부
150: 영상 분석부 160: 권한 허용부
170: 비행체 저장부
200: 이동 단말
210: 단말 입력부 220: 단말 통신부
230: 단말 제어부 240: 단말 출력부
250: 단말 저장부 260: 인증부
270: GPS 수신부
10: Emergency response system using unmanned aerial vehicle
100: unmanned vehicle
110: Flight communication unit 120: GPS receiver
130: Flight control unit 140:
150: Image analysis unit 160: Authorization unit
170:
200: mobile terminal
210: terminal input unit 220: terminal communication unit
230 terminal control unit 240 terminal output unit
250: terminal storage unit 260: authentication unit
270: GPS receiver

Claims (10)

수신된 목적지 정보에 기초하여 생성되는 비행 경로에 따라 비행하면서 영상 정보를 획득하며, 상기 영상 정보를 분석하여 목적지까지의 주행 경로를 산출하는 무인 비행체; 및
상기 무인 비행체로부터 상기 주행 경로 및 영상 정보를 수신하는 이동 단말을 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.
An unmanned aerial vehicle that acquires image information while flying according to a flight path generated based on the received destination information, and calculates a travel route to the destination by analyzing the image information; And
And a mobile terminal for receiving the traveling route and the image information from the unmanned aerial vehicle.
제 1항에 있어서,
상기 무인 비행체는,
상기 이동 단말과 통신하며, 상기 목적지 정보를 수신하는 비행체 통신부;
GPS 정보를 수신하는 GPS 수신부; 및
상기 목적지 정보에 기초하여 상기 비행 경로를 생성하며, 상기 GPS 정보에 기초하여 상기 비행 경로에 따라 비행하도록 제어하는 비행체 제어부를 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.
The method according to claim 1,
In the unmanned aerial vehicle,
A flight communication unit that communicates with the mobile terminal and receives the destination information;
A GPS receiver for receiving GPS information; And
And a flight control unit for generating the flight path based on the destination information and controlling the flight in accordance with the flight path based on the GPS information.
제 2항에 있어서,
상기 무인 비행체는,
촬영부; 및
상기 촬영부의 영상을 분석하여 이벤트를 검출하는 영상 분석부를 더 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.
3. The method of claim 2,
In the unmanned aerial vehicle,
A photographing unit; And
And an image analyzing unit for analyzing the image of the photographing unit to detect an event.
제 3항에 있어서,
상기 비행체 제어부는, 상기 이벤트에 기초하여 상기 주행 경로를 실시간으로 최적화하는, 무인 비행체를 이용한 긴급 대응 시스템.
The method of claim 3,
Wherein the airplane control unit optimizes the traveling route in real time based on the event.
제 3항에 있어서,
상기 영상 분석부는, 상기 목적지의 영상 정보에서 관심 영역을 설정하고, 상기 관심 영역에서 검출된 이벤트의 특징 정보를 도출하는, 무인 비행체를 이용한 긴급 대응 시스템.
The method of claim 3,
Wherein the image analyzing unit sets a region of interest in the image information of the destination and derives feature information of the detected event in the region of interest.
제 5항에 있어서,
상기 비행체 제어부는, GIS 정보와 상기 GPS 정보를 이용하여 상기 이벤트에 대한 위치 정보를 산출하고, 상기 위치 정보를 상기 특징 정보와 함께 상기 비행체 통신부를 통해 상기 이동 단말로 전송하는, 무인 비행체를 이용한 긴급 대응 시스템.
6. The method of claim 5,
Wherein the airplane control unit calculates position information on the event using the GIS information and the GPS information and transmits the position information together with the characteristic information to the mobile terminal through the air communication unit, Supported systems.
제 1항에 있어서,
상기 이동 단말은,
상기 무인 비행체에 대한 명령 정보를 입력하는 단말 입력부;
상기 무인 비행체와 무선으로 통신하는 단말 통신부;
상기 명령 정보에 따라 상기 무인 비행체를 원격으로 제어하는 단말 제어부; 및
상기 무인 비행체로부터 전송된 상기 주행 경로 및 영상 정보를 출력하는 단말 출력부를 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.
The method according to claim 1,
The mobile terminal,
A terminal input unit for inputting command information for the unmanned aerial vehicle;
A terminal communication unit for wirelessly communicating with the unmanned aerial vehicle;
A terminal control unit for remotely controlling the unmanned aerial vehicle according to the command information; And
And a terminal output unit for outputting the traveling route and the image information transmitted from the unmanned aerial vehicle.
제 7항에 있어서,
상기 이동 단말은,
상기 무인 비행체에 접속할 수 있는 권한을 인증하는 인증부를 더 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.
8. The method of claim 7,
The mobile terminal,
Further comprising an authentication unit for authenticating an authority to connect to the unmanned aerial vehicle.
제 8항에 있어서,
상기 이동 단말은, 복수개를 포함하며,
복수개의 이동 단말 중 상기 인증부에 의해 상기 무인 비행체에 접속할 수 있는 권한을 최초로 인증받은 이동 단말이 상기 무인 비행체를 원격으로 제어하는, 무인 비행체를 이용한 긴급 대응 시스템.
9. The method of claim 8,
The mobile terminal includes a plurality of mobile terminals,
Wherein the mobile terminal, which is first authorized to access the unmanned aerial vehicle by the authentication unit, remotely controls the unmanned aerial vehicle among the plurality of mobile terminals, using the unmanned air vehicle.
무인 비행체를 이용한 긴급 대응 방법에 있어서,
목적지 정보를 수신하는 단계;
상기 목적지 정보에 기초하여 비행 경로를 생성하는 단계;
상기 비행 경로에 따라 비행하는 단계;
상기 비행 중에 촬영하여 영상 정보를 획득하는 단계;
상기 영상 정보를 분석하는 단계;
상기 분석된 영상 정보에 기초하여 목적지까지의 주행 경로를 산출하는 단계; 및
상기 주행 경로를 이동 단말로 전송하는 단계를 포함하는, 무인 비행체를 이용한 긴급 대응 방법.
In an emergency response method using an unmanned aerial vehicle,
Receiving destination information;
Generating a flight path based on the destination information;
Flying according to the flight path;
Capturing and acquiring image information during the flight;
Analyzing the image information;
Calculating a traveling route to a destination based on the analyzed image information; And
And transmitting the traveling route to the mobile terminal.
KR1020150135980A 2015-09-25 2015-09-25 Emergency rescue system using unmanned aerial vehicle and method thereof Active KR101752671B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150135980A KR101752671B1 (en) 2015-09-25 2015-09-25 Emergency rescue system using unmanned aerial vehicle and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150135980A KR101752671B1 (en) 2015-09-25 2015-09-25 Emergency rescue system using unmanned aerial vehicle and method thereof

Publications (2)

Publication Number Publication Date
KR20170037696A true KR20170037696A (en) 2017-04-05
KR101752671B1 KR101752671B1 (en) 2017-07-03

Family

ID=58586841

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150135980A Active KR101752671B1 (en) 2015-09-25 2015-09-25 Emergency rescue system using unmanned aerial vehicle and method thereof

Country Status (1)

Country Link
KR (1) KR101752671B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107416207A (en) * 2017-06-13 2017-12-01 深圳市易成自动驾驶技术有限公司 Unmanned plane rescue mode, unmanned plane and computer-readable recording medium
KR20190066873A (en) * 2017-12-06 2019-06-14 주식회사 아세스 Method for rescue using drone and computer readable record-medium on which program for executing method therefor
KR20200002215A (en) * 2018-06-29 2020-01-08 현대엠엔소프트 주식회사 System for processing information and operating method thereof
CN110816839A (en) * 2019-12-17 2020-02-21 淮安航空产业研究院有限公司 Unmanned aerial vehicle and system for putting in emergency rescue equipment and people-in-loop putting method thereof
JP2020163953A (en) * 2019-03-28 2020-10-08 光司商会株式会社 Hanging work assist system
CN112972935A (en) * 2019-12-16 2021-06-18 泉州胜日科技有限公司 Textile industry workshop fire emergency rescue method and device
KR20220037027A (en) * 2020-09-16 2022-03-24 이민형 System and method for monitoring the ground using hybrid unmanned airship
CN115331389A (en) * 2022-07-20 2022-11-11 浙江鹿枫户外用品有限公司 Outdoor rescue device for handling emergency situations
KR20230143319A (en) * 2022-04-05 2023-10-12 인하대학교 산학협력단 Method and System for Fire Response based on Smart Unmanned Self-Driving Platform

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108711273A (en) * 2018-03-30 2018-10-26 榛硕(武汉)智能科技有限公司 A kind of quick processing system of traffic accident and its processing method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150033241A (en) 2013-09-24 2015-04-01 엘에스산전 주식회사 System for disaster using unmanned aerial vehicle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002237000A (en) * 2001-02-09 2002-08-23 Chishiki Joho Kenkyusho:Kk Real-time map information communication system and method
KR101286376B1 (en) * 2013-03-07 2013-07-15 건국대학교 산학협력단 System and method for controlling unmanned aerial vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150033241A (en) 2013-09-24 2015-04-01 엘에스산전 주식회사 System for disaster using unmanned aerial vehicle

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107416207A (en) * 2017-06-13 2017-12-01 深圳市易成自动驾驶技术有限公司 Unmanned plane rescue mode, unmanned plane and computer-readable recording medium
KR20190066873A (en) * 2017-12-06 2019-06-14 주식회사 아세스 Method for rescue using drone and computer readable record-medium on which program for executing method therefor
KR20200002215A (en) * 2018-06-29 2020-01-08 현대엠엔소프트 주식회사 System for processing information and operating method thereof
JP2020163953A (en) * 2019-03-28 2020-10-08 光司商会株式会社 Hanging work assist system
CN112972935A (en) * 2019-12-16 2021-06-18 泉州胜日科技有限公司 Textile industry workshop fire emergency rescue method and device
CN110816839A (en) * 2019-12-17 2020-02-21 淮安航空产业研究院有限公司 Unmanned aerial vehicle and system for putting in emergency rescue equipment and people-in-loop putting method thereof
KR20220037027A (en) * 2020-09-16 2022-03-24 이민형 System and method for monitoring the ground using hybrid unmanned airship
KR20230143319A (en) * 2022-04-05 2023-10-12 인하대학교 산학협력단 Method and System for Fire Response based on Smart Unmanned Self-Driving Platform
CN115331389A (en) * 2022-07-20 2022-11-11 浙江鹿枫户外用品有限公司 Outdoor rescue device for handling emergency situations
CN115331389B (en) * 2022-07-20 2023-08-11 浙江鹿枫户外用品有限公司 Outdoor rescue device for handling emergency

Also Published As

Publication number Publication date
KR101752671B1 (en) 2017-07-03

Similar Documents

Publication Publication Date Title
KR101752671B1 (en) Emergency rescue system using unmanned aerial vehicle and method thereof
EP3635335B1 (en) System and method for aiding responses to an event detected by a monitoring system
US9922477B2 (en) Security and public safety application for a mobile device with audio/video analytics and access control authentication
KR101937272B1 (en) Method and Apparatus for Detecting Event from Multiple Image
JP7338739B2 (en) Information processing device, control method, and program
KR101883292B1 (en) Disaster rescue and response system and operating method threrof
US20220139199A1 (en) Accurate digital security system, method, and program
KR101459104B1 (en) Intelligent cctv system detecting emergency with motion analysis and method of emergency detection using the same
CN107274003A (en) A smart fire management system and its control method
US20240155221A1 (en) Imaging device, tracking system, and imaging method
CN117135172A (en) Smart city accident rescue method and system based on Internet of things
KR101569324B1 (en) System of smart monitoring for life saving
CN109544870A (en) Alarm decision method and intelligent monitor system for intelligent monitor system
US20220189038A1 (en) Object tracking apparatus, control method, and program
KR20200065316A (en) System and method for replying disaster situation using smart drone
KR20160074208A (en) System and method for providing safety service using beacon signals
JP7477483B2 (en) Semiconductor device and position movement calculation system
Novac et al. A framework for wildfire inspection using deep convolutional neural networks
KR101961800B1 (en) Emergency accident rescue system using drones
McClure et al. A low-cost search-and-rescue drone for near real-time detection of missing persons
KR101372327B1 (en) Safety management system of school zone and the service method
JP2019159624A (en) Unmanned aircraft, and watching method
KR20170014480A (en) A method of guiding a road using an unmanned aerial vehicle
US20190251367A1 (en) Surveillance apparatus, control method, and program
JP6789905B2 (en) Information processing equipment, information processing methods, programs and communication systems

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150925

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160922

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20170425

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170626

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170626

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20200702

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20210628

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20220627

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20230622

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20240624

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20250623

Start annual number: 9

End annual number: 9