KR20170037696A - Emergency rescue system using unmanned aerial vehicle and method thereof - Google Patents
Emergency rescue system using unmanned aerial vehicle and method thereof Download PDFInfo
- Publication number
- KR20170037696A KR20170037696A KR1020150135980A KR20150135980A KR20170037696A KR 20170037696 A KR20170037696 A KR 20170037696A KR 1020150135980 A KR1020150135980 A KR 1020150135980A KR 20150135980 A KR20150135980 A KR 20150135980A KR 20170037696 A KR20170037696 A KR 20170037696A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- unmanned aerial
- mobile terminal
- aerial vehicle
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/10—Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B19/00—Alarms responsive to two or more different undesired or abnormal conditions, e.g. burglary and fire, abnormal temperature and abnormal rate of flow
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0269—System arrangements wherein the object is to detect the exact location of child or item using a navigation satellite system, e.g. GPS
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/14—Central alarm receiver or annunciator arrangements
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B27/00—Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
-
- B64C2201/127—
-
- B64C2201/145—
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- General Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Environmental & Geological Engineering (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geology (AREA)
- Aviation & Aerospace Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Navigation (AREA)
- Alarm Systems (AREA)
Abstract
무인 비행체를 이용한 긴급 대응 시스템 및 방법이 제공된다. 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템은, 수신된 목적지 정보에 기초하여 생성되는 비행 경로에 따라 비행하면서 영상 정보를 획득하며, 상기 영상 정보를 분석하여 목적지까지의 주행 경로를 산출하는 무인 비행체; 및 상기 무인 비행체로부터 상기 주행 경로 및 영상 정보를 수신하는 이동 단말을 포함한다.An emergency response system and method using an unmanned aerial vehicle is provided. The emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention acquires image information while flying according to a flight path generated based on the received destination information, analyzes the image information, Computing unmanned aircraft; And a mobile terminal for receiving the traveling route and the image information from the unmanned air vehicle.
Description
본 발명은 무인 비행체를 이용한 긴급 대응 시스템 및 방법에 관한 것으로, 보다 상세하게는 사고 발생 시에 무인 비행체를 이용하여 긴급 대응할 수 있는 무인 비행체를 이용한 긴급 대응 시스템 및 방법에 관한 것이다.The present invention relates to an emergency response system and method using an unmanned aerial vehicle, and more particularly, to an emergency response system and method using an unmanned aerial vehicle capable of emergency response using an unmanned aerial vehicle in the event of an accident.
갑작스러운 의료 사고, 범죄, 화재 및 재난과 같은 각종 비상 상황으로부터 인명을 안전하게 구출하고 재산 손실을 경감하기 위하여 정부 차원에서 112, 119와 같은 긴급 전화 번호를 이용하여 긴급 대응 서비스를 제공하고 있다.The government provides emergency response services using emergency telephone numbers such as 112 and 119 to safely rescue people from various emergency situations such as sudden medical accidents, crime, fire and disaster and to reduce property loss.
이러한 긴급 대응 서비스에 있어서, 인명을 신속하게 안전하게 구출하고, 재물의 손실을 경감시키기 위해서는 최대한 빠른 시간 내에 현장에 도착하는 것이 중요하다. 또한, 현장에 도착한 후에는 사고 상황과 건물의 구조, 구조가 필요한 인원의 위치 파악 등 현장 정보 수집과, 이에 따른 대응 조치가 중요하다.In such an emergency response service, it is important to arrive at the site as soon as possible in order to quickly and safely rescue people and reduce the loss of property. Also, after arriving at the site, it is important to collect information on the site, such as the location of the people who need the structure of the accident, the structure of the building and the structure, and take measures accordingly.
그러나, 좁은 골목길, 교통 체증 등으로 인해 사고 대응팀이 현장에 빠르게 도착하는 것이 어려운 경우가 대부분이고, 고층 빌딩의 복잡한 구조 등 현장의 복잡함으로 인해 정확한 현장 정보 수집과 적절한 대응 조치의 수립이 어려울 수 있다.However, it is often difficult for the incident response team to arrive at the site quickly due to narrow alleys, traffic congestion, etc., and it may be difficult to collect accurate site information and establish appropriate response measures due to the complexity of the site such as the complex structure of high-rise buildings .
본 발명은 상기 문제점을 해결하기 위한 것으로, 사고 발생 시에 무인 비행체를 이용하여 대응팀이 사고 현장에 빠르게 도착할 수 있고, 사고 현장에서 정확한 정보 수집 및 적절한 대응 조치를 수행하여 사고에 긴급 대응할 수 있는 무인 비행체를 이용한 긴급 대응 시스템 및 방법을 제공한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide an unmanned aerial vehicle capable of rapidly arriving at an accident site using an unmanned air vehicle in the event of an accident, And provides an emergency response system and method using a flight vehicle.
또한, 상기의 무인 비행체를 이용한 긴급 대응 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.The present invention also provides a computer-readable recording medium storing a program for causing a computer to execute an emergency response method using the above-mentioned unmanned aerial vehicle.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.
상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템은, 수신된 목적지 정보에 기초하여 생성되는 비행 경로에 따라 비행하면서 영상 정보를 획득하며, 상기 영상 정보를 분석하여 목적지까지의 주행 경로를 산출하는 무인 비행체; 및 상기 무인 비행체로부터 상기 주행 경로 및 영상 정보를 수신하는 이동 단말을 포함한다.According to an aspect of the present invention, there is provided an emergency response system using an unmanned aerial vehicle, which acquires image information while flying according to a flight path generated based on received destination information, A unmanned aerial vehicle for calculating a traveling route to a destination; And a mobile terminal for receiving the traveling route and the image information from the unmanned air vehicle.
또한, 상기 무인 비행체는, 상기 이동 단말과 통신하며, 상기 목적지 정보를 수신하는 비행체 통신부; GPS 정보를 수신하는 GPS 수신부; 및 상기 목적지 정보에 기초하여 상기 비행 경로를 생성하며, 상기 GPS 정보에 기초하여 상기 비행 경로에 따라 비행하도록 제어하는 비행체 제어부를 포함할 수 있다.The unmanned air vehicle further includes a flight communication unit for communicating with the mobile terminal and receiving the destination information; A GPS receiver for receiving GPS information; And a flight control unit for generating the flight path based on the destination information and controlling the flight according to the flight path based on the GPS information.
또한, 상기 무인 비행체는, 촬영부; 및 상기 촬영부의 영상을 분석하여 이벤트를 검출하는 영상 분석부를 더 포함할 수 있다.In addition, the unmanned aerial vehicle includes a photographing unit; And an image analyzing unit for analyzing an image of the photographing unit and detecting an event.
또한, 상기 비행체 제어부는, 상기 이벤트에 기초하여 상기 주행 경로를 실시간으로 최적화할 수 있다.In addition, the flight control unit may optimize the traveling route in real time based on the event.
또한, 상기 비행체 제어부는, GIS 정보에 상기 주행 경로를 매핑시켜 상기 비행체 통신부를 통해 상기 이동 단말에 전송할 수 있다.Also, the airplane control unit may map the traveling route to the GIS information and transmit the same to the mobile terminal through the air communication unit.
또한, 상기 영상 분석부는, 상기 목적지의 영상 정보에서 관심 영역을 설정하고, 상기 관심 영역에서 검출된 이벤트의 특징 정보를 도출할 수 있다.In addition, the image analyzer may set a region of interest in the image information of the destination, and may derive feature information of the detected event in the region of interest.
또한, 상기 비행체 제어부는, GIS 정보와 상기 GPS 정보를 이용하여 상기 이벤트에 대한 위치 정보를 산출하고, 상기 위치 정보를 상기 특징 정보와 함께 상기 비행체 통신부를 통해 상기 이동 단말로 전송할 수 있다.In addition, the airplane control unit may calculate positional information on the event using the GIS information and the GPS information, and may transmit the positional information together with the feature information to the mobile terminal through the air communication unit.
또한, 상기 영상 분석부는, 상기 영상의 밝기(brightness) 데이터, 색상(color) 데이터 및 모션(motion) 데이터 중 적어도 하나를 검출할 수 있다.The image analyzing unit may detect at least one of brightness data, color data, and motion data of the image.
또한, 상기 영상 분석부는, 상기 검출된 밝기 데이터, 색상 데이터 및 모션 데이터 중 적어도 하나의 데이터를 임계 밝기 데이터, 임계 색상 데이터, 임계 모션 데이터 중 적어도 하나의 대응되는 데이터와 비교하여 상기 이벤트를 검출할 수 있다.The image analyzing unit may compare at least one of the detected brightness data, color data, and motion data with at least one corresponding data among the threshold brightness data, the threshold color data, and the threshold motion data to detect the event .
또한, 상기 이동 단말은, 상기 무인 비행체에 대한 명령 정보를 입력하는 단말 입력부; 상기 무인 비행체와 무선으로 통신하는 단말 통신부; 상기 명령 정보에 따라 상기 무인 비행체를 원격으로 제어하는 단말 제어부; 및 상기 무인 비행체로부터 전송된 상기 주행 경로 및 영상 정보를 출력하는 단말 출력부를 포함할 수 있다.Also, the mobile terminal includes: a terminal input unit for inputting command information on the unmanned aerial vehicle; A terminal communication unit for wirelessly communicating with the unmanned aerial vehicle; A terminal control unit for remotely controlling the unmanned aerial vehicle according to the command information; And a terminal output unit for outputting the traveling route and the image information transmitted from the unmanned air vehicle.
또한, 상기 이동 단말은, 단말 저장부를 더 포함하며, 상기 저장부는, GIS 정보를 저장하며, 상기 무인 비행체로부터 전송되는 각종 정보를 저장할 수 있다.In addition, the mobile terminal further includes a terminal storage unit, and the storage unit stores GIS information and may store various information transmitted from the unmanned aerial vehicle.
또한, 상기 단말 제어부는, 상기 GIS 정보에 상기 주행 경로를 함께 표시하여 상기 단말 출력부에 출력할 수 있다.Further, the terminal control unit may display the traveling route together with the GIS information and output the same to the terminal output unit.
또한, 상기 이동 단말은, 상기 무인 비행체에 접속할 수 있는 권한을 인증하는 인증부를 더 포함할 수 있다.In addition, the mobile terminal may further include an authentication unit that authenticates an authority to access the unmanned air vehicle.
또한, 상기 이동 단말은, 복수개를 포함하며, 복수개의 이동 단말 중 상기 인증부에 의해 상기 무인 비행체에 접속할 수 있는 권한을 최초로 인증받은 이동 단말이 상기 무인 비행체를 원격으로 제어할 수 있다.In addition, the mobile terminal includes a plurality of mobile terminals, and a mobile terminal, which is first authenticated as an authority to connect to the unmanned air vehicle by the authentication unit among a plurality of mobile terminals, can remotely control the unmanned air vehicle.
또한, 상기 이동 단말은, 복수개를 포함하며, 상기 각 이동 단말은 GPS 정보를 수신하는 GPS 수신부를 더 포함할 수 있다.In addition, the mobile terminal includes a plurality of mobile terminals, and each of the mobile terminals may further include a GPS receiver for receiving GPS information.
그리고, 상기 무인 비행체는, 상기 각 이동 단말의 GPS 정보를 수신하며, 상기 목적지에서의 영상 정보를 분석하여 이벤트를 추출하고, 상기 GPS 정보 및 이벤트에 기초하여 상기 무인 비행체를 원격으로 제어하는 이동 단말의 제어 권한을 다른 이동 단말로 변경할 수 있다.The unmanned aerial vehicle includes GPS information of each mobile terminal, extracts an event by analyzing image information at the destination, and transmits the GPS information and the event to a mobile terminal The control authority of the mobile terminal can be changed to another mobile terminal.
상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법은, 목적지 정보를 수신하는 단계; 상기 목적지 정보에 기초하여 비행 경로를 생성하는 단계; 상기 비행 경로에 따라 비행하는 단계; 상기 비행 중에 촬영하여 영상 정보를 획득하는 단계; 상기 영상 정보를 분석하는 단계; 상기 분석된 영상 정보에 기초하여 목적지까지의 주행 경로를 산출하는 단계; 및 상기 주행 경로를 이동 단말로 전송하는 단계를 포함한다.According to an aspect of the present invention, there is provided an emergency response method using an unmanned aerial vehicle, comprising: receiving destination information; Generating a flight path based on the destination information; Flying according to the flight path; Capturing and acquiring image information during the flight; Analyzing the image information; Calculating a traveling route to a destination based on the analyzed image information; And transmitting the traveling route to the mobile terminal.
또한, 상기 목적지에서 영상 정보를 분석하는 단계; 상기 영상 정보에서 이벤트를 추출하는 단계; 및 상기 영상 정보 및 이벤트를 상기 이동 단말로 전송하는 단계를 더 포함할 수 있다.Analyzing the image information at the destination; Extracting an event from the image information; And transmitting the image information and the event to the mobile terminal.
그리고, 상기 이벤트에서 특징 정보를 도출하는 단계; GIS 정보 및 GPS 정보를 이용하여 상기 이벤트에 대한 위치 정보를 산출하는 단계; 및 상기 위치 정보를 상기 특징 정보와 함께 상기 이동 단말로 전송하는 단계를 더 포함할 수 있다.Deriving the feature information from the event; Calculating location information on the event using GIS information and GPS information; And transmitting the location information together with the feature information to the mobile terminal.
상기 과제를 달성하기 위해 상기의 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기로한 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다.According to another aspect of the present invention, there is provided a computer-readable recording medium storing a program for causing a computer to execute an emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
본 발명에 따르면, 사고 발생 시에 무인 비행체를 이용하여 대응팀이 사고 현장에 빠르게 도착할 수 있다.According to the present invention, when an accident occurs, a team can quickly arrive at an accident site using an unmanned aerial vehicle.
또한, 사고 발생 시에 무인 비행체를 이용하여 대응팀이 사고 현장에서 정확한 정보를 수집하여 적절한 대응 조치를 수행할 수 있다.Also, in case of an accident, the team can use the unmanned aerial vehicle to collect correct information at the accident site and take appropriate countermeasures.
그리고, 사고에 정확하고 빠르게 대처함으로써, 각종 비상 상황으로부터 인명을 안전하게 구출하고 재산 손실을 경감할 수 있는 긴급 대응 서비스를 제공할 수 있다.In addition, by responding to accidents accurately and quickly, it is possible to provide an emergency response service capable of safely rescuing persons from various emergency situations and reducing property loss.
도 1은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 개념도이다.
도 2는 도 1의 무인 비행체의 블록 구성도이다.
도 3은 도 1의 이동 단말의 블록 구성도이다.
도 4는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 무인 비행체의 비행 경로를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 이동 단말을 이용한 긴급 대응 차량의 주행 경로를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 이동 단말에 표시되는 주행 경로를 도시한 도면이다.
도 7은 영상 분석의 일례를 설명하기 위한 도면이다.
도 8은 도 7의 관심 영역에서 도출된 특징 정보의 일례를 도시한 도면이다.
도 9은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 신호 흐름도이다.
도 10은 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 개념도이다.
도 11은 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 신호 흐름도이다.
도 12는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법의 순서도이다.1 is a conceptual diagram of an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
2 is a block diagram of the unmanned aerial vehicle of FIG.
3 is a block diagram of the mobile terminal of FIG.
4 is a diagram illustrating a flight path of an unmanned aerial vehicle in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
5 is a view showing a traveling route of an emergency response vehicle using a mobile terminal in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
6 is a view illustrating a traveling path displayed on a mobile terminal in an emergency response system using an unmanned air vehicle according to an embodiment of the present invention.
7 is a diagram for explaining an example of image analysis.
FIG. 8 is a diagram showing an example of the feature information derived from the ROI in FIG.
9 is a signal flow diagram of an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
10 is a conceptual diagram of an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention.
11 is a signal flow diagram of an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention.
12 is a flowchart of an emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, components and / or sections, it is needless to say that these elements, components and / or sections are not limited by these terms. These terms are only used to distinguish one element, element or section from another element, element or section. Therefore, it goes without saying that the first element, the first element or the first section mentioned below may be the second element, the second element or the second section within the technical spirit of the present invention.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "이루어지다(made of)"는 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms "comprises" and / or "made of" means that a component, step, operation, and / or element may be embodied in one or more other components, steps, operations, and / And does not exclude the presence or addition thereof.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
이때, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하며, 처리 흐름도 도면들의 각 구성과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 구성(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. In this regard, throughout the specification, like reference numerals refer to like elements, and it will be understood that each configuration of the processing flowchart diagrams and combinations of flowchart illustrations may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, so that those instructions, which are executed through a processor of a computer or other programmable data processing apparatus, Thereby creating means for performing functions.
또, 몇 가지 대체 실시예들에서는 구성들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 구성들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 구성들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.It should also be noted that in some alternative embodiments, the functions mentioned in the configurations may occur out of order. For example, the two configurations shown in succession may in fact be performed substantially concurrently, or the configurations may sometimes be performed in reverse order according to the corresponding function.
이하, 본 발명에 대하여 첨부된 도면에 따라 보다 상세히 설명한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 개념도이다. 또한, 도 2는 도 1의 무인 비행체의 블록 구성도이다. 그리고, 도 3은 도 1의 이동 단말의 블록 구성도이다.1 is a conceptual diagram of an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention. 2 is a block diagram of the unmanned aerial vehicle of FIG. 3 is a block diagram of the mobile terminal of FIG.
도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템(10)은 무인 비행체(100) 및 이동 단말(200)을 포함할 수 있다. 여기에서, 무인 비행체(100) 및 이동 단말(200)은 각각 복수개일 수도 있다. 구체적으로, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템(10)을 통해 소방차, 구급차, 경찰차 등을 이용하여 현장에 출동해야 하는 긴급 대응팀에 무인 비행체(100)가 먼저 정보를 수집하고 분석하여 상기 긴급 대응팀의 이동 단말(200)에 정확하고 정밀한 자료를 신속하게 제공할 수 있다.1 to 3, an
무인 비행체(100)는 사람이 탑승하지 않는 날 것(flight things)을 말하며, 긴급 대응을 수행하는 기관에 의해 관리될 수 있다. 이러한 무인 비행체(100)는 수신된 목적지 정보에 기초하여 생성되는 비행 경로에 따라 비행하면서 영상 정보를 획득하며, 상기 영상 정보를 분석하여 목적지까지의 주행 경로를 산출하고, 이러한 정보들을 이동 단말(200)에 전송한다. 여기에서, 목적지 정보는 긴급 대응을 수행하는 기관(예를 들어 경찰서, 소방서 등)에 신고 접수된 내용에 의해 생성되며, 사고가 발생한 현장의 위치에 대한 정보를 포함한다. 이러한 목적지 정보는 긴급 대응을 수행하는 기관의 서버(미도시) 또는 이동 단말(200)에서 무인 비행체(100)로 전송되며, 무인 비행체(100)는 목적지 정보에 따라 사고 현장으로 자동으로 비행하게 된다. 이러한 무인 비행체(100)는 긴급 대응을 수행하는 기관의 서버에 의해 제어될 수도 있고, 이동 단말(200)에 의해 제어될 수도 있다. 또한, 무인 비행체(100)는 촬영된 영상 신호 및 외부에서 전송되는 GPS 신호 등을 이용하여 자체적으로 비행 경로를 수정할 수도 있다.The
도 2에 도시한 바와 같이, 무인 비행체(100)는 비행체 통신부(110), GPS 수신부(120), 비행체 제어부(130), 촬영부(140), 영상 분석부(150), 권한 허용부(160), 비행체 저장부(170) 등을 포함할 수 있다. 2, the
비행체 통신부(110)는 이동 단말(200)과 통신하며, 특히 긴급 대응 기관의 서버(미도시) 또는 이동 단말(200)에서 목적지 정보를 수신한다. 비행체 통신부(110)는 네트워크(50)를 통해 긴급 대응 기관의 서버 또는 이동 단말(200)과 통신하게 된다. 즉, 비행체 통신부(110)가 네트워크(50)를 통해 무인 비행체(100)를 관리하는 긴급 대응 기관과 연결될 수 있다.The flight communication unit 110 communicates with the
GPS 수신부(120)는 GPS 정보를 수신한다. GPS 수신부(120)에서 수신되는 GPS 정보를 이용하여 무인 비행체(100)가 비행 경로를 따라 비행할 수 있고, 긴급 대응 기관의 서버(미도시) 또는 이동 단말(200)이 무인 비행체(100)의 위치를 확인할 수 있다.The GPS receiving unit 120 receives GPS information. The
비행체 제어부(130)는 무인 비행체(100) 및 이의 각 구성요소를 제어한다. 구체적으로, 비행체 제어부(130)는 목적지 정보에 기초하여 비행 경로를 생성하며, GPS 정보에 기초하여 상기 비행 경로에 따라 비행하도록 무인 비행체(100)를 제어할 수 있다. 예를 들어, 비행체 제어부(130)는 목적지 정보에 따라 사고 현장까지의 최단 거리로 비행하도록 비행 경로를 설정할 수 있고, 최단 거리로 설정된 비행 경로에 따라 비행할 수 있다. 이때, GPS 정보를 참조하여 비행체 제어부(130)가 적절한 높이로 비행 경로를 벗어나지 않고 목적지로 비행하도록 무인 비행체(100)를 제어하게 된다.The airplane control unit 130 controls the
또한, 비행체 제어부(130)는 영상 정보를 분석하여 목적지까지의 주행 경로를 산출한다. 예를 들어, 비행체 제어부(130)는 비행 중에 촬영된 영상의 분석 정보를 기초로 목적지까지 가장 빠른 시간 안에 도달할 수 있는 주행 경로를 산출하고, 이를 비행체 통신부(110)를 통해 이동 단말(200)에 전송할 수 있다. 이에 따라, 이동 단말(200)을 이용하고 있는 긴급 대응팀이 가장 빠른 시간 안에 사고 현장으로 도달할 수 있도록 도움을 주게 된다. 특히, 비행체 제어부(130)는 영상 분석 결과를 기초로 주행 경로를 실시간으로 최적화할 수 있다. 예를 들어, 비행체 제어부(130)는 촬영된 영상에서 교통 사고 등이 발생한 경우, 상기 교통 사고가 발생한 도로를 우회할 수 있는 주행 경로를 산출하여 이동 단말(200)에 전송할 수 있다. 바람직하게는, 비행체 제어부(130)는 GIS 정보에 상기 주행 경로를 매핑시켜 비행체 통신부(110)를 통해 이동 단말(200)에 전송할 수 있다. 이에 대한 구체적인 실시예는 후술하여 살펴 보도록 한다.In addition, the airplane control unit 130 analyzes the image information and calculates the travel route to the destination. For example, the flight control unit 130 calculates a traveling route that can reach the destination in the earliest time based on the analysis information of the image photographed during flight, and transmits the traveling route to the
촬영부(140)는 무인 비행체(100)에서 촬영하여 영상을 획득한다. 촬영부(140)에서 촬영된 영상은 이동 단말(200)로 실시간으로 전송될 수 있고, 영상 분석부(150)에서 분석된 후에 영상 데이터와 함께 이동 단말(200)로 전송될 수 있다. 촬영부(140)는 일반 카메라를 포함하는 것이 통상적이나, 야간에도 모니터링 기능을 수행할 수 있도록 적외선 카메라나 열화상 카메라 등을 더 포함할 수 있다. 또한, 촬영부(140)는 색상 추적 모듈(미도시)을 구비할 수 있으며, 이러한 기능에 의해 특정 색상을 가진 객체를 촬영하거나 또는 촬영 대상에서 제외함으로써 영상 정보의 데이터를 줄이거나 영상 정보의 특정화를 이룰 수 있다. 촬영부(140)에서 획득된 영상 정보는 영상 분석부(150)로 전달된다.The photographing unit 140 photographs the
영상 분석부(150)는 영상 정보를 처리하여 영상 데이터를 획득하며, 데이터 전송이 용이하도록 영상을 압축한 압축 포맷 형태로 변환할 수 있다. 압축 포맷 형태의 영상 데이터는 MPEG(Moving Picture Experts Group)-1 또는 MPEG-4 등의 다양한 포맷을 가질 수 있다. 특히, 영상 분석부(150)는 촬영부(140)의 영상을 분석하여 객체를 검출하고, 특정 이벤트를 검출할 수 있다. 여기에서, 객체는 차량, 사람 등 특정 물체를 포함하며, 이벤트(event)는 객체의 위치 변화, 화재 발생 등 특정 상황이 변화는 등 영상의 영상 데이터를 변화시킬 수 있는 모든 상황을 포함한다. 이때, 영상 분석부(150)는 영상 정보에서 관심 영역을 설정하고, 상기 관심 영역에서 검출된 이벤트의 특징 정보를 도출할 수 있다.The image analysis unit 150 processes the image information to acquire image data and convert the image into a compressed format in which the image is compressed to facilitate data transmission. The video data in the form of a compressed format may have various formats such as Moving Picture Experts Group (MPEG) -1 or MPEG-4. In particular, the image analysis unit 150 can detect an object by analyzing the image of the photographing unit 140, and can detect a specific event. Here, the object includes a specific object such as a vehicle or a person, and an event includes all situations in which the image data of the image can be changed, such as a change in the position of the object, a change in a specific situation such as a fire or the like. At this time, the image analyzer 150 may set the region of interest in the image information and derive the feature information of the detected event in the region of interest.
구체적으로, 영상 분석부(150)는 촬영부(140)로부터 입력되는 영상으로부터 검출하고자 하는 객체의 시각적 특징 정보를 추출하는 특징 추출(feature extraction)과 추출된 특징을 이용하여 물체를 검출할 수 있다. 이때, 객체의 검출 시에 아다부스트(AdaBoost) 또는 SVM(Support Vector Machine) 등과 같은 학습기(Learning Machine)를 이용하는 방법과 추출된 특징의 벡터 유사도 등을 이용하는 비학습 방법이 있어 검출하고자 하는 객체 및 배경의 복잡도에 따라 학습 방법과 비학습 방법을 적절히 선택하여 사용할 수 있다. 예를 들어, 영상의 국소적인 특징(local feature)으로 인접한 두 개 이상의 블록 간의 화소(픽셀, pixel) 값의 합의 차, 또는 가중치를 이용하여 가중치 곱의 합을 이용하는 하알-유사 특징(Haar-like feature)을 응용할 수 있다. 하알-유사 특징 추출 시 인접 블록 간의 화소 값의 합의 차를 구하기 위해, 간단한 사각형 특징을 고려한 마스크를 사용한다.Specifically, the image analysis unit 150 can detect an object using feature extraction and feature extraction that extracts visual feature information of an object to be detected from an image input from the photographing unit 140 . At this time, there are a method of using a learning machine such as AdaBoost or SVM (Support Vector Machine) at the time of detecting an object and a non-learning method using vector similarity of extracted features, The learning method and the non-learning method can be appropriately selected and used according to the complexity of the program. For example, a Haar-like feature that uses the sum of weight products using the difference in the sum of pixel values (pixels) between two or more adjacent blocks in a local feature of the image, feature can be applied. To extract the difference between the sum of the pixel values of neighboring blocks in extracting the Hahn-like feature, a mask considering a simple square feature is used.
또한, 영상 분석부(150)는 영상 인식 알고리즘을 이용하여 촬영된 영상에서 객체의 위치 변화를 검출할 수 있다. 예를 들어, 평균 이동(Mean Shift) 알고리즘 또는 입자 필터(Particle Filter) 알고리즘 등을 이용하여 영상으로부터 객체의 움직임을 검출할 수 있다. 물론, 다른 알고리즘을 이용하여 객체의 움직임을 검출할 수 있음은 당업자에게 자명하다 할 것이다.In addition, the image analysis unit 150 can detect a change in the position of the object in the captured image using the image recognition algorithm. For example, the motion of an object can be detected from an image using a mean shift algorithm or a particle filter algorithm. Of course, those skilled in the art will appreciate that other algorithms can be used to detect motion of an object.
여기에서, 평균 이동(Mean Shift) 알고리즘은 영상에서 밀도분포(특징점, 색상)를 기반으로 관심 영역(ROI; Region of Interest) 객체를 고속으로 추적할 수 있게 하며, 초기의 검색 영역의 크기와 위치를 지정하면 반복적인 색 분할 계산에 의해 색상 클러스터가 발생하고, 초기 지정한 색 영역에 기반하여 경계를 결정하여 관심 물체의 움직임을 추출할 수 있다. 또한, 입자 필터(Particle Filter) 알고리즘은 입자를 기반으로 한 칼만 필터의 한 종류로서, 관측된 측정값들과 모델링된 시스템 방정식으로부터 얻은 랜덤 상태변수를 이용하여 현재 상태변수들의 확률 분포를 추정해 나가는 것이다.Here, the mean shift algorithm enables high-speed tracking of a region of interest (ROI) based on density distribution (feature point, color) in an image, , Color clusters are generated by the iterative color division calculation, and the motion of the object of interest can be extracted by determining the boundary based on the initially designated color region. The Particle Filter algorithm is a kind of particle based Kalman filter which estimates the probability distribution of the current state variables by using the observed values and the random state variables obtained from the modeled system equations. will be.
권한 허용부(160)는 무인 비행체(100)를 제어할 수 있는 제어 권한을 외부의 서버나 이동 단말(200)에 허용할 수 있다. 예를 들어, 무인 비행체(100)가 출동 신호를 받고 출발 시에 서버에 의해 조종되다가, 무인 비행체(100)가 사고 현장으로 비행 중이거나 또는 사고 현장에 도착한 경우, 권한 허용부(160)는 서버에서 이동 단말(200)로 자신의 제어 권한을 변경할 수 있다. 또한, 복수의 이동 단말(200)이 있는 경우, 무인 비행체(100)는 각 이동 단말의 GPS 정보를 수신하며, 목적지에서의 영상 정보를 분석하여 이벤트를 추출하고, 권한 허용부(160)는 상기 GPS 정보 및 이벤트에 기초하여 상기 무인 비행체(100)를 원격으로 제어하는 이동 단말(100)의 제어 권한을 다른 이동 단말로 변경할 수 있다.The authority permitting unit 160 may allow an external server or the
비행체 저장부(170)는 외부로부터 수신되는 각종 정보, 데이터를 저장하며, 촬영부(140)에서 촬영된 영상, 영상 분석부(150)에서 분석된 영상 데이터 등 무인 비행체(100)에서 생산된 각정 정보, 데이터를 저장할 수 있다. 특히, GIS 정보를 비행체 통신부(110)를 통해 외부에서 수신할 수도 있으나, 비행체 저장부(170)에 GIS 정보를 저장할 수도 있다. 비행체 제어부(130)는 비행체 저장부(170)에 저장된 GIS 정보에 주행 경로를 매핑시켜 이동 단말(200)에 전송할 수 있으므로, 네트워크(50)를 통해 GIS 정보에 접속할 수 없는 경우에도 안정적으로 이동 단말(200)에 최적의 주행 경로를 제공할 수 있다.The flight body storage unit 170 stores various information and data received from the outside and stores various types of information such as images captured by the photographing unit 140 and image data analyzed by the image analysis unit 150, Information, and data. In particular, the GIS information may be received externally via the flight communication unit 110, but GIS information may be stored in the flight object storage unit 170. The flight control unit 130 can map the traveling route to the GIS information stored in the flight object storage unit 170 and transmit the same to the
이동 단말(200)은 네트워크(50)를 통해 무인 비행체(100)에 접속이 가능하며, 무인 비행체(100)로부터 주행 경로, 이벤트 등 각종 정보를 수신하고, 정밀자료 수십을 위해 이동 단말(200)이 직접 무인 비행체(100)를 조종할 수 있다. 이러한 이동 단말(200)은 HTML, XML 등 웹 페이지의 내용을 표시할 수 있는 웹 브라우저(넷스케이프, 인터넷 익스플로러, 크롬 등)를 가질 수 있다. 이동 단말(200)은 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone: Personal Communications Services phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000) 등 일반적인 이동 통신 단말, 2G/3G/4G, 와이브로 무선망 서비스가 가능한 단말, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA: Personal Digital Assistant), 스마트폰(Smart phone), 왑폰(WAP phone: Wireless application protocol phone) 등 네크워크(50)에 접속하기 위한 사용자 인터페이스를 갖는 모든 유무선 가전/통신 장치를 포괄적으로 의미할 수 있으며, IEEE 802.11 무선 랜 네트워크 카드 등의 무선랜 접속을 위한 인터페이스가 구비된 기기일 수 있다. 또한, 이동 단말(200)은 이동 통신 단말 이외에 컴퓨터, 노트북 등의 정보 통신 기기이거나 이를 포함하는 장치일 수도 있다. 즉, 차량 등에 싣거나 사람이 직접 휴대가 가능하며, 네트워크(50)를 통해 무인 비행체(100)와 통신이 가능한 모든 유무선 가전/통신 장치를 포함할 수 있다.The
도 3에 도시한 바와 같이, 이동 단말(200)은 단말 입력부(210), 단말 통신부(220), 단말 제어부(230), 단말 출력부(240), 단말 저장부(250), 인증부(260), GPS 수신부(270) 등을 포함할 수 있다. 3, the
단말 입력부(210)는 이동 단말(200)의 사용자(21) 등이 정보를 입력 및 선택하는 입력 인터페이스로써, 무인 비행체(100)에 대한 명령 정보를 입력할 수 있다. 단말 입력부(210)는 버튼, 휠, 조그 셔틀 등을 구비하여 사용자(21)로부터 명령을 입력받을 수 있다. 또한, 디스플레이가 터치 스크린 기능을 제공하는 경우 디스플레이가 단말 입력부(210)의 역할을 수행할 수도 있다. 또한, 단말 입력부(210)는 그 자체만으로 하나의 장치일 수 있는데 예를 들어, 무선 리모콘이 단말 입력부(210)의 역할을 수행할 수 있다. 즉, 무선 리모콘에 구비된 버튼 및 휠 등을 이용하여 사용자(21)는 정보를 입력할 수 있다. 이러한 경우, 무선 리모콘을 조작하여 사용자(21)는 무인 비행체(100)의 비행을 제어할 수 있다. 또한, 단말 입력부(210)는 음성 등을 입력할 수 있는 마이크 등을 더 포함할 수 있다.The terminal input unit 210 is an input interface through which the
단말 통신부(220)는 무인 비행체(100)와 무선으로 통신하는 역할을 하며, 구체적으로, 단말 통신부(220)와 비행체 통신부(110)가 네트워크(50)를 통해 연결된다. 이러한 단말 통신부(220)는 긴급 대응 기관의 서버(미도시)와 연결되어 상기 서버와 각종 정보를 송수신할 수 있다. 또한, 각 이동 단말(200)의 단말 통신부(220)가 서로 연결되어 각종 정보를 송수신할 수 있다.The terminal communication unit 220 wirelessly communicates with the
단말 제어부(230)는 무인 비행체를 원격으로 제어할 수 있으며, 사용자(21)가 단말 입력부(210)를 통해 입력한 명령 정보에 따라 무인 비행체를 원격으로 제어할 수 있다. 또한, 단말 제어부(230)는 이동 단말(200) 및 이의 각 구성요소를 제어한다. 구체적으로, 단말 제어부(230)는 무인 비행체(100)에서 생성되어 전송된 주행 경로를 단말 출력부(240)에 표시하여 사용자(21)에게 안내할 수 있다. 예를 들어, 단말 제어부(230)는 무인 비행체(100)에서 생성되어 전송된 주행 경로에 GIS 정보를 함께 표시하여 단말 출력부(240)에 출력할 수 있다. 물론, 전술한 바와 같이, 무인 비행체(100)에서 주행 경로에 GIS 정보를 매핑시켜 전송하고, 단말 제어부(230)가 이를 단말 출력부(240)에 출력할 수도 있다.The terminal control unit 230 can remotely control the unmanned aerial vehicle and can control the unmanned aerial vehicle remotely according to the command information inputted by the
단말 출력부(240)는 사용자(21) 등에게 정보를 표시하여 제공하는 역할을 한다. 단말 출력부(240)는 경고음이나 음성 등의 청각적 표시 수단이나 시각적 표시 수단일 수 있다. 예를 들어, 단말 출력부(240) 소리를 출력할 수 있는 스피커를 포함할 수 있으며, 또한, 문자, 기호 등을 디스플레이할 수 있는 LCD 모니터나 LED 등과 같은 디스플레이 모듈을 포함할 수 있다.The terminal output unit 240 serves to display and provide information to the
단말 저장부(250)는 외부로부터 수신되는 각종 정보, 데이터를 저장하며, 특히, 무인 비행체(100)에서 생산된 각정 정보, 데이터를 수신하여 저장할 수 있다. 특히, 단말 저장부(250)에 GIS 정보를 저장할 수도 있다. 단말 제어부(230)는 단말 저장부(250)에 저장된 GIS 정보에 무인 비행체(100)에서 전송된 주행 경로를 매핑시켜 단말 출력부(240)에서 출력할 수 있다. 물론, 전술한 바와 같이, 무인 비행체(100)에서 GIS 정보에 주행 경로를 매핑시켜 이동 단말(200)로 전송할 수도 있고, 이러한 경우에 단말 저장부(250)는 GIS 정보에 주행 경로를 매핑시킨 정보를 저장하게 될 것이다.The terminal storage unit 250 stores various information and data received from the outside, and can receive and store the information and data generated by the unmanned
인증부(260)는 무인 비행체(100)에 접속할 수 있는 권한을 인증하는 역할을 한다. 예를 들어, 인증부(260)를 통해 사용자(21) 등의 고유 인증 모듈의 색인자 또는 비밀번호를 통해 무인 비행체(100)에 접속할 수 있는 권한을 인증한다. 인증부(260)는 텍스트파일 인증모듈(mod_auth), Berkeley DB 인증모듈(mod_auth_db), DBM인증모듈 (mod_auth_dbm), Anonymous 인증모듈(mod_auth_anon), PostgreSQL인증모듈, XNS 인증 서비스 중 적어도 하나의 인증 프로토콜을 이용하여 사용자를 인증하게 되나, 이에만 제한되지 않음은 당업자에게 자명하다 할 것이다. 인증부(260)에 의해 인증이 된 경우에만 이동 단말(200)이 무인 비행체(100)에 접속할 수 있으므로, 정보의 안전성, 기밀성 등을 유지할 수 있다.The authentication unit 260 serves to authenticate the authority to access the unmanned
GPS 수신부(270)는 GPS 정보를 수신한다. GPS 수신부(270)에서 수신되는 GPS 정보를 이용하여 이동 단말(200)이 주행 경로를 따라 이동할 수 있고, 긴급 대응 기관의 서버(미도시) 또는 무인 비행체(100)가 이동 단말(200)의 위치를 확인할 수 있다.The GPS receiver 270 receives the GPS information. The
도 4는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 무인 비행체의 비행 경로를 도시한 도면이다. 또한, 도 5는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 이동 단말을 이용한 긴급 대응 차량의 주행 경로를 도시한 도면이다. 그리고, 도 6은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템에서 이동 단말에 표시되는 주행 경로를 도시한 도면이다.4 is a diagram illustrating a flight path of an unmanned aerial vehicle in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention. 5 is a view showing a traveling route of an emergency response vehicle using a mobile terminal in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention. 6 is a diagram illustrating a traveling route displayed on a mobile terminal in an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
도 4를 참조하면, 소방서 등에 화재 신고가 접수되면, 소방서 등의 관리 하에 있는 무인 비행체(100)가 먼저 화재 현장(D)으로 비행하게 된다. 즉, 신고 접수시 무인 비행체(100)로 목적지 정보가 전송되며, 무인 비행체(100)가 수신된 목적지 정보에 기초하여 비행 경로를 생성하고, 상기 비행 경로에 따라 화재 현장(D)으로 자동으로 비상하여 이동하게 된다.Referring to FIG. 4, when a fire report is received in a fire department or the like, the
여기에서, 무인 비행체(100)는 화재 현장(D)으로 직선 비행하는 최단 거리의 비행 경로(P1)를 생성하여 비행하는 것이 일반적이다. 다만, 비행 거리나 비행 시간, 교통 상황, 이동 단말(200)의 위치 등 여러 상황을 고려하여 무인 비행체(100)가 비행하면서 자체적으로 비행 경로를 수정하면서 비행할 수도 있을 것이다.Here, it is general that the
그리고, 무인 비행체(100)는 비행 경로에 따라 비행하면서 촬영부(140)에서 영상을 촬영하고, 영상 분석부(150)에서 영상을 분석하여 특이 상황을 확인한다. 촬영부(140)에서 촬영된 영상 및/또는 영상 분석부(150)에서 분석된 영상 정보는 비행체 통신부(110)를 통해 이동 단말(200)에 전송된다. Then, the
이때, 네트워크(50)의 속도 등을 고려하여 영상 분석부(150)에서 이벤트가 검출된 영상 등 특이 상황이라고 판단되는 영상만을 비행체 제어부(130)가 걸러 내어 이동 단말(200) 등으로 전송할 수 있다. 예를 들어, 도 4에서, 화재 현장(D)으로 출동하려는 소방차(20)가 교통 체증 등을 피해 이동할 수 있도록, 무인 비행체(100)는 영상에서 차량(V) 등이 정체되어 있는 상태가 찍힌 도로 영상을 이동 단말(200)에 전송하여 이동 단말(200)의 사용자에게 정확한 정보를 제공할 수 있다.At this time, in consideration of the speed of the
도 5를 참조하면, 무인 비행체(100)는 비행 경로에 따라 비행하면서 촬영된 영상을 분석하여 목적지까지의 주행 경로를 산출한다. 소방차(20)의 주행 경로는 소방차(20)에 탑재된 내비게이션 등을 이용할 수도 있으나, 촬영부(140)에서 촬영된 영상을 이용하여 비행체 제어부(130)가 실시간으로 최적의 주행 경로(P2)를 도출할 수 있다. Referring to FIG. 5, the
예를 들어, 도 5에서, 무인 비행체(100)는 촬영된 영상을 분석하여 주행 경로를 산출하더라도, 변동되는 교통 상황 등을 고려하여 실시간으로 주행 경로(P2)를 최적화할 수 있다. 최적화된 주행 경로(P2)는 네트워크(50)를 통해 이동 단말(200)에 실시간으로 전송되며, 이러한 주행 경로(P2)는 이동 단말에 표시된다. 이때, 무인 비행체(100)에서 이동 단말(200)로 최적의 주행 경로(P2)만 전송할 수도 있고, GIS 정보에 상기 최적의 주행 경로(P2)를 매핑시켜 전송할 수도 있다.For example, in FIG. 5, even when the
도 6을 참조하면, 목적지(B34)까지의 무인 비행체(100)에서 산출된 최적의 주행 경로(P2)가 이동 단말(200)에 전송되어 지도(M) 상에 표시되어 있다. 이때, 상술한 바와 같이, 지도(M)는 GIS 정보를 이용할 수 있으며, 이러한 GIS 정보는 이동 단말(200)에 내장되어 있을 수도 있고, 최적의 주행 경로(P2)가 매핑되어 있는 GIS 정보가 무인 비행체(100)에서 전송될 수도 있다. 도 6에 도시한 주행 경로(P2)는 실시간으로 변경될 수 있으며, 이동 단말(200)에 실시간으로 반영될 수 있다.Referring to FIG. 6, the optimal travel route P2 calculated by the
도 7은 영상 분석의 일례를 설명하기 위한 도면이다. 또한, 도 8은 도 7의 관심 영역에서 도출된 특징 정보의 일례를 도시한 도면이다.7 is a diagram for explaining an example of image analysis. FIG. 8 is a diagram showing an example of the feature information derived from the ROI in FIG.
도 7을 참조하면, 무인 비행체(100)는 목적지 정보에 따라 사고 현장으로 자동 출동하며, 목적지의 상공에서 촬영부(140)에서 촬영된 영상은 영상 분석부(150)에서 분석된다. 이때, 영상 분석부(150)는 목적지의 영상 정보(I)에서 관심 영역(ROI)을 설정하고, 상기 관심 영역(ROI)에서 객체(O)를 검출할 수 있다. 즉, 영상 분석부(150)는 목적지의 영상 정보(I)를 분석하여 이벤트를 검출할 수 있으며, 관심 영역(ROI)을 설정하여 사람 등 타겟이 되는 객체(O)를 추적할 수 있다. 이때, 비행체 제어부(130)는 GIS 정보와 GPS 정보를 이용하여 이벤트에 대한 위치 정보를 산출할 수 있다.Referring to FIG. 7, the
구체적으로, 영상 분석부(150)는 영상에서 영상의 밝기(brightness) 데이터, 색상(color) 데이터 및 모션(motion) 데이터 중 적어도 하나를 검출할 수 있으며, 상기 검출된 밝기 데이터, 색상 데이터 및 모션 데이터 중 적어도 하나의 데이터를 임계 밝기 데이터, 임계 색상 데이터, 임계 모션 데이터 중 적어도 하나의 대응되는 데이터와 비교하여 이벤트를 검출할 수 있다. Specifically, the image analysis unit 150 may detect at least one of brightness data, color data, and motion data of the image in the image, and may detect at least one of the detected brightness data, The at least one of the data may be compared with at least one of the threshold brightness data, the threshold color data, and the threshold motion data to detect the event.
예를 들어, 연기의 발생이나, 사람 또는 어떤 물체가 나타나 배경이 어두워지는 경우, 영상의 밝기 데이터가 감소할 수 있다. 이러한 특징을 이용하여 영상 분석부(150)는 밝기 데이터가 미리 설정된 밝기 데이터의 임계값을 초과하여 변동된 경우에 연기의 발생이나 객체의 이동이라는 이벤트를 검출할 수 있다. For example, when smoke occurs, or when a person or an object appears and the background becomes dark, the brightness data of the image may decrease. Using this feature, the image analyzer 150 can detect an event such as the generation of smoke or the movement of the object when the brightness data exceeds the preset threshold value of the brightness data.
또한, 영상 내에 일정 수준 이상의 적색 및 황색 계열의 색체 데이터가 존재하고 있다면 화염이 번지고 있는 상황으로 판단할 수 있다. 이러한 특징을 이용하여 영상 분석부(150)는 색상 데이터 중 적색 및 황색 데이터의 비중이 미리 설정된 임계 비중보다 큰 경우, 화재 발생이라는 이벤트를 검출할 수 있다. In addition, if there are color data of red and yellow series in a certain level or more in the image, it can be judged that the flame is spreading. Using this feature, the image analyzer 150 can detect an event of fire occurrence when the specific gravity of the red and yellow data among the color data is greater than a predetermined threshold specific gravity.
그리고, 영상 내에서 모션이 감지가 될 때, 또는 모션의 정도가 이미 저장된 기준 모션 데이터의 움직임 정도보다 더 크다면, 객체가 움직이거나 화염이 번지는 상황이라는 이벤트를 검출할 수 있다.And, if the motion is detected in the image, or if the degree of motion is greater than the degree of motion of the stored reference motion data, an event can be detected that the object is moving or the flame is worn.
이렇게 영상 분석부(150)에서 검출된 이벤트는 이동 단말(200)에 전송되어 긴급 대응팀이 신속하게 정보를 판단할 수 있는 기초 자료가 되어 빠른 대응 조치를 수립하는데 도움이 된다.The event detected by the image analyzing unit 150 is transmitted to the
도 8을 참조하면, 영상 분석부(150)는 관심 영역(ROI)에서 검출된 객체(O)의 특징 정보를 도출할 수 있다. 즉, 영상 분석부(150)는 관심 영역(ROI)에서 검출된 이벤트의 특징 정보를 도출하여 이동 단말(200)에 전송할 수 있다. Referring to FIG. 8, the image analyzer 150 may extract the feature information of the object O detected in the region of interest (ROI). That is, the image analysis unit 150 may extract the feature information of the event detected in the ROI and transmit the feature information to the
예를 들어, 영상 분석부(150)는 영상에 설정된 관심 영역(ROI)에서 검출하고자 하는 객체(O)의 특징 정보를 추출할 수 있다. 일례로, 영상 정보에 나타난 객체(O)의 초기 위치에서 초기 탐색 윈도우 영역을 지정한 후, 색상 확률 분포를 계산하고 탐색 윈도우 영역 내부, 외부에서 객체의 중심 픽셀을 찾고, 그 뒤 둘을 비교하여 수렴하는 경우에 픽셀 위치를 반환하고, 탐색 윈도우 사이즈를 줄인다. 위와 같은 단계를 반복적으로 수행하여 움직이는 객체(O)의 픽셀을 추정하고, 이를 보정 테이블을 이용하여 실제 스케일로 변환한 뒤 출력하는 등의 방법으로 객체(O)의 크기 등을 추정할 수 있다. 이에, 사람인 경우, 객체(O)의 크기 등을 고려하여 성인인지 소아인지 등을 추정할 수 있고, 객체(O)에서 머리카락이 차지하는 크기 등을 탐색하여 남성 또는 여성 등을 추정할 수 있다.For example, the image analyzer 150 may extract the feature information of the object O to be detected in the ROI set in the image. For example, after designating an initial search window area at the initial position of the object O shown in the image information, a color probability distribution is calculated, a central pixel of the object is searched in the inside and outside of the search window area, Return the pixel position, and reduce the search window size. It is possible to estimate the size of the object O by repeating the above steps and estimating the pixels of the moving object O and converting it into the actual scale using the correction table and then outputting it. Accordingly, in the case of a person, it is possible to estimate whether the adult or child can be estimated in consideration of the size of the object O, etc., and to estimate the size of the hair in the object O to estimate a male or female.
이때, 비행체 제어부(130)는 GIS 정보와 GPS 정보를 이용하여 이벤트에 대한 위치 정보를 산출할 수 있는데, 비행체 제어부(130)는 상기 위치 정보를 상기 특징 정보와 함께 비행체 통신부(110)를 통해 이동 단말(200)로 전송할 수 있다. 이를 통해, 이동 단말(200)에서 객체(O)의 특징과 함께 위치도 함께 알 수 있어 구조를 위한 물리적인 이동로를 확보하는데 필요한 정보를 얻을 수 있다.At this time, the flight control unit 130 may calculate position information on the event using the GIS information and the GPS information. The flight control unit 130 transmits the position information together with the feature information through the flight communication unit 110 To the terminal 200. Accordingly, the
도 9은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 신호 흐름도이다.9 is a signal flow diagram of an emergency response system using an unmanned aerial vehicle according to an embodiment of the present invention.
도 9를 참조하면, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템(10)은 무인 비행체(UAV, 100)에서 획득하고, 생성되는 여러 정보를 이동 단말(200)에 전송함으로써, 이동 단말(200)의 사용자가 정밀 정확한 현장 정보 수집을 할 수 있고, 대응팀이 신속한 대응 조치를 수립할 수 있게 된다. 여기에서, 이동 단말(200)은 인증이 이루어져야 무인 비행체(100)에 접속할 수 있는 것이 바람직하다(S210).Referring to FIG. 9, an
무인 비행체(UAV, 100)는 목적지 정보를 외부에서 수신하면(S110), 자동으로 비행 경로를 생성하여 목적지로 비행하게 된다(S120). 그리고, 무인 비행체(100)는 목적지까지 비행 중에 촬영할 뿐만 아니라, 목적지에 도착한 후에도 목적지의 상공에서도 계속하여 현장을 촬영한다(S130). 무인 비행체(100)에서 촬영된 영상은 무인 비행체(100)에 접속할 권한이 있는 이동 단말(200)에 전송될 수 있으며, 무인 비행체(100)는 모든 영상이 아니라, 영상 분석을 통해 이벤트가 검출된 영상만을 보낼 수 있다. 이렇게 전송된 영상은 이동 단말(200에서 표시된다(S220).When the
또한, 무인 비행체(100)에서 촬영된 영상은 무인 비행체(100)에서 자체적으로 분석하여 영상 데이터를 획득할 수 있으며(S140), 상기 영상 데이터는 무인 비행체(100)에서 이동 단말(200)로 전송될 수 있고, 이동 단말(200)에서 영상과 함께 영상 데이터도 표시될 수 있다(S220). 특히, 무인 비행체(100)는 분석된 영상을 기초로 실시간으로 목적지까지의 최적의 주행 경로를 산출할 수 있고(S150), 상기 최적의 주행 경로는 이동 단말(200)에 전송되어 표시된다(S230).The image captured by the
또한, 무인 비행체(100)에서 영상 분석을 통해 이벤트를 검출할 수 있으며(S160), 이러한 이벤트에 대한 정보는 이동 단말(200)에 전송되어 표시될 수 있다(S240).In addition, the unmanned
그리고, 무인 비행체(100)에서 GIS 정보와 GPS 정보를 이용하여 이벤트에 대한 위치 정보를 산출할 수 있고, 관심 영역(ROI)에서 검출된 이벤트의 특징 정보를 도출할 수 있다(S170). 위치 정보 및 특징 정보는 무인 비행체 (100)에서 이동 단말(200)로 전송되어 이동 단말(200)에 상기 위치 정보 및 특징 정보가 표시될 수 있다(S250). 이동 단말(200)에서 이벤트의 특징과 함께 위치도 함께 알 수 있어 이동 단말(200)의 사용자가 정밀한 자료를 수집하는데 도움을 받을 수 있다.Then, the
도 10은 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 개념도이다.10 is a conceptual diagram of an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention.
도 10을 참조하면, 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템은 복수의 무인 비행체(100)와 복수의 이동 단말(200)을 포함할 수 있다. 도 10에서, 세 대의 무인 비행체(100a, 100b, 100c)와 두 대의 이동 단말(200a, 200b)만 도시되어 있으나, 이에만 제한되지 않음은 당업자에게 자명하다 할 것이다. 이하에서는 도 10을 참조하여 설명하도록 한다. 또한, 이하에서 각 무인 비행체(100a, 100b, 100c) 및 각 이동 단말(200a, 200b)의 구체적인 구성요소에 대해서는 상술한 바와 같으므로 생략하도록 한다.Referring to FIG. 10, an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention may include a plurality of unmanned aerial vehicles (100) and a plurality of mobile terminals (200). In FIG. 10, only three unmanned aerial vehicles (100a, 100b, 100c) and two mobile terminals (200a, 200b) are shown but it should be apparent to those skilled in the art. The following description will be made with reference to FIG. Specific components of the respective unmanned
무인 비행체(100)는 복수개를 포함하며, 각 무인 비행체(100a, 100b, 100c)는 응급 상황 발생 시, 사고 현장에 공중으로 비행을 하여 이동한다. 이때, 최단 시간 대응을 위해, 각 무인 비행체(100a, 100b, 100c)는 직선으로 이동을 할 수 있으나, 상황에 따라 목적지까지의 비행 경로를 수정하면서 이동할 수 있다. 바람직하게는, 각 무인 비행체(100a, 100b, 100c)가 서로 다른 비행 경로로 비행하여 최적의 주행 경로를 산출할 수 있다. The
이동 단말(200)은 복수개를 포함하며, 각 이동 단말(200a, 200b)이 적어도 하나의 무인 비행체(100)에 접속할 수 있다. 각 이동 단말(200a, 200b)이 복수개의 무인 비행체(100a, 100b, 100c)를 조종할 수도 있고, 하나의 무인 비행체(100)만 조종할 수도 있다. 또한, 각 무인 비행체(100a, 100b, 100c)는 하나의 이동 단말(200)에 의해 제어될 수도 있고, 복수의 이동 단말(200)에 의해 제어될 수도 있다.The
바람직하게는, 하나의 무인 비행체(100)가 하나의 이동 단말(200)에 의해 제어되는 것이 바람직하다 할 것이다. 이를 위해, 복수개의 이동 단말(200) 중 인증부(260)에 의해 무인 비행체(100)에 접속할 수 있는 권한을 최초로 인증받은 이동 단말(200)이 상기 무인 비행체(100)를 원격으로 제어할 수 있다. 또한, 무인 비행체(100)는 각 이동 단말(200)의 GPS 정보를 수신하며, 목적지에서의 영상 정보를 분석하여 이벤트를 추출하고, 상기 GPS 정보 및 이벤트에 기초하여 상기 무인 비행체(100)를 원격으로 제어하는 이동 단말(200)의 제어 권한을 다른 이동 단말(200)로 변경할 수 있다. 예를 들어, 최초로 무인 비행체 100a에 접속할 수 있는 권한을 인증한 이동 단말 200a가 있더라도, 상기 무인 비행체 100a는 각 이동 단말 200a, 200b의 위치, 사고 현장에 안전하고 빠르게 접근 가능한 이동로에 인접한 이동 단말 200b의 위치를 고려하여 상기 무인 비행체 100a를 원격으로 제어하는 제어 권한을 이동 단말 200a에서 이동 단말 200b로 변경할 수 있다.Preferably, one unmanned
도 11은 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템의 신호 흐름도이다.11 is a signal flow diagram of an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention.
도 11을 참조하면, 본 발명의 다른 실시예에 따른 무인 비행체를 이용한 긴급 대응 시스템은 무인 비행체(100c)에서 획득하고, 생성되는 여러 정보를 각 이동 단말(200a, 200b)에 전송함으로써, 각 이동 단말(200a, 200b)의 사용자가 정밀 정확한 현장 정보 수집을 할 수 있고, 대응팀이 신속한 대응 조치를 수립할 수 있게 된다.11, an emergency response system using an unmanned aerial vehicle according to another embodiment of the present invention is acquired by the
여기에서, 각 이동 단말(200a, 200b)은 인증이 이루어져야 무인 비행체(100)에 접속할 수 있으며(S21, 31), 제일 먼저 인증이 이루어진 이동 단말(200a)이 제어 권한을 획득할 수 있다(S23).In this case, each of the
또한, 무인 비행체(100c)는 비행 중에 촬영한 영상을 각 이동 단말(200a, 200b)에 전송하며, 영상과 함께 영상을 분석한 영상 데이터(예를 들어, 이벤트의 위치 정보, 이벤트의 특징 정보 등)를 전송할 수 있다(S13). In addition, the
그리고, 무인 비행체(100c)의 비행 중, 무인 비행체(100c)는 각 이동 단말(200a, 200b)의 GPS 정보를 수신할 수 있고(S25, S33), 상기 GPS 정보(제1 및 제2 GPS 정보)와 무인 비행체(100c)에서 촬영하여 얻은 이벤트를 기초로 하여 상기 무인 비행체(100c)를 제어할 수 있는 권한을 유지하거나 변경할 수 있다(S17). During the flight of the
예를 들어, 여러 건물에 화재가 발생하였는데 이 중 한 건물에 부상자가 있는 경우, 무인 비행체(100c)를 현재 제어할 수 있는 이동 단말(200a)의 사용자가 다른 건물에 투입되어 있고, 다른 이동 단말(200b)의 사용자가 부상자가 있는 건물에 가까이 있으면, 상기 무인 비행체(100c)는 제어 권한을 현재 이동 단말(200a)에서 다른 이동 단말(200b)로 변경할 수 있다(S35). 그런 후에, 제어 권한을 받은 이동 단말(200b)의 사용자는 무인 비행체(100c)를 조작하여 보다 정밀한 자료를 수집하여 보다 실질적인 대응 조치를 수립할 수 있을 것이다. 물론, 무인 비행체(100c)가 아닌 각 이동 단말(200a, 200b) 간에 무인 비행체(100c)의 제어 권한을 이전하도록 운용할 수도 있다.For example, when a fire occurs in a plurality of buildings, and one of the buildings is injured, a user of the
도 12는 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법의 순서도이다.12 is a flowchart of an emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention.
도 12를 참조하면, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법은, 무인 비행체(100)가 목적지 정보를 수신하고(S1), 상기 목적지 정보에 기초하여 비행 경로를 생성하며(S2), 상기 비행 경로에 따라 비행한다(S3). 그리고, 무인 비행체(100)가 비행 중에 촬영하여 영상 정보를 획득하고(S4), 상기 영상 정보를 분석하며(S5), 상기 분석된 영상 정보에 기초하여 목적지까지의 주행 경로를 산출하고(S6), 상기 주행 경로를 이동 단말(200)로 전송함으로써(S7), 이동 단말(200)을 사용하는 긴급 대응팀보다 무인 비행체(100)가 먼저 현장에 이동하면서 현장으로의 이동로를 확보하는데 도움을 주게 된다.Referring to FIG. 12, in an emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention, the
또한, 무인 비행체(100)는 목적지에서 영상 정보를 분석하고, 상기 영상 정보에서 이벤트를 추출하며, 상기 영상 정보 및 이벤트를 이동 단말(200)로 전송함으로써, 이동 단말(200)을 사용하는 긴급 대응팀에게 여러 정보를 수집하여 제공할 수 있다.In addition, the
또한, 무인 비행체(100)는 이벤트에서 특징 정보를 도출하고, GIS 정보 및 GPS 정보를 이용하여 상기 이벤트에 대한 위치 정보를 산출하며, 상기 위치 정보를 상기 특징 정보와 함께 이동 단말로 전송함으로써, 획득되는 정보를 분석하여 긴급 대응팀에게 필요한 정보를 제공할 수 있다.In addition, the
그리고, 화재 현장 등 긴급 대응팀이 접근하기 매우 어려운 위험 장소에서 이동 단말(200)에서 무인 비행체(100)를 조작하여 보다 정밀한 자료를 얻을 수 있다. 이러한 무인 비행체(100)를 조작할 수 있는 권한은 이동 단말(200) 간에 이전할 수도 있고, 무인 비행체(100)에서 얻은 정보를 분석하여 자체적으로 다른 이동 단말(200)로 변경할 수도 있다.Further, more accurate data can be obtained by operating the unmanned aerial vehicle (100) at the mobile terminal (200) in a dangerous place where the emergency response team such as a fire scene is very difficult to access. The right to operate the unmanned
한편, 본 발명의 일 실시예에 따른 무인 비행체를 이용한 긴급 대응 방법은 소프트웨어 및 하드웨어에 의해 하나의 모듈로 구현 가능하며, 전술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 롬(ROM), 플로피 디스크, 하드 디스크 등의 자기적 매체, CD, DVD 등의 광학적 매체 및 인터넷을 통한 전송과 같은 캐리어 웨이브와 같은 형태로 구현된다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네크워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the emergency response method using an unmanned aerial vehicle according to an embodiment of the present invention can be implemented as one module by software and hardware, and the embodiments of the present invention described above can be created as a program that can be executed in a computer, And can be implemented in a general-purpose computer that operates the program using a computer-readable recording medium. The computer-readable recording medium is implemented in the form of a carrier wave such as a ROM, a floppy disk, a magnetic medium such as a hard disk, an optical medium such as a CD or a DVD, and a transmission through the Internet. In addition, the computer-readable recording medium may be distributed to a network-connected computer system so that computer-readable codes may be stored and executed in a distributed manner.
그리고, 본 발명의 실시예에서 사용되는 구성요소 또는 '~부'는 메모리 상의 소정 영역에서 수행되는 태스크, 클래스, 서브 루틴, 프로세스, 오브젝트, 실행 쓰레드, 프로그램과 같은 소프트웨어(software)나, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)로 구현될 수 있으며, 또한 상기 소프트웨어 및 하드웨어의 조합으로 이루어질 수도 있다. 상기 구성요소 또는 '~부'는 컴퓨터로 판독 가능한 저장 매체에 포함되어 있을 수도 있고, 복수의 컴퓨터에 그 일부가 분산되어 분포될 수도 있다.The components or parts used in the embodiments of the present invention may be software such as a task, a class, a subroutine, a process, an object, an execution thread, a program, field-programmable gate array (ASIC), or an application-specific integrated circuit (ASIC), or a combination of the above software and hardware. The components or parts may be included in a computer-readable storage medium, or a part of the components may be distributed to a plurality of computers.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
10: 무인 비행체를 이용한 긴급 대응 시스템
100: 무인 비행체
110: 비행체 통신부
120: GPS 수신부
130: 비행체 제어부
140: 촬영부
150: 영상 분석부
160: 권한 허용부
170: 비행체 저장부
200: 이동 단말
210: 단말 입력부
220: 단말 통신부
230: 단말 제어부
240: 단말 출력부
250: 단말 저장부
260: 인증부
270: GPS 수신부10: Emergency response system using unmanned aerial vehicle
100: unmanned vehicle
110: Flight communication unit 120: GPS receiver
130: Flight control unit 140:
150: Image analysis unit 160: Authorization unit
170:
200: mobile terminal
210: terminal input unit 220: terminal communication unit
230 terminal control unit 240 terminal output unit
250: terminal storage unit 260: authentication unit
270: GPS receiver
Claims (10)
상기 무인 비행체로부터 상기 주행 경로 및 영상 정보를 수신하는 이동 단말을 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.An unmanned aerial vehicle that acquires image information while flying according to a flight path generated based on the received destination information, and calculates a travel route to the destination by analyzing the image information; And
And a mobile terminal for receiving the traveling route and the image information from the unmanned aerial vehicle.
상기 무인 비행체는,
상기 이동 단말과 통신하며, 상기 목적지 정보를 수신하는 비행체 통신부;
GPS 정보를 수신하는 GPS 수신부; 및
상기 목적지 정보에 기초하여 상기 비행 경로를 생성하며, 상기 GPS 정보에 기초하여 상기 비행 경로에 따라 비행하도록 제어하는 비행체 제어부를 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.The method according to claim 1,
In the unmanned aerial vehicle,
A flight communication unit that communicates with the mobile terminal and receives the destination information;
A GPS receiver for receiving GPS information; And
And a flight control unit for generating the flight path based on the destination information and controlling the flight in accordance with the flight path based on the GPS information.
상기 무인 비행체는,
촬영부; 및
상기 촬영부의 영상을 분석하여 이벤트를 검출하는 영상 분석부를 더 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.3. The method of claim 2,
In the unmanned aerial vehicle,
A photographing unit; And
And an image analyzing unit for analyzing the image of the photographing unit to detect an event.
상기 비행체 제어부는, 상기 이벤트에 기초하여 상기 주행 경로를 실시간으로 최적화하는, 무인 비행체를 이용한 긴급 대응 시스템.The method of claim 3,
Wherein the airplane control unit optimizes the traveling route in real time based on the event.
상기 영상 분석부는, 상기 목적지의 영상 정보에서 관심 영역을 설정하고, 상기 관심 영역에서 검출된 이벤트의 특징 정보를 도출하는, 무인 비행체를 이용한 긴급 대응 시스템.The method of claim 3,
Wherein the image analyzing unit sets a region of interest in the image information of the destination and derives feature information of the detected event in the region of interest.
상기 비행체 제어부는, GIS 정보와 상기 GPS 정보를 이용하여 상기 이벤트에 대한 위치 정보를 산출하고, 상기 위치 정보를 상기 특징 정보와 함께 상기 비행체 통신부를 통해 상기 이동 단말로 전송하는, 무인 비행체를 이용한 긴급 대응 시스템.6. The method of claim 5,
Wherein the airplane control unit calculates position information on the event using the GIS information and the GPS information and transmits the position information together with the characteristic information to the mobile terminal through the air communication unit, Supported systems.
상기 이동 단말은,
상기 무인 비행체에 대한 명령 정보를 입력하는 단말 입력부;
상기 무인 비행체와 무선으로 통신하는 단말 통신부;
상기 명령 정보에 따라 상기 무인 비행체를 원격으로 제어하는 단말 제어부; 및
상기 무인 비행체로부터 전송된 상기 주행 경로 및 영상 정보를 출력하는 단말 출력부를 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.The method according to claim 1,
The mobile terminal,
A terminal input unit for inputting command information for the unmanned aerial vehicle;
A terminal communication unit for wirelessly communicating with the unmanned aerial vehicle;
A terminal control unit for remotely controlling the unmanned aerial vehicle according to the command information; And
And a terminal output unit for outputting the traveling route and the image information transmitted from the unmanned aerial vehicle.
상기 이동 단말은,
상기 무인 비행체에 접속할 수 있는 권한을 인증하는 인증부를 더 포함하는, 무인 비행체를 이용한 긴급 대응 시스템.8. The method of claim 7,
The mobile terminal,
Further comprising an authentication unit for authenticating an authority to connect to the unmanned aerial vehicle.
상기 이동 단말은, 복수개를 포함하며,
복수개의 이동 단말 중 상기 인증부에 의해 상기 무인 비행체에 접속할 수 있는 권한을 최초로 인증받은 이동 단말이 상기 무인 비행체를 원격으로 제어하는, 무인 비행체를 이용한 긴급 대응 시스템.9. The method of claim 8,
The mobile terminal includes a plurality of mobile terminals,
Wherein the mobile terminal, which is first authorized to access the unmanned aerial vehicle by the authentication unit, remotely controls the unmanned aerial vehicle among the plurality of mobile terminals, using the unmanned air vehicle.
목적지 정보를 수신하는 단계;
상기 목적지 정보에 기초하여 비행 경로를 생성하는 단계;
상기 비행 경로에 따라 비행하는 단계;
상기 비행 중에 촬영하여 영상 정보를 획득하는 단계;
상기 영상 정보를 분석하는 단계;
상기 분석된 영상 정보에 기초하여 목적지까지의 주행 경로를 산출하는 단계; 및
상기 주행 경로를 이동 단말로 전송하는 단계를 포함하는, 무인 비행체를 이용한 긴급 대응 방법.In an emergency response method using an unmanned aerial vehicle,
Receiving destination information;
Generating a flight path based on the destination information;
Flying according to the flight path;
Capturing and acquiring image information during the flight;
Analyzing the image information;
Calculating a traveling route to a destination based on the analyzed image information; And
And transmitting the traveling route to the mobile terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150135980A KR101752671B1 (en) | 2015-09-25 | 2015-09-25 | Emergency rescue system using unmanned aerial vehicle and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150135980A KR101752671B1 (en) | 2015-09-25 | 2015-09-25 | Emergency rescue system using unmanned aerial vehicle and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170037696A true KR20170037696A (en) | 2017-04-05 |
KR101752671B1 KR101752671B1 (en) | 2017-07-03 |
Family
ID=58586841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150135980A Active KR101752671B1 (en) | 2015-09-25 | 2015-09-25 | Emergency rescue system using unmanned aerial vehicle and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101752671B1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107416207A (en) * | 2017-06-13 | 2017-12-01 | 深圳市易成自动驾驶技术有限公司 | Unmanned plane rescue mode, unmanned plane and computer-readable recording medium |
KR20190066873A (en) * | 2017-12-06 | 2019-06-14 | 주식회사 아세스 | Method for rescue using drone and computer readable record-medium on which program for executing method therefor |
KR20200002215A (en) * | 2018-06-29 | 2020-01-08 | 현대엠엔소프트 주식회사 | System for processing information and operating method thereof |
CN110816839A (en) * | 2019-12-17 | 2020-02-21 | 淮安航空产业研究院有限公司 | Unmanned aerial vehicle and system for putting in emergency rescue equipment and people-in-loop putting method thereof |
JP2020163953A (en) * | 2019-03-28 | 2020-10-08 | 光司商会株式会社 | Hanging work assist system |
CN112972935A (en) * | 2019-12-16 | 2021-06-18 | 泉州胜日科技有限公司 | Textile industry workshop fire emergency rescue method and device |
KR20220037027A (en) * | 2020-09-16 | 2022-03-24 | 이민형 | System and method for monitoring the ground using hybrid unmanned airship |
CN115331389A (en) * | 2022-07-20 | 2022-11-11 | 浙江鹿枫户外用品有限公司 | Outdoor rescue device for handling emergency situations |
KR20230143319A (en) * | 2022-04-05 | 2023-10-12 | 인하대학교 산학협력단 | Method and System for Fire Response based on Smart Unmanned Self-Driving Platform |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108711273A (en) * | 2018-03-30 | 2018-10-26 | 榛硕(武汉)智能科技有限公司 | A kind of quick processing system of traffic accident and its processing method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150033241A (en) | 2013-09-24 | 2015-04-01 | 엘에스산전 주식회사 | System for disaster using unmanned aerial vehicle |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002237000A (en) * | 2001-02-09 | 2002-08-23 | Chishiki Joho Kenkyusho:Kk | Real-time map information communication system and method |
KR101286376B1 (en) * | 2013-03-07 | 2013-07-15 | 건국대학교 산학협력단 | System and method for controlling unmanned aerial vehicle |
-
2015
- 2015-09-25 KR KR1020150135980A patent/KR101752671B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150033241A (en) | 2013-09-24 | 2015-04-01 | 엘에스산전 주식회사 | System for disaster using unmanned aerial vehicle |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107416207A (en) * | 2017-06-13 | 2017-12-01 | 深圳市易成自动驾驶技术有限公司 | Unmanned plane rescue mode, unmanned plane and computer-readable recording medium |
KR20190066873A (en) * | 2017-12-06 | 2019-06-14 | 주식회사 아세스 | Method for rescue using drone and computer readable record-medium on which program for executing method therefor |
KR20200002215A (en) * | 2018-06-29 | 2020-01-08 | 현대엠엔소프트 주식회사 | System for processing information and operating method thereof |
JP2020163953A (en) * | 2019-03-28 | 2020-10-08 | 光司商会株式会社 | Hanging work assist system |
CN112972935A (en) * | 2019-12-16 | 2021-06-18 | 泉州胜日科技有限公司 | Textile industry workshop fire emergency rescue method and device |
CN110816839A (en) * | 2019-12-17 | 2020-02-21 | 淮安航空产业研究院有限公司 | Unmanned aerial vehicle and system for putting in emergency rescue equipment and people-in-loop putting method thereof |
KR20220037027A (en) * | 2020-09-16 | 2022-03-24 | 이민형 | System and method for monitoring the ground using hybrid unmanned airship |
KR20230143319A (en) * | 2022-04-05 | 2023-10-12 | 인하대학교 산학협력단 | Method and System for Fire Response based on Smart Unmanned Self-Driving Platform |
CN115331389A (en) * | 2022-07-20 | 2022-11-11 | 浙江鹿枫户外用品有限公司 | Outdoor rescue device for handling emergency situations |
CN115331389B (en) * | 2022-07-20 | 2023-08-11 | 浙江鹿枫户外用品有限公司 | Outdoor rescue device for handling emergency |
Also Published As
Publication number | Publication date |
---|---|
KR101752671B1 (en) | 2017-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101752671B1 (en) | Emergency rescue system using unmanned aerial vehicle and method thereof | |
EP3635335B1 (en) | System and method for aiding responses to an event detected by a monitoring system | |
US9922477B2 (en) | Security and public safety application for a mobile device with audio/video analytics and access control authentication | |
KR101937272B1 (en) | Method and Apparatus for Detecting Event from Multiple Image | |
JP7338739B2 (en) | Information processing device, control method, and program | |
KR101883292B1 (en) | Disaster rescue and response system and operating method threrof | |
US20220139199A1 (en) | Accurate digital security system, method, and program | |
KR101459104B1 (en) | Intelligent cctv system detecting emergency with motion analysis and method of emergency detection using the same | |
CN107274003A (en) | A smart fire management system and its control method | |
US20240155221A1 (en) | Imaging device, tracking system, and imaging method | |
CN117135172A (en) | Smart city accident rescue method and system based on Internet of things | |
KR101569324B1 (en) | System of smart monitoring for life saving | |
CN109544870A (en) | Alarm decision method and intelligent monitor system for intelligent monitor system | |
US20220189038A1 (en) | Object tracking apparatus, control method, and program | |
KR20200065316A (en) | System and method for replying disaster situation using smart drone | |
KR20160074208A (en) | System and method for providing safety service using beacon signals | |
JP7477483B2 (en) | Semiconductor device and position movement calculation system | |
Novac et al. | A framework for wildfire inspection using deep convolutional neural networks | |
KR101961800B1 (en) | Emergency accident rescue system using drones | |
McClure et al. | A low-cost search-and-rescue drone for near real-time detection of missing persons | |
KR101372327B1 (en) | Safety management system of school zone and the service method | |
JP2019159624A (en) | Unmanned aircraft, and watching method | |
KR20170014480A (en) | A method of guiding a road using an unmanned aerial vehicle | |
US20190251367A1 (en) | Surveillance apparatus, control method, and program | |
JP6789905B2 (en) | Information processing equipment, information processing methods, programs and communication systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150925 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20160922 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20170425 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20170626 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20170626 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20200702 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20210628 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20220627 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20230622 Start annual number: 7 End annual number: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20240624 Start annual number: 8 End annual number: 8 |
|
PR1001 | Payment of annual fee |
Payment date: 20250623 Start annual number: 9 End annual number: 9 |