KR102161917B1 - Information Processing System and method for rescue in mountain area using UAS - Google Patents
Information Processing System and method for rescue in mountain area using UAS Download PDFInfo
- Publication number
- KR102161917B1 KR102161917B1 KR1020190044274A KR20190044274A KR102161917B1 KR 102161917 B1 KR102161917 B1 KR 102161917B1 KR 1020190044274 A KR1020190044274 A KR 1020190044274A KR 20190044274 A KR20190044274 A KR 20190044274A KR 102161917 B1 KR102161917 B1 KR 102161917B1
- Authority
- KR
- South Korea
- Prior art keywords
- rescuer
- information
- unmanned aerial
- aerial vehicle
- control server
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000010365 information processing Effects 0.000 title claims abstract description 19
- 230000005540 biological transmission Effects 0.000 claims description 33
- 238000012937 correction Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 34
- 238000004458 analytical method Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 13
- 230000004044 response Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 239000000779 smoke Substances 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000002265 prevention Effects 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000007789 gas Substances 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000003915 air pollution Methods 0.000 description 2
- 229910002092 carbon dioxide Inorganic materials 0.000 description 2
- 239000001569 carbon dioxide Substances 0.000 description 2
- 229910002091 carbon monoxide Inorganic materials 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000001307 helium Substances 0.000 description 2
- 229910052734 helium Inorganic materials 0.000 description 2
- SWQJXJOGLNCZEY-UHFFFAOYSA-N helium atom Chemical compound [He] SWQJXJOGLNCZEY-UHFFFAOYSA-N 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/10—Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/02—Arrangements or adaptations of signal or lighting devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/10—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/14—Central alarm receiver or annunciator arrangements
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B3/00—Audible signalling systems; Audible personal calling systems
- G08B3/10—Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
-
- B64C2201/126—
-
- B64C2201/127—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Emergency Management (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Electromagnetism (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Child & Adolescent Psychology (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Environmental & Geological Engineering (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Alarm Systems (AREA)
Abstract
Description
본 발명은 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 재난 상황 발생 시 미리 설정된 지역을 무인 비행하는 무인 비행체를 이용하여 신속하게 구호자를 구조할 수 있도록 한 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템 및 그 방법에 관한 것이다.The present invention relates to an information processing system and method for the rescue of a mountainous area using an unmanned aerial vehicle, and more particularly, in the event of a disaster situation, a rescuer can be quickly rescued by using an unmanned aerial vehicle that unmannedly flies over a preset area. It relates to an information processing system and a method for the rescue of a mountainous area using an unmanned aerial vehicle.
우리나라 국토의 대부분은 산으로서 산불 및 산사태, 폭우에 의한 재난 발생시에 초기대응이 중요하지만 지형적 특성에 의해 재난 현장으로의 접근이 어렵고, 운영 전력공급 등의 한계로 체계적인 시스템 구축 미비 등으로 실시간 재난 정보를 얻기가 어려워 신속한 상황판단과 대응을 어렵게 하고 있다.Most of Korea's land is mountains, and initial response is important in the event of a disaster caused by forest fires, landslides, and heavy rain.However, real-time disaster information due to inadequate systematic system construction due to limitations in operating power supply, etc. As it is difficult to obtain, it is difficult to quickly judge the situation and respond.
또한, 산악 지역에 고립되어 있거나, 재난 방송의 음영 지역에 위치하는 시민에게 재난 방송 및 대피 정보를 제공하기 어려워 시민에 대한 안전확보와 구조에 어려움을 겪고 있는 실정이다.In addition, it is difficult to provide disaster broadcasting and evacuation information to citizens isolated in mountainous areas or located in the shadow areas of disaster broadcasting, making it difficult to secure safety and rescue for citizens.
한편, 드론(Drone)은 벌이 윙윙거리는 소리 또는 낮게 윙윙거리는 소리라는 사전적인 의미를 가진 단어로 기체에 사람이 타지 않고 지상에서 원격 조종을 한다는 점에서 무인항공기(UAV: Unmanned Aerial Vehicle)라고 표현하기도 한다. 즉, 드론은 항공기에 조종사가 탑승하지 않고 자동 또는 원격으로 비행이 가능하며, 1회용 또는 회수할 수 있는 무인 항공기이다.On the other hand, drone is a word that has a dictionary meaning of bee buzzing or low buzzing, and it is also expressed as an unmanned aerial vehicle (UAV) in that it is remotely controlled from the ground without a person riding on the aircraft. do. In other words, a drone is an unmanned aerial vehicle that can fly automatically or remotely without a pilot on board the aircraft, and can be used once or retrieved.
초기의 드론은 대부분 군사용으로 활용되어 왔으나, 지속적인 기술 발전에 따라 현재에는 기상 관측, 환경 및 산불 감시, 국경/해안/도로 감시, 재난 지원 통신 중계 및 원격 탐사 등의 민간분야에서도 활용되고 있다.Initially, drones were mostly used for military purposes, but with continuous technological development, they are currently being used in private sectors such as weather observation, environmental and forest fire monitoring, border/coast/road monitoring, disaster support communication relay, and remote sensing.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 무인 비행체를 이용하여 산악 지역에서 재난 발생 시 접근이 어려운 지역에 위치하는 구호자를 구조할 때, 정보 전송 주기를 적응적으로 제어하여 무인 비행체의 배터리를 효율적으로 사용하는 시스템 및 방법을 제공한다. The present invention was conceived to solve the above-described problem, and when using an unmanned aerial vehicle to rescue a rescuer located in an area where access is difficult in the event of a disaster in a mountainous area, the information transmission period is adaptively controlled and It provides a system and method for efficiently using a battery.
또한, 산악 지역의 재난 상황 발생 시 구호자의 상황에 대한 정보를 용이하게 획득하고자 한다.In addition, it is intended to easily obtain information on the situation of rescuers in the event of a disaster in a mountainous area.
전술한 목적을 달성하기 위하여, 본 명세서에서 제시되는 일 실시예에 따른 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템은, 임의의 지역을 비행하면서, 하나 이상의 카메라로부터 획득한 영상 정보를 분석하여 상기 비행지역이 재난 지역인지, 또한 구호자가 존재하는지 여부를 판단하여 재난 지역이고 구호자가 존재한다고 판단하면 상기 구호자의 위치를 검출하는 무인 비행체; 자신의 실시간 위치 정보를 전송하는 구조자 단말; 및 상기 구호자의 영상 정보와 위치정보 및 상기 구조자 단말의 실시간 위치 정보를 수신받아, 구조자의 구조 경로 및 구호자의 대피 경로를 설정하고, 상기 구조자 단말에 구조 경로를 제공하고, 상기 무인 비행체에는 대피 경로를 제공하는 관제서버를 포함한다. In order to achieve the above object, an information processing system for the structure of a mountainous area using an unmanned aerial vehicle according to an embodiment presented in the present specification analyzes image information acquired from one or more cameras while flying in an arbitrary area. Thus, the unmanned aerial vehicle which determines whether the flight area is a disaster area and whether a rescuer exists, and detects the location of the rescuer when it is determined that the flight area is a disaster area and a rescuer exists; A rescuer terminal for transmitting its own real-time location information; And receiving image information and location information of the rescuer and real-time location information of the rescuer terminal, setting a rescue route and an evacuation route of the rescuer, providing a rescue route to the rescuer terminal, and an evacuation route to the unmanned aerial vehicle It includes a control server that provides a.
상기 관제서버는 구호자의 위치 정보와 구조자의 위치 정보를 갱신하여 갱신된 정보에 기초하여 구조 경로와 대피 경로를 보정하고, 상기 무인 비행체는 상기 대피 경로에 따라 안내 비행한다. The control server updates the rescuer's location information and the rescuer's location information to correct the rescue route and the evacuation route based on the updated information, and the unmanned aerial vehicle guides the flight along the evacuation route.
상기 관제서버는 상기 구조자 위치 정보 및 상기 구호자 위치 정보에 기초하여 상기 구조자와 상기 구호자의 거리를 연산하고, 연산된 거리와 양의 상관관계를 갖는 전송 주기를 설정하여, 설정된 전송 주기를 상기 무인 비행체에 전송하고, 상기 무인 비행체는 상기 전송 주기에 따라 영상 정보 및 위치 정보를 상기 관제서버에 전송한다. The control server calculates the distance between the rescuer and the rescuer based on the rescuer location information and the rescuer location information, sets a transmission period having a positive correlation with the calculated distance, and sets the set transmission period to the unattended It transmits to the vehicle, and the unmanned aerial vehicle transmits image information and location information to the control server according to the transmission period.
상기 관제서버는 상기 구호자의 위치 및 영상 정보에 기초한, 재난 발생 경보 및 대피 요령 중 어느 하나 이상을 포함하는 재난 대피 정보를 상기 무인 비행체로 전송한다. The control server transmits, to the unmanned aerial vehicle, disaster evacuation information including one or more of a disaster occurrence warning and evacuation instructions based on the location and image information of the rescuer.
상기 무인 비행체는 상기 관제서버로부터 수신받은 재난 대피 정보를 포함하는 메시지를 스피커를 통해 송출한다. The unmanned aerial vehicle transmits a message including disaster evacuation information received from the control server through a speaker.
상기 무인 비행체는 마이크 및 스피커를 포함하고, 상기 마이크로부터 획득한 음향 정보 및 상기 영상 정보에 기초하여 경보 방송의 송출 필요 여부를 판단하고 이에 따라 재난 경보 방송을 스피커를 통해 송출한다. The unmanned aerial vehicle includes a microphone and a speaker, and determines whether it is necessary to transmit an alarm broadcast based on the sound information and the image information acquired from the microphone, and transmits the disaster alarm broadcast through a speaker accordingly.
본 명세서에서 제시되는 일 실시예에 따른 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템의 방법은, 무인 비행체가 임의의 산악 지역을 비행하면서, 하나 이상의 카메라로부터 영상 정보를 획득하고, 획득한 영상 정보를 분석하여 비행지역에 재난이 발생하였는지 여부 및 구호자가 존재하는지 여부를 판단하는 단계; 상기 무인 비행체가 구호자가 존재한다고 판단하면 상기 구호자의 위치를 검출하고, 검출된 위치 정보 및 검출된 위치의 영상 정보를 미리 등록된 구조자 단말 및 상기 관제서버 중 어느 한 곳 이상에 전송하는 단계; 관제 서버가 상기 구호자의 영상 정보와 위치정보 및 상기 구조자 단말의 실시간 위치 정보를 수신받아, 미리 저장된 구조 시나리오에 따라 구조자의 구조 경로 및 구호자의 대피 경로를 설정하는 단계; 상기 관제서버가 상기 구조자 단말에 구조 경로를 제공하고, 상기 무인 비행체에는 대피 경로를 제공하는 단계; 및 상기 무인 비행체가 상기 대피 경로에 따라 안내 비행하는 단계를 포함한다. The method of the information processing system for the structure of a mountainous area using an unmanned aerial vehicle according to an embodiment presented in the present specification is, while the unmanned aerial vehicle flies in an arbitrary mountainous area, acquires image information from one or more cameras, and Analyzing the image information to determine whether a disaster has occurred in the flight area and whether a rescuer exists; If the unmanned aerial vehicle determines that a rescuer exists, detecting the location of the rescuer, and transmitting the detected location information and image information of the detected location to one or more of a pre-registered rescuer terminal and the control server; Receiving, by a control server, image information and location information of the rescuer and real-time location information of the rescuer terminal, and setting a rescue route and an evacuation route of the rescuer according to a previously stored rescue scenario; The control server providing a rescue route to the rescuer terminal and providing an evacuation route to the unmanned aerial vehicle; And guided flight by the unmanned aerial vehicle according to the evacuation route.
상기 관제서버가 구호자의 위치 정보와 구조자의 위치 정보를 갱신하여 갱신된 정보에 기초하여 구조 경로와 대피 경로를 보정한다. The control server updates the location information of the rescuer and the location information of the rescuer, and corrects the rescue route and the evacuation route based on the updated information.
무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템의 방법은, 관제서버가 상기 구조자 위치 정보 및 상기 구호자 위치 정보에 기초하여 상기 구조자와 상기 구호자의 거리를 연산하고, 연산된 거리와 양의 상관관계를 갖는 전송 주기를 설정하여, 설정된 전송 주기를 상기 무인 비행체에 전송하는 단계; 및 상기 무인 비행체가 상기 전송 주기에 따라 영상 정보 및 위치 정보를 상기 관제서버에 전송하는 단계를 더 포함한다. In the method of the information processing system for the rescue of a mountainous area using an unmanned aerial vehicle, a control server calculates a distance between the rescuer and the rescuer based on the rescuer location information and the rescuer location information, and the calculated distance and amount Setting a transmission period having a correlation and transmitting the set transmission period to the unmanned aerial vehicle; And transmitting, by the unmanned aerial vehicle, image information and location information to the control server according to the transmission period.
상기 관제서버가 상기 구호자의 위치 및 영상 정보에 기초한, 재난 발생 경보 및 대피 요령 중 어느 하나 이상을 포함하는 재난 대피 정보를 상기 무인 비행체로 전송한다. The control server transmits, to the unmanned aerial vehicle, disaster evacuation information including one or more of a disaster occurrence warning and evacuation instructions based on the location and image information of the rescuer.
상기 무인 비행체는 상기 관제서버로부터 수신받은 재난 대피 정보를 포함하는 메시지를 스피커를 통해 송출한다. The unmanned aerial vehicle transmits a message including disaster evacuation information received from the control server through a speaker.
무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템의 방법은, 상기 관제서버가 상기 산악 지역을 복수개의 영역으로 구획하고, 구획된 영역별로 재난의 긴급성 등급을 설정하는 단계; 및 상기 관제서버가 상기 긴급성 등급에 따라 서로 다른 재난 경보 정보를 설정하여 매칭되는 위치의 경보장치에 제공하는 단계를 더 포함한다. A method of an information processing system for the rescue of a mountainous area using an unmanned aerial vehicle, comprising: the control server partitioning the mountainous area into a plurality of areas and setting a disaster urgency level for each of the divided areas; And providing, by the control server, different disaster warning information according to the urgency level to an alarm device of a matching location.
이상에서 설명한 바와 같은 본 발명의 무인 비행체를 이용한 산악 지역의 구조 시스템은 접근이 어려운 지역에 위치하는 구호자를 용이하게 구호하게 한다. The rescue system in a mountainous area using the unmanned aerial vehicle of the present invention as described above facilitates relief of a rescuer located in a difficult-to-access area.
또한, 산악 지역의 재난 상황 발생 시 구호자의 상황에 대한 정보를 용이하게 획득가능하게 한다.In addition, it is possible to easily obtain information on the situation of a rescuer in the event of a disaster situation in a mountainous area.
도 1은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템을 개략적으로 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 무인 비행체의 구성을 개략적으로 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 무인 비행체의 제어부의 구성을 개략적으로 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 관제서버의 구성을 개략적으로 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 구조자 단말의 구성을 개략적으로 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 산악 지역의 통합적 구조 방법을 설명하는 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 무인 비행체의 재난 발생 여부를 확인하는 방법을 설명하기 위한 흐름도이다. 1 is a diagram schematically illustrating an information processing system for a structure of a mountainous area using an unmanned aerial vehicle according to an embodiment of the present invention.
2 is a view schematically illustrating the configuration of an unmanned aerial vehicle according to an embodiment of the present invention.
3 is a diagram schematically illustrating the configuration of a control unit of an unmanned aerial vehicle according to an embodiment of the present invention.
4 is a diagram schematically illustrating a configuration of a control server according to an embodiment of the present invention.
5 is a diagram schematically illustrating a configuration of a rescuer terminal according to an embodiment of the present invention.
6 is a flowchart illustrating an integrated rescue method for a mountainous area using an unmanned aerial vehicle according to an embodiment of the present invention.
7 is a flowchart illustrating a method of checking whether a disaster occurs in an unmanned aerial vehicle according to an embodiment of the present invention.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that technical terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present specification should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present specification, and excessively comprehensive It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present specification is an incorrect technical term that does not accurately express the spirit of the present invention, it will be replaced with a technical term that can be correctly understood by those skilled in the art to be understood. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present specification includes a plurality of expressions unless the context clearly indicates otherwise. In the present application, terms such as "consist of" or "include" should not be construed as necessarily including all of the various elements or various steps described in the specification, and some of the elements or some steps It may not be included, or it should be interpreted that it may further include additional elements or steps.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for the constituent elements used in the present specification are given or used interchangeably in consideration of only the ease of writing the specification, and do not themselves have a distinct meaning or role from each other.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는 데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present specification may be used to describe various elements, but the elements should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are intended to make the spirit of the present invention easier to understand, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템을 개략적으로 설명하기 위한 도면이다. 1 is a diagram schematically illustrating an information processing system for a structure of a mountainous area using an unmanned aerial vehicle according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 무인 비행체를 이용한 음영지역의 경보 방송 시스템은 도 1에 나타낸 바와 같이, 무인 비행체(100), 원격제어장치(200), 관제서버(300), 경보장치(400) 및 단말(500)을 포함할 수 있다. As shown in FIG. 1, the alarm broadcasting system in the shaded area using an unmanned aerial vehicle according to an embodiment of the present invention includes an unmanned
무인 비행체(100)는 사람의 탑승없이 원격 조작에 의하여 조종 가능하게 형성된다. 무인 비행체(100)는 원격제어장치(200)와 제어용 통신링크로 연결된다. 이러한 무인 비행체(100)는 원격제어장치(200)와의 통신에 사용되는 자신의 고유의 어드레스 예컨대 맥 어드레스를 갖는다. The unmanned
원격제어장치(200)는 무인 비행체(100)의 맥 어드레스를 수신하여 임의의 무인항공기를 식별하고, 이를 통신링크를 통해 무인 비행체(100)의 자율 주행을 위한 이동 경로를 제공하거나 무인 비행체(100)의 주행을 직접 제어한다. The
관제서버(300)는 외부 장치로부터 수신받은 재난 관련 정보에 기초하여 임의의 산악 지역의 재난 발생 여부를 판단하고 이에 따른 재난 경보 방송을 VHF 통신망을 통하여 전송한다.The
관제서버(300)는 무인 비행체(100)와 통신망 등을 통하여 정보를 송수신한다. 예를 들어, 관제서버(300)는 무인 비행체(100)의 위치 정보, 자세 정보 및 고도 정보 등의 실시간 비행 정보를 전달받으며, 필요 시 무인 비행체(100)의 비행 통제에 관련된 작동 명령을 무선 통신망을 통하여 무인 비행체(100)로 전달되도록 한다. 비행 통제에 관련된 작동 명령은 방송 지점 설정, 비행 이동 경로 변경 중 어느 하나 이상을 포함할 수 있다. The
즉, 관제서버(300)는 비행하는 무인 비행체(100)를 식별하고, 식별된 무인 비행체(100)의 현재 비행위치를 확인한다. 또한, 관제서버(300)는 무인 비행체의 이동 경로를 파악하고, 무인 비행체(100)로부터 수신한 영상을 분석하며 비행 통제에 관련된 작동 명령을 전송한다. That is, the
관제서버(300)는 무인 비행체(100)로부터 수신된 수집 정보인 영상 데이터, 음성 데이터 및 센싱 데이터를 처리한다. 또한, 관제서버(300)는 무인 비행체(100)에게 직접 실시간 경보 방송 정보를 전송할 수 있다. 실시간 경보 방송 정보는 예를 들어 LTE와 같은 이동통신 통신망을 통해 전달 할 수 있으나, 이에 한정되는 것은 아니다. The
관제서버(300)는 재난 정보를 관리하는 중앙 관제소로부터 재난 정보를 수신하여, 무인 비행체(100)에 전송하거나, 관제서버(300)에 구비된 마이크를 통해 실시간으로 입력되는 재난 방송 정보를 무인 비행체(100)에 전송할 수 있다. 관제서버(300)는 재난 현장의 GIS정보(geographic information system)에 기초하여 재난 발생 현장의 범위를 정하고, 재난 발생 현장의 범위에 분산되어 설치된 하나 이상의 경보장치(400)를 통합 관리할 수 있다. 이를 위하여, 관제서버(300)는 경보장치(400)가 설치된 위치 정보를 미리 저장하고 있다. The
관제서버(300)는 기상 예경보 시스템, 홍수 모니터링 시스템, 댐 수위 모니터링 시스템 지진 방재관리 시스템과 연동되어, 시간 단위로 기상 정보를 포함한 외부 환경 정보를 수집한다.The
관제서버(300)는 수집한 센싱 정보 및 영상 정보 등을 포함한 각종 데이터, 이미지, 동영상 등에 대한데이터 마이닝을 통해 복합적인 재난 정보 분석을 수행할 수 있다. 또한, 온톨로지(ontology)기반의 상황 인지(context awareness)를 수행하여 각 위치의 재난 상황, 지역 특성 등을 면밀하게 분석하여, 재난 발생 현장의 범위를 정한다. 또한, 영상 정보를 분석하여 재난 발생 면적, 확산 속도, 확산 방향을 예상하고, 재난 발생 영역별로 피해 확산의 긴급성에 대한 등급, 신속한 대응 기관의 이동 경로, 대피 경로를 분석한다. 예를 들어, 불길이 심한 곳이나 붕괴가 발생한 곳, 침수가 심한 곳 등을 피하여 대응 기관의 이동 경로, 구호자들의 대피 유도 경로를 산출할 수 있다. The
관제서버(300)는 이렇게 산출된 유도 경로를 포함한 신속한 대피 요령 및 대응 방안도 무인 비행기(100) 및 경보장치(400)를 통해 방송할 수 있다. The
관제서버(300)는 후술하는 구조대 단말(500)로부터 획득한 구조대 단말(500)의 위치 및 구호자 위치 정보에 기초하여 미리 저장된 구조 시나리오에 따라 대피 경로 및 구조 경로를 산출하고, 위치 정보 갱신에 따라 대피 경로 및 구조 경로를 보정한다. 구조 경로와 대피 경로에 따라 구조자와 구호자가 만날 수 있다. The
관제서버(300)는 구조대 단말(500)로부터 획득한 구조대 단말(500)의 위치 및 구호자 위치 정보에 기초하여 위치 정보 갱신 주기 및/또는 대피 경로 및 구조 경로의 보정 주기를 변경한다. 예를 들어 관제서버(300)는 구조대 단말(500)과 구호자의 위치가 가까워질 수록 위치 정보 갱신 주기 및/또는 대피 경로 및 구조 경로의 보정 주기를 짧게 할 수 있다. The
관제서버(300)는 구조자의 이동 경로의 경우의 수가 많은 지역의 위치 정보 갱신 주기 및/또는 대피 경로 및 구조 경로의 보정 주기를 그렇지 않은 경우 보다 짧게 할 수 있다. 예를 들어 구호자가 여러 갈래 길에 위치하는 경우의 위치 정보 갱신 주기(및/또는 경로의 보정 주기)는 구호자가 막다른 길에 위치하는 경우 보다 그 주기를 짧게 할 수 있다. The
경보장치(400)는 산악 지역의 한 곳 이상에 마련되어, 관제서버(300)로부터 VHF 통신망을 통하여 재난 경보 방송을 수신받고, 이에 따른 재난 경보 방송을 방송 설비를 통해 외부로 송출한다. 방송 설비는 복수의 경보 사이렌 장치일 수 있다. The
경보장치(400)는 예컨대 박스 형상의 함체로 구성될 수 있으며, 내장 메모리, 외장 메모리가 구비되고, UART(Serial) 연결용 단자, USB 연결용 단자, Digital I/O 등이 구성된다. 박스 형상의 함체 전면에는 장비 상태, 전송로 상태, 운영 상태, 앰프 출력 상태 등이 표시되는 LED가 구비되고, 마이크 절체 스위치 등 조작 스위치가 구비되고, A/S용 RS-232C 포트, USB 포트, 마이크 연결 단자, 외장 메모리 연결 단자, 마이크 볼륨 조절 단자, 모니터 스피커 볼륨 조절 단자 및 스피커 등이 구비된다.The
박스 형상의 함체 후면에는 AC 전원 입력단자, On/Off 스위치, 스피커 출력 단자, 원격(REMOTE) VHF 안테나, 로컬(LOCAL) VHF 안테나, Digital I/O 단자, 오디오 LINE OUT 단자, LAN 케이블 단자, DC 출력 단자 등이 구비된다.On the back of the box-shaped enclosure, AC power input terminal, On/Off switch, speaker output terminal, remote (REMOTE) VHF antenna, local (LOCAL) VHF antenna, Digital I/O terminal, audio LINE OUT terminal, LAN cable terminal, DC An output terminal or the like is provided.
또한, 경보장치(400)는 앰프를 더 포함하여, 관제서버(300)에서 수신받은 재난 경보 방송의 오디오 출력을 증폭시켜 임의의 송출 범위에 오디오를 송출한다. 앰프는 아날로그 회로 없이 디지털 칩을 사용한 디지털 앰프일 수 있다. 디지털 앰프는 아날로그 앰프에 비하여 크기가 작으며 발열이 적다. In addition, the
구조자 단말(500)은 통신망을 통해 관제서버(300) 및 무인 비행체(100)로부터 정보를 수신하여 출력할 수 있는 단말로서, 관제서버(300) 및 무인 비행체(100)로부터구조 요청 정보를 수신하여, 구조를 수행하는 소방관, 경찰관, 구급대원 등과 같은 재난구조요원에게 제공되거나, 소방소, 경찰소 등의 각 유관기관 상황실에 마련될 수 있다. The
이러한 단말은 강도가 높고 충격에 강하며 화재 열기의 침투를 막고, 방염 처리가 되는 것이 좋다. 구조대원은 구조자 단말(500)을 이용하여 자신의 상황정보, 구조현장의 정보, 발견한 구조대상자의 정보를 전송할 수 있다. 여기서, 상황정보는 구조대원의 위치 정보, 신체변화상황, 환경정보 중 어느 하나 이상을 포함하고, 구조대상의 나이, 성별, 신체변화상황 중 어느 하나 이상을 포함할 수 있다. These terminals have high strength, are strong against impact, prevent the penetration of fire heat, and are preferably flameproofed. Rescuers may use the
관제서버(300) 및 무인 비행체(100)은 단말(500)에게 정보를 송신하기 위하여, 단말(500)의 IP주소 또는 이동통신번호와 같은 연락정보를 미리 저장하고 있다. The
구조자 단말(500)은 예컨대, 휴대폰, 스마트폰, PDA(personal digital assistants), PC(personal computer), 태블릿 PC(tablet personal computer), 및 노트북(notebook) 등 다양한 형태의 단말일 수 있다.The
통신망은 TCP/IP, LAN(Local Area Network), WIFI, LTE(Long Term Evolution), WCDMA(Wideband Code Division Multiple Access), 기타 현재까지 알려졌거나 미래에 알려질 유선 통신, 무선 통신 방식, 기타 통신 방식 중 적어도 일부를 이용하여 구현될 수 있다. 많은 통신이 망을 통해 수행되지만 후술하는 설명에서는 설명을 간결하게 하기 위해 망에 대한 언급을 생략한다.The communication network is TCP/IP, LAN (Local Area Network), WIFI, LTE (Long Term Evolution), WCDMA (Wideband Code Division Multiple Access), other known or future wired communication, wireless communication methods, and other communication methods. It can be implemented using at least some. Although a lot of communication is performed through a network, in the description to be described later, a reference to the network is omitted for brevity.
도 2는 본 발명의 일 실시예에 따른 무인 비행체의 구성을 개략적으로 설명하기 위한 도면이고, 도 3은 본 발명의 일 실시예에 따른 무인 비행체의 제어부의 구성을 개략적으로 설명하기 위한 도면이다. FIG. 2 is a diagram schematically illustrating a configuration of an unmanned aerial vehicle according to an embodiment of the present invention, and FIG. 3 is a view schematically illustrating a configuration of a controller of an unmanned aerial vehicle according to an embodiment of the present invention.
무인 비행체(100)는 무선 신호를 송수신하는 무선 송수신부(110), 각종 제어를 수행하는 제어부(120), 위치 신호를 수신받는 위치 수신부(130), 영상을 촬영하는 영상 촬영부(140), 메시지 생성부(150), 재난 상황에 대한 경보를 출력하는 경보 출력부(160) 및 데이터 저장부(190), 각 부에 전력을 공급하는 전원부(180)를 포함할 수 있다. The unmanned
또한, 무인 비행체(100)는 재난 구호 장비를 장착하고 있는 그랩 모듈부(170) 및 지상으로 추락을 방지하기 위한 낙하 방지부(175)를 더 포함할 수 있다. In addition, the unmanned
무선 송수신부(110)는 원격제어장치(200) 또는 관제서버(300)와 신호를 송수신한다. The wireless transmission/
무선 송수신부(110)는 촬영된 정지 영상 또는 동영상 데이터, 음성 데이터 및 센싱 데이터를 관제서버(300)로 송신하고,관제서버(300)부터 무인 비행체(100)의 비행 통제에 관련된 작동 명령을 수신 받는다. 무선 송수신부(110)는 수신 받은 정보는 제어부(120)에 전달한다. The wireless transmission/
무인 비행체(100)는 원격제어장치(200)와의 통신에 사용하는 송수신 모듈과 관제서버(300)와의 통신에 사용하는 송수신 모듈은 서로 상이할 수 있다. 예를 들어, 원격제어장치(200)와의 통신은 2.1GHz 주파수를 이용하고, 관제서버(300)와의 통신은 108GHz 주파수를 이용할 수 있다. In the unmanned
제어부(120)는 무인 비행체(100)의 비행 시 관제서버(100)로부터 통제를 받기 위한 작동 명령의 송/수신 및 통제에 따른 처리에 관련된 일련의 과정을 제어하는 모듈이다.The
또한, 제어부(120)는 무인 비행체(100)의 이착륙, 항법 등 비행 자세를 감지하고 관제서버(300)로 비행 정보가 전송되도록 제어한다. 제어부(120)는 비행 제어를 위하여, 가속도 센서, 자이로 센서, 고도 센서, 지자기 센서 등이 포함되어 구성될 수 있다. 이와 같이, 제어부(120)는 무인 비행체(100)의 비행 중 고도, 자세 및 위치 정보 제공 등의 일련의 기능 수행 시 수행 과정의 제어를 담당한다.In addition, the
위치 수신부(130)는 GPS(Global Position System) 모듈을 포함하고, 무인 비행체(100)의 위치 정보를 획득한다. GPS모듈은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다.The
위치 수신부(130)는 획득한 위치 정보를 전송하여 제어부(120)에 전송한다. 제어부(120)는 영상 촬영부(140)에 의해 획득한 영상과 위치 정보를 매칭시켜 데이터 저장부(190)에 저장할 수 있다. The
영상 촬영부(140)는 영상을 촬영하기 위한 카메라를 포함하여 구성되는 것으로, 가시광선 카메라, 열화상 카메라, 초분광 센서, 라이다(Light Detection and Ranging, LIDAR), SAR(Synthetic Aperture Radar)를 포함하고, 마이크로폰(마이크)(142)을 더 포함할 수 있다.The image capture unit 140 includes a camera for capturing an image, and includes a visible ray camera, a thermal imaging camera, a hyperspectral sensor, a light detection and ranging (LIDAR), and a synthetic aperture radar (SAR). Including, and may further include a microphone (microphone) 142.
가시광선 카메라는 가시광선 대역에서 검출될 수 있는 화염, 연기 감지, 침수지 감지 및 지표면 변화 감지 등에 사용되며, 정지 영상 및 동영상을 취득하여 저장한다. Visible light cameras are used for detection of flames and smoke that can be detected in the visible light band, detection of submerged areas, and detection of changes in the surface of the earth. Still images and videos are acquired and stored.
열화상 카메라는 적외선 파장(0.9~14㎛)을 이용하여, 열을 추적, 탐지하여 화면으로 보여주는 장치이다. 열화상 카메라는 상대온도 또는 절대 온도 값을 흑백으로 표현하여 출력한다. Thermal imaging cameras are devices that track, detect, and display heat using infrared wavelengths (0.9-14㎛). Thermal imaging cameras display relative or absolute temperature values in black and white and output them.
영상 촬영부(140)는 영상 촬영과 분리하여 마이크로폰(마이크)만을 이용하여 음성 데이터를 수집할 수 있다. 영상 촬영부(140)는 촬영된 영상을 제어부(120)에 전달하고, 제어부(120)는 영상 보정 등의 처리를 행한 후, 데이터 저장부(190)에 저장한다. The image capturing unit 140 may collect audio data using only a microphone (microphone) separated from image capturing. The image capturing unit 140 transfers the captured image to the
영상 촬영부(140)에 의해 촬영된 영상은 위치 수신부(130)에 의해 획득한 위치 정보 및 시각 정보와 함께 제공될 수 있다. The image captured by the image capturing unit 140 may be provided together with location information and time information acquired by the
메시지 생성부(150)는 구호자의 위치 정보를 포함하는 메시지를 생성한다. 생성된 메시지는 제어부(120)의 지시에 따라 미리 등록된 단말(500) 또는 관제서버(300)에 전송된다. The
상기 메시지와 함께 구호자의 영상 정보도 함께 전송될 수 있다. Along with the message, image information of a rescuer may be transmitted together.
경보 출력부(160)는 미리 저장된 경보 등을 사이렌 또는 경광등을 통해 출력할 수 있고, 관제서버로부터 실시간으로 재난 방송 및 재난 상황 정보를 수신하여 스피커를 통해 출력할 수도 있다.The
전원부(180)는 각 구성요소에 전원을 공급한다. 전원부(180)는 DC 전원(182)과 태양광을 이용하여 전력을 생성하는 태양광 모듈(184)을 포함하는 하이브리드형일 수 있다. The
제어부(120)는 전원부(180)의 배터리 잔량을 모니터링한다. The
그랩 모듈부(170)는 구급품, 방복면, 구명튜브, 간이 소화기 등 인명 구조용 장비를 탑재한다. The
제어부(120)는 그랩 모듈부(170)를 제어하여 탑재된 구조용 장비를 구조자에게 제공한다. The
낙하 방지부(175)는 헬륨 가스 등의 풍선이 펼쳐지도록 구비되는 것으로, 제어부(120)로부터 구동신호가 출력되면, 동작하도록 구현된다. The
아울러, 낙하 방지부(175)는 무인 비행체(100)의 추락 상황이 발생 시 낙하산 형태로 펴짐으로써, 무인 비행체(100)가 추락하여 지면에 닿았을 때 충격이 최소화되도록 한다.In addition, the
전원부(180)는 DC 전원(182)과 태양광을 이용하여 전력을 생성하는 태양광 모듈(184)을 포함하는 하이브리드형일 수 있다. The
데이터 저장부(190)는 영상 정보를 분석하고, 위치 정보 및/또는 영상 정보를 포함하는 메시지를 전송하는 동작에 필요한 필요한 프로그램 및 데이터를 저장하며, 프로그램 영역과 데이터 영역으로 구분될 수 있다. 프로그램 영역은 자동 비행의 전반적인 동작을 제어하는 프로그램 및 베터리 잔량 확인을 위한 프로그램, 메시지 생성 및 전송에 필요한 데이터(예를 들어, 정보 수신 단말의 연락처) 및 프로그램 등을 저장할 수 있다. 데이터 영역은 동작에 의해 발생되는 정보가 저장되는 영역으로, 촬영에 의해 발생하는 영상 정보, 위치 획득 정보 등 동작에 의해 발생되는 정보 등을 저장할 수 있다. The
도 3을 참조하면, 제어부(120)는 비행 제어모듈(122), 영상처리모듈(124) 및 메시지 생성모듈(126) 및 경보 방송 모듈(128)로 구분할 수 있다. 각 모듈은 설명의 편의를 위하여 기능적으로 분류하였지만 하나의 모듈로 수행되거나 다른 방법으로 통합되어도 좋다. Referring to FIG. 3, the
비행 제어모듈(122)은 무인 비행체(100)의 이착륙, 항법 등 비행 자세를 감지하고 관제서버(300)로 비행 정보가 전송되도록 제어하고, 비행 제어를 위하여, 가속도 센서, 자이로 센서, 고도 센서, 지자기 센서 등이 포함되어 구성될 수 있다.The
비행 제어모듈(122)은 상기 센서에 의한 신호에 기초하여 예컨대 거리 센서를 통해 장애물을 감지하면 고도 변경 등을 통하여, 장애물을 피하여 자동 비행할 수 있다. 다른 변형예에서는 원격 제어장치(200) 또는 관제서버(300)를 통해 장애물 회피 제어를 수행할 수 있음은 물론이다. The
비행 제어모듈(122)은 후술되는 영상처리모듈(124)에 따라 구호자가 발견되면 구호자 발견 위치에서 속도를 줄이거나, 고도를 낮추도록 제어할 수 있다. The
또한, 비행 제어모듈(122)은 미리 설정된 복귀 장소까지의 거리를 계산하고, 복귀 장소까지 돌아오는데 소요되는 전력량을 산출하여, 배터리 잔량에서 돌아오는데 소요되는 전력량을 제외한 값이 미리 설정된 제1 문턱값 이하일 경우 일반 모드에서 배터리 절약 모드로 전환한다. In addition, the
배터리 절약 모드는 카메라 동영상 촬영 중지, 영상 정보 전송 중지, 경보 방송 중지 중 어느 하나 이상을 포함할 수 있다. 또는 배터리 잔량에 따라, 카메라 동영상 촬영 중지, 영상 정보 전송 중지, 경보 방송 중지를 순차적으로 수행할 수 있다. The battery saving mode may include any one or more of stopping camera video recording, stopping video information transmission, and stopping alarm broadcasting. Alternatively, depending on the remaining battery capacity, camera video recording may be stopped, image information transmission may be stopped, and alarm broadcast may be stopped in sequence.
또한, 비행 제어모듈(122)은 배터리 잔량에서 복귀에 소요되는 에너지량을 제외한 값이 미리 설정된 제2 문턱값 이하일 경우 낙하 방지부(180)를 구동하여, 무선 비행체(100)의 프로펠러의 작동이 중지되어도, 헬륨 가스가 채워지는 풍선의 부력으로 인해 무인 비행체(100)가 지상으로 추락하는 것을 방지하게 한다. In addition, the
또한, 비행 제어모듈(122)은 그랩 모듈부(170)를 제어하여, 산불로 인해 고립된 조난자의 해당 위치로 비행하여 구급품, 방독면, 간이 소화기 등을 제공하여 줄 수 있고, 물로 인한 조난자의 해당 위치로 비행하여 구명튜브 등을 제공하여 줄 수 있다.In addition, the
영상처리모듈(124)은 카메라 및 코덱을 포함하고 카메라로부터 촬영된 원시 영상을 MJPEC, MPEG 및 HEVC 등의 코덱으로 인코딩하여 인코딩 영상을 획득할 수 있다, 획득된 인코딩 영상의 노이즈를 제거, 스케일 조정 등을 행하고, 왜곡에 대한 보정을 행하는 등의 전처리 과정을 수행한다. The
예를 들어, 카메라의 렌즈가 광각 렌즈인 경우, 광각에 의해 필연적으로 발생되는 방사 왜곡 등을 보정한다. 왜곡이 발생하는 열화상 원시 영상에 미리 저장된 좌표계별 면적비에 기초하여 좌표의 온도값에 해당 좌표의 면적비를 곱하여, 용이하게 온도보정을 행할 수 있다. 이와 같이 미리 저장된 좌표별 면적비를 적용하여 온도를 보정하는 것은 연산값이 크지 않으므로, 드론 자체 내에서 수행이 가능하다. 영상 보정도 이와 유사하게 행할 수 있다. For example, when the lens of the camera is a wide-angle lens, radiation distortion inevitably caused by the wide-angle is corrected. Temperature correction can be easily performed by multiplying the temperature value of the coordinates by the area ratio of the coordinates based on the area ratio for each coordinate system previously stored in the original image of the thermal image where distortion occurs. Compensating the temperature by applying the area ratio for each coordinate stored in advance in this way is not large, so it can be performed within the drone itself. Image correction can be similarly performed.
영상처리모듈(124)은 전처리 과정이 수행된 영상 정보로부터 영상 특징점 및 ROI(Region of Interest)를 검출 한 후 사람 감지, 재난 발생 등의 분석을 수행할 수 있다. 사람 감지는, 영상처리모듈(124)은 촬영된 영상에서, 적외선을 포함한 영역과 포함하지 않은 영상, 영상을 통한 온도 분석 결과를 미리 저장된 기준 데이터와 비교하여 사람 및 화재를 식별하는 방법으로 수행될 수 있다. The
재난 상황에 해당하는 것으로의 판단은 기계 학습 기반 분석, 복수의 영상 데이터들의 결합 분석 및 센싱 데이터와의 연계 분석 중에서 적어도 하나의 분석 방법으로 영상 데이터를 분석할 수 있다.The determination as to correspond to a disaster situation may analyze the image data by at least one analysis method among machine learning-based analysis, a combination analysis of a plurality of image data, and a linkage analysis with sensing data.
또한 음성 데이터에 상응하는 위치의 영상 데이터를 이용하여 영상 데이터를 분석할 수 있으며, 영상 데이터의 분석 결과를 이용하여 재난 발생 여부를 판단할 수도 있다.In addition, image data may be analyzed using image data at a location corresponding to the audio data, and whether a disaster has occurred may be determined using the analysis result of the image data.
예를 들어, 영상 정보에서 롱텀 백그라운드 모델링 방식에 따라 전경감시 대상이 되는 객체(예컨대 불꽃, 연기 등)를 포함하는 전경 이미지와, 상기 전경 이미지를 제외한 배경 이미지를 분리할 수 있다. 분리된 전경 이미지에 포함된 객체를 미리 저장된 패턴 정보를 참조하여, 상기 객체를 인식한다. 패턴 정보에 온도 범위에 대한 정보를 설정하면, 각 객체의 온도는 열화상 데이터에 포함되는 온도에 따른 밝기 정보를 근거로 객체가 구분된다. 따라서 전경 이미지에 포함된 복수의 객체 중에서 연기에 대한 객체를 구름이나 안개와 같은 비슷한 이미지의 객체와 변별할 수 있게 된다. 이와 같이 패턴정보에 포함된 온도 범위에 속하지 않은 객체는 배경처리함으로써 추후 연속되는 열화상 데이터의 분석에 따라 발생하는 연산량을 줄일 수 있다. For example, in image information, a foreground image including an object (eg, flame, smoke, etc.) to be monitored may be separated from a background image excluding the foreground image according to a long-term background modeling method. The object included in the separated foreground image is recognized by referring to previously stored pattern information. When information about a temperature range is set in the pattern information, the temperature of each object is classified based on brightness information according to the temperature included in the thermal image data. Therefore, among the plurality of objects included in the foreground image, it is possible to distinguish an object of smoke from an object of similar image such as cloud or fog. As described above, objects that do not belong to the temperature range included in the pattern information are subjected to background processing, thereby reducing the amount of computation generated by subsequent analysis of continuous thermal image data.
한편, 상기 온도범위만을 고려하여 연기에 대한 객체를 추출하는 경우 일시적으로 구름이나 안개의 온도가 상승하거나 자동차의 온도가 상기 패턴 정보에 설정된 온도범위에 만족하는 경우가 발생할 수 도 있으며, 이를 해결하기 위해, 상기 패턴 정보에는 연기의 고유한 속성인 이동 방향 또는 확산에 대한 정보를 포함할 수 있다. 즉, 연기는 일반적으로 상방향 또는 상방향 대각선으로 이동하며, 확산되는 특성을 가지므로 이를 패턴정보로 저장하여 더욱 상기 전경 이미지에 포함된 다른 객체들과 구분할 수 있다. 이 때, 상기 이동방향은 객체를 구성하는 픽셀의 이동벡터와 상기 확산을 픽셀수를 근거로 판단할 수 있다. On the other hand, when extracting an object for smoke considering only the temperature range, there may be a case in which the temperature of the cloud or fog rises temporarily or the temperature of the car satisfies the temperature range set in the pattern information. For this purpose, the pattern information may include information on a movement direction or diffusion, which is an inherent property of smoke. That is, smoke generally moves upward or diagonally upwards, and has a characteristic of spreading, so that it can be stored as pattern information to further distinguish it from other objects included in the foreground image. In this case, the movement direction may be determined based on the number of pixels and the movement vector of the pixels constituting the object.
따라서, 연기를 제외한 나머지 객체를 제외하기 위하여 패턴 정보를 근거로 객체를 트래킹하며, 추출된 객체마다 픽셀수 변화 또는 이동방향을 확인하여 패턴정보에 설정된 조건을 만족하는 객체를 검출할 수 있다. 이에 따라, 영상 정보에서 원하는 객체를 정확하게 인식할 수 있게 된다. Accordingly, in order to exclude other objects except smoke, an object is tracked based on pattern information, and an object that satisfies a condition set in the pattern information can be detected by checking a change in the number of pixels or a moving direction for each extracted object. Accordingly, it is possible to accurately recognize a desired object from the image information.
영상처리모듈(124)은 영상 분석 결과에 따라 재난 발생 및 조난자 발생 시 획득한 정보 예컨대 촬영 영상, 촬영 위치 정보를 관제서버(100)로 전송하도록 구성된다.The
메시지 생성 모듈(126)은 영상처리모듈(124)의 분석 결과에 따라 구호자가 인식되는 지점을 확인하고 구호자의 위치 정보를 획득하여 획득된 위치 정보를 포함하는 메시지를 미리 등록된 단말(500) 및 관제서버(300) 중 적어도 어느 한 곳에 전송한다. The
경보방송모듈(128)은 영상처리모듈(124)의 결과에 따라, 미리 저장된 경보 방송을 출력한다. The
예를 들어, 영상처리모듈(124)의 분석 결과 산불과 같은 재난이 발생했다고 판단되는 경우, 산불에 매칭되는 미리 저장된 경보 방송을 경보 출력부(160)를 통해 출력한다. For example, when it is determined that a disaster such as a forest fire has occurred as a result of analysis by the
또한, 경보방송모듈(128)은 관제서버(300)로부터 실시간 경보 방송이 수신되는 경우, 실시간 경보 방송을 우선적으로 경보 출력부(160)를 통해 출력한다. In addition, when real-time alarm broadcasting is received from the
이외에도 무인 비행체(100)는 온도 및 습도, 풍향 및 풍속, 오염 등에 관한 정보를 수집하는 환경 센서를 탑재할 수 있으며 이러한 센서에 의해 주위의 공기 오염도뿐만 아니라, 이산화탄소, 일산화탄소, 공기통 잔량을 더 측정할 수도 있다. In addition, the unmanned
무인 비행체(100)는 센싱된 정보를 데이터 저장부(190)에 저장하거나 관제서버(300)에 전송할 수 있다. The unmanned
도 4는 본 발명의 일 실시예에 따른 관제서버의 구성을 개략적으로 설명하기 위한 도면이다. 4 is a diagram schematically illustrating a configuration of a control server according to an embodiment of the present invention.
관제서버(300)는 통신부(310), 제어부(330), 저장부(350), 방송송신부(370), 표시부(380) 및 입력부(390)를 포함할 수 있다. The
통신부(310)는 외부 장치(미도시) 및 무인 비행체(100)로부터 정보를 수신받고, 수신받은 정보는 제어부(330)에 전달한다. The
제어부(330)는 구호자를 구조하기 위하여 관제서버(300)의 전반적인 동작을 제어한다. The
제어부(330)는 통신부(310)를 통해 수신받은 정보와 기저장된 분석관련 데이터베이스를 토대로 재난 상황을 분석한다. 제어부(330)는 분석된 재난 상황에 대하여 서로 다른 대응메시지를 선택한다. 복수개의 대응메시지들은 저장부(350)에 기저장되어 있고, 분석결과 및 위치정보에 기초하여 임의의 대응메시지가 선택된다. The
제어부(330)는 미리 저장된 산악 지역의 지형정보, 영상 분석에 기초한 재난 지역 정보, 구호자의 위치정보 및 구조자의 위치정보, 산불등 재난 발생 위치 등에 기초하여 유도 경로를 산출할 수 있다. The
제어부(330)는 유도 경로, 재난 발생 경보, 및 대피 요령 중 어느 하나 이상을 포함하는 대응메시지를 생성하여 통신부(310)를 통해 무인 비행기(100)에 전송한다. The
저장부(350)는 제어부(330)의 제어에 따라 데이터를 저장하고 요청된 데이터를 제어부(330)에게 전달한다. 저장부(350)는 물리적으로 분리돼 있는 저장장치의 총합으로 구현될 수도 있다. 저장부(350)가 물리적으로 분리돼 있는 여러 장치의 총합으로 구현되는 경우 여러 장치들 사이의 통신이 필요할 수 있다. 여기서는 설명의 단순화를 위하여 저장부(350)가 하나의 객체로 구현된 경우를 가정하여 설명할 것이다.The
방송송신부(370)는 재난 발생 여부에 따른 재난 경보 방송을 VHF 통신망을 통하여 방송한다. The
표시부(380)는 제어부(330)의 지시에 따라 임의의 정보를 출력하는 역할을 한다. 예를 들어 표시부(370)는 제어부(330)의 지시에 따라 무인 비행체, 구호자, 구조자 등의 위치를 표시할 수 있다. The
표시부(380)는 별도의 디스플레이장치일 수도 있고 관제서버(300)와 일체형으로 형성될 수도 있다. 표시부(370)는 예를 들어 LCD(액정표시장치), LED(발광 다이오드), OLED(유기 발광 다이오드), 프로젝터, 기타 현재, 과거에 가능하거나 미래에 가능해질 표시 장치들로써 구현될 수 있다. 표시부(380)는 예를 들어 정보 제공을 위한 인터페이스 페이지나 정보 제공 결과 페이지를 표시할 수 있다. 실시 예에 따라서는 화면 출력 대신 음성 출력이나 진동 등 기타 사용자에게 정보를 전달할 수 있는 다른 방식을 사용하는 구성부가 표시부(380) 대신 사용될 수도 있다.The
입력부(390)는 입력되는 정보를 제어부(330)에 전달하는 역할을 한다. 입력부(390)는 키보다 또는 마이크 중 어느 하나 이상을 포함할 수 있다. 입력부(390)는 관제서버(300)와 일체형으로 구성될 수도 있고, 별도의 구성요소로 구성될 수도 있다. 사용자는 입력부(390)를 대응정보를 실시간 입력할 수 있다. 예를 들어, 사용자는 실시간으로 무인 비행체(100)의 영상 정보를 확인하여 대응 정보를 마이크를 통해 입력하여 무인 비행체(100)에 전송할 수 있다. The
또한, 표시부(380)와 입력부(390)가 터치패드와 같은 일체형일 수도 있다. Also, the
도 5는 본 발명의 일 실시예에 따른 구조자 단말의 구성을 개략적으로 설명하기 위한 도면이다. 5 is a diagram schematically illustrating a configuration of a rescuer terminal according to an embodiment of the present invention.
도 5를 참조하면 알 수 있는 바와 같이, 구조자 단말(500)은 휴대 가능한 통신 단말로서, 통신부(510), 제어부(520), 입력부(530), 표시부(540), 위치정보생성부(550) 및 저장부(560)를 포함할 수 있다. As can be seen with reference to FIG. 5, the
통신부(510)는 관제서버(300) 및/또는 기타 외부 장치와 데이터를 주고받는다. 통신부(510)는 관제서버(300)로부터 수신한 데이터를 제어부(520)에게 전달한다. 또한 통신부(510)는 제어부(520)의 제어에 따라 데이터를 관제서버(300)에게 전달한다. 통신부(510)가 사용하는 통신 기술은 통신망의 유형이나 기타 사정에 따라 달라질 수 있다.The
제어부(520)는 구조자 단말(500)의 전반적인 동작을 제어한다. The
제어부(520)는 관제서버(300)로부터 수신받은 정보를 출력하거나, 입력부 또는 센서 등으로 부터 획득한 정보를 관제서버(300)에 전송하는 역할을 수행한다. The
입력부(530)는 사용자의 입력 동작을 입력 신호로 변환하여 제어부(520)에게 송신한다. 입력부(530)는 예를 들어 키보드, 마우스, 터치스크린 상의 터치센서, 터치패드, 키패드, 음성 입력, 기타 현재, 과거에 가능하거나 미래에 가능해질 입력 처리 장치들로써 구현될 수 있다. 입력부(530)는 예를 들어 사용자의 정보 제공 요청 입력을 수신하여 제어부(520)에게 전달할 수 있다.The
표시부(540)는 제어부(520)의 제어에 따라 화면을 출력한다. 표시부(540)는 예를 들어 LCD(액정표시장치), LED(발광 다이오드), OLED(유기 발광 다이오드), 프로젝터, 기타 현재, 과거에 가능하거나 미래에 가능해질 표시 장치들로써 구현될 수 있다. 표시부(540)는 예를 들어 정보 제공을 위한 인터페이스 페이지나 정보 제공 결과 페이지를 표시할 수 있다. 실시 예에 따라서는 화면 출력 대신 음성 출력이나 진동 등 기타 사용자에게 정보를 전달할 수 있는 다른 방식을 사용하는 구성부가 표시부(540) 대신 사용될 수도 있다.The
표시부(540)는 산악 지역의 지도 정보 상에, 자신의 위치 및 무인 비행체의 위치, 구호자 위치 등을 표시할 수 있다. The
위치정보생성부(550)는 GPS(Global Position System) 모듈을 포함하고, GPS 위성으로부터 위치 정보를 수신음영 지역에서는 수신된 GPS 위치 좌표를 기준으로 자이로센서 및 비콘(Beacon)을 통해 위치 정보를 수신할 수 있다. The location
위치정보생성부(550)는 획득한 위치 정보를 전송하여 제어부(520)에 전송한다. 제어부(520)는 관제서버(300)를 통해 또는 직접 무인 비행체(100)에 구조자 단말(500)의 위치정보를 실시간 또는 주기적으로 전송할 수 있다. 이 때 단말마다 고유하게 부여된 ID(식별정보) 및 시간 정보를 함께 송신할 수 있다. The location
저장부(560)는 제어부(520)의 제어에 따라 데이터를 저장하고 요청된 데이터를 제어부(520)에게 전달한다.The
단말(500)이 데이터를 송수신하는 경우 관점에 따라 제어부(520)의 제어에 따라 통신부(510)가 데이터를 송수신한다고 표현할 수도 있고, 제어부(520)가 통신부(510)를 제어하여 데이터를 송수신한다고 표현할 수도 있다. When the terminal 500 transmits and receives data, it may be expressed that the
단말(500)은 이외에도 각종 센서등을 구비할 수 있다. 센서는 예를 들어, 생체측정센서, 오염센서, 온습도센서, 적외선센서 등을 포함할 수 있다. In addition, the terminal 500 may include various sensors. The sensor may include, for example, a biometric sensor, a pollution sensor, a temperature and humidity sensor, an infrared sensor, and the like.
여기서, 생체측정센서는 구조대원의 생체 신호 즉, 맥박, 체온, 심전도 및 혈류량 중 어느 하나 이상을 측정하는 센서일 수 있다. Here, the biometric sensor may be a sensor that measures one or more of a biosignal of a rescuer, that is, pulse, body temperature, electrocardiogram, and blood flow.
오염센서 및 온습도센서는 구조대원 근처의 주위의 공기 오염도와 온도 및 습도를 측정한다. 주위의 공기 오염도뿐만 아니라, 이산화탄소, 일산화탄소, 공기통 잔량을 더 측정할 수도 있다. 적외선센서는 구조대원 근처의 적외선 렌즈를 통하여 화상을 획득할 수 있다. Pollution sensor and temperature and humidity sensor measure the air pollution level, temperature and humidity in the vicinity of rescue personnel. It is also possible to measure the amount of carbon dioxide, carbon monoxide, and reservoir remaining as well as the level of air pollution in the surroundings. The infrared sensor can acquire an image through an infrared lens near the rescuer.
상기에서 설명한 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 방법을 도 6 내지 도 7을 참조하여 후술한다. An information processing method for the structure of a mountainous area using the unmanned aerial vehicle described above will be described later with reference to FIGS. 6 to 7.
도 6은 본 발명의 일 실시예에 따른 무인 비행체를 이용한 산악 지역의 통합적 구조 방법을 설명하는 흐름도이다. 6 is a flowchart illustrating an integrated rescue method for a mountainous area using an unmanned aerial vehicle according to an embodiment of the present invention.
본 발명의 또 다른 실시예에 따르면 무인 비행체가 산악 지역을 비행하면서 카메라로부터 영상을 획득한다(S210). 무인 비행체는 비행 이동 경로를 비행 이전 관제서버로부터 제공받아 저장하고 있을 수 있다. 또한, 비행 이동 경로는 비행 중에도 관제서버 또는 원격제어장치에 의해 변경 또는 수정될 수 있다. According to another embodiment of the present invention, the unmanned aerial vehicle acquires an image from a camera while flying in a mountainous area (S210). The unmanned aerial vehicle may receive and store a flight path from a control server prior to flight. In addition, the flight path can be changed or modified by the control server or remote control device even during flight.
상기 무인 비행체가 상기 영상 정보를 분석하여 상기 비행지역에 재난 발생 여부 및 구호자가 존재하는지 여부를 판단한다(S220). 영상 정보에서 추출된 복수개의 특정값을 미리 저장된 사람(구조자)의 기준 특정값과 비교하여, 두 값이 매칭되는 경우, 사람이라고 판단할 수 있다. The unmanned aerial vehicle analyzes the image information to determine whether a disaster has occurred in the flight area and whether a rescuer exists (S220). When a plurality of specific values extracted from the image information are compared with a reference specific value of a person (rescuer) stored in advance, if the two values match, it may be determined as a person.
단계 S220에서 무인 비행체가 구호자가 존재한다고 판단하면, 구호자의 위치를 검출한다(S230). 단계 S220에서 상기 무인 비행체가 구호자가 존재하지 않는다고 판단하면 단계 S210으로 되돌아간다. In step S220, if the unmanned aerial vehicle determines that a rescuer exists, the location of the rescuer is detected (S230). In step S220, if the unmanned aerial vehicle determines that a rescuer does not exist, it returns to step S210.
검출된 위치 정보 및 검출된 위치의 영상 정보를 미리 등록된 단말 및 상기 관제서버 중 어느 한 곳 이상에 전송한다(S240). The detected location information and image information of the detected location are transmitted to one or more of the previously registered terminal and the control server (S240).
관제서버는 영상 정보, 구호자 및 구조자의 위치 정보에 기초한 구조 경로 및 대피 경로를 설정하여, 무인 비행체(100)에 전송한다(S250). The control server sets a rescue route and an evacuation route based on the image information, the location information of the rescuer and the rescuer, and transmits it to the unmanned aerial vehicle 100 (S250).
관제서버는 영상 정보 및 구호자의 위치 정보에 기초하여 재난의 종류, 재난의 발생 범위, 피해예상범위, 대피 경로 등을 고려한 대응정보를 생성한다. The control server generates response information in consideration of the type of disaster, the extent of the disaster, the expected range of damage, and the evacuation route based on the video information and the location information of the rescuer.
관제서버는 다른 변형예에서, 외부 장치로부터 미리 정해진 시간 주기마다 기상 정보를 수신받을 수 있다. 상기 외부장치는 기상청, 지진 방재관리처, 홍수 모니터링처와 같은 유관기관의 서버 및 단말일 수 있다. 상기 기상 정보는 풍향, 풍속, 강우, 강설, 직설 중 어느 하나 이상을 포함한다. In another variation, the control server may receive weather information from an external device every predetermined time period. The external device may be a server and a terminal of a related institution such as the Meteorological Administration, the earthquake disaster prevention management office, and the flood monitoring office. The weather information includes one or more of wind direction, wind speed, rainfall, snowfall, and direct snow.
이를 위해 동영상 등에 대한 데이터 마이닝을 통해 복합적인 분석을 수행할 수 있다. 또한, 온톨로지(ontology)기반의 상황 인지(context awareness)를 수행하여 각 위치의 재난 상황, 지역 특성 등을 면밀하게 분석하도록 구성될 수 있다. To this end, complex analysis can be performed through data mining on videos and the like. In addition, it may be configured to perform an ontology-based context awareness to closely analyze the disaster situation and regional characteristics of each location.
관제서버는 수집한 정보에 기초하여, 재난 피해 확산 방향 및 피해 범위를 예상할 수 있다. 예를 들어, 관제서버가 상기 산악 지역을 복수개의 영역으로 구획하고, 상기 예상 결과에 따라 영역별로 긴급성 등급을 설정한다. 긴급성 등급은 재난 재난 발생의 시작이 되는 사고 지역, 긴급한 대피가 요구되는 긴급 대피 지역, 긴급한 대피를 요하지는 않으나 주의가 요구되는 주의 지역, 안전 지역 지역과 같이 복수개의 등급으로 나뉠 수 있다. The control server can predict the direction and extent of the disaster damage based on the collected information. For example, the control server divides the mountain area into a plurality of areas, and sets an urgency level for each area according to the expected result. The urgency class can be divided into a plurality of classes, such as an accident area where a disaster occurs, an emergency evacuation area that requires urgent evacuation, a state area that does not require urgent evacuation but requires attention, and a safety area area.
관제서버가 상기 긴급성 등급에 따라 서로 다른 재난 경보 정보를 설정하여 매칭되는 위치의 경보장치 및 무인 비행체에 제공한다. 예컨대, 재난 발생 지역으로부터의 서로 다른 거리에 위치하는 경보 장치 및 무인 비행체는 서로 다른 대응 요령을 방송한다. The control server sets different disaster warning information according to the urgency level and provides it to the alarm device and the unmanned aerial vehicle at the matching location. For example, alarm devices and unmanned aerial vehicles located at different distances from a disaster area broadcast different countermeasures.
또한 관제서버는 재난 발생 지역의 지도 상에 재난 발생 위치, 피해예상 범위, 구호자 위치를 표시하여 표시부에 출력할 수 있다. 예를 들어 무인 비행기가 재난 현장을 선회하거나 이동하면서 촬영한 복수의 사진이나 동영상은 서로 다른 각도로 촬영될 수 있으며, 이때 촬영된 영상정보를 수신한 관제서버가 연속적을 촬영된 영상을 파노라마 형식으로 합성할 수 있다. 이를 통해 관제서버의 관리자(예컨대 재난 전문가 등)는 구호자의 인원, 분포 등을 예측할 수 있다. In addition, the control server can display the location of the disaster occurrence, the predicted damage range, and the location of a rescuer on the map of the disaster occurrence area and output it to the display unit. For example, a plurality of photos or videos taken while an unmanned aerial vehicle orbiting or moving around a disaster site can be taken at different angles, and at this time, the control server receiving the captured image information will continuously capture the images in a panorama format. It can be synthesized. Through this, the manager of the control server (for example, a disaster expert) can predict the number and distribution of rescuers.
관제서버는 무인 비행기로부터 수신받은 복수의 영상 정보를 파노라마 형식으로 합성하여, 구호자의 이동 위치를 지도 상에 표시할 수 있다. The control server may synthesize a plurality of image information received from the unmanned aerial vehicle in a panorama format, and display the moving position of the rescuer on a map.
이를 통해 관제서버의 전문가들이 대응 정보를 직접 입력할 수도 있다. 관제서버의 전문가들이 입력한 정보는 TTS(text to speech) 시스템에 의해 음성 변환 기능을 통해 소리 정보로 제공할 수 있다. Through this, experts of the control server can directly input response information. The information entered by experts of the control server can be provided as sound information through a voice conversion function by a text to speech (TTS) system.
다른 예시에서, 전문가들이 마이크를 통해 입력하는 음성 형식의 대응 정보를 실시간 이동 통신망 등을 통해 무인 항공기에 전달할 수 있다. 이러한 경우, 구호자가 실시간 대응하는 것이 보다 용이할 수 있다. In another example, response information in a voice format input through a microphone by experts may be transmitted to the unmanned aerial vehicle through a real-time mobile communication network or the like. In this case, it may be easier for the helper to respond in real time.
또한 관제서버는 대피 요령 및 대응방안도 함께 전송할 수 있다. In addition, the control server can also transmit evacuation instructions and countermeasures.
무인 비행체는 대피 경로에 따라 안내 비행한다(S260). 또한, 무인 비행체(100)는 관제서버로부터 수신받은 대응정보를 스피커를 통해 출력한다. 무인 비행체는 대피 경로의 안내 비행시 경광등을 온하여 구호자가 용이하게 무인 비행체를 따라 이동가능하게 한다. The unmanned aerial vehicle guides flight according to the evacuation route (S260). In addition, the unmanned
관제서버는 구호자와 구조자 위치 정보를 갱신한다(S270). The control server updates the location information of the rescuer and the rescuer (S270).
또한, 관제서버는 구조자 위치 정보 및 상기 구호자 위치 정보에 기초하여 전송주기를 변결할 수 있다. 예를 들어, 관제서버는 상기 구조자와 상기 구호자의 거리를 연산하고, 연산된 거리와 양의 상관관계를 갖는 전송 주기를 설정하여, 설정된 전송 주기를 상기 무인 비행체에 전송할 수 있다. 무인 비행체는 설정된 전송주기에 따라 Further, the control server may change the transmission period based on the rescuer location information and the rescuer location information. For example, the control server may calculate a distance between the rescuer and the rescuer, set a transmission period having a positive correlation with the calculated distance, and transmit the set transmission period to the unmanned aerial vehicle. The unmanned aerial vehicle is
관제서버는 갱신된 위치정보에 따라 대피 경로와 구조 경로를 보정한다(S280). The control server corrects the evacuation route and the rescue route according to the updated location information (S280).
관제서버는 획득되는 구호자의 위치 정보와 구조자의 위치 정보가 갱신되었는지 여부를 확인한다. 즉, 이전에 수신된 구호자의 위치 정보 및/또는 구조자의 위치 정보가 새롭게 수신된 구호자의 위치 정보와 구조자의 위치 정보와 비교하여 변경된 경우, 위치 정보가 갱신되었다고 판단한다. The control server checks whether the acquired location information of the rescuer and the location information of the rescuer have been updated. That is, when the previously received location information of the rescuer and/or the location information of the rescuer is changed by comparing the location information of the rescuer and the location information of the rescuer newly received, it is determined that the location information has been updated.
예를 들어, 관제서버는 상기 구조자 위치 정보 및 상기 구호자 위치 정보에 기초하여 상기 구조자와 상기 구호자의 거리를 연산하고, 연산된 거리와 양의 상관관계를 갖는 전송 주기를 설정하여, 설정된 전송 주기를 상기 무인 비행체에 전송한다. For example, the control server calculates the distance between the rescuer and the rescuer based on the rescuer location information and the rescuer location information, sets a transmission period having a positive correlation with the calculated distance, and sets the transmission period Is transmitted to the unmanned aerial vehicle.
무인 비행체는 갱신된 구호자의 위치 정보와 구조자의 위치 정보에 따라 대피 경로와 구조 경로를 보정한다. The unmanned aerial vehicle corrects the evacuation route and the rescue route according to the updated location information of the rescuer and the location information of the rescuer.
다른 변경예에서, 관제서버는 구조자의 이동 경로의 경우의 수가 많은 지역의 위치 정보 갱신 주기 및/또는 대피 경로 및 구조 경로의 보정 주기를 그렇지 않은 경우 보다 짧게 설정 할 수 있다. 예를 들어 구호자가 여러 갈래 길에 위치하는 경우의 위치 정보 갱신 주기(및/또는 경로의 보정 주기)는 구호자가 막다른 길에 위치하는 경우 보다 그 주기를 짧게 설정 할 수 있다. 관제서버는 설정된 전송 주기를 상기 무인 비행체에 전송하고, 무인 비행체는 갱신된 구호자의 위치 정보와 구조자의 위치 정보에 따라 대피 경로와 구조 경로를 보정한다. In another modification, the control server may set the location information update period and/or the evacuation route and the correction period of the rescue route in an area with a large number of cases of the rescuer's movement route to be shorter than otherwise. For example, the location information update period (and/or the correction period of the route) when a rescuer is located on several roads can be set to be shorter than when the rescuer is placed on a dead end. The control server transmits the set transmission period to the unmanned aerial vehicle, and the unmanned aerial vehicle corrects the evacuation route and the rescue route according to the updated location information of the rescuer and the location information of the rescuer.
도 7은 본 발명의 일 실시예에 따른 무인 비행체의 재난 발생 여부를 확인하는 방법을 설명하기 위한 흐름도이다. 7 is a flowchart illustrating a method of checking whether a disaster occurs in an unmanned aerial vehicle according to an embodiment of the present invention.
도 7을 참조하면, 먼저, 비행 지역의 재난이 발생했는지 여부를 판단한다(S222). Referring to FIG. 7, first, it is determined whether or not a disaster in the flight area has occurred (S222).
무인 비행체는 관제서버 또는 원격 제어장치로부터 재난 발생에 대한 정보를 수신받아 판단할 수 있다. 재난 발생에 대한 정보는 재난 발생의 발생 자체를 의미하는 신호, 재난 발생 범위 중 어느 하나 이상을 포함할 수 있다. 또는 무인 비행체는 관제서버 또는 원격 제어장치로부터 재난 발생 지역에 대한 지도 정보를 수신받아 비행 위치와 비교하여 비행 지역의 재난 발생 여부를 판단할 수 있다. The unmanned aerial vehicle can be determined by receiving information on the occurrence of a disaster from a control server or a remote control device. The information on the occurrence of a disaster may include any one or more of a signal indicating the occurrence of the disaster itself and a range of the disaster occurrence. Alternatively, the unmanned aerial vehicle may receive map information on a disaster occurrence area from a control server or a remote control device and compare it with the flight location to determine whether a disaster occurs in the flight area.
다음, 무인 비행체는 비행 지역에 재난 방송을 송출하는 경보장치의 존재 유무를 판단한다(S234). Next, the unmanned aerial vehicle determines whether there is an alarm device that transmits a disaster broadcast to the flight area (S234).
무인 비행체는 비행 이동 경로 내에 경보장치가 위치하는지 판단한다. 비행 이동 경로 및 경보장치는 관제서버로부터 수신받거나, 비행 이전 USB 등의 저장장치로부터 입력받을 수 있다. 또한 경보장치의 방송 송출 범위도 관제서버로부터 수신받거나, 비행 이전 USB 등의 저장장치로부터 입력받을 수 있다. 제어부는 이를 위해 비행 위치가 미리 저장된 경보 장치의 송출 범위에 위치하는 지 실시간 또는 주기적으로 모니터링할 수 있다. The unmanned aerial vehicle determines whether an alarm device is located within the flight path. The flight movement path and alarm device may be received from the control server or may be input from a storage device such as USB before flight. In addition, the broadcast transmission range of the alarm device can be received from the control server or input from a storage device such as USB before flight. For this purpose, the control unit may monitor in real time or periodically whether the flight position is within the transmission range of the pre-stored alarm device.
무인 비행체는 경보 장치로부터 재난 방송이 정상적으로 송출되고 있는지를 판단한다(S236). The unmanned aerial vehicle determines whether a disaster broadcast is normally transmitted from the alarm device (S236).
무인 비행체는 마이크를 통해 감지되는 오디오에 재난 경보 방송이 포함되어 있는지 분석한다. 무인 비행체(100)는 저장부에 미리 저장된 재난 경보 방송 샘플과 마이크를 통해 감지되는 오디오 신호를 비교하여 재난 경보 방송의 포함여부를 직접 분석할 수 있다. 또한, 마이크를 통해 감지되는 오디오를 관제서버(300)에 전송하여, 관제서버(300)로부터 경보 장치가 정상적으로 송출되고 있는지 여부에 대한 판단 결과를 전달받도록 구현할 수도 있다. The unmanned aerial vehicle analyzes whether a disaster alert broadcast is included in the audio detected through the microphone. The unmanned
무인 비행체는 마이크를 통해 감지되는 오디오에 재난 경보 방송이 포함되어 있는 경우, 재난 경보 방송을 송출할 필요가 없다고 판단한다. 반면, 마이크를 통해 감지되는 오디오에 재난 경보 방송이 포함되어 있는 경우, 재난 경보 방송을 송출할 필요가 있다고 판단한다. The unmanned aerial vehicle determines that it is not necessary to transmit a disaster warning broadcast when the audio detected through the microphone includes a disaster warning broadcast. On the other hand, if a disaster warning broadcast is included in the audio detected through the microphone, it is determined that it is necessary to transmit the disaster warning broadcast.
전술한 방법은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. The above-described method can be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.
하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention includes one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs). , Field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in a memory unit and driven by a processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor through various known means.
이상에서 본 명세서에 개시된 실시예들을 첨부된 도면들을 참조로 설명하였다. 이와 같이 각 도면에 도시된 실시예들은 한정적으로 해석되면 아니되며, 본 명세서의 내용을 숙지한 당업자에 의해 서로 조합될 수 있고, 조합될 경우 일부 구성 요소들은 생략될 수도 있는 것으로 해석될 수 있다. In the above, embodiments disclosed in the present specification have been described with reference to the accompanying drawings. As described above, the embodiments shown in each drawing are not to be construed as limiting, and may be combined with each other by those skilled in the art who are familiar with the contents of the present specification, and when combined, some elements may be interpreted as being omitted.
여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 명세서에 개시된 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Here, the terms or words used in the specification and claims should not be construed as being limited to a conventional or dictionary meaning, but should be interpreted as meanings and concepts consistent with the technical idea disclosed in the present specification.
따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 명세서에 개시된 일 실시예에 불과할 뿐이고, 본 명세서에 개시된 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Accordingly, the embodiments described in the present specification and the configurations shown in the drawings are only one embodiment disclosed in the present specification, and do not represent all the technical ideas disclosed in the present specification, and thus various alternatives that can be substituted for them at the time of application It should be understood that there may be equivalents and variations.
100 : 무인 비행체
110 : 무선 송수신부
120 : 제어부
130 : 위치 수신부
140 : 영상 촬영부
150 : 메시지 생성부
160 : 경보 출력부
180 : 전원부
190 : 데이터 저장부
200 : 원격제어장치
300 : 관제서버
400 : 경보장치
500 : 구조자 단말100: unmanned aerial vehicle
110: wireless transceiver
120: control unit
130: position receiver
140: video recording unit
150: message generator
160: alarm output unit
180: power supply
190: data storage unit
200: remote control device
300: control server
400: alarm device
500: rescuer terminal
Claims (10)
자신의 실시간 위치 정보를 전송하는 구조자 단말; 및
상기 구호자의 영상 정보와 위치정보 및 상기 구조자 단말의 실시간 위치 정보를 수신받아, 구조자의 구조 경로 및 구호자의 대피 경로를 설정하고, 상기 구조자 단말에 구조 경로를 제공하고, 상기 무인 비행체에는 대피 경로를 제공하는 관제서버;를 포함하고
상기 관제서버는 구조자와 구호자의 위치가 가까워질수록 위치 정보 갱신 주기 및 대피 경로 및 구조 경로의 보정 주기를 짧게하고, 구조자의 이동 경로의 경우의 수가 많을 수록 위치 정보 갱신 주기 및 대피 경로 및 구조 경로의 보정 주기를 짧게하고,
상기 관제서버는 상기 구조자 위치 정보 및 상기 구호자 위치 정보에 기초하여 상기 구조자와 상기 구호자의 거리를 연산하고, 연산된 거리와 양의 상관관계를 갖는 전송 주기를 설정하여, 설정된 전송 주기를 상기 무인 비행체에 전송하고,
상기 무인 비행체는 상기 전송 주기에 따라 영상 정보 및 위치 정보를 상기 관제서버에 전송하는 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템.While flying in a certain area, by analyzing the image information acquired from one or more cameras, it determines whether the flight area is a disaster area and whether a rescuer exists, and if it is determined that it is a disaster area and a rescuer exists, the location of the rescuer is detected. Unmanned aerial vehicle;
A rescuer terminal for transmitting its own real-time location information; And
Receiving image information and location information of the rescuer and real-time location information of the rescuer terminal, set a rescue route and an evacuation route of the rescuer, provide a rescue route to the rescuer terminal, and provide an evacuation route to the unmanned aerial vehicle. Including a control server to provide;
The control server shortens the location information update period and the correction period of the evacuation route and rescue route as the rescuer and the rescuer's locations are closer, and the location information update period and the evacuation route and rescue route as the number of rescue routes increases. Shorten the correction cycle of
The control server calculates the distance between the rescuer and the rescuer based on the rescuer location information and the rescuer location information, sets a transmission period having a positive correlation with the calculated distance, and sets the set transmission period to the unattended Transfer to the vehicle,
The unmanned aerial vehicle is an information processing system for the structure of a mountainous area using an unmanned aerial vehicle that transmits image information and location information to the control server according to the transmission period.
상기 관제서버는 상기 구호자의 위치 및 영상 정보에 기초한, 재난 발생 경보 및 대피 요령 중 어느 하나 이상을 포함하는 재난 대피 정보를 상기 무인 비행체로 전송하는 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템.The method of claim 1,
The control server is an information processing system for the rescue of a mountainous area using an unmanned aerial vehicle that transmits disaster evacuation information including any one or more of a disaster occurrence alarm and an evacuation method based on the location and image information of the rescuer to the unmanned aerial vehicle .
상기 무인 비행체는 상기 관제서버로부터 수신받은 재난 대피 정보를 포함하는 메시지를 스피커를 통해 송출하는 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템.The method of claim 1,
The unmanned aerial vehicle is an information processing system for the rescue of a mountainous area using an unmanned aerial vehicle that transmits a message including disaster evacuation information received from the control server through a speaker.
상기 무인 비행체는 마이크 및 스피커를 포함하고,
상기 무인 비행체는 상기 마이크로부터 획득한 음향 정보 및 상기 영상 정보에 기초하여 경보 방송의 송출 필요 여부를 판단하고 이에 따라 재난 경보 방송을 스피커를 통해 송출하는 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템.The method of claim 1,
The unmanned aerial vehicle includes a microphone and a speaker,
The unmanned aerial vehicle determines whether it is necessary to transmit an alert broadcast based on the sound information and the image information acquired from the microphone, and accordingly processes information for the rescue of a mountainous area using an unmanned aerial vehicle that transmits a disaster alert broadcast through a speaker. system.
상기 무인 비행체가 구호자가 존재한다고 판단하면 상기 구호자의 위치를 검출하고, 검출된 위치 정보 및 검출된 위치의 영상 정보를 미리 등록된 구조자 단말 및 관제서버 중 어느 한 곳 이상에 전송하는 단계;
관제 서버가 상기 구호자의 영상 정보와 위치정보 및 상기 구조자 단말의 실시간 위치 정보를 수신받아, 미리 저장된 구조 시나리오에 따라 구조자의 구조 경로 및 구호자의 대피 경로를 설정하는 단계;
상기 관제서버가 상기 구조자 단말에 구조 경로를 제공하고, 상기 무인 비행체에는 대피 경로를 제공하는 단계; 및
상기 무인 비행체가 상기 대피 경로에 따라 안내 비행하는 단계를 포함하고,
상기 관제서버는 구조자와 구호자의 위치가 가까워질수록 위치 정보 갱신 주기 및 대피 경로 및 구조 경로의 보정 주기를 짧게하고, 구조자의 이동 경로의 경우의 수가 많을 수록 위치 정보 갱신 주기 및 대피 경로 및 구조 경로의 보정 주기를 짧게하고,
상기 관제서버는 상기 구조자 위치 정보 및 상기 구호자 위치 정보에 기초하여 상기 구조자와 상기 구호자의 거리를 연산하고, 연산된 거리와 양의 상관관계를 갖는 전송 주기를 설정하여, 설정된 전송 주기를 상기 무인 비행체에 전송하는 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템의 방법. Acquiring image information from one or more cameras while flying the unmanned aerial vehicle in an arbitrary mountain area, analyzing the acquired image information, and determining whether a disaster has occurred in the flight area and whether a rescuer exists;
If the unmanned aerial vehicle determines that a rescuer exists, detecting the location of the rescuer, and transmitting the detected location information and image information of the detected location to at least one of a rescuer terminal and a control server registered in advance;
Receiving, by a control server, image information and location information of the rescuer and real-time location information of the rescuer terminal, and setting a rescue route and an evacuation route of the rescuer according to a previously stored rescue scenario;
The control server providing a rescue route to the rescuer terminal and providing an evacuation route to the unmanned aerial vehicle; And
Including the step of the unmanned aerial vehicle guided flight along the evacuation route,
The control server shortens the location information update period and the correction period of the evacuation route and rescue route as the rescuer and the rescuer's locations are closer, and the location information update period and the evacuation route and rescue route as the number of rescue routes increases. Shorten the correction cycle of
The control server calculates the distance between the rescuer and the rescuer based on the rescuer location information and the rescuer location information, sets a transmission period having a positive correlation with the calculated distance, and sets the set transmission period to the unattended A method of an information processing system for the rescue of a mountainous area using an unmanned aerial vehicle transmitted to a vehicle.
상기 관제서버가 상기 구호자의 위치 및 영상 정보에 기초한, 재난 발생 경보 및 대피 요령 중 어느 하나 이상을 포함하는 재난 대피 정보를 상기 무인 비행체로 전송하는 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템의 방법.The method of claim 6,
An information processing system for the rescue of a mountainous area using an unmanned aerial vehicle in which the control server transmits, to the unmanned aerial vehicle, disaster evacuation information including any one or more of a disaster occurrence warning and evacuation instructions based on the location and image information of the rescuer Way.
상기 무인 비행체는 상기 관제서버로부터 수신받은 재난 대피 정보를 포함하는 메시지를 스피커를 통해 송출하는 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템의 방법.The method of claim 6,
The unmanned aerial vehicle is an information processing system for the rescue of a mountainous area using an unmanned aerial vehicle that transmits a message including disaster evacuation information received from the control server through a speaker.
상기 관제서버가 상기 산악 지역을 복수개의 영역으로 구획하고, 구획된 영역별로 재난의 긴급성 등급을 설정하는 단계; 및
상기 관제서버가 상기 긴급성 등급에 따라 서로 다른 재난 경보 정보를 설정하여 매칭되는 위치의 경보장치에 제공하는 단계를 더 포함하는 무인 비행체를 이용한 산악 지역의 구조를 위한 정보 처리 시스템의 방법.
The method of claim 6,
Dividing the mountain area into a plurality of areas by the control server and setting a disaster urgency level for each divided area; And
The method of the information processing system for the rescue of a mountainous area using an unmanned aerial vehicle further comprising the step of the control server setting different disaster warning information according to the urgency level and providing it to an alarm device of a matching location.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190044274A KR102161917B1 (en) | 2019-04-16 | 2019-04-16 | Information Processing System and method for rescue in mountain area using UAS |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190044274A KR102161917B1 (en) | 2019-04-16 | 2019-04-16 | Information Processing System and method for rescue in mountain area using UAS |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102161917B1 true KR102161917B1 (en) | 2020-10-06 |
Family
ID=72826324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190044274A KR102161917B1 (en) | 2019-04-16 | 2019-04-16 | Information Processing System and method for rescue in mountain area using UAS |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102161917B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464859A (en) * | 2020-12-10 | 2021-03-09 | 交控科技股份有限公司 | Platform guiding system and method |
CN113836193A (en) * | 2021-08-13 | 2021-12-24 | 合肥维天运通信息科技股份有限公司 | Intelligent rescue method and system for logistics vehicles |
CN117372960A (en) * | 2023-10-24 | 2024-01-09 | 宁夏隆合科技有限公司 | Unmanned aerial vehicle inspection target attribute automatic extraction method combining scene relation |
JP7482520B2 (en) | 2021-04-23 | 2024-05-14 | 株式会社システック | Route and flight image synthesis system |
EP4372667A4 (en) * | 2022-03-31 | 2024-10-09 | Mitsubishi Electric Corp | Unmanned machine management system, unmanned machine management method, data accumulation device, data analysis device, disaster prediction device, unmanned machine control device, and information provision device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160012576A (en) * | 2014-07-24 | 2016-02-03 | 삼성전자주식회사 | Operating Method and Device for disaster information |
KR101638500B1 (en) * | 2015-10-16 | 2016-07-11 | 조승철 | Surveillance system and method using drones |
KR20180013425A (en) * | 2016-07-29 | 2018-02-07 | 주식회사 에어테크미디어 | Rescue system using drone and method thereof |
KR20190000482A (en) * | 2017-06-23 | 2019-01-03 | 동아대학교 산학협력단 | Disaster evacuation guide system and method using disaster maneuver drone |
-
2019
- 2019-04-16 KR KR1020190044274A patent/KR102161917B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160012576A (en) * | 2014-07-24 | 2016-02-03 | 삼성전자주식회사 | Operating Method and Device for disaster information |
KR101638500B1 (en) * | 2015-10-16 | 2016-07-11 | 조승철 | Surveillance system and method using drones |
KR20180013425A (en) * | 2016-07-29 | 2018-02-07 | 주식회사 에어테크미디어 | Rescue system using drone and method thereof |
KR20190000482A (en) * | 2017-06-23 | 2019-01-03 | 동아대학교 산학협력단 | Disaster evacuation guide system and method using disaster maneuver drone |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464859A (en) * | 2020-12-10 | 2021-03-09 | 交控科技股份有限公司 | Platform guiding system and method |
CN112464859B (en) * | 2020-12-10 | 2024-05-21 | 交控科技股份有限公司 | Platform guidance system and method |
JP7482520B2 (en) | 2021-04-23 | 2024-05-14 | 株式会社システック | Route and flight image synthesis system |
CN113836193A (en) * | 2021-08-13 | 2021-12-24 | 合肥维天运通信息科技股份有限公司 | Intelligent rescue method and system for logistics vehicles |
CN113836193B (en) * | 2021-08-13 | 2024-05-17 | 合肥维天运通信息科技股份有限公司 | Logistics vehicle intelligent rescue method and system |
EP4372667A4 (en) * | 2022-03-31 | 2024-10-09 | Mitsubishi Electric Corp | Unmanned machine management system, unmanned machine management method, data accumulation device, data analysis device, disaster prediction device, unmanned machine control device, and information provision device |
CN117372960A (en) * | 2023-10-24 | 2024-01-09 | 宁夏隆合科技有限公司 | Unmanned aerial vehicle inspection target attribute automatic extraction method combining scene relation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102208152B1 (en) | System and method for response disaster situations in mountain area using UAS | |
KR102161917B1 (en) | Information Processing System and method for rescue in mountain area using UAS | |
EP3836584B1 (en) | Rescue support in large-scale emergency situations | |
Yuan et al. | Fire detection using infrared images for UAV-based forest fire surveillance | |
CN108416963B (en) | Forest fire early warning method and system based on deep learning | |
KR102067875B1 (en) | Method for rescue using drone and computer readable record-medium on which program for executing method therefor | |
US11253736B2 (en) | Dispatching UAVs for wildfire surveillance | |
WO2010097921A1 (en) | Mobile object imaging system, mobile object, ground-based station device, and method for imaging mobile object | |
CN116308944B (en) | Emergency rescue-oriented digital battlefield actual combat control platform and architecture | |
US20110010025A1 (en) | Monitoring system using unmanned air vehicle with wimax communication | |
CN111953937B (en) | Drowning person lifesaving system and drowning person lifesaving method | |
US11531340B2 (en) | Flying body, living body detection system, living body detection method, program and recording medium | |
KR20200115933A (en) | Rescue System and method for Alarm Broadcasting in mountain area using UAS | |
CN106054928A (en) | All-region fire generation determination method based on unmanned plane network | |
CN104200600A (en) | Fire analysis based firefighting monitoring system | |
CN105741477A (en) | Aircraft with intelligent fire control voice assistant | |
CN110647170A (en) | Navigation mark inspection device and method based on unmanned aerial vehicle | |
CN111369760A (en) | Night pedestrian safety early warning device and method based on unmanned aerial vehicle | |
RU181691U1 (en) | UNMANNED AIRCRAFT FOR SEARCH AND RESCUE OPERATIONS | |
CN210835732U (en) | Beacon inspection device based on unmanned aerial vehicle | |
KR102273193B1 (en) | Fire risk predication system using unmanned aerial vehicle and method thereof | |
CN114023035A (en) | All-weather full-automatic early detection system and detection method for forest fire | |
CN205121650U (en) | Quick location rescue device based on unmanned vehicles | |
Perez-Mato et al. | Real-time autonomous wildfire monitoring and georeferencing using rapidly deployable mobile units | |
CN115588267A (en) | Natural fire early warning and response system based on remote sensing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |