KR20220111900A - Rescue system and method using drone - Google Patents

Rescue system and method using drone Download PDF

Info

Publication number
KR20220111900A
KR20220111900A KR1020210015280A KR20210015280A KR20220111900A KR 20220111900 A KR20220111900 A KR 20220111900A KR 1020210015280 A KR1020210015280 A KR 1020210015280A KR 20210015280 A KR20210015280 A KR 20210015280A KR 20220111900 A KR20220111900 A KR 20220111900A
Authority
KR
South Korea
Prior art keywords
drone
image data
distress
server
information
Prior art date
Application number
KR1020210015280A
Other languages
Korean (ko)
Other versions
KR102536191B1 (en
Inventor
김진일
이원준
손다연
김나경
김희연
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020210015280A priority Critical patent/KR102536191B1/en
Publication of KR20220111900A publication Critical patent/KR20220111900A/en
Application granted granted Critical
Publication of KR102536191B1 publication Critical patent/KR102536191B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/02Arrangements or adaptations of signal or lighting devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/60Radiation pyrometry, e.g. infrared or optical thermometry using determination of colour temperature
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • B64C2201/12
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Alarm Systems (AREA)

Abstract

Disclosed are a system and a method for a sufferer rescue using a drone. In accordance with the present invention, the system includes: a camera photographing a distress zone to generate image data, and including pre-stored coordinate information; a server receiving the image data and the coordinate information, and acquiring sufferer occurrence information based on the image data; and a drone receiving a control command from the server, and moving to the pre-stored coordinate information in accordance with the control command. The drone moves based on the pre-stored coordinate information to photograph the distress zone, locates the sufferer in the distress zone to acquire state information of the sufferer, and transmits the state information to the server. Therefore, the present invention is capable of more accurately determining whether a sufferer occurs by acquiring high-quality image data.

Description

드론을 이용한 조난자 구조 시스템 및 방법{RESCUE SYSTEM AND METHOD USING DRONE}Distress rescue system and method using drones {RESCUE SYSTEM AND METHOD USING DRONE}

본 발명은 드론을 이용한 조난자 구조 시스템 및 방법에 관한 것이다. 보다 상세하게는, 드론, 카메라 및 서버를 통하여 조난 구역의 조난자를 인식하고 드론을 이용하여 조난 구역의 조난자를 구조하기 위한 조난자 구조 시스템 및 방법에 대한 것이다.The present invention relates to a system and method for rescue of a survivor using a drone. More particularly, it relates to a distress rescue system and method for recognizing a person in distress in a distress area through a drone, a camera, and a server and using a drone to rescue a person in distress in the distress area.

4차산업혁명(4次産業革命, Fourth Industrial Revolution)의 시대를 맞아 무인항공기(無人航空機, Unmanned Aerial Vehicle; UVA)를 지칭하는 드론 관련산업이 미래를 이끌 신산업으로 부상하고 있다.In the era of the Fourth Industrial Revolution, the drone-related industry, which refers to unmanned aerial vehicles (UVA), is emerging as a new industry that will lead the future.

드론(drone)은, 20세기 초 군사용으로 개발되어 정찰·감시 및 폭격과 같은 군사임무를 수행해 왔으나, 다국적 기업들이 상업용도로 연구개발에 뛰어들면서 원격탐지장치, 위성제어장치 등을 갖추고 사람이 접근하기 힘든 지점(지역) 또는 위험지역에 투입되어 정보를 수집하거나 드라마·영화 촬영, 물류배송 등 매우 다양한 분야에서 활용성이 보편화되고 있다.Drones were developed for military use in the early 20th century and have performed military missions such as reconnaissance, surveillance, and bombing. Utilization is becoming common in a wide variety of fields such as collecting information by being put into difficult points (regions) or dangerous areas, shooting dramas and movies, and logistics and delivery.

근래 들어서는, 토지·하천·시설물 등의 검측(檢測) 및 측량을 위한 기존 측량장치법의 한계극복을 위해 드론을 활용할 뿐만 아니라, 드론의 기동성을 활용하여 다양한 목적으로 드론을 활용하고 있다. 최근에는 드론의 기동성을 활용하여 조난자를 구조하기 위한 기술들이 개발되고 있다. In recent years, drones are not only used to overcome the limitations of existing surveying device methods for land, river, and facility inspection and surveying, but also use drones for various purposes by utilizing the mobility of drones. Recently, technologies for rescue of victims by utilizing the maneuverability of drones are being developed.

특히, 산악사고가 발생하는 경우, 조난자는 실족하여 그 위치를 알기 어려운 경우가 많다. 구조대원들이 출동하더라도 조난자의 위치를 알기가 어려워 이른바 '골든 타임'을 놓치는 경우가 많다. 일반적으로, 실족자가 직접 신고하여 자신의 위치를 신고하여야 하기 때문이다. 산 속의 경우, 통신이 어려워 실족자가 스스로 신고하기 어렵고, 실족자가 의식을 잃은 경우, 목적자 없이는 구조가 매우 어려운 것이 현실이다. 이에, 조난자의 위치를 보다 효과적으로 알기 위한 시스템에 대한 필요성이 대두되고 있다. In particular, in the case of a mountain accident, it is often difficult to know the location of the shipwreck because of a tripping. Even if rescuers are dispatched, the so-called 'golden time' is often missed because it is difficult to know the location of the survivors. This is because, in general, a person who has fallen must report his/her location by directly reporting it. In the case of mountains, communication is difficult, so it is difficult for a person who has fallen who has fallen to report on their own, and if a person who has fallen unconscious loses consciousness, the reality is that it is very difficult to rescue without a target. Accordingly, there is a need for a system for more effectively knowing the location of a person in distress.

대한민국 등록특허공보 제10-2200679호 (발명의 명칭: 거리측량 드론)Republic of Korea Patent Publication No. 10-2200679 (Title of Invention: Distance Surveying Drone)

본 발명의 목적은 산악사고에서 실족한 조난자를 보다 효과적으로 구조할 수 있는 시스템 및 방법을 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a system and method that can more effectively rescue a lost person who has tripped in a mountain accident.

또한, 본 발명의 목적은 드론을 통하여 조난자의 상태 정보를 획득하고 조난자의 상태에 따른 매뉴얼에 기초하여 드론으로 적절한 조치를 취함으로써, 산악사고에서 조난자의 생존확률을 높이기 위한 시스템 및 방법을 제공하는 것이다. In addition, it is an object of the present invention to provide a system and method for increasing the survival probability of a survivor in a mountain accident by acquiring status information of the survivor through the drone and taking appropriate measures with the drone based on the manual according to the condition of the survivor. will be.

또한, 본 발명의 목적은 조난 구역 근처에 카메라를 설치하는 경우, 깨끗한 영상 데이터의 확보를 도모하여 조난자 발생 여부를 보다 정확하게 측정할 수 있는 시스템 및 방법을 제공하는 것이다. Another object of the present invention is to provide a system and method capable of more accurately measuring whether a person in distress occurs by securing clear image data when a camera is installed near a distress zone.

상술한 문제점을 해결하기 위하여, 본 발명은 조난 구역을 촬영하여 영상 데이터를 생성하고, 미리 저장된 좌표 정보를 포함하는 카메라, 상기 영상 데이터 및 좌표 정보를 수신하고, 상기 영상 데이터를 기초로 조난자 발생 정보를 획득하는 서버 및 상기 서버로부터 제어 명령을 수신하고, 상기 제어 명령에 따라 상기 미리 저장된 좌표 정보로 이동하는 드론을 포함하고, 상기 드론은 상기 미리 저장된 좌표 정보를 기초로 이동하여 상기 조난 구역을 촬영하고, 상기 조난 구역에서 상기 조난자를 찾아 상기 조난자의 상태 정보를 획득하며, 상기 상태 정보를 상기 서버에 전송할 수 있다. In order to solve the above problems, the present invention generates image data by photographing a distress zone, receives a camera including pre-stored coordinate information, the image data and coordinate information, and information on the occurrence of victims based on the image data and a drone that receives a control command from the server and receives a control command from the server, and moves to the pre-stored coordinate information according to the control command, wherein the drone moves based on the pre-stored coordinate information to photograph the distress zone and to find the person in distress in the distress zone, obtain status information of the person in distress, and transmit the status information to the server.

또한, 상기 드론은, 상기 서버와 통신하기 위한 통신 모듈, 상기 조난자와의 커뮤니케이션을 위한 마이크 및 스피커, 상기 드론의 위치를 측정하기 위한 GPS 모듈 및 상기 조난자를 촬영하여 열화상 이미지 데이터를 생성하는 열화상 카메라를 포함하고, 상기 통신 모듈은 상기 열화상 이미지 데이터를 상기 서버로 전송할 수 있다. In addition, the drone includes a communication module for communicating with the server, a microphone and speaker for communication with the distressed person, a GPS module for measuring the position of the drone, and a column for generating thermal image data by photographing the distressed person and an image camera, and the communication module may transmit the thermal image data to the server.

또한, 상기 서버는 상기 영상 데이터 및 상기 열화상 이미지 데이터를 수신하고, 상기 영상 데이터 및 상기 열화상 이미지 데이터를 기초로 상기 상태 정보를 획득할 수 있다. Also, the server may receive the image data and the thermal image data, and obtain the state information based on the image data and the thermal image data.

또한, 상기 서버는 상기 상태 정보를 기초로, 상기 조난자에 대한 대응 매뉴얼 정보를 획득하고, 상기 대응 매뉴얼 정보를 기초로 상기 드론을 제어할 수 있다. Also, the server may obtain corresponding manual information for the distressed person based on the status information, and control the drone based on the corresponding manual information.

또한, 상기 카메라는 광 이미지로부터 영상 이미지를 생성하는 카메라 모듈을 포함하고, 상기 카메라 모듈은 측벽에 관통홀을 포함하는 하우징, 상기 관통홀에 설치된 렌즈 및 상기 렌즈를 구동하는 구동부를 포함할 수 있다. In addition, the camera may include a camera module for generating a video image from an optical image, and the camera module may include a housing including a through hole in a sidewall, a lens installed in the through hole, and a driving unit for driving the lens .

또한, 상술한 문제점을 해결하기 위하여, 본 발명은, 드론을 이용한 조난자 구조 방법에 있어서, 조난 구역을 촬영한 영상 데이터 및 상기 조난 구역에 대한 좌표 정보를 수신하는 단계, 상기 영상 데이터를 기초로 조난자 발생 정보를 획득하는 단계, 상기 드론을 상기 좌표 정보로 이동시키도록 제어 명령을 생성하는 단계 및 상기 드론을 제어하여 상기 조난자의 상태 정보를 획득하는 단계를 포함할 수 있다. In addition, in order to solve the above-described problem, the present invention provides a method for rescue of a person in distress using a drone, comprising: receiving image data photographed in a distress zone and coordinate information for the distress zone; The method may include obtaining generation information, generating a control command to move the drone to the coordinate information, and controlling the drone to obtain state information of the distressed person.

또한, 상술한 문제점을 해결하기 위하여, 본 발명은, 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 상술한의 구조 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체일 수 있다. In addition, in order to solve the above problems, the present invention provides a non-transitory computer-readable medium storing instructions, which, when executed by a processor, cause the processor to perform the above-described structure method. It may be a transitory computer readable medium.

본 발명은 카메라 및 드론을 통하여 획득한 영상 데이터 및 열화상 이미지 데이터를 종합하여 조난자를 수색함으로써, 조난자 발생 여부를 보다 정확하게 판단할 수 있는 효과가 있다. According to the present invention, by synthesizing image data and thermal image data acquired through a camera and a drone to search for a person in distress, it is possible to more accurately determine whether a person in distress has occurred.

또한, 본 발명은 드론을 통하여 조난자에게 적절한 조치를 취함으로써 조난자의 생존확률을 더 높일 수 있는 효과가 있다. In addition, the present invention has the effect of further increasing the survival probability of the survivors by taking appropriate measures to the survivors through the drone.

또한, 본 발명은 서버, 카메라 및 드론을 활용함으로서 보다 적은 비용으로 산악사고에서 조난자를 구조할 수 있는 효과가 있다. In addition, the present invention has the effect of rescuing a person in distress from a mountain accident at a lower cost by using a server, a camera, and a drone.

또한, 본 발명은 조난 구역 근처에 카메라를 설치하고, 코팅층을 포함하는 렌즈를 활용하여 영상 데이터를 획득함으로써 보다 높은 화질의 영상 데이터를 획득함으로써, 조난자 발생 여부를 보다 정확하게 판단할 수 있는 효과가 있다.In addition, the present invention installs a camera near the distress zone and acquires image data by using a lens including a coating layer to acquire image data of higher quality, so that it is possible to more accurately determine whether a person in distress has occurred. .

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable according to the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which this specification belongs from the description below. will be.

도 1은 본 발명에 따른 드론을 이용한 조난자 구조 시스템을 나타낸 도면이다.
도 2는 본 발명에 따른 카메라를 나타낸 도면이다.
도 3 및 도 4는 본 발명에 따른 드론을 나타낸 도면이다.
도 5는 본 발명에 따른 조난자 구조 방법을 나타낸 도면이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
1 is a view showing a rescue system for survivors using a drone according to the present invention.
2 is a view showing a camera according to the present invention.
3 and 4 are views showing a drone according to the present invention.
5 is a view showing a rescue method for a survivor according to the present invention.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as a part of the detailed description to help the understanding of the present specification, provide embodiments of the present specification, and together with the detailed description, explain the technical features of the present specification.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 드론을 이용한 조난자 구조 시스템에 관하여 상세히 설명하면 다음과 같다.Hereinafter, based on the above-mentioned contents, a detailed description will be given of a rescue system for a survivor using a drone according to a preferred embodiment of the present specification.

도 1은 본 발명에 따른 드론을 이용한 조난자 구조 시스템을 나타낸 도면이다. 1 is a view showing a rescue system for a survivor using a drone according to the present invention.

도 1에 따르면, 본 발명에 따른 시스템(130)은, 드론(133), 서버(131), 카메라(132)를 포함할 수 있다. 서버(131)는 드론(133)과 카메라(132)와 통신을 통하여 데이터를 주고받을 수 있다. 서버(131)는 드론(133)과 무선통신할 수 있고, 카메라(132)와 무선통신 또는 유선통신할 수 있다. 서버(131)는 카메라(132)로부터 영상 데이터를 수신하고, 카메라(132)를 제어하기 위한 제어 데이터를 전송할 수 있다. 서버(131)는 드론(133)으로부터 영상 데이터, 위치 데이터 등 다양한 정보를 수신하고, 드론(133)을 제어하기 위한 제어 데이터를 전송할 수 있다. Referring to FIG. 1 , a system 130 according to the present invention may include a drone 133 , a server 131 , and a camera 132 . The server 131 may exchange data with the drone 133 and the camera 132 through communication. The server 131 may wirelessly communicate with the drone 133 , and may wirelessly or wiredly communicate with the camera 132 . The server 131 may receive image data from the camera 132 and transmit control data for controlling the camera 132 . The server 131 may receive various information such as image data and location data from the drone 133 , and transmit control data for controlling the drone 133 .

도 1에 따르면, 본 발명에 따른 카메라(132)는 조난 구역(A2)을 촬영할 수 있다. 조난 구역(A2)은 안전 구역 이외의 구역을 의미할 수 있다. 조난 구역(A2)은 카메라(132)에 의하여 촬영되는 구역을 의미할 수 있다. 조난 구역(A2)은 등산로 등을 벗어난 외곽 구역으로서, 등산객 등 사람이 다니기에 적합하지 않은 구역을 통칭하는 것일 수 있다. 조난 구역(A2)은 등산객 등의 동선을 고려하여 미리 지정될 수 있고, 조난 구역(A2)에 등산객 등이 있다는 것은 등산객 등이 조난당한 것으로 정의될 수 있다. According to FIG. 1 , a camera 132 according to the present invention may photograph a distress zone A2 . The distress zone A2 may mean an area other than the safety zone. The distress zone A2 may mean an area photographed by the camera 132 . The distress zone A2 is an outer zone outside the hiking trail, etc., and may collectively refer to an area that is not suitable for people, such as hikers, to travel. The distress zone A2 may be designated in advance in consideration of the movement of the climber, etc., and the presence of the climber in the distress zone A2 may be defined as that the climber is in distress.

도 1에 따르면, 안전 구역은 등산객 등이 다니기에 적합한 구역을 통칭하는 것일 수 있다. 따라서, 카메라(132)는 안전 구역을 촬영하지 않을 수 있다. Referring to FIG. 1 , the safe zone may collectively refer to a zone suitable for hikers and the like to travel. Accordingly, the camera 132 may not photograph the safe area.

카메라(132)는 조난 구역(A2)을 촬영하여 영상 데이터를 생성하고, 미리 저장된 좌표 정보를 포함할 수 있다. 좌표 정보는 카메라(132)가 설치된 위치를 나타내거나, 카메라(132)가 촬영하는 위치를 나타내는 정보일 수 있다. The camera 132 may generate image data by photographing the distress zone A2, and may include coordinate information stored in advance. The coordinate information may indicate a location where the camera 132 is installed or may be information indicating a location where the camera 132 shoots.

서버(131)는 카메라(132)로부터 촬영된 영상 데이터 및 좌표 정보를 수신하고, 수신한 영상 데이터를 기초로 조난자 발생 여부를 감지하여 조난자 발생 정보를 획득할 수 있다. 이때, 서버(131)는 비전 인식 기술을 활용할 수 있다. 서버(131)는 조난자의 신원 정보를 미리 저장하고, 미리 저장된 신원 정보를 기초로 영상 데이터에 포함된 조난자를 감지할 수 있다. The server 131 may receive the captured image data and coordinate information from the camera 132 , and may acquire the distress occurrence information by detecting whether a survivor has occurred based on the received image data. In this case, the server 131 may utilize a vision recognition technology. The server 131 may store the identity information of the distressed in advance, and detect the distressed person included in the image data based on the previously stored identity information.

서버(131)는 미리 저장된 신원 정보 없이도 조난 구역(A2)에 위치한 조난자를 인식할 수 있다. 서버(131)는 조난 구역(A2)에서 조난자의 움직임을 감지하고, 조난자가 미리 정해진 시간동안 이동하지 않는 경우, 조난 상태인 것으로 감지할 수 있다. The server 131 may recognize a person in distress located in the distress zone A2 without previously stored identity information. The server 131 may detect the movement of the person in distress in the distress area A2, and if the person in distress does not move for a predetermined time, it may detect that the person is in distress.

서버(131)는 조난 상태가 감지된 경우, 드론(133)에게 카메라(132)에 저장된 좌표 정보를 전송하고, 드론(133)을 해당 좌표 정보로 이동시킬 수 있다. 드론(133)은 해당 좌표 정보가 나타내는 위치로 이동하여 조난 구역(A2)의 조난자의 상세한 상태 정보를 획득할 수 있다. When a distress state is detected, the server 131 may transmit coordinate information stored in the camera 132 to the drone 133 and move the drone 133 to the corresponding coordinate information. The drone 133 may move to a location indicated by the corresponding coordinate information and obtain detailed state information of the person in distress in the distress area A2.

드론(133)은 해당 좌표 정보를 기초로 이동하여 조난 구역(A2)을 촬영하고, 조난 구역(A2)에서 조난자를 찾아 조난자의 상태 정보를 획득하며, 획득한 상태 정보를 서버(131)에 전송할 수 있다. The drone 133 moves based on the coordinate information to take a picture of the distress area A2, finds the distressed person in the distress zone A2, obtains the status information of the person in distress, and transmits the acquired status information to the server 131 can

드론(133)은 비전 인식 기술을 활용하여 조난자를 찾아낼 수 있다. 다만, 드론(133)의 전력은 제한적이므로, 비전인식을 러프(rough)하게 활용하여 조난자를 찾아낼 수 있다. The drone 133 may use a vision recognition technology to find a survivor. However, since the power of the drone 133 is limited, it is possible to find a survivor by using the vision recognition rough.

또한, 드론(133)은 열화상 카메라(1332)를 통하여 조난자를 찾아낼 수 있다. 사람의 체온은 일반적으로 36.5도 근처이므로, 이를 기준으로 조난자를 찾아낼 수 있다. 다만, 혹한기의 경우 저체온증에 의하여 체온이 급격하게 낮아질 수 있으므로, 계절에 따라 다르게 기준 온도가 설정될 수 있다. Also, the drone 133 may find a survivor through the thermal imaging camera 1332 . Since the body temperature of a person is generally around 36.5 degrees Celsius, it is possible to find a survivor based on this. However, in the case of a cold season, the body temperature may be rapidly lowered due to hypothermia, and thus the reference temperature may be set differently depending on the season.

드론(133)이 열화상 카메라(1332)를 통하여 조난자를 찾아내고, 조난자를 촬영한 영상을 서버(131)로 전송할 수 있다. 서버(131)는 비전 인식 기술을 활용하여 조난자가 야생 동물인지 사람인지를 분류할 수 있다. 조난자가 사람으로 분류되면, 서버(131)는 드론(133)을 제어하여 조난자의 의식 존재 여부에 대한 정보를 획득할 수 있다. 상세한 방법은 후술한다. The drone 133 may find a survivor through the thermal imaging camera 1332 , and transmit an image photographed by the person in distress to the server 131 . The server 131 may classify whether the survivor is a wild animal or a human by using a vision recognition technology. When the person in distress is classified as a person, the server 131 may control the drone 133 to obtain information on whether or not the person is conscious. The detailed method will be described later.

도 2는 본 발명에 따른 카메라를 나타낸 도면이다. 2 is a view showing a camera according to the present invention.

도 2에 따르면, 본 발명의 카메라(132)는 카메라 모듈(1320)을 포함할 수 있다. 카메라 모듈(1320)은 광 이미지로부터 영상 이미지를 생성할 수 있다. 마메라 모듈(1320)은 광 이미지를 수신하고 이를 영상 데이터로 변환하는 방식으로 영상 이미지를 생성할 수 있다. 카메라 모듈(1320)은 측벽에 관통홀을 포함하는 하우징, 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 더 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. According to FIG. 2 , the camera 132 of the present invention may include a camera module 1320 . The camera module 1320 may generate a video image from the optical image. The mamera module 1320 may generate an image image by receiving an optical image and converting it into image data. The camera module 1320 may further include a housing including a through hole in a sidewall, a lens 1321 installed in the through hole, and a driving unit 1323 for driving the lens 1321 . The through hole may be formed to have a size corresponding to the diameter of the lens 1321 . The lens 1321 may be inserted into the through hole.

구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 may be connected in a conventionally known manner, and the lens 1321 may be controlled by the driving unit 1323 in a conventionally known manner.

다양한 영상 이미지를 수득하기 위해서는 렌즈(1321)가 카메라 모듈(1320) 또는 하우징의 외부로 노출될 필요가 있다. In order to obtain various video images, the lens 1321 needs to be exposed to the outside of the camera module 1320 or the housing.

특히, 본 발명에 따른 카메라(132)는 조난 구역(도 1의 A2, 이하 동일)을 직접 촬영해야 하므로 외부에 설치되어야하고, 조난 구역(A2)에 매번 엔지니어가 들어가서 카메라(132)를 점검하기도 어려울 수 있다. 또한, 조난 구역(A2)에 위치한 카메라(132)는 흙, 모래 등의 오염물질에 취약할 수 있어 영상을 촬영하기 위하여 하우징의 외부에 노출되는 렌즈의 각별한 보호가 필요하다. 따라서, 본 발명은 렌즈를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. In particular, the camera 132 according to the present invention has to be installed outside because the distress zone (A2 in Fig. 1, hereinafter the same) must be taken directly, and an engineer enters the distress zone A2 every time to check the camera 132. It can be difficult. In addition, since the camera 132 located in the distress zone A2 may be vulnerable to contaminants such as soil and sand, special protection of a lens exposed to the outside of the housing is required in order to take an image. Therefore, the present invention is to solve this problem by proposing a coating layer for coating the lens.

바람직하게 상기 렌즈(1321)는 그 표면에 하기의 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the lens 1321 may include an acrylic compound represented by the following Chemical Formula 1 on its surface; It may be coated with a coating composition containing an organic solvent, inorganic particles and a dispersing agent.

[화학식 1][Formula 1]

Figure pat00001
Figure pat00001

여기서, here,

n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, n and m are the same as or different from each other, and are each independently an integer from 1 to 100,

L1은 바이페닐렌기이다.L 1 is a biphenylene group.

상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 차량의 외부에 설치된 렌즈(1321)가 오염 환경에 장기간 노출되더라도, 도로정보로 활용할 수 있는 이미지 또는 영상을 수집할 수 있다.When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and stain resistance, so even if the lens 1321 installed outside the vehicle is exposed to a polluted environment for a long time, images or images that can be used as road information are collected. can do.

상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(1321) 표면에 코팅층(1322)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above example. After the inorganic particles are formed as a coating layer 1322 on the surface of the lens 1321 , physical strength may be improved, and the viscosity may be maintained within a certain range to increase moldability.

상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, and preferably methyl ethyl ketone may be used, but is not limited thereto.

상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersant, a polyester-based dispersant may be used, and specifically, as a polyester-based dispersion stabilizer composed of a copolymer of 2-methoxypropyl acetate and 1-methoxy-2-propyl acetate, TEGO-Disperse 670 (manufacturer : EVONIK), but is not limited to the above examples and any dispersing agent apparent to those skilled in the art can be used without limitation.

상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include a UV absorber, an antioxidant, etc., but is not limited to the above examples and may be used without limitation.

상기 코팅층(1322)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.For forming the coating layer 1322, the coating composition may include an acrylic compound represented by Chemical Formula 1; organic solvents, inorganic particles and dispersants.

상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 아크릴계 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the acrylic compound represented by Chemical Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant based on 100 parts by weight of the organic solvent. In the case of the above range, a synergistic effect is expressed to the extent that the water repellency effect due to the interaction of each component has a critical significance, and when it is out of the above range, the synergistic effect is rapidly reduced or almost absent.

보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(1321) 표면에 도포하면, 흘러내려 코팅층(1322)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(1322)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP, and when the viscosity is less than 1500 cP, when applied to the surface of the lens 1321, it flows down and the formation of the coating layer 1322 is not easy, and it exceeds 1800 cP In this case, there is a problem in that the formation of a uniform coating layer 1322 is not easy.

[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]

1. 코팅 조성물의 제조1. Preparation of coating composition

메틸에틸케톤에 하기 화학식 1로 표시되는 아크릴계 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing the acrylic compound represented by the following formula (1), inorganic particles and a dispersing agent in methyl ethyl ketone:

[화학식 1][Formula 1]

Figure pat00002
Figure pat00002

여기서, here,

n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, n and m are the same as or different from each other, and are each independently an integer from 1 to 100,

L1은 바이페닐렌기이다.L 1 is a biphenylene group.

상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1과 같다. A more specific composition of the antistatic composition is shown in Table 1 below.

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 유기용매organic solvent 100100 100100 100100 100100 100100 아크릴계 화합물acrylic compound 3030 4040 5050 6060 7070 무기입자inorganic particles 1010 2020 3030 4040 5050 분산제dispersant 1One 55 1010 1515 2020

(단위 중량부)(unit parts by weight)

2. 코팅층의 제조2. Preparation of coating layer

렌즈(1321)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(1322)을 형성하였다. The coating composition of DX1 to DX5 was applied to one surface of the lens 1321 and cured to form a coating layer 1322 .

[실험예][Experimental example]

1. 표면 외관에 대한 평가1. Evaluation of surface appearance

코팅 조성물의 점도 차이로 인해, 코팅층(1322)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(1322)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the viscosity difference of the coating composition, after the coating layer 1322 was prepared, a sensory evaluation was performed as to whether a uniform surface was formed. Whether or not a uniform coating layer 1322 was formed was evaluated, and evaluation was performed according to the following criteria.

○: 균일한 코팅층 형성○: uniform coating layer formation

×: 불균일한 코팅층의 형성×: Formation of a non-uniform coating layer

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 관능 평가sensory evaluation ХХ ХХ

코팅층(1322)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(1321)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(1322)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(1322)의 형성이 불가하였다.When the coating layer 1322 is formed, if the viscosity is less than a certain level, a flow occurs on the surface of the lens 1321 , so that it is difficult to form a uniform coating layer 1322 after the curing process. Accordingly, there may be a problem in that the production yield is lowered. In addition, even when the viscosity is too high, it is difficult to uniformly apply the composition to form a uniform coating layer 1322 .

2. 발수각의 측정2. Measurement of water repellency angle

상기 렌즈(1321) 표면에 코팅층(1322)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 1322 on the surface of the lens 1321, the results of measuring the water repellency angle are shown in Table 3 below.

전진 접촉각 (

Figure pat00003
Figure pat00004
)advancing contact angle (
Figure pat00003
Figure pat00004
) 정지 접촉각 (
Figure pat00005
Figure pat00006
)
stop contact angle (
Figure pat00005
Figure pat00006
)
후진 접촉각 (
Figure pat00007
Figure pat00008
)
receding contact angle (
Figure pat00007
Figure pat00008
)
TX1TX1 117.1±2.9117.1±2.9 112.1±4.1112.1±4.1 < 10< 10 TX2TX2 132.4±1.5132.4±1.5 131.5±2.7131.5±2.7 141.7±3.4141.7±3.4 TX3TX3 138.9±3.0138.9±3.0 138.9±2.7138.9±2.7 139.8±3.7139.8±3.7 TX4TX4 136.9±2.0136.9±2.0 135.6±2.6135.6±2.6 140.4±3.4140.4±3.4 TX5TX5 116.9±0.7116.9±0.7 115.4±3.0115.4±3.0 < 10< 10

상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(1322)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after forming the coating layer 1322 using the coating composition of TX1 to TX5, the result of measuring the contact angle was confirmed. For TX1 and TX5, the receding contact angle was measured to be less than 10 degrees. That is, when it is out of the optimal range for preparing the coating composition, it was confirmed that a phenomenon in which water droplets are pinning occurs. On the other hand, it was confirmed that the peening phenomenon did not occur in TX2 to 4, thereby exhibiting an excellent waterproof effect.

3. 내오염성 평가3. Pollution resistance evaluation

설비 외부에 상기 실시예에 따른 코팅층(1322)을 형성한 렌즈(1321)를 모형카메라에 부착하고, 4일 간 일반도로 주행 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층(1322)이 형성되지 않은 동일한 렌즈(1321)를 사용하였으며, 각 실시예에 모형카메라는 차량의 동일한 위치에 부착하였다.The lens 1321 having the coating layer 1322 formed according to the embodiment on the outside of the facility was attached to the model camera, and exposed to the driving environment on a general road for 4 days. As the comparative example (Con), the same lens 1321 on which the coating layer 1322 was not formed was used, and in each embodiment, the model camera was attached to the same position of the vehicle.

그 뒤 실험 전후의 렌즈(1321)의 오염 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(1322)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 4에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.Thereafter, the degree of contamination of the lens 1321 before and after the experiment was evaluated as related, and for objective comparison, the result was evaluated as an index of 1 to 10 in comparison with the comparative example in which the coating layer 1322 was not formed. shown in In the following index, the lower the number, the better the stain resistance.

ConCon TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 내오염성stain resistance 1010 77 33 33 33 88

(단위: 지수)(Unit: Index)

상기 표 4를 참조하면, 렌즈(1321)에 코팅층(1322)을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈(1321)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(1322)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.Referring to Table 4, when the coating layer 1322 is formed on the lens 1321, the high contamination resistance is easily analyzed for a long period of time even when the lens 1321 is exposed to the outside while the camera is installed in an external environment. It can be seen that image data can be collected. In particular, in the case of TX2 to TX4, it can be seen that the stain resistance by the coating layer 1322 is very excellent.

도 3 및 도 4는 본 발명에 따른 드론을 나타낸 도면이다. 3 and 4 are views showing a drone according to the present invention.

도 3에 따르면, 본 발명에 따른 드론(133)은 통신 모듈(1331), 열화상 카메라(1332), GPS 모듈(1333), 마이크(1334) 및 스피커(1335)를 포함하고, 해당 구성들을 제어하기 위한 프로세서(1336) 및 메모리(1337)를 더 포함할 수 있다. According to FIG. 3 , a drone 133 according to the present invention includes a communication module 1331 , a thermal imaging camera 1332 , a GPS module 1333 , a microphone 1334 , and a speaker 1335 , and controls the corresponding configurations. It may further include a processor 1336 and a memory 1337 for doing so.

통신 모듈(1331)은 서버(131)와 통신하기 위한 구성일 수 있다. 열화상 카메라(1332)는 조난자를 찾아내기 위한 구성일 수 있다. GPS 모듈(1333)은 드론(133)의 현재 위치를 감지하기 위한 구성일 수 있다. 마이크(1334) 및 스피커(1335)는 조난자와 커뮤니케이션하기 위한 구성일 수 있다. 프로세서(1336)는 상술한 구성들을 제어하기 위한 구성일 수 있다. 프로세서(1336)는 메모리(1337)에 저장된 명령어를 기초로 상술한 구성들을 제어할 수 있다. 열화상 카메라(1332)는 조난자를 촬영하여 열화상 이미지 데이터를 생성할 수 있다. 통신 모듈(1331)은 생성된 열화상 이미지 데이터를 서버(131)로 전송할 수 있다. The communication module 1331 may be configured to communicate with the server 131 . The thermal imaging camera 1332 may be configured to find a survivor. The GPS module 1333 may be configured to detect the current location of the drone 133 . The microphone 1334 and the speaker 1335 may be configured to communicate with a person in distress. The processor 1336 may be a configuration for controlling the aforementioned configurations. The processor 1336 may control the above-described configurations based on instructions stored in the memory 1337 . The thermal imaging camera 1332 may generate thermal image data by photographing a person in distress. The communication module 1331 may transmit the generated thermal image data to the server 131 .

통신 모듈(1331)의 경우, 안테나를 통해 기지국 또는 통신 기능을 포함하는 서버(131)와 정보의 송수신을 실행한다. 통신 모듈(1331)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다.In the case of the communication module 1331 , information is transmitted and received with a base station or a server 131 including a communication function through an antenna. The communication module 1331 may include a modulator, a demodulator, a signal processor, and the like.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(1331)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(1331)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신 뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication may refer to communication using a communication facility installed by telecommunication companies and a wireless communication network using a frequency of the communication facility. At this time, the communication module 1331 is CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple) access), etc., may be used in various wireless communication systems, and the communication module 1331 may also be used in 3rd generation partnership project (3GPP), long term evolution (LTE), and the like. In addition, not only 5G communication that is being commercialized recently, but also 6G, which is scheduled to be commercialized in the future, may be used. However, in the present specification, a pre-installed communication network may be utilized without being limited by such a wireless communication method.

프로세서(1336)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 1336 is a component capable of performing calculations and controlling other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), or the like. In addition, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and a clock signal. However, a CPU or AP may consist of a few cores optimized for serial processing, whereas a GPU may consist of thousands of smaller and more efficient cores designed for parallel processing.

프로세서(1336)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(1337)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 1336 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 1337 .

메모리(1337)는 드론(133)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(1337)는 드론(133)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 드론(133)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(1337)에 저장되고, 드론(133) 상에 설치되어, 프로세서(1336)에 의하여 상기 드론(133)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 1337 stores data supporting various functions of the drone 133 . The memory 1337 may store a plurality of application programs (or applications) driven by the drone 133 , data for operation of the drone 133 , and commands. At least some of these application programs may be downloaded from an external server through wireless communication. Also, the application program may be stored in the memory 1337 , installed on the drone 133 , and driven by the processor 1336 to perform an operation (or function) of the drone 133 .

메모리(1337)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(1337)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 1337 is a flash memory type, a hard disk type, a solid state disk type (SSD), a silicon disk drive type (SDD), and a multimedia card micro type. ), card-type memory (such as SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read (EEPROM) -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. Also, the memory 1337 may include a web storage that performs a storage function on the Internet.

도 1 및 도 3에 따르면, 서버(131)는 카메라(132)로부터 수신한 영상 데이터 및 드론(133)의 열화상 카메라(1332)로부터 수신한 열화상 이미지 데이터를 기초로 조난자의 상태 정보를 획득할 수 있다. 서버(131)는 영상 데이터를 기초로 조난자의 출혈 여부, 움직임 여부 등에 대한 정보를 획득하고, 열화상 이미지 데이터를 기초로 조난자의 체온 등에 대한 정보를 획득하여 저체온증 여부 등에 대한 정보를 획득할 수 있다. 1 and 3 , the server 131 obtains status information of the survivor based on the image data received from the camera 132 and the thermal image data received from the thermal imager 1332 of the drone 133 . can do. The server 131 obtains information on whether the victim is bleeding or not based on the image data, and obtains information on the body temperature of the victim based on the thermal image data to obtain information on whether or not hypothermia is present. .

서버(131)는 영상 데이터 및 열화상 이미지 데이터 각각에 비전 인식 기술을 적용하여 조난자의 인식률을 높일 수 있다. 일 예로, 서버(131)가 영상 데이터만으로 조난자를 찾는 경우, 사람과 비슷하게 생긴 물체를 조난자로 오인할 수 있다. 반대로, 서버(131)가 열화상 이미지 데이터만으로 조난자를 찾는 경우, 낮시간 가열된 나무나 사물을 조난자로 오인할 수 있다. 따라서, 서버(131)는 영상 데이터 및 열화상 이미지 데이터를 비전 인식한 결과를 종합하여, 조난자의 존재 여부에 대한 정보를 획득할 수 있다. 즉, 서버(131)는 영상 데이터를 기초로한 비전 인식 결과 및 열화상 이미지 데이터를 기초로 한 비전 인식 결과가 모두 조난자인 경우, 조난자가 존재하는 것으로 결정할 수 있다. The server 131 may increase the recognition rate of a person in distress by applying a vision recognition technology to each of the image data and the thermal image data. For example, when the server 131 searches for a person in distress only with image data, an object that looks similar to a person may be mistaken for a person in distress. Conversely, when the server 131 searches for a person in distress only with the thermal image data, it may mistake a tree or object heated during the day as a person in distress. Accordingly, the server 131 may acquire information on the existence of a person in distress by synthesizing the result of vision recognition of the image data and the thermal image data. That is, when both the vision recognition result based on the image data and the vision recognition result based on the thermal image data are the survivors, the server 131 may determine that a person in distress exists.

서버(131)는 획득한 상태 정보를 기초로 조난자에 대한 대응 매뉴얼 정보를 획득할 수 있다. 상태 정보는 조난자의 저체온증 여부, 의식 불명 여부, 거동 가능 여부에 대한 정보를 포함할 수 있다. The server 131 may acquire corresponding manual information for the distressed person based on the acquired state information. The status information may include information on whether the person in distress has hypothermia, whether he is unconscious, and whether he can move.

저체온증은 체온이 35도 이하로 떨어진 상태를 의미하므로, 서버(131)는, 열화상 이미지 데이터를 기초로 조난자의 체온이 35도 이하로 떨어진 상태라면, 조난자를 저체온증 상태로 정의하고, 저체온증과 관련하여 미리 저장된 대응 매뉴얼 정보를 저장 장치(또는 외부 서버)로부터 로딩할 수 있다. Since hypothermia means a state in which the body temperature has dropped to 35 degrees or less, the server 131, based on the thermal image data, defines the survivor as a hypothermic state if the body temperature of the survivor has fallen to 35 degrees or less based on the thermal image data, and related to hypothermia. Thus, the corresponding manual information stored in advance can be loaded from a storage device (or an external server).

서버(131)는 드론(133)의 스피커(1335)를 통하여 미리 정해진 문구를 재생하고, 드론(133)의 마이크(1334)를 통하여 조난자의 피드백을 수신함으로써 조난자의 의식 불명 여부에 대한 정보를 획득할 수 있다. 드론(133)의 마이크(1334)에 조난자의 피드백이 없거나, 조난자의 피드백이 미리 정해진 피드백이 아닌 경우, 서버(131)는 조난자를 의식 불명 상태로 정의할 수 있다. The server 131 reproduces a predetermined phrase through the speaker 1335 of the drone 133 and receives the feedback of the victim through the microphone 1334 of the drone 133 to obtain information on whether the victim is unconscious. can do. When there is no feedback from the distressed in the microphone 1334 of the drone 133 or the feedback of the distressed is not a predetermined feedback, the server 131 may define the distressed person as an unconscious state.

일 예로, 미리 정해진 문구가 '이 소리가 들린다면, “예”로 대답해주세요'인 경우, 조난자의 피드백은 '예'로 정해진 것으로서 서버(131)는 조난자의 피드백을 분석하여 '예'인지를 센싱할 수 있다. 조난자의 피드백에 '예'가 포함된 것으로 센싱되면, 서버(131)는 조난자를 의식이 존재하는 상태로 정의하고 그에 대응되는 대응 매뉴얼 정보를 로딩할 수 있다. 이때, 대응 매뉴얼 정보는 조난자를 안심시키는 문구를 재생하고, 조난자가 의식을 잃지 않도록 조난자의 피드백을 유도하는 문구를 재생하여, 구조대원들이 도착하기를 대기하는 내용을 포함할 수 있다. For example, if the predetermined phrase is 'If you hear this sound, please answer "yes", the distressed feedback is set to 'yes', and the server 131 analyzes the distressed feedback to determine whether it is 'yes'. can sense When it is sensed that 'yes' is included in the feedback of the distressed, the server 131 may define the distressed as a state of being conscious and load corresponding manual information. In this case, the response manual information may include content that reproduces a phrase reassuring the distressed person, reproduces a phrase inducing feedback of the shipwreck so that the shipper does not lose consciousness, and waits for rescuers to arrive.

반대로, 조난자의 피드백에 '예'가 포함되지 않은 것으로 센싱되면, 서버(131)는 조난자를 의식 불명 상태로 정의하고 그에 대응되는 대응 매뉴얼 정보를 로딩할 수 있다. 이때, 대응 매뉴얼 정보는 드론(133)의 마이크(1334)의 감도를 증가시켜 조난자의 호흡 정보를 획득하고 이를 서버(131)로 전송하는 내용을 포함할 수 있다. Conversely, if it is sensed that 'yes' is not included in the feedback of the distressed, the server 131 may define the distressed as an unconscious state and load corresponding manual information. In this case, the corresponding manual information may include content that increases the sensitivity of the microphone 1334 of the drone 133 to obtain breathing information of the survivor and transmits it to the server 131 .

도 4에 따르면, 드론(133)은 열화상 카메라(1332), 본체부(1339a), 날개부(1338), 다리부(1337) 및 열화상 카메라(1332)와 본체부(1339a)를 연결하는 연결부(1339b)를 포함할 수 있다. According to FIG. 4 , the drone 133 connects the thermal imaging camera 1332 , the body 1339a , the wing 1338 , the leg 1337 and the thermal imaging camera 1332 to the body 1339a. A connection part 1339b may be included.

본체부(1339a)는 드론(133)의 구동에 필요한 구성들을 내부에 포함하는 구성일 수 있다. 구체적으로 도 3의 통신 모듈(1331), GPS 모듈(1333), 프로세서(1336) 및 메모리(1337) 등의 구성이 본체부(1339a)의 내부에 포함될 수 있다. 뿐만 아니라, 본체부(1339a)는 배터리를 내부에 포함할 수 있다. The main body 1339a may be configured to include components necessary for driving the drone 133 therein. Specifically, the configuration of the communication module 1331 , the GPS module 1333 , the processor 1336 , and the memory 1337 of FIG. 3 may be included in the main body 1339a. In addition, the body portion 1339a may include a battery therein.

날개부(1338)는 드론(133)을 구동하기 위한 추친력을 발생하는 구성으로서, 드론(133)은 복수의 날개부(1338)를 포함할 수 있다. 날개부(1338)는 프로펠러 및 프로펠러를 구동하는 전기 모터를 포함할 수 있다. 드론(133)에 포함되는 복수의 날개부(1338)는 짝수개일 수 있고, 대응되는 날개부(1338)는 서로 반대방향으로 프로펠러를 회전시킬 수 있다. The wing unit 1338 is configured to generate a propulsive force for driving the drone 133 , and the drone 133 may include a plurality of wing units 1338 . The wing 1338 may include a propeller and an electric motor driving the propeller. The plurality of wing parts 1338 included in the drone 133 may be an even number, and the corresponding wing parts 1338 may rotate the propeller in opposite directions.

다리부(1337)는 드론(133)이 착륙한 경우, 드론(133)을 바닥에 지지하기 위한 구성으로서 안정감을 위하여 복수개 구비될 수 있다. 연결부(1339b)는 본체부(1339a)에 열화상 카메라(1332)를 연결하기 위한 구성으로서 내부에 배선을 포함할 수 있다. 또한, 배선을 통하여 배터리의 전력을 열화상 카메라(1332)에 전달할 수 있다. 뿐만 아니라, 배터리의 전력은 날개부(1338)의 전기 모터에도 전달될 수 있다. When the drone 133 is landed, the leg unit 1337 is configured to support the drone 133 on the floor, and a plurality of leg parts 1337 may be provided for stability. The connection part 1339b is a configuration for connecting the thermal imaging camera 1332 to the body part 1339a and may include a wiring therein. In addition, the power of the battery may be transmitted to the thermal imaging camera 1332 through the wiring. In addition, the power of the battery may also be transmitted to the electric motor of the wing portion 1338 .

또한, 드론(133)은 열화상 카메라(1332) 뿐만 아니라 일반 광학 카메라를 더 포함할 수 있다. 드론(133)은 광학 카메라를 ?v하여 조난자가 위치한 좌표의 주변 지형을 촬영하여 서버(도 1의 131, 이하 동일)로 전송할 수 있다. 서버(131)는 주변 지형에 대한 이미지를 구조대원들이 구비한 단말에 전송함으로써, 구조대원들의 구조활동을 보조할 수 있다. In addition, the drone 133 may further include a general optical camera as well as a thermal imaging camera 1332 . The drone 133 may use the optical camera to capture the surrounding terrain of the coordinates of the distressed person, and transmit it to the server (131 in FIG. 1, hereinafter the same). The server 131 may assist rescue workers in their rescue activities by transmitting an image of the surrounding terrain to a terminal provided by the rescuers.

또한, 드론(133)은 보조 라이트를 더 포함할 수 있다. 드론(133)은 보조 라이트를 조난자 주변에 비추어 조난자의 시야를 확보할 수 있다. 또한, 드론(133)은 심박센서를 더 포함할 수 있다. 따라서, 드론(133)은 심박센서를 이용하여 조난자의 심박을 센싱할 수 있다. Also, the drone 133 may further include an auxiliary light. The drone 133 may secure the view of the victim by illuminating the auxiliary light around the victim. In addition, the drone 133 may further include a heart rate sensor. Accordingly, the drone 133 may sense the heartbeat of the victim by using the heartbeat sensor.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 또 다른 일 실시예에 따른, 드론을 이용한 조난자 구조 방법에 관하여 상세히 설명하면 다음과 같다.Hereinafter, based on the above-mentioned contents, a method for rescue of a survivor using a drone according to another preferred embodiment of the present specification will be described in detail as follows.

또한, 본 발명에 따른 드론을 이용한 조난자 구조 방법을 수행하는 주체는 본 발명의 일 실시예에 따른 서버일 수 있다. 또한, 본 발명에 따른 조난자 구조 방법에 대한 설명 중 상술한 시스템에 대한 설명과 동일하거나 중복되는 내용은 생략될 수 있다. In addition, the subject performing the method of rescue using a drone according to the present invention may be a server according to an embodiment of the present invention. In addition, in the description of the method for rescue of a survivor according to the present invention, the same or overlapping description of the system described above may be omitted.

도 5는 본 발명에 따른 조난자 구조 방법을 나타낸 도면이다. 5 is a view showing a rescue method for a survivor according to the present invention.

도 5에 따르면, 본 발명은 드론을 이용한 조난자 구조 방법에 있어서, 조난 구역을 촬영한 영상 데이터 및 조난 구역에 대한 좌표 정보를 수신하는 단계(S1100), 수신한 영상 데이터를 기초로 조난자 발생 정보를 획득하는 단계(S1200), 드론을 수신한 좌표 정보로 이동시키도록 제어 명령을 생성하는 단계(S1300) 및 드론을 제어하여 조난자의 상태 정보를 획득하는 단계(S1400)를 포함할 수 있다. According to Figure 5, in the present invention, in the method of rescue using a drone, receiving image data photographed in a distress area and coordinate information on the distress area (S1100), based on the received image data, information on the occurrence of distress It may include obtaining (S1200), generating a control command to move the drone to the received coordinate information (S1300), and controlling the drone to obtain status information of the distressed (S1400).

수신한 영상 데이터를 기초로 조난자 발생 정보를 획득하는 단계(S1200)는 영상 데이터뿐만 아니라 드론으로부터 수신한 열화상 이미지 데이터를 기초로 조난자 발생 정보를 획득하는 단계를 포함할 수 있다. Acquiring the distress occurrence information based on the received image data ( S1200 ) may include acquiring the distress occurrence information based on the thermal image data received from the drone as well as the image data.

또한, 본 발명에 따른 조난자 구조 방법은 획득한 상태 정보를 기초로 대응 매뉴얼 정보를 로딩하는 단계(S1500) 및 로딩한 대응 매뉴얼 정보를 기초로 드론을 제어하는 단계(S1600)를 더 포함할 수 있다. In addition, the distress rescue method according to the present invention may further include loading corresponding manual information based on the obtained status information (S1500) and controlling the drone based on the loaded corresponding manual information (S1600). .

상술한 각 단계별 서버의 동작은 본 발명의 일 실시예에 따른 시스템에서 설명한 내용과 동일하므로 생략한다. The operation of the server in each step described above is the same as the description in the system according to an embodiment of the present invention, and thus is omitted.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The present invention described above can be modeled as computer readable code on a medium in which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes modeling in the form of a carrier wave (eg, transmission over the Internet). Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of this specification should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of this specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not mutually exclusive or distinct. Any of the above-described embodiments or other embodiments of the present invention may be combined or combined with each configuration or function.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

130: 시스템
131: 서버
132; 카메라
133: 드론
A1: 안전 구역
A2: 조난 구역
130: system
131: server
132; camera
133: drone
A1: Safe Zone
A2: Distress Area

Claims (7)

조난 구역을 촬영하여 영상 데이터를 생성하고, 미리 저장된 좌표 정보를 포함하는 카메라;
상기 영상 데이터 및 좌표 정보를 수신하고, 상기 영상 데이터를 기초로 조난자 발생 정보를 획득하는 서버; 및
상기 서버로부터 제어 명령을 수신하고, 상기 제어 명령에 따라 상기 미리 저장된 좌표 정보로 이동하는 드론;을 포함하고,
상기 드론은,
상기 미리 저장된 좌표 정보를 기초로 이동하여 상기 조난 구역을 촬영하고, 상기 조난 구역에서 상기 조난자를 찾아 상기 조난자의 상태 정보를 획득하며, 상기 상태 정보를 상기 서버에 전송하는 것인, 드론을 이용한 조난자 구조 시스템.
a camera that generates image data by photographing a distress zone, and includes coordinate information stored in advance;
a server for receiving the image data and coordinate information, and obtaining distress occurrence information based on the image data; and
A drone that receives a control command from the server and moves to the pre-stored coordinate information according to the control command; includes,
The drone is
A person in distress using a drone, which moves based on the pre-stored coordinate information to photograph the distress area, finds the distressed person in the distress zone, acquires the status information of the distressed, and transmits the status information to the server rescue system.
제1항에 있어서,
상기 드론은,
상기 서버와 통신하기 위한 통신 모듈;
상기 조난자와의 커뮤니케이션을 위한 마이크 및 스피커;
상기 드론의 위치를 측정하기 위한 GPS 모듈; 및
상기 조난자를 촬영하여 열화상 이미지 데이터를 생성하는 열화상 카메라;를 포함하고,
상기 통신 모듈은,
상기 열화상 이미지 데이터를 상기 서버로 전송하는 것인, 드론을 이용한 조난자 구조 시스템.
According to claim 1,
The drone is
a communication module for communicating with the server;
a microphone and a speaker for communication with the distressed person;
a GPS module for measuring the position of the drone; and
Including; a thermal imaging camera that generates thermal image data by photographing the survivors,
The communication module is
A rescue system using a drone that transmits the thermal image data to the server.
제2항에 있어서,
상기 서버는,
상기 영상 데이터 및 상기 열화상 이미지 데이터를 수신하고, 상기 영상 데이터 및 상기 열화상 이미지 데이터를 기초로 상기 상태 정보를 획득하는 것인, 드론을 이용한 조난자 구조 시스템.
3. The method of claim 2,
The server is
Receiving the image data and the thermal image data, and obtaining the state information based on the image data and the thermal image data, a rescue system using a drone.
제3항에 있어서,
상기 서버는,
상기 상태 정보를 기초로, 상기 조난자에 대한 대응 매뉴얼 정보를 획득하고, 상기 대응 매뉴얼 정보를 기초로 상기 드론을 제어하는 것인, 드론을 이용한 조난자 구조 시스템.
4. The method of claim 3,
The server is
A rescue system using a drone to obtain corresponding manual information for the distressed person based on the status information, and to control the drone based on the corresponding manual information.
제1항에 있어서,
상기 카메라는,
광 이미지로부터 상기 영상 데이터를 생성하는 카메라 모듈;을 포함하고,
상기 카메라 모듈은,
측벽에 관통홀을 포함하는 하우징;
상기 관통홀에 설치된 렌즈; 및
상기 렌즈를 구동하는 구동부;를 포함하는 것인, 드론을 이용한 조난자 구조 시스템.
According to claim 1,
The camera is
A camera module that generates the image data from an optical image;
The camera module,
a housing including a through hole in the side wall;
a lens installed in the through hole; and
A driving unit for driving the lens; comprising, a rescue system using a drone.
드론을 이용한 조난자 구조 방법에 있어서,
조난 구역을 촬영한 영상 데이터 및 상기 조난 구역에 대한 좌표 정보를 수신하는 단계;
상기 영상 데이터를 기초로 조난자 발생 정보를 획득하는 단계;
상기 드론을 상기 좌표 정보로 이동시키도록 제어 명령을 생성하는 단계; 및
상기 드론을 제어하여 상기 조난자의 상태 정보를 획득하는 단계;를 포함하는, 드론을 이용한 조난자 구조 방법.
In the method of rescue of a shipwreck using a drone,
Receiving image data of the distress zone and coordinate information for the distress zone;
obtaining information on the occurrence of survivors based on the image data;
generating a control command to move the drone to the coordinate information; and
Controlling the drone to obtain status information of the survivor; including, a method for rescue of a survivor using a drone.
명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서,
상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제6항의 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체.
A non-transitory computer-readable medium having stored thereon instructions, comprising:
The non-transitory computer-readable medium, wherein the instructions, when executed by a processor, cause the processor to perform the method of claim 6 .
KR1020210015280A 2021-02-03 2021-02-03 Rescue system and method using drone KR102536191B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210015280A KR102536191B1 (en) 2021-02-03 2021-02-03 Rescue system and method using drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210015280A KR102536191B1 (en) 2021-02-03 2021-02-03 Rescue system and method using drone

Publications (2)

Publication Number Publication Date
KR20220111900A true KR20220111900A (en) 2022-08-10
KR102536191B1 KR102536191B1 (en) 2023-05-23

Family

ID=82846871

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210015280A KR102536191B1 (en) 2021-02-03 2021-02-03 Rescue system and method using drone

Country Status (1)

Country Link
KR (1) KR102536191B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140038115A (en) * 2012-09-20 2014-03-28 지창환 Removable emergency rescue device for climbing road
KR20170077307A (en) * 2015-12-28 2017-07-06 김동현 Camera module for unmanned mobile
KR101961800B1 (en) * 2018-04-20 2019-03-25 전석기 Emergency accident rescue system using drones
KR20190116019A (en) * 2018-04-04 2019-10-14 다빈치온 주식회사 Disaster Site Monitoring System
KR20190125588A (en) * 2018-04-30 2019-11-07 (주)다온씨앤티 Drone with thermo-graphic camera and zoom camera for searching the missing on the sea and system for searching the missing on the sea
KR20190142079A (en) * 2018-06-15 2019-12-26 주식회사 케이티 Mobile Base Station and System for Providing Services Using Mobile Base Station
KR102200679B1 (en) 2020-09-22 2021-01-11 주식회사 함께드론맵핑 Distance surveying drone

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140038115A (en) * 2012-09-20 2014-03-28 지창환 Removable emergency rescue device for climbing road
KR20170077307A (en) * 2015-12-28 2017-07-06 김동현 Camera module for unmanned mobile
KR20190116019A (en) * 2018-04-04 2019-10-14 다빈치온 주식회사 Disaster Site Monitoring System
KR101961800B1 (en) * 2018-04-20 2019-03-25 전석기 Emergency accident rescue system using drones
KR20190125588A (en) * 2018-04-30 2019-11-07 (주)다온씨앤티 Drone with thermo-graphic camera and zoom camera for searching the missing on the sea and system for searching the missing on the sea
KR20190142079A (en) * 2018-06-15 2019-12-26 주식회사 케이티 Mobile Base Station and System for Providing Services Using Mobile Base Station
KR102200679B1 (en) 2020-09-22 2021-01-11 주식회사 함께드론맵핑 Distance surveying drone

Also Published As

Publication number Publication date
KR102536191B1 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
US11563932B2 (en) Estimating real-time delay of a video data stream
US10345803B2 (en) Multi-part navigation process by an unmanned aerial vehicle for navigation
US10106257B2 (en) Mechanisms for lowering a payload to the ground from a UAV
US8983682B1 (en) Unlocking mobile-device and/or unmanned aerial vehicle capability in an emergency situation
US9849979B2 (en) Providing services using unmanned aerial vehicles
WO2017170148A1 (en) Flight device, electronic device and program
US10101196B2 (en) Device for UAV detection and identification
US9671781B1 (en) Responsive navigation of an unmanned aerial vehicle to a remedial facility
CN105278544A (en) Control method and device of unmanned aerial vehicle
US11908306B2 (en) Rescue request apparatus, rescue request method, and non-transitory computer readable medium
KR102321351B1 (en) Integrated control system for drone
KR102536191B1 (en) Rescue system and method using drone
KR102563552B1 (en) Agricultural automation system using drone
KR102536030B1 (en) System and method for preventing invasion of wild animal using drones
US20200019191A1 (en) Method for following wearable device and robot thereof
KR102440081B1 (en) Companion animal autonomous walking drone
KR102440462B1 (en) Drone for quarantine and quarantine method using the same
JP2019159624A (en) Unmanned aircraft, and watching method
KR102669369B1 (en) System and method of evacuation route guidance for emergency using nfc
CN211919021U (en) Wisdom trip unmanned aerial vehicle system
KR102350381B1 (en) Ship safety management system based on artificial intelligence
JPWO2017022057A1 (en) POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND COMPUTER-READABLE RECORDING MEDIUM
KR20220135380A (en) Prevention system using thermal imaging camera
KR20190012963A (en) Drone for security and its operating method
TW202019059A (en) Wireless charging and automatic positioning device for unmanned vehicle guaranteeing stable adsorption and positioning to realize rapid charging without influences from the environment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant