KR20220162902A - Marine searching system using drone and the method thereof - Google Patents

Marine searching system using drone and the method thereof Download PDF

Info

Publication number
KR20220162902A
KR20220162902A KR1020210070555A KR20210070555A KR20220162902A KR 20220162902 A KR20220162902 A KR 20220162902A KR 1020210070555 A KR1020210070555 A KR 1020210070555A KR 20210070555 A KR20210070555 A KR 20210070555A KR 20220162902 A KR20220162902 A KR 20220162902A
Authority
KR
South Korea
Prior art keywords
information
drone
sea level
marine
rescue
Prior art date
Application number
KR1020210070555A
Other languages
Korean (ko)
Other versions
KR102658520B1 (en
Inventor
박태윤
Original Assignee
주식회사 켐에쎈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 켐에쎈 filed Critical 주식회사 켐에쎈
Priority to KR1020210070555A priority Critical patent/KR102658520B1/en
Publication of KR20220162902A publication Critical patent/KR20220162902A/en
Application granted granted Critical
Publication of KR102658520B1 publication Critical patent/KR102658520B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • G01S19/17Emergency applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • B64C2201/127
    • B64C2201/128
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to a marine rescue target searching system using a drone and a method thereof. A server collects weather information, marine information, sea surface image information photographed by the drone and GPS information matched with the corresponding sea surface image information, learning in a neural network manner is performed with the same as input values to generate sea surface pattern information for each weather situation, for each marine situation and for each position, the sea surface image information photographed by the drone is transmitted in real time and is compared with the sea surface image pattern to detect a rescue target, and the real-time positional information of the rescue target is generated by calculating the current position of the rescue target based on the weather information, the marine information and GPS information at the point of time when the rescue target was photographed by the drone. Therefore, time for searching for a rescue target can be minimized and the protection of lives and property can be maximized.

Description

드론을 이용한 해양 구난대상 수색 시스템 및 그 방법{MARINE SEARCHING SYSTEM USING DRONE AND THE METHOD THEREOF} Marine rescue target search system and method using drone {MARINE SEARCHING SYSTEM USING DRONE AND THE METHOD THEREOF}

본 발명은 드론을 이용한 해양 구난대상 수색 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는, 드론을 이용하여 해양에서 표류중인 요구조자 및 요구조품을 포함하는 구난대상을 수색하는 시스템 및 그 방법에 관한 것이다.The present invention relates to a system and method for searching for a marine rescue object using a drone, and more particularly, to a system and method for searching for a rescue object including a person who is drifting in the sea and a person to be rescued by using a drone. .

최근 국내에서는 낚시 취미인구의 폭발적 성장으로 인해 해양에서 선박 낚시를 즐기는 인구가 늘어나고 있고, 이에 따라 낚시배 선주들은 보다 유리한 낚시 포인트를 선점하기 위해 경쟁 선박 보다 빨리 해당 포인트에 도착하기 위해 파고 등 바다 상황을 무시하고 위험한 선박 운행을 자행하는 일이 비일비재하고 있다. Recently, due to the explosive growth of the fishing hobby population in Korea, the number of people who enjoy boat fishing in the ocean is increasing, and accordingly, fishing boat owners are trying to preoccupy more advantageous fishing points in order to arrive at the point faster than competing vessels due to sea conditions such as digging. It is not uncommon for ships to operate dangerously while ignoring the regulations.

이와 같은 배경에 따라 선박이 파도, 암초, 경쟁 선박 등과 충돌하여 좌초 및 전복되는 사고가 과거에 비해 증가하고 있다. 더욱이 최근 천안함 침몰 사건, 세월호 침몰 사고 등 인적 피해가 막대한 국가 재난적 해양사고의 영향으로 인해 국가 차원에서 해양 사고를 대응하고 해양 사고로 인한 피해를 최소화할 수 있는 기술 개발의 필요성이 증대되고 있다.Against this background, accidents in which a ship collides with waves, reefs, rival ships, etc., resulting in stranding and overturning are increasing compared to the past. Moreover, due to the impact of national catastrophic maritime accidents with enormous human damage, such as the recent sinking of the Cheonan and the sinking of the Sewol ferry, the need for technology development to respond to maritime accidents and minimize damage from maritime accidents is increasing at the national level. have.

한편, 해양에서 조난자는 사고 지점에 그대로 머물러 있지 못하고 파도에 의해 표류하게 된다. 파도에 의해 표류하는 조난자는 구조 작업이 신속히 이루어지는 경우, 사고 지점으로부터 그리 멀지 않은 지점에서 발견될 수 있지만, 구조 작업이 신속히 이루어지지 못하는 상황이거나 또는 사고 지점 주변의 파도가 매우 강한 경우 등의 상황에서는 사고 지점으로부터 동떨어진 먼 곳까지 표류하여 구조가 힘들어질 수 있으며, 이와 같은 상황에서 구조대는 조난자를 발견하기 위해 추가적인 수색작업을 수행하게 되어 구조작업이 어렵게 될 수 있다.On the other hand, in the ocean, the shipwrecked person cannot stay at the accident point and is drifted by the waves. A shipwrecked person drifting by waves can be found at a point not far from the accident site if rescue operations are carried out quickly, but in situations where rescue operations are not carried out quickly or the waves around the accident location are very strong, etc. Rescue may be difficult as it drifts far away from the accident site.

이러한 조난자 식별의 어려움은, 사고 지점이 육지와 가까운 근해가 아니라, 조난자의 표류 거리가 상대적으로 먼 거리나, 시야가 극도로 제한되는 야간인 경우에 더욱 가중되어 원활한 구조 작업을 방해하고, 급박한 상황에 처한 조난자의 생명을 위태롭게 만드는 문제가 있다.The difficulty in identifying the survivors is further aggravated when the accident point is not near the shore, but the drifting distance of the castaway is relatively long, or it is at night when the visibility is extremely limited, hindering smooth rescue work and urgent rescue operations. There is a problem that endangers the life of a castaway in a situation.

상기와 같은 실정에 따라 본 발명은 드론을 이용하여 해수면을 촬영하고, 이와 같이 촬영된 해수면 영상 정보를 눈, 비 및 구름 관련 정보 중 적어도 하나 이상의 정보를 포함하는 기상 정보와, 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보 중 적어도 하나 이상을 포함하는 해양 정보와 비교 분석하여 기상 상황별 및 해양 상황별 해수면 영상 패턴을 생성한 후, 조난 사고 발생시 상기 드론에서 촬영되는 해수면 영상을 상기 해수면 영상 패턴과 비교하여 자동으로 조난자를 감지할 수 있는 새로운 해양 구난대상 수색 시스템 및 그 방법을 제시하고자 한다.According to the above situation, the present invention uses a drone to photograph the sea level, and the photographed sea level image information includes meteorological information including at least one or more of information related to snow, rain, and clouds, and wind direction, wind speed, and atmospheric pressure. , Humidity, water temperature, wave height, wave period, and current-related information are compared and analyzed with marine information including at least one of them to create a sea level image pattern for each weather situation and marine situation, and then the sea level photographed by the drone when a distress accident occurs. A new marine rescue object search system and method capable of automatically detecting a person in distress by comparing the image with the sea level image pattern are proposed.

다음으로 종래의 해양 수색 기술분야에 존재하는 선행기술에 대하여 간략하게 설명하고, 이어서 본 발명이 상기 선행기술에 비하여 차별적으로 이루고자 하는 기술적 사항에 대해 설명하도록 한다.Next, the prior art that exists in the conventional marine search technology field will be briefly described, and then the technical details to be achieved by the present invention to be differentiated from the prior art will be described.

먼저, 한국공개특허공보 10-2019-0059081 A (2019.05.30. 공개일)는 해양 모니터링용 드론에 관한 것으로, 보다 구체적으로는, 기름 유출/적조 출현/냉수대 출현/저염분 출현/선박 사고 등의 각종 해상 사고/재난 발생에 대한 모니터링과 선박/해상 구조물의 결함 진단이 무인비행하는 소형 드론을 통해서도 간편하고 원활하게 수행될 수 있도록 하고, 이를 위하여 모터 틸팅 기반의 수평추력 발생구조를 제공함으로써 해상 착륙 후 해수면에서의 수평이동이 가능해져 각종 해상환경 점검을 위한 활동영역의 확장과 해상환경 운항적응력 향상이 도모되도록 하며, 채수기와 CTD 측정기의 상하이동 제어를 위한 다양한 구조의 액추에이터 구성을 제안함으로써 드론의 운항(비행, 이착륙, 자세제어)이 안정적으로 유지되면서도 해수 채취/해수 상태정보 측정이 원활하고 용이하게 수행될 수 있도록 하는 해양 모니터링용 드론에 관한 기술이 기재되어 있다.First, Korean Patent Publication No. 10-2019-0059081 A (published on May 30, 2019) relates to drones for marine monitoring, and more specifically, oil spills/red tides/cold water zones/low salinity/ship accidents, etc. Monitoring of various maritime accidents/disasters and diagnosis of defects in ships/marine structures can be performed easily and smoothly even with a small drone flying unmanned. After landing, horizontal movement on the sea surface is possible, expanding the activity area for checking various maritime environments and improving operational adaptability to the maritime environment. A technology related to a marine monitoring drone is described that allows seawater collection/seawater condition measurement to be carried out smoothly and easily while operation (flight, takeoff and landing, attitude control) is stably maintained.

또한, 한국공개특허공보 10-2020-0106278 A (2020.09.14. 공개일)는 해상 조난자의 위치를 발신하는 장치와 이의 수신기 및 수색용 드론 운용 시스템에 관한 것으로, 보다 구체적으로는, 조난자로부터 구조 신호를 수신하는 단계, 구조 신호를 기초로 조난자의 위치를 결정하는 단계, 조난자의 위치로 이동하는 단계를 포함하되, 조난자로부터 구조 신호가 수신되지 않는 경우, 이전 수신한 구조 신호, 모니터링 장치로부터 수신한 해상 정보 중 적어도 하나를 기초로 구조자의 위치를 추정하는 시스템에 관한 기술이 기재되어 있다.In addition, Korean Patent Laid-open Publication No. 10-2020-0106278 A (published on September 14, 2020) relates to a device for transmitting the location of a person in distress at sea, a receiver thereof, and a drone operation system for search, and more specifically, rescue from a person in distress. Receiving a signal, determining the location of the person in distress based on the distress signal, and moving to the location of the person in distress, wherein if the rescue signal is not received from the person in distress, the previously received rescue signal is received from the monitoring device A technique related to a system for estimating a rescuer's position based on at least one piece of maritime information is described.

또한, 한국공개특허공보 10-2020-0095155 A (2020.08.10. 공개일)는 드론을 이용한 해양구조물 감시방법 및 이를 이용한 시스템에 관한 것으로, 보다 구체적으로는, 해양 구조물의 설계 정보를 구조물 감시 시스템에 입력하는 설계 정보 입력 단계; 드론을 활용하여 상기 해양 구조물의 현재 정보를 촬영 및 분석하여 상기 구조물 감시 시스템에 입력하는 현재 정보 입력 단계; 상기 구조물 감시 시스템에서 상기 설계 정보와 상기 현재 정보를 비교하는 비교 단계; 및 상기 구조물 감시 시스템에서 상기 비교 단계에서 비교한 상기 설계 정보와 상기 현재 정보의 차이를 분석하여 미리 설정된 후속 조치를 지시하는 후속 처리 단계를 포함하는 드론을 이용한 해양구조물 감시 관련 기술이 기재되어 있다.In addition, Korean Patent Publication No. 10-2020-0095155 A (2020.08.10. Publication date) relates to a method for monitoring marine structures using drones and a system using the same, and more specifically, a structure monitoring system for design information of marine structures. Design information input step to input to; A current information input step of photographing and analyzing current information of the offshore structure using a drone and inputting the current information to the structure monitoring system; A comparison step of comparing the design information and the current information in the structure monitoring system; and a follow-up processing step of instructing a preset follow-up action by analyzing the difference between the design information and the current information compared in the comparison step in the structure monitoring system.

상기 선행기술문헌을 포함하는 종래 기술은 드론을 이용하여 해양 구조물 및 조난자를 감시 및 수색하는 기술을 포함하고 있으나, 기상 및 해양 상황에 따라 다양한 해수면 패턴을 가지는 해양의 환경적 특성으로 인해 드론에서 촬영되는 영상만을 통해 조난자를 정확히 감지하는 것은 한계가 있었다. Conventional technologies including the above prior art documents include technologies for monitoring and searching for marine structures and shipwrecked persons using drones, but due to the environmental characteristics of the ocean having various sea level patterns depending on weather and ocean conditions, the drones take pictures. There was a limit to accurately detecting the person in distress through only the video provided.

한국공개특허공보 10-2019-0059081 A (2019.05.30. 공개일)Korean Patent Publication No. 10-2019-0059081 A (2019.05.30. Publication date) 한국공개특허공보 10-2020-0106278 A (2020.09.14. 공개일)Korean Patent Publication No. 10-2020-0106278 A (2020.09.14. Publication date) 한국공개특허공보 10-2020-0095155 A (2020.08.10. 공개일)Korean Patent Publication No. 10-2020-0095155 A (2020.08.10. Publication date)

본 발명은 상기와 같은 종래 기술의 한계를 해결하기 위해 창작된 것으로, 서버에서 기상 정보와, 해양 정보와, 드론에서 촬영되는 해수면 영상 정보와 해당 해수면 영상 정보와 매칭되는 GPS 정보를 수집하고 이를 입력값으로 하여 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 진행하여 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하며, 드론에서 촬영되는 해수면 영상 정보를 실시간으로 전송받고, 상기 해수면 영상 패턴 정보와 비교하여, 구난대상 감지하고, 상기 기상 정보, 해양 정보 및 드론에서 구난대상이 촬영된 시점의 GPS 정보를 기반으로 구난대상의 현재 위치를 계산하여 실시간 구난대상 위치정보를 생성하는 드론을 이용한 해양 구난대상 수색 시스템 및 그 방법을 제공하고자 하는 데 그 목적이 있다.The present invention was created to solve the limitations of the prior art as described above, and the server collects weather information, marine information, sea level image information captured by a drone, and GPS information matched with the corresponding sea level image information, and inputs them. Neural-Newtork method learning is performed using values as sea level image pattern information for each weather condition, ocean condition, and location, and the sea level image information captured by the drone is transmitted in real time, and the sea level image Compared with the pattern information, the drone that detects the rescue target, calculates the current location of the rescue target based on the weather information, marine information, and GPS information at the time the rescue target was captured by the drone to generate real-time rescue target location information. The purpose is to provide a marine rescue target search system and method using the same.

본 발명의 일 실시예에 따른 드론을 이용한 해양 구난대상 수색 시스템은, 비행수단, 비행제어모듈, 통신모듈, GPS 모듈, 배터리 및 해수면을 촬영하기 위한 카메라를 포함하는 적어도 하나 이상의 드론; 유무선 통신망으로 통해 상기 드론과 통신하는 통신부, 해양 조난자 및 조난품을 포함하는 구난대상에 대한 수색 범위 정보를 기반으로, 상기 드론이 비행하며 상기 수색 범위내 해수면을 촬영할 수 있도록 하는 비행경로를 생성하는 비행경로 생성부, 눈, 비 및 구름 관련 정보 중 적어도 하나 이상의 정보를 포함하는 기상 정보와, 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보 중 적어도 하나 이상을 포함하는 해양 정보와, 상기 드론에서 촬영되는 해수면 영상 정보와 해당 해수면 영상 정보와 매칭되는 GPS 정보를 수집하는 해양 정보 수집부, 상기 해양 정보 수집부에서 수집된 기상 정보, 해양 정보, 해수면 영상 정보 및 GPS 정보를 입력값으로 하여 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 진행하여 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 해수면 패턴 분석부, 상기 드론에서 촬영되는 해수면 영상 정보를 실시간으로 전송받고, 이를 상기 해수면 패턴 분석부에서 생성된 해수면 영상 패턴 정보와 비교하여, 상기 드론에서 실시간으로 촬영된 해수면 영상 내에서 상기 해수면 영상 패턴 정보에 따른 해수면 영상 패턴과 다른 영상 패턴을 감지하는 해수면 영상 분석부, 상기 해수면 영상 분석부에서 감지한 상기 해수면 영상 패턴과 다른 영상 패턴을 구난대상으로 설정하고, 상기 해양 정보 수집부에서 수집된 기상 정보 및 해양 정보와 상기 드론에서 상기 구난대상이 촬영된 시점의 GPS 정보를 기반으로, 상기 구난대상의 현재 위치를 계산하여 실시간 구난대상 위치정보를 생성하는 구난대상 위치 분석부, 및 상기 비행경로 생성부에서 생성된 비행경로를 기반으로 상기 드론이 비행하면서 상기 수색 범위 정보 기반으로 해수면의 영상 촬영을 수행하도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송하는 제어부,를 포함하는 서버;를 포함하는 것을 특징으로 한다.A marine rescue target search system using a drone according to an embodiment of the present invention includes at least one drone including a flight means, a flight control module, a communication module, a GPS module, a battery, and a camera for photographing the sea surface; Based on the search range information for the rescue target including the communication unit communicating with the drone through a wired/wireless communication network, a marine victim and a shipwreck, a flight path allowing the drone to fly and photograph the sea surface within the search range Generates a flight path Flight route creation unit, meteorological information including at least one of information related to snow, rain, and clouds, and marine information including at least one of information related to wind direction, wind speed, air pressure, humidity, water temperature, wave height, wave period, and current information, a marine information collection unit that collects sea level image information captured by the drone and GPS information matched with the corresponding sea level image information, meteorological information, marine information, sea level image information, and GPS information collected by the marine information collection unit A sea level pattern analyzer that generates sea level image pattern information for each weather situation, ocean situation, and location by learning in a neural network (Neural-Newtork) method using input values, sea level image information captured by the drone in real time A sea level image that is received and compared with the sea level image pattern information generated by the sea level pattern analyzer to detect an image pattern different from the sea level image pattern according to the sea level image pattern information within the sea level image captured in real time by the drone An analysis unit sets an image pattern different from the sea level image pattern detected by the sea level image analysis unit as a rescue target, and the weather information and ocean information collected by the marine information collection unit and the time point at which the rescue target is captured by the drone Based on the GPS information of the rescue object position analysis unit for generating real-time rescue object location information by calculating the current location of the rescue object, and the drone flying based on the flight path generated by the flight path generator, It is characterized in that it includes; a server including a controller for transmitting a control signal to the drone through the communication unit so as to capture an image of the sea level based on search range information.

또한, 일 실시예로서, 상기 비행경로 생성부는, 상기 구난대상 위치 분석부에서 계산된 구난대상의 실시간 구난대상 위치정보를 기반으로, 상기 드론이 비행하며 상기 실시간 구난대상 위치정보에 따른 해수면을 촬영할 수 있도록 하는 구난대상 추적 비행경로를 생성하고, 상기 제어부는, 상기 비행경로 생성부에서 생성된 구난대상 추적 비행경로를 기반으로 적어도 하나 이상의 상기 드론이 비행하면서 상기 실시간 구난대상 위치정보에 따른 해수면의 영상 촬영을 수행하도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송하는 것을 특징으로 한다.In addition, as an embodiment, the flight route generation unit is capable of photographing the sea level according to the real-time target location information while the drone flies based on the location information of the target rescued in real time calculated by the location analysis unit of the target rescued. and the control unit generates a rescue object tracking flight path that enables the rescue object tracking flight path generated by the flight route generator to generate a rescue object tracking flight path, while at least one or more of the drones fly, at sea level according to the rescue object location information in real time. It is characterized in that a control signal is transmitted to the drone through the communication unit to perform image capture.

관련 정보 중 적어도 하나 이상을 포함하는 해양 정보와, 상기 드론에서 촬영되는 해수면 영상 정보와 해당 해수면 영상 정보와 매칭되는 GPS 정보를 수집하는 해양 정보 수집부, 상기 해양 정보 수집부에서 수집된 기상 정보, 해양 정보, 해수면 영상 정보 및 GPS 정보를 입력값으로 하여 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 진행하여 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 해수면 패턴 분석부, 상기 드론에서 촬영되는 해수면 영상 정보를 실시간으로 전송받고, 이를 상기 해수면 패턴 분석부에서 생성된 해수면 영상 패턴 정보와 비교하여, 상기 드론에서 실시간으로 촬영된 해수면 영상 내에서 상기 해수면 영상 패턴 정보에 따른 해수면 영상 패턴과 다른 영상 패턴을 감지하는 해수면 영상 분석부, 상기 해수면 영상 분석부에서 감지한 상기 해수면 영상 패턴과 다른 영상 패턴을 구난대상으로 설정하고, 상기 해양 정보 수집부에서 수집된 기상 정보 및 해양 정보와 상기 드론에서 상기 구난대상이 촬영된 시점의 GPS 정보를 기반으로, 상기 구난대상의 현재 위치를 계산하여 실시간 구난대상 위치정보를 생성하는 구난대상 위치 분석부, 및 상기 비행경로 생성부에서 생성된 비행경로를 기반으로 상기 드론이 비행하면서 상기 수색 범위 정보 기반으로 해수면의 영상 촬영을 수행하도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송하는 제어부,를 포함하는 서버;를 포함하는 것을 특징으로 한다.A marine information collection unit that collects marine information including at least one of related information, sea level image information captured by the drone and GPS information matched with the corresponding sea level image information, weather information collected by the marine information collector, A sea level pattern analysis unit that generates sea level image pattern information for each weather situation, ocean situation, and location by learning in a neural network (Neural-Newtork) method using marine information, sea level image information, and GPS information as input values; The sea level image information captured by the drone is received in real time, compared with the sea level image pattern information generated by the sea level pattern analysis unit, and the sea level image according to the sea level image pattern information within the sea level image captured in real time by the drone A sea level image analysis unit that detects an image pattern different from the pattern, an image pattern different from the sea level image pattern detected by the sea level image analysis unit is set as a rescue target, and the meteorological and marine information collected by the marine information collection unit Based on the GPS information at the time the rescue object was captured by the drone, the rescue object position analysis unit calculates the current location of the rescue object and generates real-time rescue object location information, and the flight generated by the flight path generator. and a server including a control unit for transmitting a control signal to the drone through the communication unit so that the drone flies based on a path and captures an image of the sea level based on the search range information.

또한, 일 실시예로서, 상기 서버는, 사용자가 PC, 스마트폰, 테블릿 PC, 전용 단말기 중 적어도 하나 이상의 수단을 통해 상기 서버에 접속하여 상기 서버에서 수집 및 생성되는 정보를 모니터링할 수 있도록 하는 사용자 인터페이스를 제공하는 모니터링부;를 포함하는 것을 특징으로 한다.In addition, as an embodiment, the server allows the user to monitor information collected and generated by the server by accessing the server through at least one means of a PC, a smartphone, a tablet PC, and a dedicated terminal It is characterized in that it includes; a monitoring unit providing a user interface.

또한, 일 실시예로서, 상기 드론은, 팽창식, 구명조끼, 팽창식 구명튜브, 팽창식 구명보트, 수중용 보온수단 및 수영장비를 포함하는 구명수단 중 적어도 하나 이상이 장착되며, 전기적 제어신호에 따라 이를 드론 몸체로부터 탈착시키는 구명수단부;를 포함하며, 상기 제어부는, 상기 구난대상 추적 비행경로로 비행하는 상기 드론이 상기 실시간 구난대상 위치정보에 따른 구난대상의 위치에서 상기 구명수단을 드론 몸체로부터 탈착시키도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송하는 것을 특징으로 한다. In addition, as an embodiment, the drone is equipped with at least one or more of lifesaving means including an inflatable life jacket, an inflatable lifesaving tube, an inflatable lifeboat, an underwater warming means, and a swimming pool rain, and an electrical control signal and a life-saving means unit for attaching and detaching the life-saving means from the drone body according to the drone, wherein the control unit is configured so that the drone flying along the flight path tracking the rescue object is rescued at the location of the rescue target according to the real-time rescue target location information. It is characterized in that a control signal is transmitted to the drone through the communication unit to detach from the body.

또한, 일 실시예로서, 상기 서버는, 상기 비행경로 생성부, 해양 정보 수집부, 해수면 패턴 분석부 및 구난대상 위치 분석부에서 수집 및 생성되는 정보를 포함하는 정보를 저장하는 정보 저장부;를 더 포함하는 것을 특징으로 한다.In addition, as an embodiment, the server includes an information storage unit for storing information including information collected and generated by the flight path generation unit, marine information collection unit, sea level pattern analysis unit, and rescue target location analysis unit; It is characterized by further including.

또한, 일 실시예로서, 상기 해양 정보 수집부는, 해양에서 항해중인 선박들에 대한 선박스펙정보, 위치정보 및 무전 주파수 정보를 포함하는 선박정보를 수집하고, 상기 제어부는, 상기 구난대상 위치 분석부에서 생성된 실시간 구난대상 위치정보와 상기 해양 정보 수집부에 수집된 선박정보를 기반으로, 구난대상의 현재 위치로 소정 시간내에 접근이 가능할 것으로 판단되는 선박으로 상기 통신부를 통해 구난 조력 무선을 송출하는 것을 특징으로 한다. In addition, as an embodiment, the marine information collection unit collects ship information including ship specification information, location information, and radio frequency information about ships sailing in the ocean, and the control unit includes the rescue target location analysis unit. Based on the real-time rescue target location information generated from and the ship information collected by the marine information collection unit, a rescue assistance radio is transmitted through the communication unit to a ship that is determined to be able to access the current location of the rescue target within a predetermined time. characterized by

또한, 일 실시예로서, 상기 해수면 패턴 분석부는, 상기 기상 정보내 눈, 비 및 구름 관련 정보를 기상 정보 변수로 설정하고, 상기 해양 정보내 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보를 해양 정보 변수로 설정하고, 상기 GPS 정보를 위치 정보 변수로 설정하며, 상기 드론에서 촬영되는 해수면 영상 정보를 상기 기상 정보, 상기 해양 정보 및 상기 GPS 정보와 비교 분석하여, 각 기상 정보 변수, 각 해양 정보 변수 및 위치 정보 변수가 해수면 영상 패턴에 미치는 영향을 뉴럴 네트워크(Neural-Newtork) 방식을 통해 학습하는 방식으로 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 것을 특징으로 한다.In addition, as an embodiment, the sea surface pattern analysis unit sets snow, rain, and cloud-related information in the weather information as weather information variables, and wind direction, wind speed, atmospheric pressure, humidity, water temperature, wave height, and wave period in the ocean information. and setting tide-related information as a marine information variable, setting the GPS information as a location information variable, and comparing and analyzing sea level image information captured by the drone with the weather information, the ocean information, and the GPS information, A method of learning the effects of information variables, each marine information variable, and location information variables on sea level image patterns through a neural network (Neural-Newtork) method to generate sea surface image pattern information by weather conditions, ocean conditions, and locations. characterized by

또한, 본 발명의 또 다른 일 실시예에 따른 드론을 이용한 해난 구난대상 수색 방법은, a) 해양 조난자 및 조난품을 포함하는 구난대상에 대한 수색 범위 정보를 기반으로, 적어도 하나 이상의 드론이 비행하며 상기 수색 범위내 해수면을 촬영할 수 있도록 하는 비행경로를 서버에서 생성하는 비행경로 생성 단계; b) 상기 서버에서 눈, 비 및 구름 관련 정보 중 적어도 하나 이상의 정보를 포함하는 기상 정보와, 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보 중 적어도 하나 이상을 포함하는 해양 정보와, 상기 드론에서 촬영되는 해수면 영상 정보와 해당 해수면 영상 정보와 매칭되는 GPS 정보를 수집하는 해양 정보 수집 단계; c) 상기 서버에서 상기 b) 단계를 통해 수집된 기상 정보, 해양 정보, 해수면 영상 정보 및 GPS 정보를 입력값으로 하여 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 진행하여 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 해수면 패턴 분석 단계; d) 상기 드론에서 촬영되는 해수면 영상 정보를 상기 서버에서 실시간으로 전송받고, 이를 상기 c) 단계에서 생성된 해수면 영상 패턴 정보와 비교하여, 상기 드론에서 실시간으로 촬영된 해수면 영상 내에서 상기 해수면 영상 패턴 정보에 따른 해수면 영상 패턴과 다른 영상 패턴을 감지하는 해수면 영상 분석 단계; e) 상기 서버에서 상기 d) 단계를 통해 감지한 상기 해수면 영상 패턴과 다른 영상 패턴을 구난대상으로 설정하고, 상기 b)단계에서 수집된 기상 정보 및 해양 정보와 상기 드론에서 상기 구난대상이 촬영된 시점의 GPS 정보를 기반으로, 상기 구난대상의 현재 위치를 계산하여 실시간 구난대상 위치정보를 생성하는 구난대상 위치 분석 단계; 및 f) 상기 a) 단계를 통해 생성된 비행경로를 기반으로 상기 드론이 비행하면서 상기 수색 범위 정보 기반으로 해수면의 영상 촬영을 수행하도록 상기 서버에서 상기 드론에 제어신호를 전송하는 제어 단계;를 포함하는 것을 특징으로 한다.In addition, according to another embodiment of the present invention, a marine rescue object search method using a drone includes: a) at least one drone flies based on search range information on a rescue object including a marine shipwrecked person and a shipwrecked article; A flight path creation step of generating, in a server, a flight path for photographing the sea surface within the search range; b) meteorological information including at least one of snow, rain, and cloud-related information, and marine information including at least one of wind direction, wind speed, air pressure, humidity, water temperature, wave height, wave period, and current-related information in the server a marine information collection step of collecting information, sea level image information captured by the drone and GPS information matched with the corresponding sea level image information; c) The server proceeds with Neural-Newtork method learning using the weather information, ocean information, sea level image information, and GPS information collected in step b) as input values, and a sea level pattern analysis step of generating sea level image pattern information for each location. d) The server receives the sea level image information captured by the drone in real time and compares it with the sea level image pattern information generated in step c), A sea level image analysis step of detecting an image pattern different from the sea level image pattern according to the information; e) The server sets an image pattern different from the sea level image pattern detected in step d) as a rescue target, and the weather information and ocean information collected in step b) and the rescue target are captured by the drone. Based on the GPS information at the point of view, a rescue object location analysis step of generating real-time rescue object location information by calculating the current location of the rescue object; and f) a control step of transmitting a control signal from the server to the drone so that the drone flies based on the flight path generated in step a) and captures an image of the sea surface based on the search range information. It is characterized by doing.

또한, 일 실시예로서, 상기 a) 단계는, 상기 e) 단계에서 계산된 구난대상의 실시간 구난대상 위치정보를 기반으로, 상기 드론이 비행하며 상기 실시간 구난대상 위치정보에 따른 해수면을 촬영할 수 있도록 하는 구난대상 추적 비행경로를 상기 서버에서 생성하고, 상기 f) 단계는, 상기 a) 단계를 통해 생성된 구난대상 추적 비행경로를 기반으로 적어도 하나 이상의 상기 드론이 비행하면서 상기 실시간 구난대상 위치정보에 따른 해수면의 영상 촬영을 수행하도록 상기 서버에서 상기 드론에 제어신호를 전송하는 것을 특징으로 한다.In addition, as an embodiment, in the step a), based on the real-time location information of the rescue object calculated in the step e), the drone flies and captures the sea level according to the real-time location information of the rescue object. In the server, a flight path for tracking an object to be rescued is generated in the server, and in step f), based on the flight path for tracking an object to be rescued generated in step a), while at least one drone is flying, the location information of the object to be rescued is displayed in real time. It is characterized in that the server transmits a control signal to the drone to perform image capture of the sea surface according to the drone.

또한, 일 실시예로서, 상기 드론을 이용한 해양 구난대상 수색 방법은, g) 사용자가 PC, 스마트폰, 테블릿 PC, 전용 단말기 중 적어도 하나 이상의 수단을 통해 상기 서버에 접속하여 상기 서버에서 수집 및 생성되는 정보를 모니터링할 수 있도록 하는 사용자 인터페이스를 상기 서버에서 제공하는 모니터링 제공 단계;를 포함하는 것을 특징으로 한다.In addition, as an embodiment, in the marine rescue target search method using the drone, g) a user accesses the server through at least one of a PC, a smartphone, a tablet PC, and a dedicated terminal, and collects and and a monitoring provision step of providing a user interface for monitoring generated information from the server.

또한, 일 실시예로서, 상기 f) 단계는, 상기 구난대상 추적 비행경로로 비행하는 상기 드론이 상기 실시간 구난대상 위치정보에 따른 구난대상의 위치에서 팽창식, 구명조끼, 팽창식 구명튜브, 팽창식 구명보트, 수중용 보온수단 및 수영장비를 포함하는 구명수단 중 적어도 하나 이상을 드론 몸체로부터 탈착시키도록 상기 서버에서 상기 드론에 제어신호를 전송하는 것을 특징으로 한다.In addition, as an embodiment, in the step f), the drone flying along the rescue target tracking flight path is inflatable, a life jacket, an inflatable life-saving tube, and an inflatable at the location of the rescue target according to the real-time rescue target location information. It is characterized in that the server transmits a control signal to the drone to detach at least one or more of lifesaving means including a food lifeboat, an underwater warming means, and a swimming pool rainwater from the body of the drone.

또한, 일 실시예로서, h) 상기 드론을 이용한 해양 구난대상 수색 방법은, 상기 서버에서 수집 및 생성되는 정보를 포함하는 정보를 저장하는 정보 저장 단계;를 더 포함하는 것을 특징으로 한다.In addition, as an embodiment, h) the marine rescue object search method using the drone may further include an information storage step of storing information including information collected and generated by the server.

또한, 일 실시예로서, 상기 b) 단계는, 해양에서 항해중인 선박들에 대한 선박스펙정보, 위치정보 및 무전 주파수 정보를 포함하는 선박정보를 상기 서버에서 수집하고, 상기 f) 단계는, 상기 e) 단계에서 생성된 실시간 구난대상 위치정보와 상기 해양 정보 수집부에 수집된 선박정보를 기반으로, 구난대상의 현재 위치로 소정 시간내에 접근이 가능할 것으로 판단되는 선박으로 상기 서버에서 구난 조력 무선을 송출하는 것을 특징으로 한다.In addition, as an embodiment, in the step b), the server collects ship information including ship specification information, location information, and radio frequency information about ships sailing in the ocean, and the step f) includes the Based on the location information of the rescue object generated in step e) and the ship information collected by the marine information collection unit, the server determines that the current location of the rescue object can be approached within a predetermined time. It is characterized by sending.

또한, 일 실시예로서, 상기 c) 단계는, 상기 서버에서 상기 기상 정보내 눈, 비 및 구름 관련 정보를 기상 정보 변수로 설정하고, 상기 해양 정보내 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보를 해양 정보 변수로 설정하고, 상기 GPS 정보를 위치 정보 변수로 설정하며, 상기 드론에서 촬영되는 해수면 영상 정보를 상기 기상 정보, 상기 해양 정보 및 상기 GPS 정보와 비교 분석하여, 각 기상 정보 변수, 각 해양 정보 변수 및 위치 정보 변수가 해수면 영상 패턴에 미치는 영향을 뉴럴 네트워크(Neural-Newtork) 방식을 통해 학습하는 방식으로 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 것을 특징으로 한다.In addition, as an embodiment, in the step c), the server sets information related to snow, rain, and clouds in the weather information as weather information variables, and wind direction, wind speed, air pressure, humidity, water temperature, and wave height in the ocean information. , wave period and tide-related information are set as marine information variables, the GPS information is set as location information variables, and sea level image information captured by the drone is compared and analyzed with the weather information, the ocean information, and the GPS information. , sea level image pattern information by weather conditions, ocean conditions, and locations by learning the effect of each weather information variable, each ocean information variable, and location information variable on the sea level image pattern through a neural network (Neural-Newtork) method It is characterized by generating.

본 발명은 드론을 이용한 해양 구난대상 수색 시스템에 있어서, 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 진행하여 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하고, 실시간으로 드론에서 촬영되는 해수면 영상을 상기 해수면 영상 패턴과 비교하여 정상적인 해수면 영상 패턴 외의 패턴을 감지하는 방식으로 해양 구난대상을 높은 정확도를 가지고 자동으로 감지함으로써, 구난대상을 수색시간을 최소화하고 인명과 재산 보존을 극대화 할 수 있는 효과가 있다.In the marine rescue target search system using drones, the present invention proceeds with neural network (Neural-Newtork) method learning to generate sea surface image pattern information for each weather situation, ocean situation, and location, and photographing in real time from the drone. By comparing the sea level image to be retrieved with the sea level image pattern and detecting a pattern other than the normal sea level image pattern, the marine rescue target is automatically detected with high accuracy, thereby minimizing the search time for the rescue target and maximizing the preservation of life and property. There are possible effects.

도 1은 본 발명의 일 실시예에 따른 드론을 이용한 해양 구난대상 수색 시스템에 대해 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 드론을 이용한 해양 구난대상 수색 방법에 대해 설명하기 위한 흐름도이다.
1 is a block diagram for explaining a marine rescue object search system using a drone according to an embodiment of the present invention.
2 is a flowchart for explaining a method for searching for a marine rescue object using a drone according to an embodiment of the present invention.

본 발명의 각 도면에 있어서, 구조물들의 사이즈나 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나 축소하여 도시한 것이고, 특징적 구성이 드러나도록 공지의 구성들은 생략하여 도시하였으므로 도면으로 한정하지는 아니한다.In each drawing of the present invention, the size or dimensions of the structures are enlarged or reduced from the actual ones for clarity of the present invention, and the known configurations are omitted so that the characteristic configurations are revealed, so they are not limited to the drawings. .

본 발명의 바람직한 실시예에 대한 원리를 상세하게 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.In describing the principles of preferred embodiments of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.In addition, since the embodiments described in this specification and the configurations shown in the drawings are only one of the most preferred embodiments of the present invention and do not represent all of the technical ideas of the present invention, various alternatives may be used at the time of this application. It should be understood that there may be equivalents and variations.

다른 식으로 정의되지 않는 한, 본 명세서에서 사용된 모든 기술적 및 과학적 용어들은 본 발명이 속하는 기술 분야에서 숙련된 전문가에 의해서 통상적으로 이해되는 것과 동일한 의미를 가진다. Unless defined otherwise, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

본 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated.

본 발명에 따른 드론을 이용한 해양 구난대상 수색 시스템 및 그 방법은 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 통해 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하고, 드론에서 실시간으로 촬영되는 해수면 영상을 이와 비교하여 정상 해수면 영상 패턴 외의 해수면 영상 패턴을 감지하는 방식으로 해양 구난대상을 높은 정확도를 가지고 자동으로 신속하게 감지할 수 있도록 하는데 관한 것이다.The marine rescue target search system and method using a drone according to the present invention generate sea surface image pattern information by weather conditions, marine conditions, and locations through neural-newtork learning, and in real time from a drone. The present invention relates to a method of detecting a sea level image pattern other than a normal sea level image pattern by comparing a captured sea level image with this, so that a marine rescue target can be automatically and quickly detected with high accuracy.

이하, 첨부된 도면을 참조하여 본 발명에 대해 상세하게 설명하도록 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 드론을 이용한 해양 구난대상 수색 시스템에 대해 설명하기 위한 블록도이다.1 is a block diagram for explaining a marine rescue object search system using a drone according to an embodiment of the present invention.

도 1에 도시되어 있는 바와 같이, 상기 본 발명에 따른 드론을 이용한 해양 구난대상 수색 시스템은 적어도 하나 이상의 드론 및 서버를 포함하여 구성된다.As shown in FIG. 1, the marine rescue target search system using a drone according to the present invention includes at least one drone and a server.

상기 드론은 비행수단, 비행제어모듈, 통신모듈, GPS 모듈, 배터리 및 해수면을 촬영하기 위한 카메라를 포함한다. 상기 카메라는 적어도 하나 이상을 포함할 수 있으며, 가시광선 카메라 및 적외선 열화상 카메라를 포함할 수 있다.The drone includes a flight means, a flight control module, a communication module, a GPS module, a battery, and a camera for photographing the sea level. The camera may include at least one, and may include a visible ray camera and an infrared thermal imaging camera.

상기 서버는 통신부, 비행경로 생성부, 해양 정보 수집부, 해수면 패턴 분석부, 해수면 영상 분석부, 구난대상 위치 분석부, 제어부 및 정보 저장부를 포함한다.The server includes a communication unit, a flight route generation unit, a marine information collection unit, a sea level pattern analysis unit, a sea level image analysis unit, a rescue target location analysis unit, a control unit, and an information storage unit.

상기 통신부는 유무선 통신망으로 통해 상기 드론과 통신하는 것이다. 참고로, 본 발명에서 사용되는 통신망은 유무선 통신망을 포함하며, 무선 통신망은 3G, 4G, 5G 또는 와이브로를 포함하는 원거리 통신망과, 블루투스, 지그비, 비콘, RFID, NFC 또는 WiFi를 포함하는 근거리 통신망을 모두 포함한다.The communication unit communicates with the drone through a wired or wireless communication network. For reference, the communication network used in the present invention includes a wired and wireless communication network, and the wireless communication network includes a long-distance communication network including 3G, 4G, 5G or WiBro, and a local area network including Bluetooth, ZigBee, beacon, RFID, NFC, or WiFi all inclusive

또한, 상기 비행경로 생성부는 해양 조난자 및 조난품을 포함하는 구난대상에 대한 수색 범위 정보를 기반으로, 상기 드론이 비행하며 상기 수색 범위내 해수면을 촬영할 수 있도록 하는 비행경로를 생성하는 것이다.In addition, the flight path generation unit generates a flight path that allows the drone to fly and photograph the sea level within the search range based on search range information for a person in distress and a rescue object including a marine victim and a shipwrecked article.

상기 수색 범위 정보는 외부에서 입력된 것일 수도 있고, 입력된 구난대상의 최소 발생 위치 및 발생 시간과, 상기 해양 정보 수집부에서 수집된 기상 정보 및 해양 정보와, 경과 시간을 기반으로 구난대상의 이동 가능 위치 범위를 도출한 후 이를 구난대상에 대한 수색 범위로 설정할 수도 있다. The search range information may be input from the outside, and the movement of the search target based on the minimum occurrence location and occurrence time of the input rescue target, weather information and ocean information collected by the marine information collection unit, and elapsed time. After deriving the possible location range, it may be set as the search range for the rescue target.

또한, 상기 해양 정보 수집부는 눈, 비 및 구름 관련 정보 중 적어도 하나 이상의 정보를 포함하는 기상 정보와, 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보 중 적어도 하나 이상을 포함하는 해양 정보와, 상기 드론에서 촬영되는 해수면 영상 정보와 해당 해수면 영상 정보와 매칭되는 GPS 정보를 수집하는 것이다.In addition, the marine information collection unit includes meteorological information including at least one of snow, rain, and cloud related information, and at least one or more of wind direction, wind speed, atmospheric pressure, humidity, water temperature, wave height, wave period, and current related information. It is to collect marine information to be performed, sea level image information captured by the drone, and GPS information matched with the corresponding sea level image information.

상기 기상 정보 및 해양 정보는 국가 및 민간 기상 안내 시스템으로부터 제공 받을 수도 있고, 본 발명의 시스템에 전용 측정 설비들을 추가적을 구비한 후 이들로부터 측정된 정보를 수집하는 방식을 사용할 수도 있다.The weather information and marine information may be provided from national and private weather guidance systems, or a method of collecting the measured information from these additional measuring facilities may be used in the system of the present invention.

또한, 상기 해수면 패턴 분석부는 상기 해양 정보 수집부에서 수집된 기상 정보, 해양 정보, 해수면 영상 정보 및 GPS 정보를 입력값으로 하여 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 진행하여 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 것이다.In addition, the sea surface pattern analyzer performs neural-newtork learning using the weather information, ocean information, sea level image information, and GPS information collected by the ocean information collection unit as input values, It is to generate sea level image pattern information for each situation and location.

더욱 상세하게는, 상기 해수면 패턴 분석부는, 상기 기상 정보내 눈, 비 및 구름 관련 정보를 기상 정보 변수로 설정하고, 상기 해양 정보내 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보를 해양 정보 변수로 설정하고, 상기 GPS 정보를 위치 정보 변수로 설정하며, 상기 드론에서 촬영되는 해수면 영상 정보를 상기 기상 정보, 상기 해양 정보 및 상기 GPS 정보와 비교 분석하여, 각 기상 정보 변수, 각 해양 정보 변수 및 위치 정보 변수가 해수면 영상 패턴에 미치는 영향을 뉴럴 네트워크(Neural-Newtork) 방식을 통해 학습하는 방식으로 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성한다.More specifically, the sea surface pattern analyzer sets snow, rain, and cloud-related information in the weather information as weather information variables, and wind direction, wind speed, atmospheric pressure, humidity, water temperature, wave height, wave period, and current in the ocean information. The related information is set as a marine information variable, the GPS information is set as a location information variable, and the sea level image information captured by the drone is compared and analyzed with the weather information, the ocean information, and the GPS information to analyze each weather information variable. , Sea level image pattern information is generated by meteorological conditions, ocean conditions, and locations by learning the effect of each ocean information variable and location information variable on sea surface image patterns through a neural network (Neural-Newtork) method.

이를 위하여, 상기 해수면 패턴 분석부는, 인셉션 모듈(inception module) 기반 컨벌루션 신경망(Convolutional Neural Networks, CNN), 심층 신경망(Deep Neural Network, DNN), 재귀 신경망(Recurrent Neural Network, RNN), 제한 볼츠만 머신(restricted Boltzmann machine), 심층 신뢰 신경망(Deep Belief Network, DBN), 심층 Q-네트워크(Deep Q-Network) 등과 같이 다양한 딥러닝 기법이 적용된 뉴럴 네트워크 알고리즘이 사용될 수 있다.To this end, the sea surface pattern analysis unit includes an inception module-based Convolutional Neural Networks (CNN), a Deep Neural Network (DNN), a Recurrent Neural Network (RNN), and a restricted Boltzmann machine. Neural network algorithms applied with various deep learning techniques, such as a restricted Boltzmann machine, a deep belief network (DBN), and a deep Q-network, may be used.

또한, 상기 해수면 영상 분석부는 상기 드론에서 촬영되는 해수면 영상 정보를 실시간으로 전송받고, 이를 상기 해수면 패턴 분석부에서 생성된 해수면 영상 패턴 정보와 비교하여, 상기 드론에서 실시간으로 촬영된 해수면 영상 내에서 상기 해수면 영상 패턴 정보에 따른 해수면 영상 패턴과 다른 영상 패턴을 감지하는 것이다.In addition, the sea level image analysis unit receives the sea level image information captured by the drone in real time, compares it with the sea level image pattern information generated by the sea level pattern analysis unit, It is to detect an image pattern different from the sea level image pattern according to the sea level image pattern information.

또한, 상기 구난대상 위치 분석부는 상기 해수면 영상 분석부에서 감지한 상기 해수면 영상 패턴과 다른 영상 패턴을 구난대상으로 설정하고, 상기 해양 정보 수집부에서 수집된 기상 정보 및 해양 정보와 상기 드론에서 상기 구난대상이 촬영된 시점의 GPS 정보를 기반으로, 상기 구난대상의 현재 위치를 계산하여 실시간 구난대상 위치정보를 생성하는 것이다.In addition, the rescue target location analysis unit sets an image pattern different from the sea level image pattern detected by the sea level image analysis unit as a rescue target, and the rescue target location analysis unit combines the meteorological information and ocean information collected by the marine information collection unit with the drone. Based on the GPS information at the time the object was photographed, the current location of the object to be rescued is calculated to generate real-time location information of the object to be rescued.

즉, 상기 구난대상 위치 분석부는 구난대상이 최초 위치에서 현재 어느 위치까지 해양에서 이동되었는지를 기상 정보 및 해양 정보 내 세부 변수들을 적용하여 분석하여 구난대상의 현재 위치를 도출하며, 따라서 이와 같은 구난대상의 현재 위치는 특정 위치가 아니라 확률에 따른 범위 위치인 것이 바람직하다.That is, the rescue object position analysis unit derives the current location of the rescue object by analyzing the movement of the rescue object from the initial location to the current location in the ocean by applying weather information and detailed variables in the marine information, and thus such a rescue object It is preferable that the current location of is not a specific location but a range location according to probability.

또한, 상기 제어부는 상기 비행경로 생성부에서 생성된 비행경로를 기반으로 상기 드론이 비행하면서 상기 수색 범위 정보 기반으로 해수면의 영상 촬영을 수행하도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송하는 것이다.In addition, the controller transmits a control signal to the drone through the communication unit so that the drone flies based on the flight path generated by the flight path generator and captures an image of the sea surface based on the search range information.

또한, 상기 정보 저장부는 상기 비행경로 생성부, 해양 정보 수집부, 해수면 패턴 분석부 및 구난대상 위치 분석부에서 수집 및 생성되는 정보를 포함하는 정보를 데이터 베이스에 저장 및 관리하는 것이다.In addition, the information storage unit stores and manages information including information collected and generated by the flight path generation unit, marine information collection unit, sea level pattern analysis unit, and salvage target location analysis unit in a database.

상기 데이터 베이스는 본 발명의 시스템에서 사용되는 모든 데이터들을 저장하는 로컬 저장부로서 통상적으로 내장형 메모리 또는 외장형 메모리를 의미하지만, 본 발명에서는 데이터 백업을 위하여 네트워크에 있는 클라우드 컴퓨팅 네트워크의 가상화된 저장장치(간략하게 클라우드 저장장치라고 부름)를 더 포함할 수 있다. 예컨대 상기 클라우드 저장장치는 서비스 제공자가 제공하는 전용 클라우드 저장장치, 또는 포털 사이트(예 : 네이버, 다음 등)에서 제공하는 무료 클라우드 저장장치(또는 네트워크 HDD)를 더 포함할 수 있다. 즉, 상기 데이터 베이스는 전기 혹은 광학 케이블로, 클라우드 컴퓨팅을 포함한 네트워크로, 또는 이들의 조합을 통해서 상기 서버와 연결된 데이터베이스이다.The database is a local storage unit for storing all data used in the system of the present invention, and usually means an internal memory or an external memory, but in the present invention, a virtualized storage device of a cloud computing network in the network for data backup ( Briefly referred to as cloud storage) may be further included. For example, the cloud storage device may further include a dedicated cloud storage device provided by a service provider or a free cloud storage device (or network HDD) provided by a portal site (eg, Naver, Daum, etc.). That is, the database is a database connected to the server through an electric or optical cable, a network including cloud computing, or a combination thereof.

또한 상기 데이터 베이스뿐만이 아니라 상기 서버는 클라우드 컴퓨팅 서버 환경에서 구현되어, 별도의 서버를 서비스 제공자가 하드웨어로 구축할 필요가 없으며, 본 발명에 의한 어플리케이션(앱) 소프트웨어를 일종의 서비스 형태로 제공(예: SaaS(Software as a Service))하여, 사용자들이 자신에게 필요한 소프트웨어를 선택하여 서비스 받을 수 있도록 할 수도 있다. In addition, the server as well as the database is implemented in a cloud computing server environment, so there is no need for a service provider to build a separate server as hardware, and the application (app) software according to the present invention is provided as a kind of service (eg: SaaS (Software as a Service) can be used so that users can select the software they need and receive the service.

참고로, 상기 실시예에서 드론을 이용한 구난대상 수색 시스템을 구성하는 각 구성수단들은 설명의 편의를 위하여 기재된 것일 뿐이며, 실질적으로는 어느 하나의 구성수단에서 모든 동작을 처리할 수도 있고, 더 다양한 구성수단으로 세분화하거나, 그 구성수단들을 조합하여 처리하도록 구성할 수도 있을 것이다. 또한 서버 기반으로 사용자에게 서비스를 제공하는데 있어서 일반적으로 사용되는 구성 수단들에 대해서는 본 발명을 설명하는데 있어 반드시 필요한 부분이 아니므로 생략하도록 한다. For reference, in the above embodiment, each component constituting the rescue target search system using a drone is only described for convenience of explanation, and practically all operations can be processed by any one component, and more diverse configurations. It may be subdivided into means or configured to process by combining the constituent means. In addition, configuration means commonly used in providing services to users based on a server are omitted because they are not necessarily necessary parts in explaining the present invention.

한편, 본 발명에 따른 드론을 이용한 해양 구난대상 수색 시스템은 구난대상이 감지되었을 경우, 드론을 이용하여 감지된 구난대상을 추적 및 촬영할 수 있도록 제어할 수도 있다.On the other hand, in the marine rescue target search system using a drone according to the present invention, when a rescue target is detected, it may be controlled to track and photograph the detected rescue target using a drone.

이를 위하여, 상기 비행경로 생성부는 상기 구난대상 위치 분석부에서 계산된 구난대상의 실시간 구난대상 위치정보를 기반으로, 상기 드론이 비행하며 상기 실시간 구난대상 위치정보에 따른 해수면을 촬영할 수 있도록 하는 구난대상 추적 비행경로를 생성하고, 상기 제어부는 상기 비행경로 생성부에서 생성된 구난대상 추적 비행경로를 기반으로 적어도 하나 이상의 상기 드론이 비행하면서 상기 실시간 구난대상 위치정보에 따른 해수면의 영상 촬영을 수행하도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송한다.To this end, the flight path creation unit enables the drone to fly and photograph the sea level according to the location information of the rescue object based on the location information of the rescue object in real time calculated by the location analysis unit of the rescue object. Create a tracking flight path, and the control unit performs image capture of the sea level according to the real-time location information of the rescue object while at least one or more drones fly based on the flight path for tracking the rescue object generated by the flight route generator. A control signal is transmitted to the drone through the communication unit.

이때, 구난대상을 추적 및 촬영하는 드론을 선택하는 데 있어서, 상기 구난대상 위치 분석부에서 도출된 구난대상의 현재 위치로부터 인접한 드론 순으로 선택함으로써, 구난대상의 추적 및 촬영 가능성을 극대화 시킬 수 있다.At this time, in selecting the drone to track and photograph the rescue object, the possibility of tracking and photographing the rescue object can be maximized by selecting the drones in the order of neighboring drones from the current location of the rescue object derived from the location analysis unit. .

이에 더하여, 본 발명에 따른 드론을 이용한 해양 구난대상 수색 시스템은 구난대상이 사람일 경우 구난대상의 안전을 확보하고 생존 가능성을 높이기 위하여 구난대상을 추적 및 촬영하는 드론이 구난대상에 생존수단을 제공할 수도 있다.In addition, in the marine rescue target search system using a drone according to the present invention, when the rescue target is a human, the drone tracking and photographing the rescue target provides a means of survival to the rescue target in order to ensure the safety of the rescue target and increase the possibility of survival. You may.

보다 구체적으로는, 상기 드론은 팽창식, 구명조끼, 팽창식 구명튜브, 팽창식 구명보트, 수중용 보온수단 및 수영장비를 포함하는 구명수단 중 적어도 하나 이상이 장착되며, 전기적 제어신호에 따라 이를 드론 몸체로부터 탈착시키는 구명수단부를 포함하며, 상기 제어부는 상기 구난대상 추적 비행경로로 비행하는 상기 드론이 상기 실시간 구난대상 위치정보에 따른 구난대상의 위치에서 상기 구명수단을 드론 몸체로부터 탈착시키도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송한다.More specifically, the drone is equipped with at least one or more of life-saving means including an inflatable, a life jacket, an inflatable life-saving tube, an inflatable lifeboat, an underwater warming means, and a pool rain, and according to an electrical control signal and a life-saving means for attaching and detaching from the drone body, wherein the control unit causes the drone flying along the rescue target tracking flight path to attach and detach the life-saving means from the drone body at the position of the rescue target according to the real-time rescue target location information. A control signal is transmitted to the drone through the communication unit.

또한, 본 발명에 따른 드론을 이용한 해양 구난대상 수색 시스템은 구난 대상의 안전을 확보하고 생존 가능성을 높이는 또 다른 방법으로서, 구난대상의 위치와 인접한 선박에 구난지원을 요청할 수 있다.In addition, the marine rescue target search system using a drone according to the present invention is another method of securing the safety of the rescue target and increasing the survivability, and can request rescue support from a ship adjacent to the location of the rescue target.

보다 구체적으로는, 상기 해양 정보 수집부는 해양에서 항해중인 선박들에 대한 선박스펙정보, 위치정보 및 무전 주파수 정보를 포함하는 선박정보를 수집하고, 상기 제어부는 상기 구난대상 위치 분석부에서 생성된 실시간 구난대상 위치정보와 상기 해양 정보 수집부에 수집된 선박정보를 기반으로, 구난대상의 현재 위치로 소정 시간내에 접근이 가능할 것으로 판단되는 선박으로 상기 통신부를 통해 구난 조력 무선을 송출한다.More specifically, the marine information collection unit collects ship information including ship specification information, location information, and radio frequency information about ships sailing in the ocean, and the control unit collects ship information generated by the rescue target location analysis unit in real time. Based on the location information of the rescue object and the ship information collected by the marine information collection unit, a rescue assistance radio is transmitted through the communication unit to a ship that is determined to be able to access the current location of the rescue object within a predetermined time.

또한, 상기 서버는 사용자가 PC, 스마트폰, 테블릿 PC, 전용 단말기 중 적어도 하나 이상의 수단을 통해 상기 서버에 접속하여 상기 서버에서 수집 및 생성되는 정보를 모니터링할 수 있도록 하는 사용자 인터페이스를 제공하는 모니터링부를 더 포함할 수 있다.In addition, the monitoring server provides a user interface that allows a user to access the server through at least one of a PC, a smartphone, a tablet PC, and a dedicated terminal and monitor information collected and generated by the server. Wealth may be further included.

상기 모니터링부에서 제공하는 사용자 인터페이스를 통해 시스템 관리자, 해경, 119 등 구난대상의 구난 관련자들이 원격지에서도 구난대상 수색 경과, 구난대상 감지 여부, 구난대상 현재 위치 등을 확인할 수 있고, 또한 상기 사용자 인터페이스를 통해 본 발명의 시스템을 제어할 수도 있도록 할 수 있다.Through the user interface provided by the monitoring unit, people involved in the rescue of the rescue target, such as system administrators, coast guards, and 119, can check the search progress of the rescue target, whether the rescue target has been detected, the current location of the rescue target, etc. from a remote location, and also the user interface Through this, it is possible to control the system of the present invention.

도 2는 본 발명의 일 실시예에 따른 드론을 이용한 해양 구난대상 수색 방법에 대해 설명하기 위한 흐름도이다.2 is a flowchart for explaining a method for searching for a marine rescue object using a drone according to an embodiment of the present invention.

도 2에 도시되어 있는 바와 같이, 드론을 이용한 해양 구난대상 수색 방법은, a) 비행경로 생성 단계, b) 해양 정보 수집 단계, c) 해수면 패턴 분석 단계, d) 해수면 영상 분석 단계, e) 구난대상 위치 분석 단계 및 f) 제어 단계를 포함한다.As shown in FIG. 2, the marine rescue target search method using drones includes: a) flight path creation step, b) marine information collection step, c) sea level pattern analysis step, d) sea level image analysis step, e) rescue A target position analysis step and f) a control step.

상기 a) 단계는, 해양 조난자 및 조난품을 포함하는 구난대상에 대한 수색 범위 정보를 기반으로, 적어도 하나 이상의 드론이 비행하며 상기 수색 범위내 해수면을 촬영할 수 있도록 하는 비행경로를 서버에서 생성한다.In the step a), based on the search range information for the person in distress and the rescue object including the shipwrecked goods, a flight path allowing at least one or more drones to fly and photograph the sea surface within the search range is generated in the server.

상기 b) 단계는, 상기 서버에서 눈, 비 및 구름 관련 정보 중 적어도 하나 이상의 정보를 포함하는 기상 정보와, 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보 중 적어도 하나 이상을 포함하는 해양 정보와, 상기 드론에서 촬영되는 해수면 영상 정보와 해당 해수면 영상 정보와 매칭되는 GPS 정보를 수집한다.The step b) may include weather information including at least one of snow, rain, and cloud related information, and at least one or more of wind direction, wind speed, air pressure, humidity, water temperature, wave height, wave period, and current related information in the server. Marine information including , sea level image information captured by the drone, and GPS information matched with the corresponding sea level image information are collected.

c) 단계는, 상기 서버에서 상기 b) 단계를 통해 수집된 기상 정보, 해양 정보, 해수면 영상 정보 및 GPS 정보를 입력값으로 하여 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 진행하여 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성한다.In step c), the server proceeds with neural network (Neural-Newtork) learning using the meteorological information, marine information, sea level image information, and GPS information collected in step b) as input values, It creates sea level image pattern information for each marine situation and location.

더욱 상세하게는, 상기 c) 단계는, 상기 서버에서 상기 기상 정보내 눈, 비 및 구름 관련 정보를 기상 정보 변수로 설정하고, 상기 해양 정보내 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보를 해양 정보 변수로 설정하고, 상기 GPS 정보를 위치 정보 변수로 설정하며, 상기 드론에서 촬영되는 해수면 영상 정보를 상기 기상 정보, 상기 해양 정보 및 상기 GPS 정보와 비교 분석하여, 각 기상 정보 변수, 각 해양 정보 변수 및 위치 정보 변수가 해수면 영상 패턴에 미치는 영향을 뉴럴 네트워크(Neural-Newtork) 방식을 통해 학습하는 방식으로 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성한다.More specifically, step c) sets snow, rain, and cloud related information in the weather information as weather information variables in the server, and wind direction, wind speed, air pressure, humidity, water temperature, wave height, and wave in the ocean information. Period and current-related information is set as marine information variables, the GPS information is set as location information variables, and sea level image information captured by the drone is compared and analyzed with the weather information, ocean information, and GPS information, Creates sea level image pattern information by weather conditions, ocean conditions, and locations by learning the effects of weather information variables, each ocean information variable, and location information variables on sea level image patterns through a neural network (Neural-Newtork) method do.

d) 단계는, 상기 드론에서 촬영되는 해수면 영상 정보를 상기 서버에서 실시간으로 전송받고, 이를 상기 c) 단계에서 생성된 해수면 영상 패턴 정보와 비교하여, 상기 드론에서 실시간으로 촬영된 해수면 영상 내에서 상기 해수면 영상 패턴 정보에 따른 해수면 영상 패턴과 다른 영상 패턴을 감지한다.Step d) receives the sea level image information captured by the drone in real time from the server, compares it with the sea level image pattern information generated in step c), An image pattern different from the sea level image pattern according to the sea level image pattern information is detected.

e) 단계는, 상기 서버에서 상기 d) 단계를 통해 감지한 상기 해수면 영상 패턴과 다른 영상 패턴을 구난대상으로 설정하고, 상기 b)단계에서 수집된 기상 정보 및 해양 정보와 상기 드론에서 상기 구난대상이 촬영된 시점의 GPS 정보를 기반으로, 상기 구난대상의 현재 위치를 계산하여 실시간 구난대상 위치정보를 생성한다.In step e), the server sets an image pattern different from the sea surface image pattern detected in step d) as a rescue target, and the weather information and ocean information collected in step b) and the rescue target in the drone Based on the GPS information at the time of the photographing, the current location of the rescue object is calculated to generate real-time location information of the rescue object.

f) 단계는, 상기 a) 단계를 통해 생성된 비행경로를 기반으로 상기 드론이 비행하면서 상기 수색 범위 정보 기반으로 해수면의 영상 촬영을 수행하도록 상기 서버에서 상기 드론에 제어신호를 전송한다.In step f), the server transmits a control signal to the drone so that the drone flies based on the flight path generated in step a) and captures an image of the sea surface based on the search range information.

또한, 상기 f) 단계는, 상기 구난대상 추적 비행경로로 비행하는 상기 드론이 상기 실시간 구난대상 위치정보에 따른 구난대상의 위치에서 팽창식, 구명조끼, 팽창식 구명튜브, 팽창식 구명보트, 수중용 보온수단 및 수영장비를 포함하는 구명수단 중 적어도 하나 이상을 드론 몸체로부터 탈착시키도록 상기 서버에서 상기 드론에 제어신호를 전송한다.In addition, in the step f), the drone flying along the flight path tracking the rescue object is inflatable, life jacket, inflatable lifeboat, inflatable lifeboat, and number at the location of the rescue object according to the real-time location information of the rescue object. The server transmits a control signal to the drone to detach at least one or more of the medium heat preservation means and the lifesaving means including the swimming pool rainwater from the body of the drone.

또한, 상기 a) 단계는, 상기 e) 단계에서 계산된 구난대상의 실시간 구난대상 위치정보를 기반으로, 상기 드론이 비행하며 상기 실시간 구난대상 위치정보에 따른 해수면을 촬영할 수 있도록 하는 구난대상 추적 비행경로를 상기 서버에서 생성하고, 상기 f) 단계는, 상기 a) 단계를 통해 생성된 구난대상 추적 비행경로를 기반으로 적어도 하나 이상의 상기 드론이 비행하면서 상기 실시간 구난대상 위치정보에 따른 해수면의 영상 촬영을 수행하도록 상기 서버에서 상기 드론에 제어신호를 전송한다.In addition, in the step a), based on the real-time location information of the rescue object calculated in the step e), the drone flies and captures the sea level according to the real-time location information of the rescue object. A path is created in the server, and in step f), based on the flight path for tracking the object to be rescued created in step a), at least one or more of the drones fly while capturing an image of the sea surface according to the location information of the object to be rescued in real time. The server transmits a control signal to the drone to perform

또한, 본 발명에 따른 드론을 이용한 해양 구난대상 수색 방법은, g) 단계로서, 사용자가 PC, 스마트폰, 테블릿 PC, 전용 단말기 중 적어도 하나 이상의 수단을 통해 상기 서버에 접속하여 상기 서버에서 수집 및 생성되는 정보를 모니터링할 수 있도록 하는 사용자 인터페이스를 상기 서버에서 제공하는 모니터링 제공 단계;를 포함할 수 있다.In addition, in the marine rescue target search method using a drone according to the present invention, in step g), the user accesses the server through at least one means of a PC, smartphone, tablet PC, and a dedicated terminal, and collects data from the server. and a monitoring providing step of providing, from the server, a user interface for monitoring generated information.

또한, 본 발명에 따른 상기 드론을 이용한 해양 구난대상 수색 방법은, h) 단계로서, 상기 서버에서 수집 및 생성되는 정보를 포함하는 정보를 저장하는 정보 저장 단계;를 더 포함할 수 있다.In addition, the marine rescue target search method using the drone according to the present invention may further include, as step h), an information storage step of storing information including information collected and generated by the server.

또한, 상기 b) 단계는, 해양에서 항해중인 선박들에 대한 선박스펙정보, 위치정보 및 무전 주파수 정보를 포함하는 선박정보를 상기 서버에서 수집하고, 상기 f) 단계는, 상기 e) 단계에서 생성된 실시간 구난대상 위치정보와 상기 해양 정보 수집부에 수집된 선박정보를 기반으로, 구난대상의 현재 위치로 소정 시간내에 접근이 가능할 것으로 판단되는 선박으로 상기 서버에서 구난 조력 무선을 송출한다.In addition, in the step b), the server collects ship information including ship specification information, location information, and radio frequency information about ships sailing in the ocean, and in the step f), the generation in the step e) is performed. Based on the real-time location information of the object to be rescued and the ship information collected by the marine information collection unit, the server transmits a rescue assistance wireless signal to a ship that is determined to be able to access the current location of the object to be rescued within a predetermined time.

한편, 본 발명에 따른 드론을 이용한 해양 구난대상 수색 시스템 및 그 방법은 해양 구난대상 발생시 수색 범위를 보다 신속하게 촬영할 수 있도록 하기 위해 해양 상에 적어도 하나 이상의 드론이 보관 및 이착륙되는 공간이 구비되며, 착륙한 드론의 배터리를 충전할 수 있는 충전수단이 구비되는 드론 스테이션을 추가적으로 포함할 수 있다. On the other hand, in the marine rescue target search system and method using a drone according to the present invention, in order to more quickly photograph the search range when a marine rescue target occurs, a space in which at least one drone is stored and taken off and landed on the sea is provided, A drone station equipped with a charging means capable of charging the battery of the landed drone may be additionally included.

또한, 상기 드론 스테이션은 파도, 바람, 태양열 중 적어도 하나 이상을 이용하여 전력을 생산하는 수단이 구비될 수 있고, 이에 따라 생상된 전력을 드론의 배터리 충전에 이용할 수 있으며, 통신모듈이 구비되어 상기 서버와 상기 드론 간 통신을 중계할 수도 있다.In addition, the drone station may be provided with means for generating power by using at least one of waves, wind, and solar heat, and the generated power may be used to charge the battery of the drone, and a communication module is provided to Communication between the server and the drone may be relayed.

이상으로 본 발명은 첨부된 도면에 도시된 실시예를 참조하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술에 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 것을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 청구범위에 의해서 정하여져야 할 것이다.The present invention has been described above with reference to the embodiments shown in the accompanying drawings, but these are only exemplary, and various modifications and other equivalent embodiments can be made by those skilled in the art in the art. will understand that Therefore, the technical protection scope of the present invention should be determined by the claims below.

100 : 드론
110 : 비행수단
120 : 비행제어모듈
130 : 통신모듈
140 : GPS 모듈
150 : 배터리
160 : 카메라
200 : 서버
210 : 통신부
220 : 비행경로 생성부
230 : 해양 정보 수집부
240 : 해수면 패턴 분석부
250 : 해수면 영상 분석부
260 : 구난대상 위치 분석부
270 : 제어부
280 : 정보 저장부
100: drone
110: means of flight
120: flight control module
130: communication module
140: GPS module
150: battery
160: camera
200: server
210: Ministry of Communication
220: flight path generation unit
230: marine information collection department
240: sea level pattern analysis unit
250: sea level image analysis unit
260: Rescue target location analysis unit
270: control unit
280: information storage unit

Claims (14)

비행수단, 비행제어모듈, 통신모듈, GPS 모듈, 배터리 및 해수면을 촬영하기 위한 카메라를 포함하는 적어도 하나 이상의 드론;
유무선 통신망으로 통해 상기 드론과 통신하는 통신부,
해양 조난자 및 조난품을 포함하는 구난대상에 대한 수색 범위 정보를 기반으로, 상기 드론이 비행하며 상기 수색 범위내 해수면을 촬영할 수 있도록 하는 비행경로를 생성하는 비행경로 생성부,
눈, 비 및 구름 관련 정보 중 적어도 하나 이상의 정보를 포함하는 기상 정보와, 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보 중 적어도 하나 이상을 포함하는 해양 정보와, 상기 드론에서 촬영되는 해수면 영상 정보와 해당 해수면 영상 정보와 매칭되는 GPS 정보를 수집하는 해양 정보 수집부,
상기 해양 정보 수집부에서 수집된 기상 정보, 해양 정보, 해수면 영상 정보 및 GPS 정보를 입력값으로 하여 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 진행하여 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 해수면 패턴 분석부,
상기 드론에서 촬영되는 해수면 영상 정보를 실시간으로 전송받고, 이를 상기 해수면 패턴 분석부에서 생성된 해수면 영상 패턴 정보와 비교하여, 상기 드론에서 실시간으로 촬영된 해수면 영상 내에서 상기 해수면 영상 패턴 정보에 따른 해수면 영상 패턴과 다른 영상 패턴을 감지하는 해수면 영상 분석부,
상기 해수면 영상 분석부에서 감지한 상기 해수면 영상 패턴과 다른 영상 패턴을 구난대상으로 설정하고, 상기 해양 정보 수집부에서 수집된 기상 정보 및 해양 정보와 상기 드론에서 상기 구난대상이 촬영된 시점의 GPS 정보를 기반으로, 상기 구난대상의 현재 위치를 계산하여 실시간 구난대상 위치정보를 생성하는 구난대상 위치 분석부, 및
상기 비행경로 생성부에서 생성된 비행경로를 기반으로 상기 드론이 비행하면서 상기 수색 범위 정보 기반으로 해수면의 영상 촬영을 수행하도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송하는 제어부,를 포함하는 서버;를 포함하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 시스템.
At least one drone including a flight means, a flight control module, a communication module, a GPS module, a battery, and a camera for photographing the sea level;
A communication unit communicating with the drone through a wired/wireless communication network;
A flight path creation unit that generates a flight path that allows the drone to fly and photograph the sea surface within the search range based on search range information for a person in distress and a rescue target including a shipwrecked person in the sea;
Meteorological information including at least one of snow, rain and cloud related information, marine information including at least one of wind direction, wind speed, air pressure, humidity, water temperature, wave height, wave period and current related information, and the drone A marine information collection unit that collects sea level image information captured in and GPS information matched with the corresponding sea level image information;
Using the meteorological information, marine information, sea level image information, and GPS information collected by the marine information collection unit as input values, neural network (Neural-Newtork) learning is performed to obtain sea level images by weather conditions, sea conditions, and locations. A sea level pattern analysis unit for generating pattern information;
The sea level image information captured by the drone is received in real time, compared with the sea level image pattern information generated by the sea level pattern analysis unit, and the sea level according to the sea level image pattern information within the sea level image captured in real time by the drone A sea level image analysis unit that detects an image pattern different from the image pattern;
An image pattern different from the sea level image pattern detected by the sea level image analysis unit is set as a rescue target, weather information and ocean information collected by the marine information collection unit, and GPS information at the time the rescue target was captured by the drone Based on, a rescue object position analysis unit for generating real-time rescue object location information by calculating the current location of the rescue object, and
A server including a controller that transmits a control signal to the drone through the communication unit so that the drone flies based on the flight path generated by the flight path generator and captures an image of the sea level based on the search range information; Characterized in that it comprises a, marine rescue target search system using a drone.
제1항에 있어서,
상기 비행경로 생성부는,
상기 구난대상 위치 분석부에서 계산된 구난대상의 실시간 구난대상 위치정보를 기반으로, 상기 드론이 비행하며 상기 실시간 구난대상 위치정보에 따른 해수면을 촬영할 수 있도록 하는 구난대상 추적 비행경로를 생성하고,
상기 제어부는,
상기 비행경로 생성부에서 생성된 구난대상 추적 비행경로를 기반으로 적어도 하나 이상의 상기 드론이 비행하면서 상기 실시간 구난대상 위치정보에 따른 해수면의 영상 촬영을 수행하도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 시스템.
According to claim 1,
The flight path generation unit,
Based on the real-time rescue target location information calculated by the rescue target location analysis unit, a rescue target tracking flight path is created so that the drone can fly and photograph the sea level according to the rescue target location information,
The control unit,
Transmits a control signal to the drone through the communication unit so that at least one or more drones fly based on the flight path for tracking the rescue object generated by the flight path generation unit and capture images of the sea surface according to the location information of the rescue object in real time. Characterized in that, a marine rescue target search system using a drone.
제2항에 있어서,
상기 서버는,
사용자가 PC, 스마트폰, 테블릿 PC, 전용 단말기 중 적어도 하나 이상의 수단을 통해 상기 서버에 접속하여 상기 서버에서 수집 및 생성되는 정보를 모니터링할 수 있도록 하는 사용자 인터페이스를 제공하는 모니터링부;를 포함하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 시스템.
According to claim 2,
The server,
A monitoring unit providing a user interface that allows a user to monitor information collected and generated by the server by accessing the server through at least one of a PC, a smartphone, a tablet PC, and a dedicated terminal; Characterized in that, a marine rescue target search system using a drone.
제2항에 있어서,
상기 드론은,
팽창식, 구명조끼, 팽창식 구명튜브, 팽창식 구명보트, 수중용 보온수단 및 수영장비를 포함하는 구명수단 중 적어도 하나 이상이 장착되며, 전기적 제어신호에 따라 이를 드론 몸체로부터 탈착시키는 구명수단부;를 포함하며,
상기 제어부는,
상기 구난대상 추적 비행경로로 비행하는 상기 드론이 상기 실시간 구난대상 위치정보에 따른 구난대상의 위치에서 상기 구명수단을 드론 몸체로부터 탈착시키도록 상기 통신부를 통하여 상기 드론에 제어신호를 전송하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 시스템.
According to claim 2,
The drone,
At least one of the lifesaving means including an inflatable, life jacket, inflatable life tube, inflatable lifeboat, underwater warming means, and swimming pool rain is mounted, and a lifesaving means part detaching it from the drone body according to an electrical control signal including;
The control unit,
Characterized in that the drone flying along the rescue target tracking flight path transmits a control signal to the drone through the communication unit so that the lifesaving means is detached from the drone body at the location of the rescue target according to the real-time rescue target location information. A marine rescue target search system using drones.
제1항에 있어서,
상기 서버는,
상기 비행경로 생성부, 해양 정보 수집부, 해수면 패턴 분석부 및 구난대상 위치 분석부에서 수집 및 생성되는 정보를 포함하는 정보를 저장하는 정보 저장부;를 더 포함하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 시스템.
According to claim 1,
The server,
An information storage unit for storing information including information collected and generated by the flight path generation unit, marine information collection unit, sea level pattern analysis unit, and salvage target location analysis unit; characterized in that it further comprises a drone using Marine rescue target search system.
제1항에 있어서,
상기 해양 정보 수집부는,
해양에서 항해중인 선박들에 대한 선박스펙정보, 위치정보 및 무전 주파수 정보를 포함하는 선박정보를 수집하고,
상기 제어부는,
상기 구난대상 위치 분석부에서 생성된 실시간 구난대상 위치정보와 상기 해양 정보 수집부에 수집된 선박정보를 기반으로, 구난대상의 현재 위치로 소정 시간내에 접근이 가능할 것으로 판단되는 선박으로 상기 통신부를 통해 구난 조력 무선을 송출하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 시스템.
According to claim 1,
The marine information collection unit,
Collect ship information including ship specification information, location information and radio frequency information for ships sailing in the ocean,
The control unit,
Based on the location information of the object to be rescued in real time generated by the location analysis unit of the object to be rescued and the ship information collected by the marine information collection unit, the ship is determined to be able to approach the current location of the object to be rescued within a predetermined time through the communication unit. A marine rescue target search system using a drone, characterized in that it transmits a rescue assistance radio.
제1항에 있어서,
상기 해수면 패턴 분석부는,
상기 기상 정보내 눈, 비 및 구름 관련 정보를 기상 정보 변수로 설정하고, 상기 해양 정보내 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보를 해양 정보 변수로 설정하고, 상기 GPS 정보를 위치 정보 변수로 설정하며, 상기 드론에서 촬영되는 해수면 영상 정보를 상기 기상 정보, 상기 해양 정보 및 상기 GPS 정보와 비교 분석하여, 각 기상 정보 변수, 각 해양 정보 변수 및 위치 정보 변수가 해수면 영상 패턴에 미치는 영향을 뉴럴 네트워크(Neural-Newtork) 방식을 통해 학습하는 방식으로 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 시스템.
According to claim 1,
The sea level pattern analysis unit,
Snow, rain, and cloud-related information in the weather information is set as weather information variables, and wind direction, wind speed, atmospheric pressure, humidity, water temperature, wave height, wave period, and current-related information in the ocean information are set as ocean information variables, GPS information is set as a location information variable, and sea level image information captured by the drone is compared and analyzed with the weather information, ocean information, and GPS information, so that each weather information variable, each ocean information variable, and location information variable is the sea level. A marine rescue target search system using a drone, characterized by generating sea surface image pattern information by weather situation, marine situation, and location by learning the effect on the image pattern through a neural network (Neural-Newtork) method. .
a) 해양 조난자 및 조난품을 포함하는 구난대상에 대한 수색 범위 정보를 기반으로, 적어도 하나 이상의 드론이 비행하며 상기 수색 범위내 해수면을 촬영할 수 있도록 하는 비행경로를 서버에서 생성하는 비행경로 생성 단계;
b) 상기 서버에서 눈, 비 및 구름 관련 정보 중 적어도 하나 이상의 정보를 포함하는 기상 정보와, 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보 중 적어도 하나 이상을 포함하는 해양 정보와, 상기 드론에서 촬영되는 해수면 영상 정보와 해당 해수면 영상 정보와 매칭되는 GPS 정보를 수집하는 해양 정보 수집 단계;
c) 상기 서버에서 상기 b) 단계를 통해 수집된 기상 정보, 해양 정보, 해수면 영상 정보 및 GPS 정보를 입력값으로 하여 뉴럴 네트워크(Neural-Newtork) 방식의 학습을 진행하여 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 해수면 패턴 분석 단계;
d) 상기 드론에서 촬영되는 해수면 영상 정보를 상기 서버에서 실시간으로 전송받고, 이를 상기 c) 단계에서 생성된 해수면 영상 패턴 정보와 비교하여, 상기 드론에서 실시간으로 촬영된 해수면 영상 내에서 상기 해수면 영상 패턴 정보에 따른 해수면 영상 패턴과 다른 영상 패턴을 감지하는 해수면 영상 분석 단계;
e) 상기 서버에서 상기 d) 단계를 통해 감지한 상기 해수면 영상 패턴과 다른 영상 패턴을 구난대상으로 설정하고, 상기 b)단계에서 수집된 기상 정보 및 해양 정보와 상기 드론에서 상기 구난대상이 촬영된 시점의 GPS 정보를 기반으로, 상기 구난대상의 현재 위치를 계산하여 실시간 구난대상 위치정보를 생성하는 구난대상 위치 분석 단계; 및
f) 상기 a) 단계를 통해 생성된 비행경로를 기반으로 상기 드론이 비행하면서 상기 수색 범위 정보 기반으로 해수면의 영상 촬영을 수행하도록 상기 서버에서 상기 드론에 제어신호를 전송하는 제어 단계;를 포함하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 방법.
a) Based on the search range information on the person in distress and the rescue target including the shipwrecked goods, at least one drone flies and the flight path that allows the sea surface to be photographed within the search range is generated in the server. A flight path creation step;
b) meteorological information including at least one of snow, rain, and cloud-related information, and marine information including at least one of wind direction, wind speed, air pressure, humidity, water temperature, wave height, wave period, and current-related information in the server a marine information collection step of collecting information, sea level image information captured by the drone and GPS information matched with the corresponding sea level image information;
c) The server proceeds with Neural-Newtork method learning using the weather information, ocean information, sea level image information, and GPS information collected in step b) as input values, and a sea level pattern analysis step of generating sea level image pattern information for each location.
d) The server receives the sea level image information captured by the drone in real time and compares it with the sea level image pattern information generated in step c), A sea level image analysis step of detecting an image pattern different from the sea level image pattern according to the information;
e) The server sets an image pattern different from the sea level image pattern detected in step d) as a rescue target, and the weather information and ocean information collected in step b) and the rescue target are captured by the drone. Based on the GPS information at the point of view, a rescue object location analysis step of generating real-time rescue object location information by calculating the current location of the rescue object; and
f) a control step of transmitting a control signal from the server to the drone so that the drone flies based on the flight path generated in step a) and captures an image of the sea surface based on the search range information; Characterized in that, a marine rescue target search method using a drone.
제8항에 있어서,
상기 a) 단계는,
상기 e) 단계에서 계산된 구난대상의 실시간 구난대상 위치정보를 기반으로, 상기 드론이 비행하며 상기 실시간 구난대상 위치정보에 따른 해수면을 촬영할 수 있도록 하는 구난대상 추적 비행경로를 상기 서버에서 생성하고,
상기 f) 단계는,
상기 a) 단계를 통해 생성된 구난대상 추적 비행경로를 기반으로 적어도 하나 이상의 상기 드론이 비행하면서 상기 실시간 구난대상 위치정보에 따른 해수면의 영상 촬영을 수행하도록 상기 서버에서 상기 드론에 제어신호를 전송하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 방법.
According to claim 8,
In step a),
Based on the real-time location information of the rescue object calculated in step e), the server creates a flight path for tracking the rescue object so that the drone can fly and photograph the sea level according to the real-time location information of the rescue object,
In step f),
Transmitting a control signal from the server to the drone so that at least one or more of the drones fly based on the rescue target tracking flight path generated in step a) and capture images of the sea surface according to the real-time rescue target location information Characterized in that, a marine rescue target search method using a drone.
제9항에 있어서,
상기 드론을 이용한 해양 구난대상 수색 방법은,
g) 사용자가 PC, 스마트폰, 테블릿 PC, 전용 단말기 중 적어도 하나 이상의 수단을 통해 상기 서버에 접속하여 상기 서버에서 수집 및 생성되는 정보를 모니터링할 수 있도록 하는 사용자 인터페이스를 상기 서버에서 제공하는 모니터링 제공 단계;를 포함하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 방법.
According to claim 9,
The marine rescue target search method using the drone,
g) Monitoring that the server provides a user interface that allows a user to monitor information collected and generated by the server by accessing the server through at least one of a PC, a smartphone, a tablet PC, and a dedicated terminal A marine rescue object search method using a drone, characterized in that it comprises a; providing step.
제9항에 있어서,
상기 f) 단계는,
상기 구난대상 추적 비행경로로 비행하는 상기 드론이 상기 실시간 구난대상 위치정보에 따른 구난대상의 위치에서 팽창식, 구명조끼, 팽창식 구명튜브, 팽창식 구명보트, 수중용 보온수단 및 수영장비를 포함하는 구명수단 중 적어도 하나 이상을 드론 몸체로부터 탈착시키도록 상기 서버에서 상기 드론에 제어신호를 전송하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 방법.
According to claim 9,
In step f),
The drone flying along the rescue target tracking flight path includes an inflatable, a life jacket, an inflatable life tube, an inflatable lifeboat, an underwater warming means, and a swimming pool fee at the location of the rescue target according to the real-time rescue target location information. A marine rescue target search method using a drone, characterized in that the server transmits a control signal to the drone to detach at least one of the lifesaving means from the drone body.
제8항에 있어서,
상기 드론을 이용한 해양 구난대상 수색 방법은,
h) 상기 서버에서 수집 및 생성되는 정보를 포함하는 정보를 저장하는 정보 저장 단계;를 더 포함하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 방법.
According to claim 8,
The marine rescue target search method using the drone,
h) an information storage step of storing information including information collected and generated by the server;
제8항에 있어서,
상기 b) 단계는,
해양에서 항해중인 선박들에 대한 선박스펙정보, 위치정보 및 무전 주파수 정보를 포함하는 선박정보를 상기 서버에서 수집하고,
상기 f) 단계는,
상기 e) 단계에서 생성된 실시간 구난대상 위치정보와 상기 해양 정보 수집부에 수집된 선박정보를 기반으로, 구난대상의 현재 위치로 소정 시간내에 접근이 가능할 것으로 판단되는 선박으로 상기 서버에서 구난 조력 무선을 송출하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 방법.
According to claim 8,
In step b),
The server collects ship information including ship specification information, location information, and radio frequency information about ships sailing in the ocean,
In step f),
Based on the location information of the object to be rescued in real time generated in the step e) and the ship information collected by the marine information collection unit, the ship is determined to be able to access the current location of the object to be rescued within a predetermined time. A marine rescue target search method using a drone, characterized in that for transmitting.
제8항에 있어서,
상기 c) 단계는,
상기 서버에서 상기 기상 정보내 눈, 비 및 구름 관련 정보를 기상 정보 변수로 설정하고, 상기 해양 정보내 풍향, 풍속, 기압, 습도, 수온, 파고, 파주기 및 조류 관련 정보를 해양 정보 변수로 설정하고, 상기 GPS 정보를 위치 정보 변수로 설정하며, 상기 드론에서 촬영되는 해수면 영상 정보를 상기 기상 정보, 상기 해양 정보 및 상기 GPS 정보와 비교 분석하여, 각 기상 정보 변수, 각 해양 정보 변수 및 위치 정보 변수가 해수면 영상 패턴에 미치는 영향을 뉴럴 네트워크(Neural-Newtork) 방식을 통해 학습하는 방식으로 기상 상황별, 해양 상황별 및 위치별 해수면 영상 패턴 정보를 생성하는 것을 특징으로 하는, 드론을 이용한 해양 구난대상 수색 방법.


According to claim 8,
In step c),
In the server, information related to snow, rain, and clouds in the weather information is set as weather information variables, and information related to wind direction, wind speed, air pressure, humidity, water temperature, wave height, wave period, and current in the ocean information is set as ocean information variables. and sets the GPS information as a location information variable, and compares and analyzes the sea level image information captured by the drone with the weather information, the ocean information, and the GPS information to analyze each weather information variable, each ocean information variable, and location information. Marine rescue using drones, characterized by generating sea level image pattern information for each weather situation, ocean situation, and location by learning the effect of variables on sea surface image patterns through a neural network (Neural-Newtork) method How to search for a target.


KR1020210070555A 2021-06-01 2021-06-01 Marine searching system using drone and the method thereof KR102658520B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210070555A KR102658520B1 (en) 2021-06-01 2021-06-01 Marine searching system using drone and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210070555A KR102658520B1 (en) 2021-06-01 2021-06-01 Marine searching system using drone and the method thereof

Publications (2)

Publication Number Publication Date
KR20220162902A true KR20220162902A (en) 2022-12-09
KR102658520B1 KR102658520B1 (en) 2024-04-19

Family

ID=84440167

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210070555A KR102658520B1 (en) 2021-06-01 2021-06-01 Marine searching system using drone and the method thereof

Country Status (1)

Country Link
KR (1) KR102658520B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130124083A (en) * 2012-05-04 2013-11-13 (주)지엠티 Inner-sea maritime security system and its security method by using ais
KR20140078020A (en) * 2012-12-14 2014-06-25 (주) 지씨에스씨 Realtime monitoring system of the sea circumstances using mobile network
KR101851539B1 (en) * 2017-10-31 2018-04-24 주식회사 아울 Monitoring system using a drone
KR101927983B1 (en) * 2018-08-14 2018-12-12 변정태 Drone for life saving and system for rescuing victim using the same
US20190059081A1 (en) 2017-08-17 2019-02-21 Mediatek Singapore Pte. Ltd. Frequency Hopping Design For Grant-Free Transmission In Mobile Communications
US20200095155A1 (en) 2017-06-14 2020-03-26 Corning Incorporated Method for controlling compaction
US20200106278A1 (en) 2017-11-24 2020-04-02 Lg Chem, Ltd. Wireless Battery Management System and Method for Protecting Battery Pack Using Same
KR102254491B1 (en) * 2019-11-22 2021-05-21 (주)가시 Automatic fly drone embedded with intelligent image analysis function

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130124083A (en) * 2012-05-04 2013-11-13 (주)지엠티 Inner-sea maritime security system and its security method by using ais
KR20140078020A (en) * 2012-12-14 2014-06-25 (주) 지씨에스씨 Realtime monitoring system of the sea circumstances using mobile network
US20200095155A1 (en) 2017-06-14 2020-03-26 Corning Incorporated Method for controlling compaction
US20190059081A1 (en) 2017-08-17 2019-02-21 Mediatek Singapore Pte. Ltd. Frequency Hopping Design For Grant-Free Transmission In Mobile Communications
KR101851539B1 (en) * 2017-10-31 2018-04-24 주식회사 아울 Monitoring system using a drone
US20200106278A1 (en) 2017-11-24 2020-04-02 Lg Chem, Ltd. Wireless Battery Management System and Method for Protecting Battery Pack Using Same
KR101927983B1 (en) * 2018-08-14 2018-12-12 변정태 Drone for life saving and system for rescuing victim using the same
KR102254491B1 (en) * 2019-11-22 2021-05-21 (주)가시 Automatic fly drone embedded with intelligent image analysis function

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
조강현 외 2명. 인공지능 데이터 구축·활용 가이드라인. 울산대학교 산학협력단. 2021.03.19. 페이지33 내지 37.* *

Also Published As

Publication number Publication date
KR102658520B1 (en) 2024-04-19

Similar Documents

Publication Publication Date Title
EP2722636B1 (en) Water area management system
US11814173B2 (en) Systems and methods for unmanned aerial vehicles
Yuan et al. Fire detection using infrared images for UAV-based forest fire surveillance
CN109690250B (en) Unmanned aerial vehicle system assisted navigation system and method
KR102208152B1 (en) System and method for response disaster situations in mountain area using UAS
KR20170043035A (en) Water/underwater complex inspection system
KR20170138225A (en) The real time national imagery intelligence system or method based on the drone which hovering or surveillance flight around the drone docking station
JP2014097785A5 (en)
CN111953937B (en) Drowning person lifesaving system and drowning person lifesaving method
KR102161917B1 (en) Information Processing System and method for rescue in mountain area using UAS
JP6482857B2 (en) Monitoring system
CN111275924A (en) Child drowning prevention monitoring method and system based on unmanned aerial vehicle and unmanned aerial vehicle
CN113342019B (en) Maritime search and rescue method, system, equipment and medium based on unmanned aerial vehicle
CN110647170A (en) Navigation mark inspection device and method based on unmanned aerial vehicle
KR102341471B1 (en) Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor
Sruthi et al. YOLOv5 based open-source UAV for human detection during search and rescue (SAR)
CN211403566U (en) Children prevent drowned monitored control system and unmanned aerial vehicle based on unmanned aerial vehicle
CN114332652A (en) Information processing system, information processing apparatus, and information processing method
Liu et al. Mode Design and Experiment of Unmanned Aerial Vehicle Search and Rescue in Inland Waters
Eaton et al. Maritime border security using sensors, processing, and platforms to detect dark vessels
KR102658520B1 (en) Marine searching system using drone and the method thereof
Patterson et al. Safety and security applications for micro-unmanned surface vessels
CN117002680A (en) Deep open sea atmosphere and ocean integrated comprehensive observation platform
KR20200115933A (en) Rescue System and method for Alarm Broadcasting in mountain area using UAS
Perez-Mato et al. Real-time autonomous wildfire monitoring and georeferencing using rapidly deployable mobile units

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2024101000129; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20240117

Effective date: 20240214

GRNO Decision to grant (after opposition)
GRNT Written decision to grant