KR102431452B1 - Underwater survey system using under water drone - Google Patents

Underwater survey system using under water drone Download PDF

Info

Publication number
KR102431452B1
KR102431452B1 KR1020200135050A KR20200135050A KR102431452B1 KR 102431452 B1 KR102431452 B1 KR 102431452B1 KR 1020200135050 A KR1020200135050 A KR 1020200135050A KR 20200135050 A KR20200135050 A KR 20200135050A KR 102431452 B1 KR102431452 B1 KR 102431452B1
Authority
KR
South Korea
Prior art keywords
underwater
camera
information
main body
unit
Prior art date
Application number
KR1020200135050A
Other languages
Korean (ko)
Other versions
KR20220051533A (en
Inventor
김기주
김수용
Original Assignee
동명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동명대학교산학협력단 filed Critical 동명대학교산학협력단
Priority to KR1020200135050A priority Critical patent/KR102431452B1/en
Publication of KR20220051533A publication Critical patent/KR20220051533A/en
Application granted granted Critical
Publication of KR102431452B1 publication Critical patent/KR102431452B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C11/00Equipment for dwelling or working underwater; Means for searching for underwater objects
    • B63C11/48Means for searching for underwater objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G8/00Underwater vessels, e.g. submarines; Equipment specially adapted therefor
    • B63G8/38Arrangement of visual or electronic watch equipment, e.g. of periscopes, of radar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G8/00Underwater vessels, e.g. submarines; Equipment specially adapted therefor
    • B63G8/39Arrangements of sonic watch equipment, e.g. low-frequency, sonar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G8/00Underwater vessels, e.g. submarines; Equipment specially adapted therefor
    • B63G8/001Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations
    • B63G2008/002Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations unmanned
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Radiation Pyrometers (AREA)

Abstract

본 발명은 수중드론을 이용한 수중 탐사시스템에 관한 것이다. 본 발명은 가볍고 내식성을 갖는 소재로 구비된 본체와 상기 본체에 연결되어 상기 본체를 전후, 상하좌우로 이동시키는 추진장치와 상기 본체에 연결되어 해양의 오염물질을 포함한 유체를 여과시키는 정화장치를 구비하고, 상기 본체의 위치를 실시간으로 추적할 수 있도록 하여 상기 본체를 촬영하는 열화상촬영카메라와 상기 본체에 인접한 주변환경을 촬영하는 제2 카메라와 검사하고자 하는 대상을 확대하여 찍을수 있는 제3카메라가 구비된 촬영장치를 포함하여 조사구역 내를 운행하면서 수중정보를 촬영 및 수집하는 수중드론과 상기 제2 카메라에서 획득된 영상정보를 처리하고, 발열부의 위치로부터 도출된 상기 수중드론의 좌표정보 및 수중 표면 정보를 매핑하여 설정된 구역 내의 수중표면을 3차원으로 모델링하는 제어 정보처리장치와 상기 수중 드론에 의하여 수집된 정보를 상기 제어 정보처리장치로부터 전송받아 저장하는 데이터베이스부와 상기 데이터베이스부에 저장된 데이터를 통하여 상기 수중의 정보를 분석하여 매핑하고, 상기 수중의 정보를 출력시키는 출력부가 형성되어 있는 분석부를 포함하는 것을 특징으로 한다.The present invention relates to an underwater exploration system using an underwater drone. The present invention is provided with a main body made of a light and corrosion-resistant material, a propulsion device connected to the main body to move the main body back and forth, up and down, left and right, and a purification device connected to the main body to filter a fluid containing marine pollutants. and a thermal imaging camera for photographing the main body by tracking the position of the main body in real time, a second camera for photographing the surrounding environment adjacent to the main body, and a third camera capable of magnifying the object to be inspected An underwater drone that captures and collects underwater information while driving in the investigation area, including the equipped photographing device, and the image information obtained from the second camera, and coordinate information and underwater of the underwater drone derived from the location of the heating part A control information processing device for modeling an underwater surface within a set area by mapping surface information in three dimensions, a database unit for receiving and storing information collected by the underwater drone from the control information processing device, and data stored in the database unit It is characterized in that it comprises an analysis unit in which an output unit is formed to analyze and map the underwater information through, and output the underwater information.

Description

수중드론을 이용한 수중 탐사시스템{Underwater survey system using under water drone}Underwater survey system using under water drone

본 발명은 수중드론을 이용한 수중 탐사시스템에 관한 것으로 더욱 자세하게는, 수중드론에 형성된 카메라를 이용하여 3차원 모델링이 가능하고, 딥러닝방식으로 영상을 분석할 수 있는 수중드론을 이용한 수중 탐사시스템에 관한 것이다. The present invention relates to an underwater exploration system using an underwater drone, and more particularly, to an underwater exploration system using an underwater drone that can perform three-dimensional modeling using a camera formed in the underwater drone and analyze an image in a deep learning method. it's about

수직과 승강이 가능한 드론에 관한 연구가 활발하게 진행되어, 육지 상공에서 항공촬영을 하거나 촬영한 영상을 무선통신을 통해 육상의 사용자에게 전송하는 임무를 수행하는 등 활동하고 있다.Research on vertical and hoisting drones is being actively carried out, and they are performing tasks such as aerial photography over land or transmitting captured images to users on land through wireless communication.

그러나, 최근 드론은 육지 상공에서 뿐만 아니라, 수중 속에서도 동작할 수 있는 수중 드론을 포함하여 개발하고 있다. 이러한 수중 드론은 수중에 있는 물체나 수중의 지형을 탐색하는데 사용되도록 개발되고 있다.However, recently, drones are being developed including underwater drones that can operate not only over land but also underwater. These underwater drones are being developed to be used to search for underwater objects or underwater terrain.

그리고, 소나(Sound Navigation and Ranging, SONAR)는 수중물체의 탐지나 표정에 사용되는 음향표정장치으로서, 통상 수중청음기나 음향탐지기 등을 말한다. And, a sonar (Sound Navigation and Ranging, SONAR) is an acoustic expression device used for the detection or expression of an underwater object, and generally refers to a hydrophone or a sound detector.

수중청음기는 잠수함 탐지를 위해 제1차 세계대전 이래 개발되어, 특히 제2차 세계대전 중과 전후에 급속히 발달하였다. 가시광선 등의 전자파와 레이더파는 물속에는 전달되지 않으므로 초음파를 써서 표정한다. 물속에 전달되는 소리의 빠르기는 바다의 상황에 따라 다르나 대략 1,500m/s이며, 물체에 닿으면 반사하여 되돌아오는 성질이 있어 각종 소나는 이것을 이용한다.Hydrophones have been developed since World War I for submarine detection, and developed rapidly especially during and after World War II. Electromagnetic waves such as visible light and radar waves are not transmitted in water, so ultrasonic waves are used to make facial expressions. The speed of sound transmitted in the water varies depending on the sea conditions, but it is about 1,500 m/s, and when it touches an object, it reflects and returns, so various sonars use this.

소나에는 음향 탐신기형과 같이 스스로 소리를 내어 물체를 탐지하는 능동형 소나와 수중 청음기형과 같이 음원으로부터의 소리를 측정하여 그 물체를 탐지하는 수동형 소나의 두 종류가 있다. There are two types of sonar: an active type sonar that detects an object by making a sound by itself, such as an acoustic probe type, and a passive sonar that detects an object by measuring sound from a sound source, such as a hydrophone type.

능동형 소자는 일반적으로 음파를 짧은 단속음으로 발사하고 이것이 물체에 부딪혀 반사하여 되돌아오는 데 걸리는 시간을 재어 물체까지의 거리를 측정하며, 송파기를 회전시켜 그 방향을 탐지하기도 한다. 그리고, 수동형 소나는 지향성이 높은 청음기를 여러개 조합하여 물체가 발신하는 음이 도달하는 시간차, 세기 등을 측정함으로써 물체의 방향, 거리, 크기 등을 측정할 수 있다.Active devices generally emit sound waves in short intermittent tones, measure the distance to an object by measuring the time it takes for them to bounce off an object and return, and also detect the direction by rotating a transmitter. In addition, the passive sonar can measure the direction, distance, size, etc. of an object by measuring the time difference, intensity, etc. at which the sound emitted by the object arrives by combining several highly directional sounders.

풍부한 자원의 보고인 해양을 탐사하기 위해서는 잠수함과 같은 해양장비의 경우엔 해저면의 지형정보를 근거로 운행되므로, 해저면 정보가 전무한 지역에서는 인간의 접근이 사실상 불가능하다.In order to explore the ocean, which is a treasure trove of abundant resources, marine equipment such as submarines are operated based on topographical information of the seafloor, so human access is virtually impossible in areas where there is no seafloor information.

따라서, 상기에서 설명한 수중드론과 소나를 구비한 시스템을 이용한 해양 탐사를 하는 기술의 개발이 시급한 실정이다. Therefore, there is an urgent need to develop a technology for ocean exploration using the system having the underwater drone and sonar described above.

대한민국 특허출원 제2017-0072616호Republic of Korea Patent Application No. 2017-0072616 대한민국 특허공개 제2016-0089701호Korean Patent Publication No. 2016-0089701 대한민국 특허공개 제2014-0033656호Korean Patent Publication No. 2014-0033656

따라서, 본 발명은 수중드론을 이용하여 수중이나 해면을 조사할 때에 조사지역의 거친 물살이나 파랑 또는 파고 등의 환경적 요인에도 불구하고 쉽게 운용할 수 있도록 하는 수중드론을 이용한 수중 탐사시스템을 제공할 수 있는 것을 목적으로 한다. Therefore, the present invention provides an underwater exploration system using an underwater drone that can be easily operated despite environmental factors such as rough currents, waves, or wave heights in the survey area when using an underwater drone to investigate underwater or sea level. aim for what is possible.

또한, 수중드론으로 하여금 정확한 위치좌표를 도출할 수 있으므로 조사구역의 수중표면 형상에 대한 정밀도를 크게 향상시켜 정확한 탐사를 이룰수 있도록 하는 수중드론을 이용한 수중 탐사시스템을 제공할 수 있는 것을 목적으로 한다. In addition, the objective is to provide an underwater exploration system using an underwater drone that enables accurate exploration by greatly improving the precision of the underwater surface shape of the investigation area because the underwater drone can derive accurate positional coordinates.

또한, 수중드론이 획득한 정확한 위치 정보와, 수중드론의 카메라에서 측정된 수중 영상정보를 매핑시킴으로써 해저지형 또는 수중표면의 정밀한 형상의 정보를 얻을수 있는 수중드론을 이용한 수중 탐사시스템을 제공할 수 있는 것을 목적으로 한다. In addition, by mapping the precise location information acquired by the underwater drone with the underwater image information measured by the underwater drone's camera, it is possible to provide an underwater exploration system using an underwater drone that can obtain information on the precise shape of the seabed topography or underwater surface. aim to

이러한 문제를 해결하기 위하여 본 발명은 수중드론을 이용한 수중 탐사시스템에 있어서, 경량의 내식성을 갖는 소재로 구비된 본체와 상기 본체에 연결되어 상기 본체를 전후, 상하좌우로 이동시키는 추진장치와 상기 본체에 연결되어 해양의 오염물질을 포함한 유체를 여과시키는 정화장치를 구비하고, 상기 본체의 위치를 실시간으로 추적할 수 있도록 하여 상기 본체를 촬영하는 열화상촬영카메라와 상기 본체에 인접한 주변환경을 촬영하고 상기 수중드론이 운행하는 동안 상기 열화상촬영카메라에서 촬영된 열화상 영상정보를 실시간 획득하고 데이터화하여 상기 제어 정보처리장치로 전송하는 전송모듈이 형성된 제2 카메라와 촬영하고자 하는 대상을 확대하여 찍을수 있는 제3카메라가 구비된 촬영장치와 상기 본체의 가운데 부분에는 외부 기기로부터 전원을 공급과 제어를 받을수 있는 케이블을 포함하며, 조사구역 내를 운행하면서 수중정보를 촬영 및 수집하는 수중드론과 상기 제2 카메라에서 획득된 영상정보를 처리하고, 발열부의 위치로부터 도출된 상기 수중드론의 좌표정보 및 수중 표면 정보를 매핑하여 설정된 구역 내의 수중표면을 3차원으로 모델링하는 제어 정보처리장치와 상기 수중 드론에 의하여 수집된 정보를 상기 제어 정보처리장치로부터 전송받아 저장하는 데이터베이스부와 상기 데이터베이스부에 저장된 데이터를 통하여 상기 수중의 정보를 분석하여 매핑하고, 상기 수중의 정보를 출력시키는 출력부가 형성되어 있는 분석부를 포함하는 것을 특징으로 하는 것이다.In order to solve this problem, the present invention relates to an underwater exploration system using an underwater drone, a main body made of a lightweight corrosion-resistant material, and a propulsion device connected to the main body to move the main body forward and backward, up and down, left and right, and the main body It is connected to a purifying device for filtering the fluid containing contaminants in the sea, and a thermal imaging camera that captures the main body by tracking the position of the main body in real time and the surrounding environment adjacent to the main body, While the underwater drone is operating, the thermal image information captured by the thermal imaging camera is acquired in real time, and the second camera is formed with a transmission module that converts it into data and transmits it to the control information processing device. The third camera is equipped with a photographing device and the central part of the main body includes a cable for supplying power and receiving control from an external device, the underwater drone for photographing and collecting underwater information while operating in the irradiation area, and the second By processing the image information obtained from the camera and mapping the coordinate information and the underwater surface information of the underwater drone derived from the location of the heating part to three-dimensionally model the underwater surface in the area set by the underwater drone and the control information processing device It includes a database unit for receiving and storing the collected information from the control information processing device, and an analysis unit having an output unit configured to analyze and map the underwater information through the data stored in the database unit, and output the underwater information. It is characterized by

또한, 상기 데이터베이스부에 저장된 데이터를 상기 제어 정보처리장치로부터 전송받아 열화상 및 수중표면의 영상정보를 실시간으로 분석하여 상기 분석부에 전송하는 처리부가 구비되어 있는 것을 특징으로 한다.In addition, it is characterized in that a processing unit is provided that receives the data stored in the database unit from the control information processing device, analyzes the thermal image and image information of the underwater surface in real time, and transmits the data to the analysis unit.

따라서, 본 발명은 수중드론과 이에 부속된 소나에서 측정된 수중 영상정보를 통하여 해저지형 또는 수중표면의 정밀한 형상 정보를 얻을 수 있는 수중드론을 이용한 수중 탐사시스템을 제공할 수 있는 효과가 있는 것이다. Therefore, the present invention has the effect of providing an underwater exploration system using an underwater drone that can obtain precise shape information of the seabed topography or underwater surface through the underwater image information measured from the underwater drone and the sonar attached thereto.

또한, 딥러닝 시스템을 사용하여 수집되는 수중 탐사의 해양정보와 수중표면의 영상정보를 빅 데이터화시켜서 분석부를 통하여 분석하는 방식을 사용하여 정확한 해양정보와 자료를 파악할 수 있는 효과도 있다. In addition, there is an effect that accurate marine information and data can be grasped by using the method of analyzing the marine information of underwater exploration and the image information of the underwater surface collected using the deep learning system into big data and analyzing it through the analysis unit.

도 1은 수중드론의 사시도.
도 2는 수중드론의 단면도.
도 3은 수중드론의 토출부의 저면도.
도 4는 실시예에 따른 열화상 영상의 디스플레이 화면을 나타내는 사진.
도 5는 실시예에 따른 발열부 위치의 디스플레이 화면을 나타내는 사진.
도 6은 실시예에 따른 수중표면영상의 디스플레이 화면을 나타내는 사진.
도 7은 실시예에 따른 3차원모델링의 디스플레이 화면을 나타내는 사진.
도 8은 본 발명에 의한 수중드론을 이용한 수중 탐사시스템을 나타내는 블록도.
도 9는 수중정보 및 열화상과 수중표면의 영상정보를 분석하는 방식의 흐름도.
1 is a perspective view of an underwater drone.
Figure 2 is a cross-sectional view of the underwater drone.
Figure 3 is a bottom view of the discharge unit of the underwater drone.
4 is a photograph showing a display screen of a thermal image according to the embodiment.
5 is a photograph showing a display screen at a location of a heat generating unit according to an embodiment.
Figure 6 is a photograph showing the display screen of the underwater surface image according to the embodiment.
7 is a photograph showing a display screen of 3D modeling according to an embodiment.
8 is a block diagram showing an underwater exploration system using an underwater drone according to the present invention.
9 is a flowchart of a method of analyzing underwater information and thermal images and image information of the underwater surface;

이하에서는 본 발명의 양호한 실시예를 첨부된 도면을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시가 되더라도 가능한 한 동일 부호를 가지도록 하고 있음에 유의하여야 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are marked on different drawings.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

또한, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위하여 사용된 것에 불과하므로, 본 발명을 한정하려는 의도가 아니며 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현도 의미하는 것임을 미리 밝혀두고자 한다. 참고로, 본 명세서 상에서 등장하는 제어 정보처리장치란 PC, 스마트폰, 태블랫, 서버 등과 같이 정보를 주고 받을수 있으며 입력시킬수 있는 수단을 의미한다. In addition, since the terms used in the present application are only used to describe specific embodiments, it is not intended to limit the present invention, and the singular expression means a plural expression unless the context clearly indicates otherwise. we want to leave For reference, a control information processing device appearing in this specification means a means capable of exchanging and inputting information, such as a PC, a smartphone, a tablet, a server, and the like.

도 1은 수중드론의 사시도이고, 도 2는 수중드론의 단면도이고, 도 3은 수중드론의 토출부의 저면도이고, 도 4는 실시예에 따른 열화상 영상의 디스플레이 화면을 나타내는 사진이고, 도 5는 실시예에 따른 발열부 위치의 디스플레이 화면을 나타내는 사진이고, 도 6은 실시예에 따른 수중표면영상의 디스플레이 화면을 나타내는 사진이고, 도 7은 실시예에 따른 3차원모델링의 디스플레이 화면을 나타내는 사진이고, 도 8은 본 발명에 의한 수중드론을 이용한 수중 탐사시스템을 나타내는 블록도이고, 도 9는 수중정보 및 열화상과 수중표면의 영상정보를 분석하는 방식의 흐름도이다. Figure 1 is a perspective view of an underwater drone, Figure 2 is a cross-sectional view of the underwater drone, Figure 3 is a bottom view of the discharge part of the underwater drone, Figure 4 is a photograph showing a display screen of the thermal image according to the embodiment, Figure 5 is a photograph showing the display screen of the location of the heating element according to the embodiment, Figure 6 is a photograph showing the display screen of the underwater surface image according to the embodiment, Figure 7 is a photograph showing the display screen of the three-dimensional modeling according to the embodiment 8 is a block diagram showing an underwater exploration system using an underwater drone according to the present invention, and FIG. 9 is a flowchart of a method of analyzing underwater information and thermal images and image information of the underwater surface.

도 1은 본 발명의 실시예에 있어 구성요소 중에 하나인 수중드론(100)이다. 상기 수중드론(100)은 수중에서 부양한 상태로 원격운행될 수 있는 것으로, 수중의 이물질을 포함한 유체를 흡입하여 수중 속 이물질을 제거할 수 있으며, 동시에 이물질을 제거하는 과정에 있어서 흐트러짐 없이 균형을 유지할 수 있는 것이다. 또한, 상기 수중드론(100)은 별도의 조명부재(미도시)가 구비되어 어두운 환경에서도 손쉬운 촬영이 이루어지도록 하는 것이다. 1 is an underwater drone 100 that is one of the components in an embodiment of the present invention. The underwater drone 100 can be operated remotely in a floating state in the water, and can remove foreign substances in the water by sucking the fluid including foreign substances in the water, and at the same time, balance without disturbance in the process of removing the foreign substances that can be maintained In addition, the underwater drone 100 is provided with a separate lighting member (not shown) so that easy shooting even in a dark environment.

본체(110)는 골조를 이루는 부재로 형성되며, 복수의 패널 또는 복수의 빔을 포함하여 구성될 수 있다. 상기 본체(110)는 예로서, 알루미늄 패널 또는 알루미늄 빔과 같이 비교적 가벼운 경량이면서 내식성을 갖는 소재로 구성될 수 있다.The body 110 is formed of a member constituting a frame, and may be configured to include a plurality of panels or a plurality of beams. The body 110 may be made of, for example, a material having a relatively light weight and corrosion resistance, such as an aluminum panel or an aluminum beam.

도 2에 도시된 대로, 상기 본체(110)에 연결되어 해양의 오염물질을 포함한 유체를 여과시키는 정화장치(120)는 오염 물질이 포함된 유체를 흡입하여 오염 물질을 여과시켜 걸러낸 다음 정화된 유체를 다시 한번 토출하는 장치로 정화통(121), 흡입펌프(122) 및 토출부(123)를 포함한다.As shown in FIG. 2 , the purification device 120 connected to the body 110 and filtering the fluid containing the pollutants in the sea sucks the fluid containing the pollutants, filters the pollutants, and then the purified As a device for discharging the fluid once again, it includes a purification tank 121 , a suction pump 122 , and a discharge unit 123 .

도시된 바와 같이, 정화통(121)은 유체가 유입되는 인입부(121a)와 오염 물질을 여과하는 필터(121b)를 포함한다. 상기 필터(121b)는 정화통(121)의 내부의 저장공간을 상부 공간(121c)과 하부 공간(121d)으로 구획하며, 상기 필터(121b)는 상부공간(121c)과 하부 공간(121d)은 필터(121b)를 통해 연통되어, 유입된 유체는 상기 필터(121b)를 지나서만 흡입펌프(122)를 향해 이동될 수 있다. As shown, the purification tank 121 includes an inlet 121a through which a fluid flows and a filter 121b that filters contaminants. The filter 121b divides the storage space inside the purification tank 121 into an upper space 121c and a lower space 121d, and the filter 121b includes the upper space 121c and the lower space 121d as a filter. The fluid communicated through the 121b may be moved toward the suction pump 122 only through the filter 121b.

여기서, 상기 인입부(121a)는 필터(121b)에 의해 구획되는 하부 공간(121d)에 형성되어, 하부공간(121d)에 유입된 유체는 흡임펌프(122)의 흡입력에 의해 필터(121b)를 지나서 상부 공간(121c)으로 이동한다.Here, the inlet portion 121a is formed in the lower space 121d partitioned by the filter 121b, and the fluid flowing into the lower space 121d filters the filter 121b by the suction force of the suction pump 122. It moves to the upper space 121c past.

필터(121b)는 저장공간의 하면을 기준으로 소정의 경사를 갖도록 기울어져 형성될 수 있다. 상기 필터(121b)는 인입부(121a)로부터 가까운 쪽 부분이 인입부(121a)로부터 먼 쪽 부분보다 더 큰 높이를 갖도록 형성될 수 있다.The filter 121b may be inclined to have a predetermined inclination with respect to the lower surface of the storage space. The filter 121b may be formed so that a portion closer to the inlet portion 121a has a greater height than a portion farther from the inlet portion 121a.

상기 필터(121b)는 오염 물질이 통과될 수 없을 정도로 작게 형성된 관통공을 가지므로, 오염 물질을 필터(121b)에 의해 걸려져, 상부 공간(121c)으로 이동할 수 없게 된다. 즉, 걸러진 오염 물질은 하부 공간(121d)에 침적된다.Since the filter 121b has a through hole formed so small that the contaminants cannot pass, the contaminants are caught by the filter 121b and cannot move into the upper space 121c. That is, the filtered contaminants are deposited in the lower space 121d.

또한, 정화통(121)은 하면의 일면에 퇴적된 이물질을 제거할 수 있도록 개폐 가능하게 형성된 이물질 배출부(미도시)가 더 형성될 수 있다.In addition, the purification tank 121 may be further formed with a foreign material discharge part (not shown) formed so as to be able to open and close to remove the foreign material deposited on one surface of the lower surface.

흡입펌프(122)는 상부 공간(121c)과 연통하여 형성되며, 연결관 등과 같은 연통부재(미도시)를 통해 연결될 수 있다. 상기 흡입펌프(122)는 오염물질이 충분히 제거될 수 있도록 높은 흡입력을 가지며, 흡입펌프(122)의 흡입력에 의해 인입부(121a)로 유체가 유입될 수 있으며 토출부(123)를 통해 유입된 유체가 토출될 수 있다. The suction pump 122 is formed in communication with the upper space 121c, and may be connected through a communication member (not shown) such as a connection pipe. The suction pump 122 has a high suction power so that contaminants can be sufficiently removed, and the fluid can be introduced into the inlet part 121a by the suction power of the suction pump 122 and the fluid is introduced through the discharge part 123 . A fluid may be discharged.

상기 흡입펌프(122)는 정화통(121) 내의 유체가 하부 공간(121d)으로부터 상부 공간(121c)으로 역류되도록 상측방향으로 유체를 흡입한다. 따라서, 흡입펌프(122)에 의해 유체가 필터(121b)를 통해 상부 공간(121c)으로 이동됨에 따라 이물질은 필터(121b)에 걸러지게 된다.The suction pump 122 sucks the fluid in the upward direction so that the fluid in the purification tank 121 flows back from the lower space 121d to the upper space 121c. Accordingly, as the fluid moves into the upper space 121c through the filter 121b by the suction pump 122 , the foreign material is filtered by the filter 121b.

또한, 상기 흡입펌프(122)는 토출부(123)를 통해 유체를 토출하는 토출압력을 본체(110)의 추진력으로 사용할 수 있을 정도의 충분한 압력으로 유체를 흡입, 토출한다.In addition, the suction pump 122 sucks and discharges the fluid at a pressure sufficient to use the discharge pressure for discharging the fluid through the discharge unit 123 as a driving force of the body 110 .

상기 토출부(123)는 흡입펌프(122)에 연결되어 필터(121b)에 의해 이물질이 제거된 유체를 흡입펌프(122)에 의해 전달받아 토출시킨다. 상기 토출부(123)는 유체를 토출시킴에 있어서 본체(110)의 균형을 유지할 수 있도록 흡입된 유체를 서로 상쇄되는 방향으로 토출시킨다.The discharge unit 123 is connected to the suction pump 122 to receive and discharge the fluid from which foreign substances are removed by the filter 121b by the suction pump 122 . The discharge unit 123 discharges the suctioned fluid in a direction that cancels each other so as to maintain the balance of the body 110 in discharging the fluid.

토출부(123)는 상기 토출부(123)의 중심을 기준으로 서로 대칭되는 형상을 가지며 일 예로, 원형의 링 형상을 가질수 있다. 이 때, 토출부(123)는 길이 방향을 따라 동일한 폭을 갖도록 형성된다. 그러나 토출부(123)의 형상은 원형의 링에 한정되지 않고, 필요에 따라 변경될 수 있다.The discharge unit 123 may have a shape symmetrical to each other based on the center of the discharge unit 123 , and may have, for example, a circular ring shape. At this time, the discharge part 123 is formed to have the same width along the longitudinal direction. However, the shape of the discharge part 123 is not limited to a circular ring, and may be changed as needed.

도 3을 참조하면, 토출부(123)는 흡입펌프(122)에 의해 전달받은 유체를 토출시킬 수 있는 복수의 토출공(123a)을 갖는다. 상기 토출공(123a)은 상기 토출부(123)의 중심점을 기준으로 서로 대칭되는 위치에 형성되며, 대칭되는 위치에 형성되어 서로 마주보는 토출공(123a)은 형상 및 크기가 서로 같다. Referring to FIG. 3 , the discharge unit 123 has a plurality of discharge holes 123a through which the fluid received by the suction pump 122 can be discharged. The discharge holes 123a are formed at positions symmetrical to each other with respect to the central point of the discharge unit 123 , and the discharge holes 123a facing each other formed at symmetrical positions have the same shape and size.

또한, 토출공(123a)은 상기 토출부(123)의 하면에 형성되어 하측 방향으로 유체 배출시 반력에 의해 본체(110)를 상승시키도록 형성될 수 있다. 이때, 도시된 대로 토출공(123a)은 토출부(123)의 원주방향을 따라 일정한 간격으로 복수개 배치된다.In addition, the discharge hole 123a may be formed on the lower surface of the discharge part 123 to raise the body 110 by a reaction force when the fluid is discharged in the downward direction. At this time, as shown, a plurality of discharge holes 123a are arranged at regular intervals along the circumferential direction of the discharge unit 123 .

상기 토출공(123a)은 다른 예로, 토출부(123)의 상면에 형성되어 상측 방향으로 유체 배출시 반력에 의해 본체(110)를 하강시키도록 형성될 수도 있다. As another example, the discharge hole 123a may be formed on the upper surface of the discharge unit 123 to lower the body 110 by a reaction force when the fluid is discharged in the upward direction.

또한, 토출공(123a)은 또 다른 예로, 토출부(123)의 측면에 형성되어 측면방향으로 유체 배출시 서로 상쇄되어 아무런 반력을 받지 않을 수 있다.In addition, as another example, the discharge hole 123a may be formed on the side surface of the discharge unit 123 to cancel each other out when the fluid is discharged in the side direction so that no reaction force is received.

촬영장치(130)는 본체(110)에 연결되어 본체(110)의 위치 및 인접한 주변 환The photographing device 130 is connected to the main body 110 to determine the position of the main body 110 and the adjacent surrounding environment.

경을 촬영할 수 있다. 촬영장치(130)는 본체(110)의 위치를 실시간으로 추적할 수 있도록 본체(110)와 열화상을 촬영하는 열화상촬영카메라(131) 및 본체(110)에 인접한 주변환경을 촬영하는 제2 카메라(132)를 포함한다. 또한, 검사하고자 하는 대상을 확대하여 찍을수 있는 제3카메라(133)도 역시 포함한다.You can take pictures of the scenery. The photographing device 130 includes a thermal imaging camera 131 for photographing the main body 110 and a thermal image so as to track the position of the main body 110 in real time, and a second second imaging camera 131 for photographing the surrounding environment adjacent to the main body 110 . It includes a camera 132 . In addition, a third camera 133 capable of magnifying and photographing an object to be inspected is also included.

상기 열화상촬영카메라(131)의 렌즈는 본체(110)를 향하여 배치될 수 있으며, 본체(110)와 주변 환경을 동시에 촬영하여 본체(110)의 위치 정보를 제공할 수 있다.The lens of the thermal imaging camera 131 may be disposed toward the body 110 , and may provide location information of the body 110 by simultaneously photographing the body 110 and the surrounding environment.

또한, 상기 열화상촬영카메라(131)는 본체(110)의 위치뿐 아니라, 본체(110)의 자세를 촬영하여 본체(110)의 자세에 대한 정보를 검출할 수도 있다.In addition, the thermal imaging camera 131 may detect information on the posture of the main body 110 by photographing not only the position of the main body 110 , but also the posture of the main body 110 .

또한, 도 1을 참조하면, 상기 열화상촬영카메라(131)를 지지하는 부재는 발광부(L)로 이루어져 있는데, 상기 발광부(L)는 발광다이오드(LED) 다수개가 일정 간격으로 원형으로 이루어져 있는 것이다. In addition, referring to FIG. 1 , the member supporting the thermal imaging camera 131 includes a light emitting part L, and the light emitting part L is made of a plurality of light emitting diodes (LEDs) in a circular shape at regular intervals. there will be

제2 카메라(132)는 회전 가능하게 배치되어 전, 후방을 모두 촬영할 수 있으며, 광대역을 촬영할 수 있도록 승강되며 촬영할 수 있다.The second camera 132 may be rotatably disposed to photograph both the front and the rear, and may be raised and lowered to photograph a wide band.

그리고, 촬영장치(130)는 검사하고자 하는 대상과 영역을 확대하여 촬영할 수 있는 확대 카메라인 제3 카메라(133)를 더 포함할 수 있다. 상기 제3 카메라(133)는 줌-인 또는 줌-아웃 기능을 구비하여, 검사하고자 하는 대상을 최대 약 30배 정도까지 확대하여 영상을 촬영할 수 있다. In addition, the photographing apparatus 130 may further include a third camera 133 which is a magnifying camera capable of photographing an object and an area to be inspected by enlarging the photographing apparatus. The third camera 133 may have a zoom-in or zoom-out function, so that an image to be inspected may be enlarged up to about 30 times to capture an image.

추진장치(140)는 본체(110)와 연결되어 상기 본체(110)에 추진력을 제공하여 본체(110)를 전후좌우 및 상하 방향으로 이동시킬 수 있도록 한다. 상기 추진장치(140)는 내부 구성요소가 각각 독립적으로 제어됨으로써 다양한 방향으로 본체(110)를 이동시킬 수 있는 것이다. 이에 대한 기술은 널리 공지된 것이므로 자세한 설명은 생략한다. The propulsion device 140 is connected to the main body 110 to provide a propulsive force to the main body 110 to move the main body 110 in front, back, left, right, and vertical directions. The propulsion device 140 is capable of moving the main body 110 in various directions by independently controlling each of the internal components. Since the technology for this is widely known, a detailed description thereof will be omitted.

추진장치(140)는 덕트(미도시), 틸팅축(미도시) 및 프로펠러(미도시)를 포함하며 덕트는 프로펠러의 외주면에 배치되어 상기 프로펠러를 보호한다. 덕트는 틸팅 축에 연결되어 틸팅 회전됨으로써, 덕트 내에 배치된 프로펠러의 회전에 의해 모든 방향으로 상기 본체(110)에 추진력을 제공할 수 있다.The propulsion device 140 includes a duct (not shown), a tilting shaft (not shown) and a propeller (not shown), and the duct is disposed on the outer peripheral surface of the propeller to protect the propeller. The duct is connected to the tilting shaft and rotated by tilting, thereby providing propulsive force to the main body 110 in all directions by rotation of a propeller disposed in the duct.

도 1을 참조해보면, 상기 수중드론(100)은 통신장치(150)와 케이블(160)이 각각 더 포함된다. Referring to FIG. 1 , the underwater drone 100 further includes a communication device 150 and a cable 160 , respectively.

통신장치(150)는 압력 트랜스미터, 변위 트랜스미터, 혹은 어떠한 신호를 발신할 수 있는 모든 장치들을 포함할 수 있다. 상기 통신장치(150)는 또한, 수중 지형 영역에 설치된 Ultra wideband receiver, 스마트폰, 태블릿, 혹은 다른 계산 장치와 같은 무선 접근 가능한 장치들(미도시)과 무선통신할 수 있다.The communication device 150 may include a pressure transmitter, a displacement transmitter, or any other device capable of transmitting any signal. The communication device 150 may also communicate wirelessly with wirelessly accessible devices (not shown) such as an ultra wideband receiver, smartphone, tablet, or other computing device installed in an underwater terrain area.

또한, 상기 수중드론(100)은 본체(110)의 가운데 부분에 케이블(160)이 연결되어 외부로부터 전원을 공급받음과 동시에 외부기기(미도시)로부터 제어를 받을 수 있다. 여기서, 상기 케이블(160)의 예로는 테더 케이블(tether cable)을 포함할 수 있다.In addition, the underwater drone 100 may be controlled from an external device (not shown) while receiving power from the outside by connecting the cable 160 to the central portion of the main body 110 . Here, an example of the cable 160 may include a tether cable.

상기와 같은 구성적 특징을 가지고, 해양의 조사구역 내를 운행하면서 수중의 정보를 촬영 및 수집하는 수중드론(100)에는 촬영장치(130)를 이용하여, 수중드론(100)이 운행하는 동안에 조사구역 전체를 알맞은 크기와 위치에서 촬영하여, 실시간으로 열화상 영상정보를 획득하는 기능을 한다. Using the imaging device 130 for the underwater drone 100 that has the above-described structural features and that captures and collects underwater information while operating in the survey area of the ocean, the underwater drone 100 is irradiated while it is operating It functions to acquire thermal image information in real time by photographing the entire area at an appropriate size and location.

이를 설명하면, 열화상 촬영카메라(131)가 영상을 촬영하여 획득하면 제2 카메라(132)에서 획득된 영상정보를 처리하고, 상기 발열부(L)의 위치로부터 도출된 상기 수중드론(100)의 좌표정보 및 상기 열화상 촬영카메라(131)에서 측정된 수중표면 정보를 매핑하여 미리 설정된 구역 내의 수중표면을 3차원으로 모델링하는 제어 정보처리장치(200)가 원격으로 이격 형성된다. To explain this, when the thermal imaging camera 131 captures and acquires an image, the image information obtained from the second camera 132 is processed, and the underwater drone 100 derived from the position of the heat generating unit (L). A control information processing device 200 for modeling the underwater surface in a preset area in three dimensions by mapping the coordinate information of and the underwater surface information measured by the thermal imaging camera 131 is formed to be remotely spaced apart.

또한, 상기 제어 정보처리장치(300)는 상기 촬영장치(130)에 해당하는 열화상촬영카메라(131)와 제2 카메라(132), 제3카메라(133)에서 촬영된 정보도 케이블(160)에 의하여 전송받게 된다. In addition, the control information processing device 300 includes a cable 160 for information captured by the thermal imaging camera 131 , the second camera 132 , and the third camera 133 corresponding to the photographing device 130 . will be sent by

상기 열화상촬영카메라(131)와 제2 카메라(132)는 조사하고자 하는 수중 표면의 면적에 해당하는 구역 전체와 주변환경을 촬영하여 상기 수중드론(100)을 추적할 수 있도록 하여 열화상 영상을 생성하는 것이다. The thermal imaging camera 131 and the second camera 132 photograph the entire area and the surrounding environment corresponding to the area of the underwater surface to be irradiated so that the underwater drone 100 can be tracked to produce a thermal image. it will create

상기 열화상촬영카메라(131)는 하부를 지지하여 이루어진 발광부(L)를 통하여 적외선 열화상 촬영장치의 기능을 하는 것으로, 대상물체의 열을 추적, 탐지하여 온도분포를 제어 정보처리장치(200)에 전송을 통한 화면으로 보여주는 것이다.The thermal imaging camera 131 functions as an infrared thermal imaging device through the light emitting part L formed by supporting the lower part, and tracks and detects the heat of the object to control the temperature distribution. ) to be displayed on the screen through transmission.

따라서, 기존에는 협소한 공간 또는 폐쇄된 공간에서는 수중드론의 위치를 GPS로 측정할 경우 오차가 크게 발생하는 문제를 해결하고자 본 실시예에서 상기 와 같은 적외선 열화상 쵤영기를 사용함으로써 위치 오차를 크게 줄일 수 있다.Therefore, in this embodiment, in order to solve the problem that a large error occurs when measuring the position of an underwater drone with GPS in a narrow space or a closed space, the position error is greatly increased by using the infrared thermal imager as described above in this embodiment. can be reduced

구체적으로 상기 열화상촬영카메라(131)인 적외선 열화상 카메라는 미리 설정한 조사구역을 충분히 포함하는 수면 면적을 촬영할 수 있도록 설치된다. Specifically, the infrared thermal imaging camera, which is the thermal imaging camera 131, is installed to photograph the surface area sufficiently including a preset irradiation area.

더 나아가, 상기 수중드론(100)을 설정한 조사구역 내에서 운행시키면서 상기 열화상촬영카메라(131)로 촬영하면 실제 상기 수중드론(100)의 열화상이 나타나는데, 발열부(L)는 상대적으로 고온이므로 분명하게 인식되는 컬러로 나타나므로 상기 수중드론(100)의 위치를 정확하게 추적하여 인식될 수 있다.Furthermore, when the underwater drone 100 is photographed with the thermal imaging camera 131 while operating within the set irradiation area, a thermal image of the underwater drone 100 appears, and the heating part L is relatively Since it is a high temperature, it can be recognized by accurately tracking the position of the underwater drone 100 because it appears in a color that is clearly recognized.

또한, 수중드론(100)이 운행하는 동안, 상기 제2 카메라(132)에는 열화상촬영카메라(131)에서 촬영된 열화상 영상정보를 실시간으로 획득하고 데이터화하여 상기 제어 정보처리장치(200)로 전송하는 전송모듈(미도시)도 포함된다.In addition, while the underwater drone 100 is operating, the second camera 132 acquires the thermal image image information photographed by the thermal imaging camera 131 in real time and converts it into data to the control information processing device 200 . A transmitting module (not shown) for transmitting is also included.

상기 제어 정보처리장치(200)는 상기 수중드론(100)의 제2 카메라(132)에서 획득된 영상정보를 처리하여 얻어진 수중드론(100)의 위치좌표를 상호 매핑시켜 최종적으로 3차원의 수중표면 이미지를 생성하는 것이다. The control information processing device 200 maps the position coordinates of the underwater drone 100 obtained by processing the image information obtained from the second camera 132 of the underwater drone 100 to each other to finally a three-dimensional underwater surface. to create an image.

이러한 제어 정보처리장치(200)는 상기 제2 카메라(132)에서 획득하여 전송된 영상정보를 처리하여 상기 발열부(L)의 위치를 검출하고 검출된 발열부(L)의 위치정보로부터 도출된 수중드론(100)의 좌표정보, 위치좌표를 연산하여 도출하게 된다.The control information processing apparatus 200 detects the position of the heating unit L by processing the image information acquired and transmitted from the second camera 132, and is derived from the detected position information of the heating unit L. The coordinate information of the underwater drone 100 is derived by calculating the position coordinates.

또한, 상기 제어 정보처리장치(200)는 상기 제2카메라(132)의 상기 전송모듈에서 전송해준 열화상 영상정보를 실시간으로 데이터베이스부(250)에 저장한다. 그리고, 이렇게 저장된 영상정보를 제어 정보처리장치(200)의 화면(미도시)으로도 디스플레이시킨다. In addition, the control information processing apparatus 200 stores the thermal image image information transmitted from the transmission module of the second camera 132 in the database unit 250 in real time. Then, the stored image information is also displayed on a screen (not shown) of the control information processing apparatus 200 .

이를 통해 관리자는 실제 상기 수중드론(100)의 운행상황을 모니터링할 수 있다. 또한, 상기 제어 정보처리장치(200)는 상기 화면에서 관리자가 설정하는 조사구역(범위) 내의 열화상 영상정보를 처리하여 온도분포화된 정보로 변환하고, 처리된 온도분포 정보 중에서 특정 온도값 이상의 영역을 검출하며, 검출된 영역의 위치를 발열부(L)의 위치정보로 인식하여 획득한다. Through this, the manager can actually monitor the operating status of the underwater drone 100 . In addition, the control information processing device 200 processes the thermal image image information within the irradiation area (range) set by the administrator on the screen and converts it into temperature distribution information, and among the processed temperature distribution information, a specific temperature value or higher. The region is detected, and the position of the detected region is recognized and acquired as position information of the heating unit (L).

다시 말해서, 열화상 영상정보의 이미지 와핑(Image warping)을 수행하고, 열화상 이미지를 이진화한 후 특정 온도값 이상의 영역을 검출한다. 그리고, 검출된 값에 해당하는 좌표는 상기 발열부(L)의 위치좌표로 결정된다. 또한, 상기 온도분포화된 영상정보는 컬러화된 화면으로 디스플레이될 수 있다. 즉, 관리자는 화면으로 상기 발열부(L)의 위치, 다시 말해서 상기 수중드론(100)의 운행상황과 위치를 명백히 모니터링할 수 있다.In other words, image warping of the thermal image information is performed, and after binarizing the thermal image, a region above a specific temperature value is detected. And, the coordinates corresponding to the detected values are determined as the positional coordinates of the heating unit L. Also, the temperature-distributed image information may be displayed on a colored screen. That is, the manager can clearly monitor the position of the heating part (L) on the screen, that is, the operating situation and position of the underwater drone 100.

그리고, 상기 제어 정보처리장치(200)는 상기 획득된 상기 발열부(L)의 위치정보를 연산 처리하여 상기 수중드론(100)의 실제 위치좌표를 최종적으로 도출한다. And, the control information processing device 200 finally derives the actual position coordinates of the underwater drone 100 by processing the obtained position information of the heating unit (L).

그리고, 열화상촬영카메라(131)는 수중표면의 영상을 촬영하면, 상기 제어정보처리장치(200)는 상기 열화상촬영카메라(131)에서 촬영된 수중표면이나 해저의 영상정보를 저장하고, 이러한 방식으로 저장된 수중표면 영상정보를 화면으로 디스플레이하는 것이다. 즉, 관리자는 상기 열화상촬영카메라(131)를 통하여 촬영된 수중표면 또는 해저표면의 영상의 실시간 모니터링이 역시 가능한 것이다. And, when the thermal imaging camera 131 takes an image of the underwater surface, the control information processing device 200 stores the image information of the underwater surface or the seabed photographed by the thermal imaging camera 131, and such It is to display the underwater surface image information stored in this way on the screen. That is, the manager is also capable of real-time monitoring of the image of the underwater surface or the seabed surface photographed through the thermal imaging camera 131 .

더 나아가, 상기 수중드론(100)에는 관성측정센서(미도시: IMU, Inertial Measurement Unit)도 구비된다. 상기 관성측정센서는 3축 가속도센서와 3축 자이로 센서, 3축 지자기센서와 같은 것으로서, 상기 수중드론(100)의 속도, 가속도, 방향, 중력 등을 측정하기 위한 것이다. Furthermore, the underwater drone 100 is also provided with an inertial measurement sensor (not shown: IMU, Inertial Measurement Unit). The inertial measurement sensor is such as a 3-axis acceleration sensor, a 3-axis gyro sensor, and a 3-axis geomagnetic sensor, for measuring the speed, acceleration, direction, gravity, etc. of the underwater drone 100 .

상기 수중표면의 영상정보는 3차원 매핑(mapping)도 이루어진다. 참고로 상기 제어 정보처리장치(200)에는 상기 관성측정센서에서 측정된 관성측정값의 정보를 수신하여 처리한 후 상기 수중드론(100)의 정확한 위치 좌표를 도출하게 한다. 즉, 상기 제어 정보처리장치(200)는 수중 표면 정보를 매핑하여 설정된 구역 내의 수중표면을 3차원으로 모델링하는 것이다. 참고로, 상기 매핑이란 의미는 입체적으로 변환시켜 서로 매칭시키는 것을 의미한다. The image information of the underwater surface is also made three-dimensional mapping (mapping). For reference, the control information processing device 200 receives and processes the information of the inertial measurement value measured by the inertial measurement sensor, and then derives the correct position coordinates of the underwater drone 100 . That is, the control information processing apparatus 200 maps the underwater surface information to three-dimensionally model the underwater surface in the set area. For reference, the mapping means three-dimensional transformation and matching with each other.

이렇게 도출된 수중드론(100)의 실제의 위치좌표 및 상기 열화상촬영카메라(131)가 쵤영하여 저장된 영상, 수중표면의 영상정보를 전송받아 상호 매핑시키고, 매핑된 정보를 3차원의 이미지로 변환, 모델링하여 상기 제어 정보처리장치(200)의 화면으로 디스플레이시킨다. The actual position coordinates of the underwater drone 100 derived in this way, the image captured by the thermal imaging camera 131, and the image information of the underwater surface are received and mapped to each other, and the mapped information is converted into a three-dimensional image. , to be modeled and displayed on the screen of the control information processing apparatus 200 .

즉, 상기 수중드론(100)의 특정 위치좌표값과 상기 특정 위치좌표값에서 열화상촬영카메라(131)를 이용한 측정한 수중표면의 형상을 서로 매칭하여 포인트 클라우드화시킨다. 구체적인 예로서, 상기 포인트 클라우드화시키는 것은 수중표면의 체표면에 대한 모델링 기반의 미리 설정된 3차원 모델 포맷에 의해 상기 처리된 수중표면 영상정보를 우선적으로 모델링한다. That is, the shape of the underwater surface measured using the thermal imaging camera 131 at the specific location coordinate value of the underwater drone 100 and the specific location coordinate value is matched to form a point cloud. As a specific example, the point cloud formation preferentially models the processed underwater surface image information by a preset three-dimensional model format based on modeling for the body surface of the underwater surface.

그리고, 상기 연산된 수중드론(100)의 실제 위치좌표와 상기 모델링된 수중표면 영상정보를 매핑하여 포인트 클라우드화시키는 동작으로 이루어진다. And, it consists of an operation of mapping the calculated actual position coordinates of the underwater drone 100 and the modeled underwater surface image information to form a point cloud.

이러한 포인트 클라우드화된 일정수 이상의 데이터를 3차원의 입체적인 이미지 형상으로 변환하여 보여줄 수 있다. 이때, 수중표면의 높낮이에 따라 컬러를 구분하여 명확하게 할 수 있다. 상기 포인트 클라우드로 생성시키는 3차원모델링은 공지의 기술이므로 상세한 설명은 생략한다.It is possible to convert and show a certain number of such point cloud-formed data into a three-dimensional three-dimensional image shape. At this time, it is possible to clearly distinguish the color according to the height of the underwater surface. Since the 3D modeling generated by the point cloud is a known technique, a detailed description thereof will be omitted.

이하, 도 4 내지 도 7을 참조하여 수중표면의 3차 모델링 과정을 설명하기로 한다.Hereinafter, a tertiary modeling process of the underwater surface will be described with reference to FIGS. 4 to 7 .

상기 도면들은 모두 사진들인데, 구체적으로 설명하면, 도 4는 열화상 영상의 디스플레이 화면을 나타내는 사진이고, 도 5는 발열부(L) 위치의 디스플레이 화면을 나타내는 사진이다. 그리고, 도 6은 수중표면 영상의 디스플레이 화면을 나타내는 사진이고, 도 7은 3차원 모델링의 디스플레이 화면을 나타내는 사진이다.All of the above drawings are photographs. Specifically, FIG. 4 is a photograph showing a display screen of a thermal image, and FIG. 5 is a photograph illustrating a display screen at the location of the heating part (L). And, FIG. 6 is a photograph showing a display screen of an underwater surface image, and FIG. 7 is a photograph illustrating a display screen of three-dimensional modeling.

참고로, 이하에서 언급되는 작업자라는 의미는 상기 수중드론(100)을 조종하는 오퍼레이터와 상기 제어 정보처리장치(200)를 조작하는 엔지니어이다.For reference, the meaning of the operator mentioned below is an operator who operates the underwater drone 100 and an engineer who operates the control information processing device 200 .

먼저, 3차원 모델링 과정은 조사 대상구역(일반적으로 직사각형)을 지정하고, 조사구역을 포함한 전체를 촬영할 수 있는 위치와 높이에 있는 곳에 수중드론(100)을 위치하게 한다.First, the three-dimensional modeling process designates an investigation target area (generally a rectangle), and places the underwater drone 100 at a position and height that can capture the entire area including the investigation area.

그리고, 엔지니어는 열화상 영상을 확인하고, 도 4에 점선 사각형과 같이 조사구역을 지정하며, 조사구역의 가로세로 실거리를 측정한다.Then, the engineer checks the thermal image, designates the irradiation area as shown in the dotted rectangle in FIG. 4 , and measures the horizontal and vertical actual distance of the irradiation area.

또한, 상기 발열부(L) 위치를 위해 조사구역을 하나 이상의 격자로 구획한다. 엔지니어는 격자의 개수를 입력하면 도 5의 사진과 같이 자동으로 구획되도록 한다.In addition, the irradiation area is divided into one or more grids for the location of the heating part (L). When the engineer inputs the number of grids, it is automatically partitioned as shown in the photo of FIG. 5 .

상기와 같은 세팅이 끝나면, 오퍼레이터는 발열부(L)가 부착된 상기 수중드론(100)을 조사구역 내에서 운행시킨다.After the setting as described above, the operator operates the underwater drone 100 to which the heating part (L) is attached within the irradiation area.

오퍼레이터는 조사구역 내의 모든 영역을 스캔하기 위해 정해진 경로를 따라 수중드론(100)을 운행시킬 수 있다. 예를 들어, 직사각형의 조사구역 일측에서 전후방향으로 왕복하면서 좌 또는 우측으로 이동하게 함으로써 조사구역 전 영역을 상기 수중드론(100)이 운행되도록 할 수 있다.The operator may operate the underwater drone 100 along a predetermined route to scan all areas within the irradiation area. For example, the underwater drone 100 can be operated over the entire area of the irradiation area by moving left or right while reciprocating from one side of the rectangular irradiation area in the front and rear directions.

이때, 상기 열화상촬영카메라(131)에서 측정되는 수중표면의 영상정보와 상기 제2카메라(132)를 통해 데이터화된 열화상 영상정보를 실시간으로 상기 제어 정보처리장치(200)로 전송되면서 동기화된다.At this time, the image information of the underwater surface measured by the thermal imaging camera 131 and the thermal image image information data data through the second camera 132 are transmitted to the control information processing device 200 in real time and synchronized. .

그리고, 상기 제어 정보처리장치(200)로 전송된 정보들 중 열화상 영상정보는 수중드론 위치인식을 거쳐 상기 수중드론(100)의 실시간 위치좌표가 도출되어 매핑으로 진행된다. And, among the information transmitted to the control information processing device 200, the thermal image image information is derived from the underwater drone 100 through location recognition of the underwater drone 100, and the mapping proceeds.

다음에, 상기 수중표면의 영상정보는 상기 수중표면 정보처리를 거친 후에 이 두 정보들을 매핑하여 조사구역의 수중표면 형상을 도 7에 나타난 것처럼 3차원의 컬러 이미지로 제공한다.Next, the image information of the underwater surface provides the underwater surface shape of the irradiation area as a three-dimensional color image as shown in FIG. 7 by mapping these two pieces of information after the underwater surface information processing.

이하에서는 본 발명에 의한 수중드론을 이용한 수중 탐사시스템(500)의 블록도를 도 8을 참조하여 설명하기로 한다. Hereinafter, a block diagram of an underwater exploration system 500 using an underwater drone according to the present invention will be described with reference to FIG. 8 .

도시된 대로, 수중드론(100)에 의하여 수집된 수중표면의 영상정보와 해양의 탐사정보를 상기 제어 정보처리장치(200)로부터 전송받아 저장하는 데이터베이스부(250)가 형성되어 있다. As shown, the database unit 250 for receiving and storing the image information of the underwater surface and the exploration information of the ocean collected by the underwater drone 100 from the control information processing device 200 is formed.

즉, 열화상촬영카메라(131), 제2 카메라(132) 및 제3카메라(133)로 이루어진 촬영장치(130)에서 촬영된 영상정보 등을 저장하는 데이터베이스부(250)가 구비되어 있으며, 상기 데이터베이스부(250)에 저장된 데이터를 상기 제어 정보처리장치(200)로부터 전송받아 열화상 및 수중표면의 영상정보를 실시간으로 분석 및 처리하여 분석부(300)에 전송하는 처리부(T)가 형성된다.That is, a database unit 250 for storing image information, etc. photographed by the photographing device 130 including the thermal imaging camera 131 , the second camera 132 and the third camera 133 is provided, and the A processing unit T is formed that receives the data stored in the database unit 250 from the control information processing device 200, analyzes and processes the thermal image and image information of the underwater surface in real time, and transmits it to the analysis unit 300 .

참고로, 상기 데이터베이스부(250)는 상기 제어 정보처리장치(250)의 내부에 수용되어, 자체의 제어신호에 의하여 상기 처리부(T)로 전송되는 것이다. For reference, the database unit 250 is accommodated in the control information processing device 250 and transmitted to the processing unit T according to its own control signal.

더 나아가, 상기 처리부(T)에 전송된 촬영된 영상들을 분석함에 있어 딥러닝시스템을 이용한다는 것을 특징으로 한다.Furthermore, it is characterized in that a deep learning system is used in analyzing the captured images transmitted to the processing unit (T).

딥러닝 방식이란, 컴퓨터가 빅 데이터를 바탕으로 하여 마치 사람처럼 스스로 학습할 수 있도록 하기 위해서 프로그램화된 인공신경망을 기반으로 하는 기계 학습기술을 말하는 것으로서, 특히, 인간의 시청각 신경을 모델로 짜여있기 때문에 사진, 영상, 음향데이터 등의 처리에 많이 적용되고 있으며, 상기 처리부(T)에서는 촬영된 영상의 사물을 실시간 분석한 후, 영상에서 발견되는 물체의 특성을 분석하여 수중의 분포 현황을 제시할 수 있는 것을 특징으로 한다.The deep learning method refers to a machine learning technology based on artificial neural networks that have been programmed to allow computers to learn on their own, like humans, based on big data. Therefore, it is widely applied to the processing of photos, images, and sound data, and the processing unit T analyzes the object in the captured image in real time and then analyzes the characteristics of the object found in the image to present the distribution status in the water. characterized by being able to.

그러면, 상기 처리부(T)는 이러한 분석결과를 분석부(300)에 전송한다. Then, the processing unit T transmits the analysis result to the analysis unit 300 .

상기 분석부(300)는 상기 데이터베이스부(250)에 저장된 데이터를 통하여 상기 수중의 정보 및 열화상과 수중표면의 영상정보를 분석하여 매칭한 것을 다시한번 분석 및 매핑한 결과의 정보와 자료를 출력시키는 출력부(350)가 내부에 형성되어 있다.The analysis unit 300 analyzes the underwater information, the thermal image, and the image information of the underwater surface through the data stored in the database unit 250 and analyzes and matches the information and data of the result of the analysis and mapping again The output unit 350 is formed therein.

이하에서는, 수중 정보 및 열화상과 수중표면의 영상정보를 분석하는 방식에 대하여 도 9를 참조하여 설명하기로 한다.Hereinafter, a method of analyzing underwater information and thermal images and image information of the underwater surface will be described with reference to FIG. 9 .

먼저, 촬영장치(130)를 통하여 영상을 촬영한다(S 1). First, an image is photographed through the photographing device 130 (S1).

상기 촬영장치(130)로부터 영상을 전송받은 제어 정보처리장치(200)는 분석하고자 하는 대상의 촬영된 영상을 처리부(T)로 전송한다. 즉, 상기 제어 정보처리장치(200)는 데이터베이스(250)에 저장되어 있는 영상, 이미지, 사진 등과 같은 촬영된 영상을 처리부(T)로 전송한다(S 2).The control information processing apparatus 200 receiving the image from the photographing apparatus 130 transmits the photographed image of the target to be analyzed to the processing unit T. That is, the control information processing apparatus 200 transmits the captured images such as images, images, and photos stored in the database 250 to the processing unit T (S2).

이에 따라, 상기 분석부(300)는 상기 제어 정보처리장치(200)를 경유하여 처리부(T)로부터 수신한 영상을 분석하는 것으로, 상기 촬영된 영상을 수신해서 다수의 기능별 신경망을 통해 분석결과 값을 생성하는 것이다(S 3). Accordingly, the analysis unit 300 analyzes the image received from the processing unit T via the control information processing device 200, and receives the captured image and analyzes the result value through a neural network for each function. is to generate (S 3).

즉, 상기 분석부(300)는 상기 촬영된 영상을 수신하여 이미지(사진)묘사 신경망 및 영상인식 신경망을 통해 분석한 결과 값을 생성할 수 있다. That is, the analysis unit 300 may receive the captured image and generate a result value analyzed through an image (photo) description neural network and an image recognition neural network.

또한, 상기 분석부(300)는 상기 생성된 분석 결과값들의 확률값에 가중치에 따른 우선순위를 반영하여 결과값을 생성하고(S 4), 이와 같이 가중치 즉, 우선순위가 반영된 결과값을 수신하여 디스플레이부(미도시)에 표시하거나 출력부(350)를 통하여 출력할 수 있다(S 5). In addition, the analysis unit 300 generates a result value by reflecting the priority according to the weight to the probability value of the generated analysis result value (S 4), and receives the result value reflecting the weight, that is, the priority in this way. It can be displayed on a display unit (not shown) or output through the output unit 350 (S5).

보다 상세하게 설명하면, 상기 분석부(300)는 상기 이미지 묘사 신경망, 영상인식 신경망을 통해 생성한 분석 결과 값 중에서 우선순위가 가장 높은 분석 결과값을 표시하며, 상기 분석 결과값을 우선순위의 순서대로 표시할 수 있다. In more detail, the analysis unit 300 displays the analysis result value having the highest priority among the analysis result values generated through the image description neural network and the image recognition neural network, and sets the analysis result value in the order of priority. can be displayed as

다시 말해서, 상기 분석부(300)에서 한꺼번에 여러 종류의 신경망을 통해 영상과 이미지등을 인식한 결과를 도출하고, 각 결과 값들에 우선순위를 부여하여 출력부(350)로 전송하고, 상기 출력부(350)에서는 우선순위가 가장 높은 결과부터 출력을 시키는 것이다. In other words, the analysis unit 300 derives the results of recognizing images and images through several types of neural networks at once, gives priority to each result value, and transmits them to the output unit 350 , and the output unit In (350), the output is performed from the highest priority result.

따라서, 관리자는 상기 출력부(350)의 화면 또는 문서의 출력을 통하여 이하의 우선순위의 결과들을 차례로 제공받을 수 있다(S 6).Accordingly, the manager may be sequentially provided with the results of the following priorities through the output of a screen or a document of the output unit 350 (S6).

예를 들어, 상기 분석부(300)가 이미지 묘사 신경망, 사물 인식 신경망, 영상인식 신경망을 통해 분석한 결과값을 생성하면, 상기 출력부(350)는 상기 분석 부(300)가 이미지 묘사 신경망, 영상인식 신경망 등을 이용하여 생성한 분석 결과값 중에서 우선순위가 가장 높은 분석 결과값을 먼저 표시하고, 사용자가 소정의 제어명령을 입력하면 상기 분석 결과 값을 우선순위의 순서대로 표시할 수 있다.For example, when the analysis unit 300 generates a result value analyzed through the image description neural network, the object recognition neural network, and the image recognition neural network, the output unit 350 is the image description neural network, The analysis result value having the highest priority among the analysis result values generated using the image recognition neural network or the like is displayed first, and when the user inputs a predetermined control command, the analysis result values may be displayed in the order of priority.

따라서, 특정한 영상 혹은 이미지에 대해 다양한 관점에서 분석하는 분석부(300)의 신경망들이 동시에 작동하여, 각각 결과 값들을 생성 후에 이를 단번에 출력부(350)로 하여금 출력시키도록 하여, 관리자는 각 결과 값들이 우선순위에 따라 하나씩 선택하여 분석결과를 출력하여 제공받을 수 있다. Therefore, the neural networks of the analysis unit 300 that analyze a specific image or image from various viewpoints operate simultaneously to generate each result value and then output it to the output unit 350 at once, so that the manager can They can be selected one by one according to their priority, and the analysis results can be output and provided.

즉, 제어 정보처리장치(200)로부터 제공받은 영상을 분석부(300)의 생성한 신경망들을 통하여 결과값을 산출하고, 상기 각 결과값에서 점수가 높은 순서로 정렬한 다음에 전체적인 결과 값을 분석부(300)가 전송하여 관리자 등에게 제공하는 것이다. That is, the image provided from the control information processing device 200 is calculated through the neural networks generated by the analysis unit 300 , and the overall result value is analyzed after arranging the images in the order of highest score in each result value. It is transmitted by the unit 300 and provided to an administrator or the like.

그러므로, 상기의 결과값들을 피드백받아 여러 종류의 결과 값들을 효과적으로 확인할 수 있는 편리성과 효율성이 높은 해양의 정보와 영상분석 환경을 제공할 수 있다. Therefore, it is possible to provide a convenient and efficient marine information and image analysis environment that can effectively check various types of result values by receiving feedback from the above result values.

그리고, 상기 출력부(350)는 상기 처리부(T)에서 전송된 영상정보와 수중정보를 수신하여 출력하는 것으로서, 설정한 구역에 따른 정보를 맵핑하여 출력할 수 있고, 이를 통하여 수중정보 또는 열화상이나 수중표면 영상정보를 확인하고자 하는 경우, 정보지도 화면(미도시)에서 위치를 클릭하여 영상정보 및 수중정보를 제공받을 수 있도록 구현된다.In addition, the output unit 350 receives and outputs the image information and underwater information transmitted from the processing unit T, and can map and output information according to a set area, through which underwater information or thermal image or If you want to check the underwater surface image information, it is implemented so that image information and underwater information can be provided by clicking a location on the information map screen (not shown).

이와 같은 방식으로, 상기 수중드론(100)의 촬영장치(130)를 통하여 수집되는 열화상이나 수중탐사 등의 정보를 빅 데이터화시켜서 분석 및 분류시키는 딥러닝 방식을 이용하여 해양 수중의 정보를 수집하는 것을 특징으로 한다. In this way, using the deep learning method of analyzing and classifying information such as thermal images or underwater exploration collected through the imaging device 130 of the underwater drone 100 into big data, collecting information in the ocean underwater characterized.

그러므로, 제어 정보처리장치(200)에 의하여 수집된 해양의 영상정보 등을 저장하는 데이터베이스부(250)와 상기 데이터베이스부(250)에서 저장된 정보를 전송받아 분석하는 처리부(T)에서 딥러닝 시스템을 이용하여 상기 해양정보 등을 분석 및 분류함에 따라 보다 정확한 해양정보를 파악할 수 있고, 관리자가 이를 수작업으로 분석할 필요가 없으므로 시간을 절약할 수 있으며, 딥러닝 방식의 특성상 반복된 사용으로 데이터가 축적되는 경우, 더욱 정확한 분류가 가능함에 따라 시간의 경과에 따른 해양정보와 영상 이미지 분석의 수집 축적과 함께 정확도가 높아지는 효과가 있다.Therefore, the database unit 250 for storing the image information of the ocean collected by the control information processing device 200, and the processing unit T for receiving and analyzing the information stored in the database unit 250, the deep learning system By analyzing and classifying the marine information using In this case, as more accurate classification is possible, there is an effect of increasing the accuracy along with the accumulation and accumulation of marine information and video image analysis over time.

이상에서와 같은 내용의 본 발명이 속하는 기술분야의 당업자는 본 발명의 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 상기 기술한 실시 예는 예시된 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다.Those skilled in the art to which the present invention pertains as described above will understand that the present invention may be implemented in other specific forms without changing the technical spirit or essential features of the present invention. Therefore, it should be understood that the above-described embodiments are illustrative and not restrictive.

본 발명의 범위는 상기 상세한 설명보다는 첨부된 특허청구범위에 의하여 나타내어지며, 특허청구 범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the appended claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

100: 수중드론 110: 본체
120: 정화장치 L : 발열부
121: 정화통 122: 흡입펌프
123: 토출부 130: 촬영장치
131: 열화상촬영 카메라 132: 제2 카메라
133: 제3 카메라 140: 추진장치
150: 통신장치 160: 케이블
200: 제어 정보처리장치 250: 데이터베이스부
300: 분석부 350: 출력부
T : 처리부
500: 수중드론을 이용한 수중 탐사시스템
100: underwater drone 110: body
120: purification device L: heating part
121: purification tank 122: suction pump
123: discharge unit 130: photographing device
131: thermal imaging camera 132: second camera
133: third camera 140: propulsion device
150: communication device 160: cable
200: control information processing device 250: database unit
300: analysis unit 350: output unit
T: processing unit
500: Underwater exploration system using an underwater drone

Claims (2)

수중드론을 이용한 수중 탐사시스템에 있어서,
경량의 내식성을 갖는 소재로 구비된 본체;
상기 본체에 연결되어 상기 본체를 전후, 상하좌우로 이동시키는 추진장치;
상기 본체에 연결되어 해양의 오염물질을 포함한 유체를 여과시키는 정화장치를 구비하고, 상기 본체의 위치를 실시간으로 추적할 수 있도록 하여 상기 본체를 촬영하는 열화상촬영카메라와 상기 본체에 인접한 주변환경을 촬영하고 상기 수중드론이 운행하는 동안 상기 열화상촬영카메라에서 촬영된 열화상 영상정보를 실시간 획득하고 데이터화하여 제어 정보처리장치로 전송하는 전송모듈이 형성된 제2 카메라와 촬영하고자 하는 대상을 확대하여 찍을수 있는 제3 카메라가 구비된 촬영장치와 상기 본체의 가운데 부분에는 외부 기기로부터 전원을 공급과 제어를 받을수 있는 케이블을 포함하며, 조사구역 내를 운행하면서 수중정보를 촬영 및 수집하는 수중드론;
상기 제2 카메라에서 획득된 영상정보를 처리하고, 발열부의 위치로부터 도출된 상기 수중드론의 좌표정보 및 수중 표면 정보를 매핑하여 설정된 구역 내의 수중표면을 3차원으로 모델링하는 제어 정보처리장치;
상기 수중드론에 의하여 수집된 정보를 상기 제어 정보처리장치로부터 전송받아 저장하는 데이터베이스부;
상기 데이터베이스부에 저장된 데이터를 통하여 상기 수중의 정보를 분석하여 매핑하고, 상기 수중의 정보를 출력시키는 출력부가 형성되어 있는 분석부를 포함하며,

상기 제어 정보처리장치는 상기 제2 카메라에서 획득하여 전송된 영상정보를 처리하여 발열부(L)의 위치를 검출하고, 상기 발열부(L)의 위치정보로부터 도출된 상기 수중드론의 좌표정보, 위치정보를 연산하여 상기 데이터베이스부에 저장하고, 상기 제어 정보처리장치의 화면에 표시하며,

상기 열화상 촬영 카메라, 상기 제2 카메라, 상기 제3 카메라에서 촬영한 영상정보를 분석하는 방법은
상기 열화상 촬영 카메라, 상기 제2 카메라, 상기 제3 카메라에를 통하여 영상을 촬영하는 제1 단계;
상기 상기 열화상 카메라, 상기 제2 카메라, 상기 제3 카메라로부터 영상을 전송받은 상기 제어 정보처리장치는 분석하고자 하는 대상의 촬영된 영상을 처리부(T)로 전송하는 제2 단계;
상기 분석부는 상기 제어 정보처리장치를 경유하여 처리부(T)로부터 수신한 영상을 다수의 기능별 신경망을 통해 분석하는 제3 단계;
상기 분석부는 상기 생성된 분석 결과값들의 확률값에 가중치에 따른 우선순위를 반영하여 결과값을 생성하는 제4 단계;
상기 제4 단계에서 가중치 즉, 우선순위가 반영된 결과값을 수신하여 디스플레이부에 표시하거나 출력부를 통하여 출력하는 제5단계;
상기 출력부의 화면 또는 문서의 출력을 통하여 이하의 우선순위의 결과들을 차례로 제공받는 제 6단계; 로 구성되는 것을 특징으로 하는 수중드론과 소나를 이용한 수중 탐사시스템.
In the underwater exploration system using an underwater drone,
a body made of a lightweight corrosion-resistant material;
a propulsion device connected to the main body to move the main body back and forth, up and down, left and right;
A thermal imaging camera connected to the main body and provided with a purifying device for filtering fluid including marine contaminants, and a thermal imaging camera for photographing the main body by tracking the position of the main body in real time, and the surrounding environment adjacent to the main body A second camera having a transmission module for capturing and transmitting the thermal image image information captured by the thermal imaging camera in real time while the underwater drone is operating, converting it into data and transmitting it to the control information processing device, and the object to be photographed can be enlarged and taken an underwater drone for photographing and collecting underwater information while operating in the irradiation area, including a photographing device having a third camera and a cable capable of receiving power and control from an external device in the middle portion of the main body;
a control information processing device that processes the image information obtained from the second camera and maps the underwater surface information and coordinate information of the underwater drone derived from the location of the heating unit to three-dimensionally model the underwater surface in the set area;
a database unit for receiving and storing the information collected by the underwater drone from the control information processing device;
and an analysis unit having an output unit configured to analyze and map the underwater information through the data stored in the database unit, and output the underwater information,

The control information processing device detects the position of the heating unit (L) by processing the image information obtained and transmitted from the second camera, and coordinate information of the underwater drone derived from the position information of the heating unit (L); The location information is calculated and stored in the database unit, and displayed on the screen of the control information processing device,

The method of analyzing the image information captured by the thermal imaging camera, the second camera, and the third camera
a first step of photographing an image through the thermal imaging camera, the second camera, and the third camera;
a second step of transmitting, by the control information processing apparatus receiving the images from the thermal imaging camera, the second camera, and the third camera, the captured image of the target to be analyzed to the processing unit (T);
a third step of analyzing, by the analyzing unit, the image received from the processing unit T via the control information processing device through a plurality of neural networks for each function;
a fourth step of generating, by the analysis unit, a result value by reflecting a priority according to a weight to a probability value of the generated analysis result values;
a fifth step of receiving a weight value, that is, a priority reflected in the fourth step, and displaying it on a display unit or outputting it through an output unit;
a sixth step of sequentially receiving the results of the following priorities through the output of a screen or a document of the output unit; An underwater exploration system using an underwater drone and sonar, characterized in that it consists of.
삭제delete
KR1020200135050A 2020-10-19 2020-10-19 Underwater survey system using under water drone KR102431452B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200135050A KR102431452B1 (en) 2020-10-19 2020-10-19 Underwater survey system using under water drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200135050A KR102431452B1 (en) 2020-10-19 2020-10-19 Underwater survey system using under water drone

Publications (2)

Publication Number Publication Date
KR20220051533A KR20220051533A (en) 2022-04-26
KR102431452B1 true KR102431452B1 (en) 2022-08-10

Family

ID=81391549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200135050A KR102431452B1 (en) 2020-10-19 2020-10-19 Underwater survey system using under water drone

Country Status (1)

Country Link
KR (1) KR102431452B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024038990A1 (en) * 2022-08-17 2024-02-22 주식회사 넥스트칩 Method and apparatus for training image-enhanced neural network model

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789259B1 (en) * 2017-06-09 2017-10-25 김수용 Underwater drone
KR101845964B1 (en) * 2016-11-29 2018-04-05 한국해양과학기술원 Amphibious Drone To Explore Underwater And Midair
KR101988963B1 (en) * 2019-01-04 2019-06-13 (주)미래해양 Discovery system using the deep-learning

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140033656A (en) 2012-09-10 2014-03-19 대우조선해양 주식회사 Sonar system for submarine
KR101703822B1 (en) 2015-01-20 2017-02-22 동명대학교산학협력단 micro water robot equipped with rotating sonar system
KR101777477B1 (en) 2015-12-17 2017-09-11 현대다이모스(주) Gear knob of transmission

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101845964B1 (en) * 2016-11-29 2018-04-05 한국해양과학기술원 Amphibious Drone To Explore Underwater And Midair
KR101789259B1 (en) * 2017-06-09 2017-10-25 김수용 Underwater drone
KR101988963B1 (en) * 2019-01-04 2019-06-13 (주)미래해양 Discovery system using the deep-learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024038990A1 (en) * 2022-08-17 2024-02-22 주식회사 넥스트칩 Method and apparatus for training image-enhanced neural network model

Also Published As

Publication number Publication date
KR20220051533A (en) 2022-04-26

Similar Documents

Publication Publication Date Title
US10809376B2 (en) Systems and methods for detecting objects in underwater environments
Kwasnitschka et al. DeepSurveyCam—a deep ocean optical mapping system
CN103971406B (en) Submarine target three-dimensional rebuilding method based on line-structured light
US10671066B2 (en) Scanning environments and tracking unmanned aerial vehicles
AU2015250748B2 (en) 3D point clouds
Bodenmann et al. Generation of high‐resolution three‐dimensional reconstructions of the seafloor in color using a single camera and structured light
Armstrong et al. Underwater robotic technology for imaging mesophotic coral ecosystems
CN108303988A (en) A kind of the target identification tracing system and its working method of unmanned boat
Bosch et al. Close-range tracking of underwater vehicles using light beacons
JP2006003263A (en) Visual information processor and application system
KR101880437B1 (en) Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image
KR20230065968A (en) Device and method for monitoring a berthing
CN107561545A (en) A kind of method of fish finding, device and detector
KR20210007767A (en) Autonomous navigation ship system for removing sea waste based on deep learning-vision recognition
Fleischer Bounded-error vision-based navigation of autonomous underwater vehicles
EP3566178A1 (en) Tracking image collection for digital capture of environments, and associated systems and methods
KR102298645B1 (en) 3D modeling system of underwater surfaces using infrared thermal imaging camera and drone
KR102431452B1 (en) Underwater survey system using under water drone
JP5021913B2 (en) Method and system for searching object at sea and recording medium for executing method for searching object
Gabaldon et al. A framework for enhanced localization of marine mammals using auto-detected video and wearable sensor data fusion
JP6595284B2 (en) Autonomous mobile robot
Ribas Romagós Underwater slam for estructured environments using and imaging sonar
Franchi et al. Underwater robotics competitions: The European Robotics League emergency robots experience with FeelHippo AUV
CN115303451A (en) Underwater equipment and underwater operation system
Chou et al. An AI AUV enabling vision-based diver-following and obstacle avoidance with 3D-modeling dataset

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant