KR102298645B1 - 3D modeling system of underwater surfaces using infrared thermal imaging camera and drone - Google Patents

3D modeling system of underwater surfaces using infrared thermal imaging camera and drone Download PDF

Info

Publication number
KR102298645B1
KR102298645B1 KR1020200085199A KR20200085199A KR102298645B1 KR 102298645 B1 KR102298645 B1 KR 102298645B1 KR 1020200085199 A KR1020200085199 A KR 1020200085199A KR 20200085199 A KR20200085199 A KR 20200085199A KR 102298645 B1 KR102298645 B1 KR 102298645B1
Authority
KR
South Korea
Prior art keywords
underwater
information
drone
module
imaging camera
Prior art date
Application number
KR1020200085199A
Other languages
Korean (ko)
Inventor
김기주
김수용
Original Assignee
동명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동명대학교산학협력단 filed Critical 동명대학교산학협력단
Priority to KR1020200085199A priority Critical patent/KR102298645B1/en
Application granted granted Critical
Publication of KR102298645B1 publication Critical patent/KR102298645B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G8/00Underwater vessels, e.g. submarines; Equipment specially adapted therefor
    • B63G8/001Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8902Side-looking sonar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/05Programmable logic controllers, e.g. simulating logic interconnections of signals according to ladder diagrams or function charts
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0267Fault communication, e.g. human machine interface [HMI]
    • G05B23/027Alarm generation, e.g. communication protocol; Forms of alarm
    • G06K9/00214
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Radiation Pyrometers (AREA)

Abstract

An embodiment relates to an underwater surface three-dimensional modeling system using an infrared thermal imaging camera and an underwater drone. More specifically, the system includes: an underwater drone including sonar and a heating element, and measuring underwater surface information while being driven in an investigation area; an infrared thermal imaging camera acquiring a thermal image information by photographing the whole investigation area during the driving of the underwater drone; and a control server processing the thermal image information acquired by the infrared thermal imaging camera and mapping coordinate information of the underwater drone derived from a position of the heating element with the underwater surface information measured by the sonar to three-dimensionally model an underwater surface in a set area. Therefore, accurate position information of the underwater drone acquired through the infrared thermal imaging camera and the heating element attached on the underwater drone is mapped with underwater image information measured by the sonar of the underwater drone, and, as a result, precise shape information of submarine topography or an underwater surface can be acquired.

Description

적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템{3D modeling system of underwater surfaces using infrared thermal imaging camera and drone}3D modeling system of underwater surfaces using infrared thermal imaging camera and drone}

본 명세서에 개시된 내용은 수중표면 3차원 모델링 시스템에 관한 것으로서, 보다 상세하게는 수중표면을 측정하는 수증드론과 수중드론의 운행 구역을 촬영하는 적외선 열화상 카메라를 사용하여 수중표면의 정확한 형상정보를 3차원적으로 구현해낼 수 있는 적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템에 관한 것이다.The content disclosed in the present specification relates to a three-dimensional modeling system for an underwater surface, and more specifically, a water drone that measures the underwater surface and an infrared thermal imaging camera that captures the operation area of the underwater drone. Accurate shape information of the underwater surface It relates to an underwater surface three-dimensional modeling system using an infrared thermal imaging camera and underwater drone that can be realized in three dimensions.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and inclusion in this section is not an admission that it is prior art.

일반적으로 사람이 타지 않는 소형 비행기, 헬리콥터, 무인잠수정, 무인수상Small airplanes, helicopters, unmanned submersibles, and unmanned waters that are not normally carried by humans

정 등을 드론이라고 한다. 이 중에서 수면 위에 부양되거나 수중에서 운행하는 드Jung and others are called drones. Of these, those that float above the water surface or operate underwater

론을 수상 드론 또는 수중드론이라고 한다.A drone is called a surface drone or an underwater drone.

그런데 수상 드론이나 수중드론에 소나를 장착하여 해저, 수중표면이나 지형However, by mounting a sonar on a surface drone or an underwater drone, the seabed, underwater surface, or terrain

을 측량하거나 탐색하게 된다.to measure or explore.

특히, 수상 드론이나 수중드론은 원자력발전소에서 수중 구조물이나 수중표In particular, surface drones or underwater drones are used in nuclear power plants as underwater structures or underwater charts.

면을 측정하기도 하고 댐, 둑, 항구, 보와 같은 구조물의 상태나 해저 환경을 모니It also measures the surface and monitors the condition of structures such as dams, dams, ports, and weirs or the seabed environment.

터링하는 것과 같이 다목적으로 사용되고 있다.It is used for multiple purposes, such as turing.

그리고 해저나 수중표면의 지형적, 지리적 정보를 수집하더라도 지속적으로And even if topographical and geographical information of the seabed or underwater surface is collected,

흐르는 수류에 의해 침식, 퇴적 등이 빈번하므로 지형, 지리정보에 대한 주기적인Because erosion and deposition are frequent due to flowing water currents,

갱신이 필요하다.update is required

종래에는 해저면 또는 수중표면의 정보를 수집하기 위해 수상 또는 수중드론Conventionally, water or underwater drones are used to collect information on the seabed or underwater surface.

에 소나를 장착하여 음파를 발사해 반사되는 음파를 수신한 후 분석함으로써 지형,By mounting a sonar on the pole, it emits sound waves, receives the reflected sound waves, and analyzes the terrain,

지리 정보를 수집하였다.Geographic information was collected.

그러나 수중드론의 경우 위치를 파악할 때 기본적으로 GPS를 사용하게 되는However, in the case of underwater drones, GPS is basically used to determine the location.

데, 큰 범위의 경우 GPS의 오차가 크게 중요하지 않으나 좁은 범위나 영역을 탐사However, in the case of a large range, the GPS error is not very important, but it is possible to explore a narrow range or area.

하는 경우 위치 오차는 큰 문제가 된다.In this case, the position error becomes a big problem.

GPS의 경우 정밀도가 보통 5 ~ 10m에 불과하고, 아주 성능이 우수한 것도In the case of GPS, the accuracy is usually only 5 ~ 10m, and the very good performance is also

정밀도가 2m 정도까지는 가능하다. 따라서, GPS는 수미터의 오차가 중요하지 않는Accuracy up to 2m is possible. Therefore, GPS does not matter where the error of several meters is not important.

개활지나 넓은 범위의 해상에서는 드론의 위치정보 획득에 활용이 가능하나, 실제It can be used to acquire location information of drones in open areas or in the sea over a wide range, but

협소한 범위의 수중표면을 정밀하게 모델링 하는 경우에 이러한 오차는 큰 문제가When accurately modeling a narrow range of underwater surfaces, these errors become a major problem.

야기한다.cause

특히, 원자력 발전소와 같이 해저 구조물 내의 좁은 구역의 해저 지형은 여In particular, the subsea topography of a narrow area within a subsea structure, such as a nuclear power plant, is

러 가지 시설, 장비, 구조물 형상으로 인해 수중드론에 GPS를 사용하는 경우 정확Due to the various facilities, equipment, and structure geometries, the use of GPS for underwater drones is accurate.

한 위치정보 획득이 어렵다.It is difficult to obtain location information.

이것은 결국 잘못된 수중표면이나 지형 정보를 획득하게 되어 발전소 유지관This will eventually lead to the acquisition of incorrect underwater surface or topographic information, which may lead to the maintenance of the power plant.

리에 문제를 발생시킬 수 있다.may cause problems with the

(특허문헌 1) KR100950979 Y1(Patent Document 1) KR100950979 Y1

(특허문헌 2) KR101119400 Y1(Patent Document 2) KR101119400 Y1

(특허문헌 3) KR1020130096854 A(Patent Document 3) KR1020130096854 A

개시된 내용은, 수중드론에 부착한 발열체와 적외선 열화상 카메를 이용하여 획득한 수중드론의 정확한 위치 정보와, 수중드론의 소나에서 측정된 수중 영상정보를 매핑시킴으로써 해저지형 또는 수중표면의 정밀한 형상정보를 얻을 수 있는 적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템을 제공하고자 한다.The disclosed content is the precise shape information of the seabed topography or the underwater surface by mapping the precise location information of the underwater drone obtained using the heating element attached to the underwater drone and the infrared thermal imaging camera, and the underwater image information measured from the sonar of the underwater drone. The purpose of this study is to provide an underwater surface 3D modeling system using an infrared thermal imaging camera and underwater drone.

실시예에 따른 적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템은,An underwater surface three-dimensional modeling system using an infrared thermal imaging camera and an underwater drone according to an embodiment,

소나와 발열체가 구비되고, 조사구역 내에서 운행하면서 수중표면정보를 측A sonar and a heating element are provided, and the underwater surface information is measured while operating within the survey area.

정하는 수중드론;Underwater drones to be determined;

상기 수중드론이 운행하는 동안 조사구역 전체를 촬영하여 실시간으로 열화While the underwater drone is operating, the entire investigation area is photographed and deteriorated in real time.

상 영상정보를 획득하는 적외선 열화상 카메라;an infrared thermal imaging camera for acquiring image information;

상기 적외선 열화상 카메라에서 획득된 열화상 영상정보를 처리하고 상기 발Process the thermal image information obtained from the infrared thermal imaging camera and

열체의 위치로부터 도출된 상기 수중드론의 좌표정보 및 상기 소나에서 측정된 수Coordinate information of the underwater drone derived from the location of the heating body and the number measured from the sonar

중표면정보를 매핑하여 미리 설정된 구역 내의 수중표면을 3차원으로 모델링하는 제어 정보처리장치; 를 포함하여 이루어지고,a control information processing device for modeling the underwater surface in a preset area in three dimensions by mapping the intermediate surface information; is made, including

상기 제어 정보처리장치는,The control information processing device,

a) 상기 적외선 열화상 카메라에서 획득된 영상정보를 처리하여 발열체의 위치a) The position of the heating element by processing the image information obtained from the infrared thermal imaging camera

를 검출하고 검출된 발열체의 위치정보로부터 수중드론의 위치좌표를 연산하여 도is detected and the position coordinates of the underwater drone are calculated from the position information of the detected heating element.

출하고,out,

b) 상기 소나에서 측정된 수중표면 영상정보를 처리하고,b) processing the underwater surface image information measured in the sonar,

c) 상기 도출된 수중드론의 위치좌표와 상기 처리된 수중표면 영상정보를 매핑하여 수중표면을 3차원 이미지로 모델링하며,c) modeling the underwater surface as a three-dimensional image by mapping the derived position coordinates of the underwater drone and the processed underwater surface image information,

상기 수중드론의 위치좌표를 연산하여 도출하는 것(a))은,(a)) to calculate and derive the position coordinates of the underwater drone,

a-1) 상기 적외선 열화상 카메라로부터 전송된 열화상 영상정보를 저장하고,a-1) storing the thermal image information transmitted from the infrared thermal imaging camera;

a-2) 상기 저장된 열화상 영상정보를 화면으로 디스플레이하고;a-2) displaying the stored thermal image information on a screen;

a-3) 상기 화면 중 미리 설정된 구역의 열화상 영상정보를 처리하여 기준 온도 이상인 영역을 검출하고, 검출된 영역으로부터 상기 발열체의 위치정보를 획득하며,a-3) processing the thermal image information of a preset area of the screen to detect an area above a reference temperature, and obtaining location information of the heating element from the detected area;

a-4) 상기 처리된 영상정보를 온도분포에 따른 컬러화된 화면으로 디스플레이하고,a-4) Displaying the processed image information on a colored screen according to temperature distribution,

a-5) 상기 획득된 발열체의 위치정보로부터 상기 수중드론의 실제 위치좌표를 연산하는 것; 을 특징으로 한다.a-5) calculating the actual position coordinates of the underwater drone from the obtained position information of the heating element; is characterized by

실시예들에 의하면, 협소하거나 밀폐된 조사구역에서 종래 GPS를 사용할 경우 수중드론의 위치좌표에 큰 오차가 발생하는 문제를 해결할 수 있다. 즉, 발열체를 적외선 열화상 카메라로 추적하면서 수중드론의 정확한 위치좌표를 도출할 수 있으므로 조사구역의 수중표면 형상에 대한 정밀도가 크게 향상된다.According to the embodiments, it is possible to solve the problem that a large error occurs in the position coordinates of the underwater drone when the conventional GPS is used in a narrow or closed survey area. That is, the precise position coordinates of the underwater drone can be derived while tracking the heating element with an infrared thermal imaging camera, so the precision of the underwater surface shape of the irradiation area is greatly improved.

도 1은 일실시예에 따른 적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템을 나타내는 구성도
도 2는 도 1의 제어 정보처리장치의 개략적인 구성을 나타내는 도면
도 3은 도 1의 수중드론의 구성을 예로 들어 도시한 블록도
도 4는 도 3의 수중드론에 적용된 PLC 컨트롤러의 구성을 도시한 블록도
도 5는 일실시예에 따른 열화상영상의 디스플레이 화면을 나타내는 사진
도 6은 일실시예에 따른 발열체위치의 디스플레이 화면을 나타내는 사진
도 7은 일실시예에 따른 수중표면영상의 디스플레이 화면을 나타내는 사진
도 8은 일실시예에 따른 3차원모델링의 디스플레이 화면을 나타내는 사진
1 is a configuration diagram showing an underwater surface three-dimensional modeling system using an infrared thermal imaging camera and an underwater drone according to an embodiment;
FIG. 2 is a diagram showing a schematic configuration of the control information processing apparatus of FIG. 1; FIG.
3 is a block diagram illustrating the configuration of the underwater drone of FIG. 1 as an example;
4 is a block diagram showing the configuration of a PLC controller applied to the underwater drone of FIG.
5 is a photograph showing a display screen of a thermal image according to an embodiment;
6 is a photograph showing a display screen of a location of a heating element according to an embodiment;
7 is a photograph showing a display screen of an underwater surface image according to an embodiment;
8 is a photograph showing a display screen of 3D modeling according to an embodiment;

도 1은 일실시예에 따른 적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템을 나타내는 구성도이고, 도 2는 도 1에 도시된 제어 정보처리장치의 개략적인 구성을 나타내는 도면이다.FIG. 1 is a configuration diagram illustrating an underwater surface three-dimensional modeling system using an infrared thermal imaging camera and an underwater drone according to an embodiment, and FIG. 2 is a diagram illustrating a schematic configuration of the control information processing device shown in FIG. 1 .

도 1과 도 2에 도시된 바와 같이, 일실시예에 따른 시스템은 크게 수중드론(100)과 적외선 열화상 카메라(200) 및 제어 정보처리장치(300)로 구성된다.1 and 2, the system according to one embodiment is largely composed of an underwater drone 100, an infrared thermal imaging camera 200, and a control information processing device (300).

상기 수중드론(100)은 수면 또는 수중에서 부양한 상태로 원격 운행될 수 있는 장치이다. 상기 수중드론(100)에는 소나(110)와 발열체(120)가 구비된다. 이러한 경우, 상기 소나(110)는 초음파를 수중표면으로 방사하고 수신하여 수중표면의 3차원적인 형상을 측정한다. 이를 위해 상기 소나는 보통 초음파를 생성 및 발사하는 발신모듈과 반사된 초음파를 수신하는 수신모듈 및 수신된 정보를 데이터화하여 상기 제어 정보처리장치로 전송하는 전송모듈로 구성될 수 있다. 그리고 이때, 상기 소나(110)는 상기 수중드론(100)의 하부면에 설치된다. 또한, 이러한 경우에 상기 발열체(120)는 상기 적외선 열화상 카메라(200)에서 인식이 용이하도록 상기 수중드론 또는 물과 같은 주변의 온도보다 상대적으로 온도가 높아야 한다. 따라서, 상기 발열체(120)는 방수처리된 램프가 적당한데, LED 램프를 사용하는 것이 바람직할 것이다. 또한 상기 발열체(120)는 상기 수중드론(100)의 상부면에 부착되는 것이 좋다. 그리고, 상기 수중드론(100)에는 관성측정센서가 구비된다. 상기 관성측정센서(IMU, Inertial Measurement Unit)는 3축 가속도센서와 3축 자이로센서, 3축 지자기센서와 같은 것으로서, 상기 수중드론의 속도, 가속도, 방향, 중력 등을 측정하기 위한 것이다. 상기 관성측정센서에서 측정된 정보도 상기 제어 정보처리장치(300)로 전송될 수 있다.The underwater drone 100 is a device that can be operated remotely in a floating state on the surface or underwater. The underwater drone 100 is provided with a sonar 110 and a heating element 120 . In this case, the sonar 110 radiates and receives ultrasonic waves to the underwater surface to measure the three-dimensional shape of the underwater surface. To this end, the sonar may be composed of a transmitting module for generating and emitting an ordinary ultrasonic wave, a receiving module for receiving the reflected ultrasonic wave, and a transmitting module for converting the received information into data and transmitting it to the control information processing device. And at this time, the sonar 110 is installed on the lower surface of the underwater drone (100). In addition, in this case, the heating element 120 should have a relatively higher temperature than the ambient temperature such as the underwater drone or water to be easily recognized by the infrared thermal imaging camera 200 . Therefore, the heating element 120 is suitable for a waterproof-treated lamp, it will be preferable to use an LED lamp. In addition, the heating element 120 is preferably attached to the upper surface of the underwater drone (100). And, the underwater drone 100 is provided with an inertial measurement sensor. The inertial measurement sensor (IMU, Inertial Measurement Unit) is a 3-axis accelerometer sensor, a 3-axis gyro sensor, and a 3-axis geomagnetic sensor, and is for measuring the speed, acceleration, direction, gravity, etc. of the underwater drone. Information measured by the inertial measurement sensor may also be transmitted to the control information processing device 300 .

상기 적외선 열화상 카메라(200)는 조사하고자 하는 수중표면의 면적에 해당하는 구역 전체를 촬영하여 상기 수중드론(100)을 추적할 수 있는 열화상 영상을 생성하는 것이다. 일반적으로 적외선 카메라는 적외선 야간투시 카메라와 적외선 열화상 카메라로 구분할 수 있는데, 적외선 열화상 카메라는 비접촉식으로 대상물체의 열을 추적, 탐지하여 온도분포를 화면으로 보여주는 장치이다. 그리고, 적외선으로부터 감지되는 주파수 반응을 전기적 신호로 변환하여 화상 시스템으로 구현하여 주는 장비이다. 일반 카메라는 사람의 눈과 같은 구조를 하므로 우리 눈이 보는 것과 유사한 모습을 담아내지만 열화상 카메라는 오직 열을 이용해서 촬영하는 특수 장비이다. 이때, 열을 어느 정도 내는지에 따라 식별 가능하므로 장애물의 유무나 빛의 유무와 상관없이 물체를 확인할 수 있다. 기존에 협소한 공간 또는 폐쇄된 공간에서는 수중드론의 위치를 GPS로 측정할 경우 오차가 크게 발생하는 문제를 해결하고자 일실시예에서 상기 적외선 열화상 카메라를 사용함으로써 위치 오차를 크게 줄일 수 있었다. 구체적으로 상기 적외선 열화상 카메라(200)는 미리 설정한 조사구역을 충분히 포함하는 수면 면적을 촬영할 수 있도록 설치된다. 이를 위해 조사구역 일측에 지지대를 세우고 상기 지지대의 상단에 상기 적외선 열화상 카메라(200)를 설치할 수 있다. 그러나 조사구역을 모두 촬영할 수 있다면 다른 방법도 무방하다. 이러한 상태에서 상기 수중드론(100)을 조사구역 내에서 운행하면서 상기 적외선 열화상 카메라(200)로 촬영하면 실제 상기 수중드론(100)의 열화상이 나타나는데, 상기 발열체(120)는 상대적으로 고온이므로 분명하게 인식되는 컬러로 나타나기 때문에 상기 수중드론(100)의 위치가 정확하게 추적, 인식될 수 있다.The infrared thermal imaging camera 200 generates a thermal image capable of tracking the underwater drone 100 by photographing the entire area corresponding to the area of the underwater surface to be irradiated. In general, infrared cameras can be divided into infrared night vision cameras and infrared thermal imaging cameras. An infrared thermal imaging camera is a device that tracks and detects heat of a target object in a non-contact manner and displays the temperature distribution on the screen. And, it is an equipment that converts the frequency response sensed from infrared into an electrical signal and implements it as an image system. A general camera has the same structure as the human eye, so it captures images similar to what our eyes see, but a thermal imaging camera is a special equipment that uses only heat to take pictures. At this time, it is possible to identify the object according to the amount of heat generated, so the object can be identified regardless of the presence or absence of an obstacle or light. In order to solve the problem that a large error occurs when measuring the position of an underwater drone with GPS in an existing narrow space or a closed space, the position error can be greatly reduced by using the infrared thermal imaging camera in one embodiment. Specifically, the infrared thermal imaging camera 200 is installed so as to photograph a surface area sufficiently including a preset irradiation area. To this end, a support can be built on one side of the irradiation area and the infrared thermal imaging camera 200 can be installed on the upper end of the support. However, other methods are acceptable as long as the entire investigation area can be photographed. In this state, when the underwater drone 100 is photographed with the infrared thermal imaging camera 200 while operating within the irradiation area, a thermal image of the underwater drone 100 appears, and the heating element 120 is relatively high temperature. Since it appears in a color that is clearly recognized, the position of the underwater drone 100 can be accurately tracked and recognized.

상기 적외선 열화상 카메라(200)에는 촬영된 열화상 영상정보를 실시간으로 획득하고 데이터화 하여 상기 제어 정보처리장치(300)로 전송하는 전송모듈이 포함된다.The infrared thermal imaging camera 200 includes a transmission module that acquires photographed thermal image information in real time, converts it into data, and transmits it to the control information processing device 300 .

상기 제어 정보처리장치(300)는 상기 수중드론(100)의 소나(110)에서 측정된 수중표면 영상정보와 상기 적외선 열화상 카메라(200)에서 획득된 영상정보를 처리하여 얻어진 수중드론(100)의 위치좌표를 상호 매핑시켜 최종적으로 3차원의 수중표면 이미지를 생성하는 것이다. 이러한 제어 정보처리장치는 상기 적외선 열화상 카메라(200)에서 전송된 영상정보를 처리하여 상기 발열체(120)의 위치를 검출하고 검출된 발열체(120)의 위치정보로부터 수중드론(100)의 위치좌표를 연산하여 도출하게 된다. 상세하게 상기 제어 정보처리장치(311)는 상기 적외선 열화상 카메라(200)의 전송모듈에서 전송해준 열화상 영상정보를 실시간으로 저장한다. 그리고 이렇게 저장된 영상정보를 화면으로 디스플레이시킨다. 이를 통해 관리자는 실제 상기 수중드론(100)의 운행상황을 모니터링할 수 있다. 또 상기 제어 정보처리장치는 상기 열화상영상출력부(312)의 화면에서 관리자가 설정하는 조사구역(범위) 내의 열화상 영상정보를 처리하여 온도분포화된 정보로 변환하고, 처리된 온도분포 정보 중에서 특정 온도값 이상의 영역을 검출하며, 검출된 영역의 위치를 발열체의 위치정보로 인식하여 획득한다. 다시 말해서, 열화상 영상정보의 이미지 와핑을 수행하고, 열화상 이미지를 이진화한 후 특정 온도값 이상의 영역을 검출한다. 그리고 검출된 값에 해당하는 좌표는 상기 발열체(120)의 위치좌표로 결정된다. 또한, 상기 온도분포 영상정보는 컬러화된 화면으로 디스플레이될 수 있다. 즉, 관리자는 화면으로 상기 발열체(120)의 위치 다시 말해서, 상기 수중드론(100)의 운행상황과 위치를 모니터링할 수 있다. 그리고, 상기 제어 정보처리장치(315)는 상기 획득된 상기 발열체(120)의 위치정보를 연산 처리하여 상기 수중드론(100)의 실제 위치 좌표를 최종적으로 도출한다. 다음으로 상기 제어 정보처리장치는 상기 소나(110)에서 측정되어 전송된 수중표면 영상정보를 저장하고, 이렇게 저장된 수중표면 영상정보를 화면으로 디스플레이한다. 즉, 관리자는 상기 소나(110)에서 측정된 수중표면 또는 해저표면의 형상을 실시간으로 모니터링할 수 있다. 이러한 상기 수중표면 영상정보는 3차원매핑도 이루어진다. 참고로 상기 제어 정보처리장치(300)에는 상기 관성측정센서에서 측정된 관성측정값 정보를 수신하여 처리한 후 상기 수중드론(100)의 정확한 위치좌표를 도출하게 한다. 다음으로 이렇게 도출된 수중드론(100)의 실제 위치좌표 및 상기 저장된 수중표면 영상정보를 전송받아 상호 매핑시키고, 매핑된 정보를 3차원의 이미지로 변환하여 디스플레이시킨다. 즉, 상기 수중드론(100)의 특정 위치좌표값과, 그 특정 위치좌표값에서 상기 소나(110)를 이용한 측정한 수중표면의 형상을 서로 매칭하여 포인트 클라우드화시킨다. 구체적인 예로서, 상기 포인트 클라우드화시키는 것은 수중표면의 체표면에 대한 모델링 기반의 미리 설정된 3차원 모델 포맷에 의해 상기 처리된 수중표면 영상정보를 우선적으로 모델링한다. 그리고, 상기 연산된 수중드론의 실제 위치좌표와 상기 모델링된 수중표면 영상정보를 매핑하여 포인트 클라우드화시키는 동작으로 이루어진다. 부가적으로, 또한 이러한 경우, 먼저 상기 매칭 동작은 미리 다수의 상이한 적외선 열화상만으로부터의 2D객체 영역분할을 위한 딥러닝 학습을 통해 객체 영역에 관한 딥러닝 파라미터를 산출하여 객체2D영역분할 딥러닝 모델을 구축한다. 그리고 나서, 해당 입력 적외선 열화상으로부터 객체2D영역분할을 상기 객체2D영역분할 딥러닝 모델에 의해 수행한다. 다음, 상기 객체2D영역분할 결과와, 깊이(Depth)데이터 간에 논리적 AND를 수행함으로써, 객체의 깊이 정보를 획득한다. 그래서, 이러한 객체의 깊이 정보에 원근변환을 적용하여 객체의 3D객체영역분할을 수행함으로써, 이로부터 나온 객체의 xyz를 위의 수중드론의 위치좌표와 매핑하여 포인트 클라우드화시킨다. 이때, 이러한 포인트 클라우드화된 일정수 이상의 데이터를 3차원의 입체적인 이미지 형상으로 변환하여 보여줄 수 있다. 이때, 수중표면의 높낮이에 따라 컬러를 구분하여 명확하게 할 수 있다. 포인트 클라우드로 3차원 모델링은 공지의 기술이므로 상세한 설명은 생략한다.The control information processing device 300 is an underwater drone 100 obtained by processing the underwater surface image information measured by the sonar 110 of the underwater drone 100 and the image information obtained from the infrared thermal imaging camera 200 ) Finally, a three-dimensional underwater surface image is generated by mapping the position coordinates of the This control information processing device processes the image information transmitted from the infrared thermal imaging camera 200 to detect the position of the heating element 120 and the position coordinates of the underwater drone 100 from the detected position information of the heating element 120 . is calculated and derived. In detail, the control information processing device 311 stores the thermal image information transmitted from the transmission module of the infrared thermal imaging camera 200 in real time. Then, the stored image information is displayed on the screen. Through this, the manager can actually monitor the operation status of the underwater drone 100 . In addition, the control information processing device processes the thermal image image information within the irradiation area (range) set by the administrator on the screen of the thermal image image output unit 312 and converts it into temperature distribution information, and the processed temperature distribution information A region above a specific temperature value is detected from among the regions, and the position of the detected region is recognized and acquired as position information of the heating element. In other words, image warping of the thermal image information is performed, and after binarizing the thermal image, a region above a specific temperature value is detected. And the coordinates corresponding to the detected values are determined as the positional coordinates of the heating element 120 . Also, the temperature distribution image information may be displayed on a colored screen. That is, the manager can monitor the position of the heating element 120, that is, the operating condition and position of the underwater drone 100 on the screen. And, the control information processing device 315 finally derives the actual position coordinates of the underwater drone 100 by processing the obtained position information of the heating element 120 . Next, the control information processing device stores the underwater surface image information measured and transmitted by the sonar 110, and displays the stored underwater surface image information on the screen. That is, the manager can monitor the shape of the underwater surface or the seabed surface measured by the sonar 110 in real time. The underwater surface image information is also three-dimensionally mapped. For reference, the control information processing device 300 receives and processes the inertial measurement value information measured by the inertial measurement sensor, and then derives the correct position coordinates of the underwater drone 100 . Next, the actual position coordinates of the underwater drone 100 derived in this way and the stored underwater surface image information are received and mapped to each other, and the mapped information is converted into a three-dimensional image and displayed. That is, the specific position coordinate value of the underwater drone 100 and the shape of the underwater surface measured using the sonar 110 at the specific position coordinate value are matched to form a point cloud. As a specific example, the point cloud formation preferentially models the processed underwater surface image information by a preset three-dimensional model format based on modeling for the body surface of the underwater surface. And, it consists of an operation of mapping the calculated actual position coordinates of the underwater drone and the modeled underwater surface image information to form a point cloud. Additionally, also in this case, first, the matching operation is performed in advance by calculating the deep learning parameters for the object region through deep learning for 2D object region segmentation from only a plurality of different infrared thermal images in advance. Build the model. Then, object 2D region segmentation is performed from the corresponding input infrared thermal image by the object 2D region segmentation deep learning model. Next, by performing logical AND between the object 2D region division result and depth data, depth information of the object is obtained. So, by performing the 3D object region segmentation of the object by applying the perspective transformation to the depth information of the object, the xyz of the object derived therefrom is mapped with the position coordinates of the underwater drone above to form a point cloud. In this case, it is possible to convert and show a certain number of such point cloud-formed data into a three-dimensional three-dimensional image shape. At this time, it is possible to clearly distinguish the color according to the height of the underwater surface. Since three-dimensional modeling with a point cloud is a known technique, a detailed description thereof will be omitted.

도 3은 도 1의 수중드론(100)의 구성을 예로 들어 도시한 블록도이다.3 is a block diagram illustrating the configuration of the underwater drone 100 of FIG. 1 as an example.

도 3에 도시된 바와 같이, 일실시예에 따른 수중드론(100)은 소나와, 운행상태를 감지하는 센서부, 상기 운행상태의 감지결과로 운행상태를 추정하는 센서 융합기, 각 부를 제어하는 PLC 컨트롤러 및, 수중드론의 구동부를 포함한다.As shown in Figure 3, the underwater drone 100 according to an embodiment is a sonar, a sensor unit for detecting the operating state, a sensor fusion device for estimating the operating state as a result of the detection of the operating state, and to control each unit It includes a PLC controller and a driving unit of the underwater drone.

이러한 경우, 상기 PLC 컨트롤러는 수중드론의 발열체에 의한 위치좌표와, 상기 소나에 의한 수중표면 정보를 IOT데이터로서 상기 제어 정보처리장치와 통신하는 IOT모듈을 포함한다.In this case, the PLC controller includes an IOT module that communicates with the control information processing device the position coordinates by the heating element of the underwater drone and the underwater surface information by the sonar as IOT data.

상기 소나는 운행시에 조사구역을 예를 들어, 관리자가 원하는 지역의 수중표면 정보를 측정한다.The sonar measures the underwater surface information of the area desired by the manager, for example, in the survey area during operation.

상기 센서부는 수중드론이 운행될 경우, 운행상태를 감지하는 센서를 적어도 하나 이상 포함한다. 이러한 경우, 상기 센서부는 압력 센서와, 3축 가속도 센서, 3축 자이로 센서, 지자기 센서들 중 어느 하나 이상을 포함하여 운행과, 임무 수행에 필요한 데이터를 측정한다.When the underwater drone is operated, the sensor unit includes at least one sensor for detecting a running state. In this case, the sensor unit includes any one or more of a pressure sensor, a three-axis acceleration sensor, a three-axis gyro sensor, and a geomagnetic sensor to measure data necessary for driving and performing a mission.

상기 센서 융합기는 상기 센서부에 의해 감지된 운행상태 결과를 조합하여 운행상태를 추정하는 것이다. 예를 들어, 운행시의 압력과, 가속도 등을 조합하여 연산해서 비행상태를 추정한다. The sensor fusion device estimates the driving state by combining the driving state results sensed by the sensor unit. For example, the flight state is estimated by calculating the combination of pressure and acceleration during operation.

상기 PLC 컨트롤러는 상기 발열체의 위치로부터 도출된 상기 수중드론의 좌표정보 및 상기 소나에서 측정된 수중표면정보를 미리 등록된 제어 정보처리장치에 제공하고, 상기 센서 융합기에 의해 추정된 운행상태에 따라 운행동작을 제어하는 것이다.The PLC controller provides the coordinate information of the underwater drone derived from the location of the heating element and the underwater surface information measured in the sonar to a pre-registered control information processing device, and operates according to the operating state estimated by the sensor fusion device to control the action.

상기 구동부는 상기 PLC 컨트롤러의 제어에 의해 예를 들어, 상기 PLC 컨트롤러의 PWM제어에 의해 상기 운행동작을 구동한다. 이때, 상기 구동부는 변속기, 모터, 프로펠러 등을 포함하여 이루어져서, 상기 추정된 비행 상태에 따라 상이하게 회전속도와 회전방향 등을 달리하여 운행 동작을 구동한다.The driving unit drives the driving operation by the control of the PLC controller, for example, by the PWM control of the PLC controller. In this case, the driving unit includes a transmission, a motor, a propeller, and the like, and drives the driving operation by differently changing the rotational speed and the rotational direction according to the estimated flight state.

도 4는 도 3의 수중드론(100)에 적용된 PLC 컨트롤러의 구성을 도시한 블록도이다.4 is a block diagram illustrating the configuration of a PLC controller applied to the underwater drone 100 of FIG. 3 .

도 4에 도시된 바와 같이, 일실시예에 따른 수중드론에 적용된 PLC 컨트롤러는 상기 소나와 센서부 등의 신호 입출력을 위한 부분과 신호 처리를 위한 부분, 제어 정보처리장치와의 통신을 위한 부분을 모두 통합적으로 포함하도록 이루어진다.As shown in FIG. 4, the PLC controller applied to the underwater drone according to an embodiment includes a part for signal input and output such as the sonar and the sensor part, a part for signal processing, and a part for communication with the control information processing device. It is made to include all inclusively.

이를 위해, 일실시예에 따른 PLC 컨트롤러는 전원모듈과, 소나와 센서부의 신호 입출력과 신호 처리를 위한 A/I 모듈과, A/O 모듈, A/D모듈, D/A모듈, D/I모듈, D/O모듈, 제어 정보처리장치와의 통신을 위한 IOT모듈 및, 상기 각 모듈을 제어하는 CPU모듈을 모두 포함한다.To this end, the PLC controller according to an embodiment includes a power module, an A/I module for signal input/output and signal processing of the sonar and sensor units, an A/O module, an A/D module, a D/A module, and a D/I It includes all of the module, the D/O module, the IOT module for communication with the control information processing device, and the CPU module for controlling each module.

상기 전원모듈은 수중드론 자체에 전원을 공급하기 위한 것이다.The power module is for supplying power to the underwater drone itself.

상기 A/I 모듈은 상기 소나(아날로그 소나)에 의한 아날로그 측정결과와 상기 센서 융합기에 의한 아날로그 운행상태 감지 결과를 포함한 아날로그 정보를 통합적으로 입력받는 것이다.The A/I module is to integrally receive analog information including an analog measurement result by the sonar (analog sonar) and an analog driving state detection result by the sensor fusion device.

상기 A/O 모듈은 아날로그 제어정보를 포함한 아날로그 정보를 해당 구동장치 등에 통합적으로 출력한다.The A/O module integrally outputs analog information including analog control information to a corresponding driving device.

상기 A/D모듈은 상기 소나(아날로그 소나)에 의한 아날로그 측정결과와 상기 센서 융합기에 의한 가속도와 지자기 등의 아날로그 운행상태 감지결과를 포함한 아날로그 정보를 통합적으로 디지털 변환하는 것이다.The A/D module integrates digital conversion of analog information including an analog measurement result by the sonar (analog sonar) and an analog driving state detection result such as acceleration and geomagnetism by the sensor fusion device.

상기 D/A모듈은 디지털 유닛에 의한 디지털 정보를 아날로그 변환하는 것이다.The D/A module converts digital information by a digital unit to analog.

상기 D/I모듈은 상기 소나(디지털 소나)에 의한 디지털 측정결과와 상기 센서 융합기에 의한 디지털 비행상태 감지결과를 포함한 디지털 정보를 통합적으로 입력받는다.The D/I module receives digital information including a digital measurement result by the sonar (digital sonar) and a digital flight state detection result by the sensor fusion device as an integrated input.

상기 D/O모듈은 상기 제어 정보처리장치의 제어신호에 따른 디지털 제어정보를 포함한 디지털 정보를 통합적으로 구동부 등에 출력하는 것이다.The D/O module outputs digital information including digital control information according to a control signal of the control information processing device to a driving unit or the like.

상기 IOT모듈은 상기 발열체의 위치로부터 도출된 상기 수중드론의 좌표정보 및 상기 소나에서 측정된 수중표면정보에 대해서 상기 제어 정보처리장치와 IOT데이터로서 통신하는 것이다. 이러한 경우, 상기 IOT모듈은 자체 유/무선 통신모듈을 예를 들어, LoRa 모듈을 구비하여 지상의 제어 정보처리장치로 측정결과 등을 제공한다.The IOT module communicates with the control information processing device as IOT data for the coordinate information of the underwater drone derived from the location of the heating element and the underwater surface information measured by the sonar. In this case, the IOT module has its own wired/wireless communication module, for example, a LoRa module, and provides the measurement result to the control information processing device on the ground.

상기 CPU모듈은 PLC 컨트롤러의 기본적인 CPU모듈로서, 상기 각 모듈을 제어한다.The CPU module is a basic CPU module of the PLC controller and controls each module.

부가적으로, 이와 관련하여 부연설명을 하면 다양한 환경에서 사용되는 기존의 PLC 시스템에 대해서는 여러 기능을 가진 모듈이 필요하며, 이에 따라서 PLC 제조 업체는 사용자의 요구사항을 만족하는 다양한 모듈을 제공한다.In addition, if it is further explained in this regard, modules with various functions are required for the existing PLC system used in various environments, and accordingly, PLC manufacturers provide various modules that satisfy the requirements of users.

예를 들어, 디지털 입출력 모듈, 아날로그 입출력모듈, 통신 모듈 등 여러 기능을 가진 모듈이 PLC 시스템에 사용되고, 이러한 다양한 모듈을 통해서 사용자가 원하는 시스템이 구축된다.For example, a module having various functions, such as a digital input/output module, an analog input/output module, and a communication module, is used in a PLC system, and a system desired by a user is built through these various modules.

예를 들어, 특허문헌 KR101778333 Y1의 기술은 이러한 기술로서 등록받은 발명이며, 구체적으로는 PLC의 출력모듈의 동작상 결함 여부를 진단하기 위한 진단모듈을 구비하는 PLC 시스템에 관한 것이다.For example, the technology of Patent Document KR101778333 Y1 is an invention registered as such a technology, and specifically relates to a PLC system having a diagnostic module for diagnosing whether an output module of the PLC is defective in operation.

일실시예에 따른 전술한 IOT 모듈은 이러한 점들을 이용해서, 전술한 IOT모듈로부터 IOT 기능을 제공하는 PLC를 제공하고, 이를 통해 더 나아가 장치측면에서 쉽게 최적화된 감시와 제어 등이 이루어지도록 한 것이다.The above-described IOT module according to an embodiment uses these points to provide a PLC that provides an IOT function from the above-described IOT module, and through this, further optimized monitoring and control from the device side is made easy. .

이에 따라, 일실시예에 따른 상기한 PLC 컨트롤러는 기본적으로 각종 디지털과 아날로그 등의 센서부로부터 신호를 모두 입력받는 입력모듈과, 중앙제어부인 CPU모듈, 제어대상으로 제어신호를 출력하는 출력모듈을 포함한다.Accordingly, the above-described PLC controller according to an embodiment basically includes an input module that receives all signals from various digital and analog sensor units, a CPU module that is a central control unit, and an output module that outputs a control signal to a control object. include

그리고, 상기 PLC 컨트롤러는 이때 추가적으로 PLC 자체에서 IOT 기능을 수행하는 IOT모듈을 구비해서, 상기 CPU모듈이 이러한 IOT모듈에 의해 상기 입/출력 모듈과 연동하여 해당되는 제어로직으로부터 IOT 기능을 수행하도록 함으로써, 지상의 제어 정보처리장치와 통신한다.In addition, the PLC controller includes an IOT module that additionally performs an IOT function in the PLC itself, so that the CPU module interworks with the input/output module by such an IOT module to perform an IOT function from the corresponding control logic. , and communicates with the control information processing device on the ground.

추가적으로, 이러한 PLC 컨트롤러는 전술한 바에 더해, 상기 CPU 모듈이 상기 센서 융합기에 의해 추정된 운행상태가 미리 설정된 위험운행상태에 해당하는 경우, 상기 IOT 모듈에 의해 상기 제어 정보처리장치로 알람을 수행한다.Additionally, in addition to the above, the CPU module performs an alarm to the control information processing device by the IOT module when the operating state estimated by the sensor fusion device corresponds to a preset dangerous driving state. .

이하에서 도 5 내지 8을 함께 참조하여 일실시예에 따른 수중표면의 3차원 모델링 과정을 설명한다.Hereinafter, a three-dimensional modeling process of an underwater surface according to an embodiment will be described with reference to FIGS. 5 to 8 together.

구체적으로는, 도 5는 열화상영상의 디스플레이 화면을 나타내는 사진이고, 도 6은 발열체위치의 디스플레이 화면을 나타내는 사진이다. 그리고, 도 7은 수중표면영상의 디스플레이 화면을 나타내는 사진이고, 도 8은 3차원모델링의 디스플레이 화면을 나타내는 사진이다.Specifically, FIG. 5 is a photograph showing a display screen of a thermal image, and FIG. 6 is a photograph illustrating a display screen of a location of a heating element. And, Figure 7 is a photograph showing the display screen of the underwater surface image, Figure 8 is a photograph showing the display screen of the three-dimensional modeling.

여기에서 작업자는 상기 수중드론(100)을 조종하는 오퍼레이터와, 상기 제어서버(300)를 조작하는 엔지니어이다.Here, the operator is an operator who controls the underwater drone 100 and an engineer who operates the control server 300 .

먼저, 일실시예에 따른 수중표면의 3차원 모델링 과정은 조사 대상 구역(일반적으로 직사각형)을 지정하고, 조사구역을 포함한 전체를 촬영할 수 있는 위치와 높이에 상기 적외선 열화상 카메라(200)를 설치한다.First, in the three-dimensional modeling process of the underwater surface according to an embodiment, the infrared thermal imaging camera 200 is installed at a position and height to designate an irradiation target area (generally a rectangular), and to photograph the entire area including the irradiation area. do.

그리고 엔지니어는 열화상영상을 확인하고, 도 5에 점선 사각형과 같이 조사구역을 지정하며, 조사구역의 가로세로 실거리를 측정한다.Then, the engineer checks the thermal image, designates the irradiation area as shown in the dotted rectangle in FIG. 5, and measures the horizontal and vertical actual distance of the irradiation area.

또 상기 발열체위치를 위해 조사구역을 하나 이상의 격자로 구획한다. 엔지니어는 격자의 개수를 입력하면 도 6에 도시된 바와 같이 자동으로 구획되도록 한다.In addition, the irradiation area is divided into one or more grids for the location of the heating element. When the engineer enters the number of grids, it is automatically partitioned as shown in FIG. 6 .

상기와 같은 세팅이 끝나면, 오퍼레이터는 발열체(120)가 부착된 상기 수중드론(100)을 조사구역 내에서 운행시킨다.After the setting as described above, the operator operates the underwater drone 100 to which the heating element 120 is attached within the irradiation area.

오퍼레이터는 조사구역 내의 모든 영역을 스캔하기 위해 정해진 경로를 따라 상기 수중드론(100)을 운행시킬 수 있다. 예를 들어 직사각형의 조사구역 일측에서 전후방향으로 왕복하면서 좌 또는 우측으로 이동하게 함으로써 조사구역 전 영역을 수중드론이 운행되도록 할 수 있다.The operator may operate the underwater drone 100 along a predetermined path to scan all areas within the irradiation area. For example, the underwater drone can be operated over the entire area of the irradiation area by moving it to the left or right while reciprocating in the front-rear direction from one side of the rectangular irradiation area.

이때, 상기 소나(110)에서 측정되는 수중표면 영상정보와 상기 적외선 열화상 카메라(200)에서 촬영되는 열화상 영상정보는 실시간으로 상기 제어 정보처리장치(300)로 전송되면서 동기화된다.At this time, the underwater surface image information measured by the sonar 110 and the thermal image image information photographed by the infrared thermal imaging camera 200 are synchronized while being transmitted to the control information processing device 300 in real time.

그리고 상기 제어 정보처리장치(300)로 전송된 정보들 중 열화상 영상정보는 수중드론위치인식을 거쳐 상기 수중드론(100)의 실시간 위치좌표가 도출되어 매핑으로 진행된다.And the thermal image image information among the information transmitted to the control information processing device 300 undergoes underwater drone location recognition, and the real-time location coordinates of the underwater drone 100 are derived and mapped.

다음, 상기 수중표면 영상정보는 상기 수중표면정보처리를 거친 후에 이 두 정보들을 매핑하여 조사구역의 수중표면 형상을 도 8에 나타난 것처럼 3차원의 컬러 이미지로 제공한다.Next, the underwater surface image information is mapped to the two pieces of information after the underwater surface information processing, and provides the underwater surface shape of the irradiation area as a three-dimensional color image as shown in FIG. 8 .

100 : 수중드론 110 : 소나
120 : 발열체 200 : 적외선 열화상 카메라
300 : 제어 정보처리장치
100: underwater drone 110: sonar
120: heating element 200: infrared thermal imaging camera
300: control information processing device

Claims (5)

소나와 발열체가 구비되고, 조사구역 내에서 운행하면서 수중표면정보를 측정하는 수중드론;
상기 수중드론이 운행하는 동안 조사구역 전체를 촬영하여 실시간으로 열화상 영상정보를 획득하는 적외선 열화상 카메라;
상기 적외선 열화상 카메라에서 획득된 열화상 영상정보를 처리하고 상기 발열체의 위치로부터 도출된 상기 수중드론의 좌표정보 및 상기 소나에서 측정된 수중표면정보를 매핑하여 미리 설정된 구역 내의 수중표면을 3차원으로 모델링하는 제어 정보처리장치; 를 포함하여 이루어지고,
상기 제어 정보처리장치는,
a) 상기 적외선 열화상 카메라에서 획득된 영상정보를 처리하여 발열체의 위치를 검출하고 검출된 발열체의 위치정보로부터 수중드론의 위치좌표를 연산하여 도출하고,
b) 상기 소나에서 측정된 수중표면 영상정보를 처리하고,
c) 상기 도출된 수중드론의 위치좌표와 상기 처리된 수중표면 영상정보를 매핑하여 수중표면을 3차원 이미지로 모델링하며, 상기 수중드론의 위치좌표를 연산하여 도출하는 것(a))은,
a-1) 상기 적외선 열화상 카메라로부터 전송된 열화상 영상정보를 저장하고,
a-2) 상기 저장된 열화상 영상정보를 화면으로 디스플레이하고;
a-3) 상기 화면 중 미리 설정된 구역의 열화상 영상정보를 처리하여 기준 온도 이상인 영역을 검출하고, 검출된 영역으로부터 상기 발열체의 위치정보를 획득하며,
a-4) 상기 처리된 영상정보를 온도분포에 따른 컬러화된 화면으로 디스플레이하고,
a-5) 상기 획득된 발열체의 위치정보로부터 상기 수중드론의 실제 위치좌표를 연산하고,

상기 3차원 이미지로 모델링하는 것(c))은
c-1) 상기 연산된 수중드론의 실제 위치좌표와 상기 처리된 수중표면 영상정보를 매핑하여 포인트 클라우드화시키고,
c-2) 상기 매핑된 포인트 클라우드를 3차원 컬러의 이미지로 변환하여 출력하는 것; 을 특징으로 하는 적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템.
An underwater drone equipped with a sonar and a heating element, and measuring underwater surface information while operating within the investigation area;
an infrared thermal imaging camera that captures the entire irradiation area while the underwater drone is operating to acquire thermal image information in real time;
By processing the thermal image information obtained from the infrared thermal imaging camera and mapping the coordinate information of the underwater drone derived from the location of the heating element and the underwater surface information measured in the sonar, the underwater surface within a preset area is three-dimensionally Modeling control information processing device; is made, including
The control information processing device,
a) by processing the image information obtained from the infrared thermal imaging camera to detect the position of the heating element, and calculate and derive the position coordinates of the underwater drone from the detected position information of the heating element,
b) processing the underwater surface image information measured in the sonar,
c) mapping the derived position coordinates of the underwater drone and the processed underwater surface image information to model the underwater surface as a three-dimensional image, and calculating and deriving the position coordinates of the underwater drone (a)),
a-1) storing the thermal image information transmitted from the infrared thermal imaging camera;
a-2) displaying the stored thermal image information on a screen;
a-3) processing the thermal image information of a preset area of the screen to detect an area above a reference temperature, and obtaining position information of the heating element from the detected area;
a-4) Displaying the processed image information on a colored screen according to temperature distribution,
a-5) Calculate the actual position coordinates of the underwater drone from the obtained position information of the heating element,

Modeling with the three-dimensional image (c))
c-1) Map the calculated actual position coordinates of the underwater drone and the processed underwater surface image information to form a point cloud,
c-2) converting the mapped point cloud into a three-dimensional color image and outputting it; An underwater surface three-dimensional modeling system using an infrared thermal imaging camera and an underwater drone, characterized in that
삭제delete 청구항 1에 있어서,
상기 연산된 수중드론의 실제 위치좌표와 상기 처리된 수중표면 영상정보를 매핑하여 포인트 클라우드화시키는 것(c-1))은
c-1-1) 수중표면의 체표면에 대한 모델링 기반의 미리 설정된 3차원 모델 포맷에 의해 상기 처리된 수중표면 영상정보를 우선적으로 모델링하고,
c-1-2) 상기 연산된 수중드론의 실제 위치좌표와 상기 모델링된 수중표면 영상정보를 매핑하여 포인트 클라우드화시키는 것; 을 특징으로 하는 적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템.
The method according to claim 1,
(c-1)) by mapping the calculated actual position coordinates of the underwater drone and the processed underwater surface image information to form a point cloud
c-1-1) preferentially modeling the processed underwater surface image information by a preset three-dimensional model format based on modeling for the body surface of the underwater surface;
c-1-2) mapping the calculated actual position coordinates of the underwater drone with the modeled underwater surface image information to form a point cloud; An underwater surface three-dimensional modeling system using an infrared thermal imaging camera and an underwater drone, characterized in that
청구항 1에 있어서,
상기 수중드론은,
상기 조사구역 내의 수중표면 정보를 측정하는 소나;
상기 운행이 될 경우, 운행상태를 감지하는 센서를 적어도 하나 이상 포함한 센서부;
상기 센서부에 의해 감지된 운행상태 결과를 조합하여 운행상태를 추정하는 센서 융합기;
상기 발열체의 위치로부터 도출된 상기 수중드론의 좌표정보 및 상기 소나에서 측정된 수중표면정보를 미리 등록된 제어 정보처리장치에 제공하고, 상기 센서 융합기에 의해 추정된 운행상태에 따라 운행동작을 제어하는 PLC 컨트롤러; 및
상기 PLC 컨트롤러의 제어에 의해 상기 운행동작을 구동하는 구동부; 를 포함하고 있으며,
상기 PLC 컨트롤러는,
수중드론 자체의 전원모듈;
아날로그 소나에 의한 아날로그 측정결과와 상기 센서 융합기에 의한 아날로그 운행상태 감지 결과를 포함한 아날로그 정보를 통합적으로 입력받는 A/I 모듈;
아날로그 제어정보를 포함한 아날로그 정보를 통합적으로 출력하는 A/O 모듈;
상기 아날로그 소나에 의한 아날로그 측정결과와 상기 센서 융합기에 의한 아날로그 운행상태 감지 결과를 포함한 아날로그 정보를 통합적으로 디지털 변환하는 A/D모듈;
디지털 유닛에 의한 디지털 정보를 아날로그 변환하는 D/A모듈;
디지털 소나에 의한 디지털 측정결과와 상기 센서 융합기에 의한 디지털 운행상태 감지 결과를 포함한 디지털 정보를 통합적으로 입력받는 D/I모듈;
상기 제어 정보처리장치에 의한 제어신호에 따른 디지털 제어정보를 포함한 디지털 정보를 통합적으로 출력하는 D/O모듈;
상기 발열체의 위치로부터 도출된 상기 수중드론의 좌표정보 및 상기 소나에서 측정된 수중표면정보에 대해서 상기 제어 정보처리장치와 IOT데이터로서 통신하는 IOT모듈; 및
상기 각 모듈을 제어하는 CPU모듈; 을 포함하는 것을 특징으로 하는 적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템.
The method according to claim 1,
The underwater drone,
a sonar measuring the underwater surface information in the survey area;
a sensor unit including at least one sensor for detecting a driving state when the driving is performed;
a sensor fusion device for estimating the driving state by combining the driving state results sensed by the sensor unit;
Providing the coordinate information of the underwater drone derived from the location of the heating element and the underwater surface information measured by the sonar to a pre-registered control information processing device, and controlling the operation operation according to the operation state estimated by the sensor fusion device PLC controller; and
a driving unit for driving the driving operation under the control of the PLC controller; contains,
The PLC controller,
power module of the underwater drone itself;
An A/I module that integrally receives analog information including an analog measurement result by an analog sonar and an analog driving state detection result by the sensor fusion device;
An A/O module that integrally outputs analog information including analog control information;
an A/D module for integrally converting analog information including an analog measurement result by the analog sonar and an analog driving state detection result by the sensor fusion device;
D/A module for converting digital information by digital unit to analog;
a D/I module that integrally receives digital information including a digital measurement result by a digital sonar and a digital driving state detection result by the sensor fusion device;
a D/O module for integrally outputting digital information including digital control information according to a control signal by the control information processing device;
IOT module for communicating as IOT data with the control information processing device for the coordinate information of the underwater drone derived from the location of the heating element and the underwater surface information measured by the sonar; and
CPU module for controlling each module; An underwater surface three-dimensional modeling system using an infrared thermal imaging camera and an underwater drone, characterized in that it comprises a.
청구항 4에 있어서,
상기 CPU 모듈은
상기 센서 융합기에 의해 추정된 운행상태가 미리 설정된 위험운행상태에 해당하는 경우, 상기 IOT 모듈에 의해 상기 제어 정보처리장치로 알람을 수행하는 것; 을 특징으로 하는 적외선 열화상 카메라와 수중드론을 이용한 수중표면 3차원 모델링 시스템.
5. The method according to claim 4,
The CPU module is
when the driving state estimated by the sensor fusion device corresponds to a preset dangerous driving state, performing an alarm to the control information processing device by the IOT module; An underwater surface three-dimensional modeling system using an infrared thermal imaging camera and an underwater drone, characterized in that
KR1020200085199A 2020-07-10 2020-07-10 3D modeling system of underwater surfaces using infrared thermal imaging camera and drone KR102298645B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200085199A KR102298645B1 (en) 2020-07-10 2020-07-10 3D modeling system of underwater surfaces using infrared thermal imaging camera and drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200085199A KR102298645B1 (en) 2020-07-10 2020-07-10 3D modeling system of underwater surfaces using infrared thermal imaging camera and drone

Publications (1)

Publication Number Publication Date
KR102298645B1 true KR102298645B1 (en) 2021-09-06

Family

ID=77782243

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200085199A KR102298645B1 (en) 2020-07-10 2020-07-10 3D modeling system of underwater surfaces using infrared thermal imaging camera and drone

Country Status (1)

Country Link
KR (1) KR102298645B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114326791A (en) * 2021-12-08 2022-04-12 中铁上海工程局集团市政环保工程有限公司 Method and system for synchronously acquiring underwater topography of river and lake surface
CN114895313A (en) * 2022-06-07 2022-08-12 上海市信息管线有限公司 Detection method and device for pipeline in river channel, electronic equipment and storage medium
CN117746166A (en) * 2024-02-19 2024-03-22 中国科学院长春光学精密机械与物理研究所 Defect detection method of through silicon via chip

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101781757B1 (en) * 2016-10-20 2017-09-28 포항공과대학교 산학협력단 Underwater image processing device for object recognition and method there of
KR20180130460A (en) * 2017-05-29 2018-12-07 아즈빌주식회사 Thermal image processing apparatus and offset amount calculating method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101781757B1 (en) * 2016-10-20 2017-09-28 포항공과대학교 산학협력단 Underwater image processing device for object recognition and method there of
KR20180130460A (en) * 2017-05-29 2018-12-07 아즈빌주식회사 Thermal image processing apparatus and offset amount calculating method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114326791A (en) * 2021-12-08 2022-04-12 中铁上海工程局集团市政环保工程有限公司 Method and system for synchronously acquiring underwater topography of river and lake surface
CN114895313A (en) * 2022-06-07 2022-08-12 上海市信息管线有限公司 Detection method and device for pipeline in river channel, electronic equipment and storage medium
CN117746166A (en) * 2024-02-19 2024-03-22 中国科学院长春光学精密机械与物理研究所 Defect detection method of through silicon via chip
CN117746166B (en) * 2024-02-19 2024-05-28 中国科学院长春光学精密机械与物理研究所 Defect detection method of through silicon via chip

Similar Documents

Publication Publication Date Title
KR102298643B1 (en) 3D modeling method of underwater surfaces using infrared thermal imaging camera and drone
KR102298645B1 (en) 3D modeling system of underwater surfaces using infrared thermal imaging camera and drone
KR102001728B1 (en) Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
US10950041B2 (en) Method for generating 3D data relating to an object
NL2013724B1 (en) Underwater positioning system.
CN110275169B (en) Near-field detection sensing system of underwater robot
US8655022B2 (en) System and method for detecting position of underwater vehicle
CN107966989A (en) A kind of robot autonomous navigation system
WO2018086122A1 (en) Method and system for fusion of multiple paths of sensing data
CN109765901A (en) Dynamic cost digital map navigation method based on line laser and binocular vision
CN207965645U (en) A kind of robot autonomous navigation system
US11391559B2 (en) System and method for determination of a spatial property of a submerged object in a 3D-space
KR102372446B1 (en) Method for water level measurement and obtaining 3D water surface spatial information using unmanned aerial vehicle and virtual water control points
KR20180046803A (en) Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image
JP2018151964A (en) Inspection equipment for pier upper work lower surface, inspection system of inspection equipment for pier upper work lower surface and inspection method for pier upper work lower surface
RU2281534C1 (en) Method for condition inspection of product pipelines
RU2562368C1 (en) Three-dimensional (3d) mapping method
KR101273416B1 (en) Precision digital map making system through the synthesis of geographic information and coordinate information
JP4565348B2 (en) Shape measuring apparatus and method
US20210229810A1 (en) Information processing device, flight control method, and flight control system
EP3757512A1 (en) Aircraft imaging system using projected patterns on featureless surfaces
KR101406061B1 (en) System for River Management
Drap et al. Underwater cartography for archaeology in the VENUS project
CN111827403A (en) Underwater intelligent dredging robot control system
KR102431452B1 (en) Underwater survey system using under water drone

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant