KR20220060283A - Method and system for obtaining 3d optical volume model for underwater objects - Google Patents

Method and system for obtaining 3d optical volume model for underwater objects Download PDF

Info

Publication number
KR20220060283A
KR20220060283A KR1020200146108A KR20200146108A KR20220060283A KR 20220060283 A KR20220060283 A KR 20220060283A KR 1020200146108 A KR1020200146108 A KR 1020200146108A KR 20200146108 A KR20200146108 A KR 20200146108A KR 20220060283 A KR20220060283 A KR 20220060283A
Authority
KR
South Korea
Prior art keywords
volume model
optical
point
acoustic
obtaining
Prior art date
Application number
KR1020200146108A
Other languages
Korean (ko)
Other versions
KR102456515B1 (en
Inventor
김재선
유선철
김병진
김주환
성민성
이명석
송영운
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020200146108A priority Critical patent/KR102456515B1/en
Priority to PCT/KR2021/015604 priority patent/WO2022098025A1/en
Publication of KR20220060283A publication Critical patent/KR20220060283A/en
Application granted granted Critical
Publication of KR102456515B1 publication Critical patent/KR102456515B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52001Auxiliary means for detecting or identifying sonar signals or the like, e.g. sonar jamming signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Disclosed is a method for obtaining a 3D optical volume model for an underwater object. According to an exemplary embodiment of the present invention, the method for obtaining the 3D optical volume model for the underwater object using an optical camera and an imaging sonar comprises: a step of obtaining an optical volume model from an optical image generated by using the optical camera; a step of obtaining an acoustic volume model from the acoustic image generated by using the imaging sonar; and a step of correcting the optical volume model based on information on the acoustic volume model.

Description

수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법 및 시스템{METHOD AND SYSTEM FOR OBTAINING 3D OPTICAL VOLUME MODEL FOR UNDERWATER OBJECTS}METHOD AND SYSTEM FOR OBTAINING 3D OPTICAL VOLUME MODEL FOR UNDERWATER OBJECTS

본 발명은 3차원 광학 체적 모델을 획득하는 방법 및 시스템에 관한 것으로, 보다 상세하게는 광학 카메라와 이미징 소나를 이용하여 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for acquiring a three-dimensional optical volume model, and more particularly, to a method and system for acquiring a three-dimensional optical volume model for an underwater object using an optical camera and an imaging sonar.

일반적으로 수중 물체의 3차원 복원을 위해 광학 카메라로 SLAM (Simultaneous Localization And Mapping)을 수행한다. In general, SLAM (Simultaneous Localization And Mapping) is performed with an optical camera for three-dimensional reconstruction of underwater objects.

이와 관련하여, 맑은 물에서 표적 물체 주변을 여러 각도에서 촬영하면 광학 카메라가 제공하는 RGB 색상의 고화질 광학 이미지로 정밀한 SLAM이 가능하다. 그러나 50m 이상 수심에서는 파란색 계열 태양의 빛만 도달하며, 70m 이상의 수심에서는 태양빛이 거의 도달하지 못한다. 따라서 별도의 조명 시스템이 없으면 광학 카메라의 사용이 제한된다. In this regard, shooting multiple angles around the target object in clear water enables precise SLAM with high-definition optical images in RGB colors provided by the optical camera. However, at depths of 50 m or more, only the blue light of the sun reaches, and at depths of 70 m or more, the sun hardly reaches. Therefore, the use of optical cameras is limited without a separate lighting system.

또한 수중에는 해중설(Marine snow)라는 박테리아의 사체를 포함한 해양생물들의 사체 조각들은 해저로 천천히 침전하는데, 해저 근처에서는 이 해중설로 인해 시계가 탁해진다. 그리고 광학 이미지는 이미지 상의 물체에 대한 원근 정보는 제공하지 않기 때문에 광학 카메라와 물체 사이의 거리를 정확히 추정하기 위해서는 목표 물체를 여러 각도에서 촬영해야 한다. 그러나 GPS를 사용할 수 없는 해저에서 광학 카메라의 자세를 빈번히 바꾸게 되면 광학 카메라의 자세를 추정하는데 사용되는 자세 측정 센서의 오차가 누적되어 광학 카메라의 자세 정보가 부정확 해지므로 되도록 적은 방향에서 촬영하는 것이 바람직하다.Also underwater, fragments of marine life, including the corpse of bacteria called marine snow, slowly settle to the sea floor, and near the sea floor, the visibility becomes cloudy due to this snow. In addition, since the optical image does not provide perspective information on the object on the image, in order to accurately estimate the distance between the optical camera and the object, the target object must be photographed from various angles. However, if the position of the optical camera is frequently changed on the seabed where GPS cannot be used, the error of the position measurement sensor used to estimate the position of the optical camera accumulates, and the position information of the optical camera becomes inaccurate. Do.

이와 비교하여, 이미징 소나는 빛의 산란이나 물의 탁도와 같은 측정 환경에 덜 민감하고, 이미징 소나가 제공하는 음향 이미지는 촬영된 물체의 위치에 대한 원근과 방위각 정보를 제공한다. 그러나 음향 이미지는 흑백의 저화질이고, 물체의 고도 (elevation) 정보는 제공하지 않는 단점이 있다.In comparison, the imaging sonar is less sensitive to the measurement environment, such as light scattering or water turbidity, and the acoustic image provided by the imaging sonar provides perspective and azimuth information about the position of the imaged object. However, there is a disadvantage in that the sound image is of low quality in black and white and does not provide information on the elevation of an object.

따라서, 광학 카메라와 이미징 소나를 동시에 이용하되, 서로의 단점을 보완함으로써, 보다 정확하게 수중 물체를 3차원으로 복원하는 방법에 대한 연구가 필요한 실정이다.Therefore, there is a need for research on a method of reconstructing an underwater object in three dimensions more accurately by using an optical camera and an imaging sonar at the same time, but by compensating for each other's shortcomings.

대한민국 등록특허 제 10-2095009호Republic of Korea Patent Registration No. 10-2095009

본 발명의 일 실시예는 원근 오차를 최소화하여 정확성 높일 수 있는 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법을 제공하고자 한다.An embodiment of the present invention is to provide a method of obtaining a three-dimensional optical volume model for an underwater object capable of increasing accuracy by minimizing perspective errors.

본 발명의 일 측면에 따르면, 광학 카메라와 이미징 소나를 이용하여 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법으로서, 상기 광학 카메라를 이용하여 생성된 광학 이미지로부터 광학 체적 모델을 획득하는 단계; 상기 이미징 소나를 이용하여 생성된 음향 이미지로부터 음향 체적 모델을 획득하는 단계 및 상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 단계를 포함하는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법이 제공된다.According to an aspect of the present invention, there is provided a method for obtaining a three-dimensional optical volume model for an underwater object using an optical camera and an imaging sonar, the method comprising: obtaining an optical volume model from an optical image generated using the optical camera; A three-dimensional optical volume model for an underwater object, comprising: obtaining an acoustic volume model from an acoustic image generated using the imaging sonar; and calibrating the optical volume model based on information in the acoustic volume model; A method of obtaining is provided.

이 때, 상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 단계에서는, 상기 광학 체적 모델에 포함된 어느 한 점을 인접한 상기 음향 체적 모델 상의 점으로 이동시킬 수 있다.In this case, in the step of correcting the optical volume model based on the information of the acoustic volume model, any one point included in the optical volume model may be moved to a point on the adjacent acoustic volume model.

이 때, 상기 어느 한 점은, 상기 음향 체적 모델을 기준으로 판단하였을 때 광 반사가 발생되기 어려운 영역에 위치하는 점을 의미할 수 있다.In this case, the one point may mean a point located in an area where light reflection is difficult to occur when it is determined based on the acoustic volume model.

이 때, 상기 어느 한 점은, 상기 광학 카메라가 위치하는 기준점과 상기 어느 한 점을 연결한 직선과, 상기 음향 체적 모델이 만나는 교차점으로 이동될 수 있다.In this case, the one point may be moved to an intersection point where the reference point at which the optical camera is located and a straight line connecting the one point and the acoustic volume model meet.

이 때, 상기 광학 체적 모델은 상기 광학 이미지를 SLAM 알고리즘을 통해 상기 수중 물체의 표면을 이루는 점구름의 3차원 좌표를 추정하여 획득될 수 있다.In this case, the optical volume model may be obtained by estimating the three-dimensional coordinates of the point clouds constituting the surface of the underwater object using the optical image through a SLAM algorithm.

이 때, 상기 이미징 소나를 이용하여 생성된 음향 이미지로부터 음향 체적 모델을 획득하는 단계는 상기 이미징 소나의 위치를 기준으로 하였을 때, 음향 빔의 첫번째 반사가 발생되는 지점을 포함하는 제 1 경계면을 설정하는 단계 및 상기 이미징 소나의 위치를 기준으로 하였을 때, 상기 음향 빔의 마지막 반사가 발생되는 지점을 포함하는 제 2 경계면을 설정하는 단계를 포함할 수 있다.In this case, the step of obtaining the acoustic volume model from the acoustic image generated using the imaging sonar is setting a first boundary surface including a point where the first reflection of the acoustic beam occurs based on the position of the imaging sonar. and setting a second boundary surface including a point at which a final reflection of the sound beam occurs based on the position of the imaging sonar.

이 때, 상기 제 1 경계면과 제 2 경계면은 각각 상기 이미징 소나가 위치하는 기준점을 중심으로 하는 구면의 일부를 포함하여 형성될 수 있다.In this case, each of the first boundary surface and the second boundary surface may be formed to include a part of a spherical surface centered on a reference point where the imaging sonar is located.

이 때, 상기 제 1 경계면과 제 2 경계면은 상기 이미지 소나의 전진에 따라 계속적으로 갱신될 수 있다.In this case, the first boundary surface and the second boundary surface may be continuously updated according to the advancement of the image sonar.

이 때, 상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 단계에서는, 상기 광학 체적 모델 중에서 상기 음향 체적 모델의 제 1 경계면 내측에 존재하는 제 1 점과 상기 광학 카메라가 위치하는 기준점을 연결한 직선과, 상기 음향 체적 모델이 만나는 교차점으로 상기 제 1 점을 이동시킬 수 있다.In this case, in the step of correcting the optical volume model based on the information of the acoustic volume model, a first point existing inside the first boundary surface of the acoustic volume model among the optical volume model and a reference point at which the optical camera is located The first point may be moved to an intersection point where a straight line connecting , and the acoustic volume model meet.

이 때, 상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 단계에서는, 상기 광학 체적 모델 중에서 상기 음향 체적 모델의 제 2 경계면의 외측에 위치하는 제 2 점과 상기 광학 카메라가 위치하는 기준점을 연결한 직선과, 상기 음향 체적 모델이 만나는 교차점으로 상기 제 2 점을 이동시킬 수 있다.At this time, in the step of correcting the optical volume model based on the information of the acoustic volume model, a second point located outside the second boundary surface of the acoustic volume model among the optical volume model and the optical camera are located The second point may be moved to an intersection point where the straight line connecting the reference points and the acoustic volume model meet.

본 발명의 다른 측면에 따르면, 광학 카메라와 이미징 소나를 이용하여 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 광학 체적 모델 획득 시스템으로서, 상기 광학 카메라를 이용하여 생성된 광학 이미지로부터 광학 체적 모델을 획득하는 광학 체적 모델부; 상기 이미징 소나를 이용하여 생성된 음향 이미지로부터 상기 이미징 소나의 위치를 기준으로 하였을 때, 음향 빔의 첫번째 반사가 발생되는 지점이 포함된 제 1 경계면과, 상기 음향 빔의 마지막 반사가 발생되는 지점이 포함된 제 2 경계면을 포함하는 음향 체적 모델을 획득하는 음향 체적 모델부 및 상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 단계를 포함하고, 상기 보정부는 상기 광학 체적 모델 중에서 상기 음향 체적 모델의 제 1 경계면의 내측 또는 상기 제 2 경계면의 외측에 위치하는 어느 한 점과 상기 광학 카메라가 위치하는 기준점을 연결한 직선과, 상기 음향 체적 모델이 만나는 교차점으로 상기 어느 한 점을 이동시키는, 광학 체적 모델 획득 시스템이 제공된다.According to another aspect of the present invention, there is provided an optical volume model acquisition system for acquiring a three-dimensional optical volume model for an underwater object using an optical camera and an imaging sonar, wherein the optical volume model is obtained from an optical image generated using the optical camera. an optical volume model unit to acquire; Based on the location of the imaging sonar from the sound image generated using the imaging sonar, the first boundary surface including the point at which the first reflection of the sound beam occurs, and the point at which the last reflection of the sound beam occurs and an acoustic volume model unit to obtain an acoustic volume model including an included second boundary surface, and correcting the optical volume model based on information of the acoustic volume model, wherein the correcting unit includes the acoustic volume model among the optical volume models. Moving the one point to the intersection point where a straight line connecting any one point located inside the first boundary surface of the volume model or outside the second boundary surface and the reference point where the optical camera is located and the acoustic volume model meet , an optical volume model acquisition system is provided.

본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법은 광학 체적 모델에 포함된 오차를 음향 체적 모델을 이용하여 보정함으로써 보다 정확한 광학 체적 모델을 획득할 수 있다.The method of obtaining an optical volume model according to an embodiment of the present invention may obtain a more accurate optical volume model by correcting an error included in the optical volume model using the acoustic volume model.

또한, 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법은 음향 체적 모델과 관련하여 제 1 경계면 뿐만 아니라 제 2 경계면도 함께 고려하여 공간을 세분화함으로써 광학 체적 모델 내 다양한 공간에 존재하는 오차를 보정할 수 있다.In addition, in the method of obtaining an optical volume model according to an embodiment of the present invention, errors existing in various spaces in the optical volume model by subdividing the space by considering not only the first boundary surface but also the second boundary surface in relation to the acoustic volume model. can be corrected.

도 1은 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법의 각 단계를 나타낸 순서도이다.
도 2는 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템을 나타낸 블록도이다.
도 3은 SLAM 알고리즘을 이용하여 광학 체적 모델을 형성하는 것의 일 예시를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템에 의해 획득된 광학 체적 모델 및 음향 체적 모델을 중첩하여 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법의 음향 체적 모델을 획득하는 단계의 세부 단계를 나타낸 순서도이다.
도 6 및 도 7은 이미징 소나를 이용하여 음향 이미지를 획득하는 것을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템의 음향 체적 모델부가 음향 체적 모델을 갱신하는 것을 설명하기 위한 도면이다.
도 9 및 도 10은 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템에 의해 획득된 음향 체적 모델을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템의 보정부가 광학 체적 모델에 포함된 점을 보정하는 것을 설명하기 위한 도면이다.
1 is a flowchart illustrating each step of a method of acquiring an optical volume model according to an embodiment of the present invention.
2 is a block diagram illustrating an optical volume model acquisition system according to an embodiment of the present invention.
3 is a diagram illustrating an example of forming an optical volume model using a SLAM algorithm.
4 is a diagram illustrating an optical volume model and an acoustic volume model obtained by an optical volume model acquisition system according to an embodiment of the present invention by superimposing them.
5 is a flowchart illustrating detailed steps of obtaining an acoustic volume model of a method of obtaining an optical volume model according to an embodiment of the present invention.
6 and 7 are diagrams for explaining acquiring an acoustic image using an imaging sonar.
8 is a view for explaining that the acoustic volume model unit of the optical volume model acquisition system according to an embodiment of the present invention updates the acoustic volume model.
9 and 10 are diagrams for explaining an acoustic volume model acquired by an optical volume model acquisition system according to an embodiment of the present invention.
11 is a diagram for explaining that the correction unit of the optical volume model acquisition system corrects points included in the optical volume model according to an embodiment of the present invention.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily carry out the present invention. The present invention may be embodied in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and the same reference numerals are given to the same or similar components throughout the specification.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented in various numbers of hardware and/or software configurations that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm running on one or more processors. In addition, the present disclosure may employ prior art for electronic configuration, signal processing, and/or data processing, and the like. Terms such as “mechanism”, “element”, “means” and “configuration” may be used broadly and are not limited to mechanical and physical components.

도 1은 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법의 각 단계를 나타낸 순서도이다. 도 2는 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템을 나타낸 블록도이다. 도 3은 SLAM 알고리즘을 이용하여 광학 체적 모델을 형성하는 것의 일 예시를 나타낸 도면이다. 도 4는 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템에 의해 획득된 광학 체적 모델 및 음향 체적 모델을 중첩하여 나타낸 도면이다. 1 is a flowchart illustrating each step of a method of obtaining an optical volume model according to an embodiment of the present invention. 2 is a block diagram illustrating an optical volume model acquisition system according to an embodiment of the present invention. 3 is a diagram illustrating an example of forming an optical volume model using a SLAM algorithm. 4 is a diagram illustrating an optical volume model and an acoustic volume model obtained by an optical volume model acquisition system according to an embodiment of the present invention by superimposing them.

본 발명의 일 실시예에 따른 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법(이하, '광학 체적 모델을 획득하는 방법'이라 함)은 광학 이미지로부터 3차원 광학 체적 모델을 획득하고, 이를 음향 이미지를 기초로 보정함으로써 상기 3차원 광학 체적 모델의 정확성을 향상시킬 수 있는 방법이다. 이 때, 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법은 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템(10)에 의해서 각 단계가 수행될 수 있다.A method of obtaining a three-dimensional optical volume model for an underwater object according to an embodiment of the present invention (hereinafter referred to as 'a method of obtaining an optical volume model') obtains a three-dimensional optical volume model from an optical image, and It is a method capable of improving the accuracy of the three-dimensional optical volume model by correcting it based on an acoustic image. In this case, each step of the method for acquiring an optical volume model according to an embodiment of the present invention may be performed by the optical volume model acquisition system 10 according to an embodiment of the present invention.

이하에서는, 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법의 각 단계 위주로 설명하되, 광학 체적 모델 획득 시스템(10) 중에서 광학 체적 모델을 획득하는 방법의 각 단계를 수행하는 주체에 대해서도 함께 기술하기로 한다.Hereinafter, each step of the method for obtaining an optical volume model according to an embodiment of the present invention will be mainly described, but also for the subject performing each step of the method for obtaining the optical volume model in the optical volume model obtaining system 10 . to describe together.

먼저, 도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법은 광학 체적 모델 획득 시스템(10)의 광학 체적 모델부(20)을 이용하여 광학 체적 모델을 획득하는 단계를 포함한다.(S10)First, referring to FIGS. 1 and 2 , in a method of acquiring an optical volume model according to an embodiment of the present invention, the optical volume model is obtained by using the optical volume model unit 20 of the optical volume model acquisition system 10 . and acquiring. (S10)

이 때, 광학 체적 모델부(20)는 2차원 광학 이미지로부터 3차원 광학 체적 모델을 획득할 수 있다. 여기서 상기 2차원 광학 이미지는 수중에서 광학 카메라가 수중 물체(M)를 대상으로 촬영한 RGB 색상의 고화질 광학 이미지 일 수 있다.In this case, the optical volume model unit 20 may obtain a 3D optical volume model from the 2D optical image. Here, the two-dimensional optical image may be a high-definition optical image of RGB color captured by the optical camera to the underwater object (M) in the water.

구체적으로, 광학 체적 모델부(20)는 광학 체적 모델의 획득과 관련하여, 오픈 소스 기반의 SLAM(Simultaneous Localization and Mapping) 알고리즘을 통해 광학 이미지를 처리함으로써, 수중 물체(M)의 표면을 이루는 점구름(K)의 3차원 좌표를 추정할 수 있다. Specifically, in relation to the acquisition of the optical volume model, the optical volume model unit 20 processes the optical image through an open source-based SLAM (Simultaneous Localization and Mapping) algorithm, thereby forming the surface of the underwater object M. It is possible to estimate the three-dimensional coordinates of the cloud (K).

여기서, 도 3을 참조하면, SLAM 알고리즘은 컴퓨터 시각(Computer Vision, CV) 기반의 동시적 위치추정 및 지도작성 알고리즘으로서, 주변 환경의 어떠한 사전 지식도 요구하지 않고 실제 환경에 대한 카메라의 위치 및/또는 배향을 결정하고 실제 주변 환경의 기하학적 모델을 생성하기 위한 기술이다. 이러한 SLAM 알고리즘은 위치 추정 기술 분야의 공지의 기술이므로, 본 명세서에서는 자세한 설명을 생략하도록 한다.Here, referring to FIG. 3, the SLAM algorithm is a computer vision (CV)-based simultaneous localization and mapping algorithm, without requiring any prior knowledge of the surrounding environment, and the camera's position and / Or a technique for determining orientation and creating a geometrical model of the real surrounding environment. Since such a SLAM algorithm is a well-known technique in the field of location estimation, a detailed description thereof will be omitted herein.

이 때, 광학 체적 모델부(20)는 LSD-SLAM(Large-Scale Direct SLAM) 알고리즘을 이용하여 수중 물체(M)와 관련된 위치를 추정할 수 있다. 이는 광학 카메라에 의해 생성된 광학 이미지에 대하여 특징점(Feature Point)를 검출하는 과정을 거치지 않고 바로 Semi-Dense를 사용함으로써 보다 신속하게 위치를 추정하기 위함이다.In this case, the optical volume model unit 20 may estimate a position related to the underwater object M using a large-scale direct SLAM (LSD-SLAM) algorithm. This is to estimate the position more quickly by using Semi-Dense without going through a process of detecting a feature point with respect to the optical image generated by the optical camera.

본 발명의 일 실시예에서, 광학 체적 모델은 도 4에 도시된 바와 같이 수중 물체(M)의 표면을 따라 점구름(K)의 형태로 도시될 수 있다. 그러나, 광학 체적 모델 자체가 가진 원근 오차에 의하여 점구름(K)을 구성하는 모든 점이 수중 물체(M)의 표면을 의미하는 것은 아님을 유념한다. 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법은 후술될 음향 체적 모델을 이용하여 상술한 원근 오차에 의해 생성된 점구름을 보정함으로써, 광학 체적 모델의 정확성을 높일 수 있는 방법이다.In one embodiment of the present invention, the optical volume model may be shown in the form of a point cloud K along the surface of the underwater object M as shown in FIG. 4 . However, keep in mind that not all points constituting the point cloud K mean the surface of the underwater object M due to the perspective error of the optical volume model itself. The method of obtaining an optical volume model according to an embodiment of the present invention is a method of increasing the accuracy of an optical volume model by correcting a point cloud generated by the aforementioned perspective error using an acoustic volume model, which will be described later.

도 5는 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법의 음향 체적 모델을 획득하는 단계의 세부 단계를 나타낸 순서도이다. 도 6 및 도 7은 이미징 소나를 이용하여 음향 이미지를 획득하는 것을 설명하기 위한 도면이다. 도 8은 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템의 음향 체적 모델부가 음향 체적 모델을 갱신하는 것을 설명하기 위한 도면이다. 도 9 및 도 10은 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템에 의해 획득된 음향 체적 모델을 설명하기 위한 도면이다.5 is a flowchart illustrating detailed steps of obtaining an acoustic volume model of a method of obtaining an optical volume model according to an embodiment of the present invention. 6 and 7 are diagrams for explaining acquiring an acoustic image using an imaging sonar. 8 is a view for explaining that the acoustic volume model unit of the optical volume model acquisition system according to an embodiment of the present invention updates the acoustic volume model. 9 and 10 are diagrams for explaining an acoustic volume model acquired by an optical volume model acquisition system according to an embodiment of the present invention.

다음으로, 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법은 광학 체적 모델 획득 시스템(10)의 음향 체적 모델부(30)을 이용하여 음향 체적 모델을 획득하는 단계를 포함한다. (S20) Next, the method of acquiring an optical volume model according to an embodiment of the present invention includes acquiring an acoustic volume model using the acoustic volume model unit 30 of the optical volume model acquiring system 10 . (S20)

이 때, 음향 체적 모델부(30)는 이미징 소나를 이용하여 생성된 음향 이미지를 이용하여 음향 체적 모델을 획득할 수 있다.In this case, the acoustic volume model unit 30 may acquire the acoustic volume model by using the acoustic image generated using the imaging sonar.

본 발명의 일 실시예에서, 이미징 소나는 도 6에 도시된 바와 같이, 방위각

Figure pat00001
이내에서 균등한 간격으로
Figure pat00002
개의 음향 빔을 발사하고(고도각은
Figure pat00003
), 상기 음향 빔이 수중 물체(M) 등에 의해 반사되어 돌아온 음향 빔을 감지함으로써 음향 이미지를 생성할 수 있다. 여기서, 이미징 소나가 감지할 수 있는 음향 빔의 반사 지점 거리 범위는
Figure pat00004
(최소 반사 지점 거리)에서 최대
Figure pat00005
(최소 반사 지점 거리) 일 수 있다.In one embodiment of the present invention, the imaging sonar is azimuthal, as shown in FIG.
Figure pat00001
equally spaced within
Figure pat00002
Fire a sound beam of dogs (the elevation angle is
Figure pat00003
), the sound beam may be reflected by an underwater object (M) and the like, and by detecting the returned sound beam, an acoustic image may be generated. Here, the range of the reflection point distance range of the acoustic beam that the imaging sonar can detect is
Figure pat00004
(minimum reflection point distance) to maximum
Figure pat00005
(minimum reflection point distance).

보다 상세하게, 도 7을 참조하면, 음향 이미지 내 각 픽셀은 반사되어 돌아온 음향 빔의 강도에 따라 각기 다른 명암이 표시될 수 있다. 즉,

Figure pat00006
-번째 음향 빔이 거리
Figure pat00007
에서 반사된다면, 음향 이미지의
Figure pat00008
-번째 열,
Figure pat00009
-번째 행에 해당하는 픽셀의 밝기 값은 반사돼 돌아온 음향 빔의 강도가 강할수록 높아지며, 최종적으로
Figure pat00010
크기의 음향 이미지가 생성된다. (여기서,
Figure pat00011
,
Figure pat00012
,
Figure pat00013
은 샘플링 수)More specifically, referring to FIG. 7 , each pixel in an acoustic image may have different contrasts according to the intensity of the reflected and returned acoustic beam. in other words,
Figure pat00006
-th sound beam distance
Figure pat00007
If reflected from
Figure pat00008
-th column,
Figure pat00009
The brightness value of the pixel corresponding to the -th row increases as the intensity of the reflected and returned sound beam becomes stronger, and finally
Figure pat00010
An acoustic image of the size is created. (here,
Figure pat00011
,
Figure pat00012
,
Figure pat00013
is the number of samples)

이와 관련하여, 음향 이미지 내의 각 픽셀이 가지는 의미를 살펴보면 다음과 같다. 구체적으로, 음향 이미지는 세 종류의 영역으로 나눌 수 있다. 도 8의 (a)를 기준으로 살펴보면, 음향 이미지의 각 열은 이미징 소나로부터 가까운 위치에서부터 검은 픽셀(S1), 흰색 혹은 회색 픽셀(S2), 그리고 또다른 검은 픽셀(S3)로 구성됨을 알 수 있다. In this regard, the meaning of each pixel in the sound image will be described as follows. Specifically, the acoustic image may be divided into three types of regions. Referring to (a) of FIG. 8, it can be seen that each column of the acoustic image is composed of a black pixel (S1), a white or gray pixel (S2), and another black pixel (S3) from a position close to the imaging sonar. there is.

이 때, 첫 검은 픽셀(S1)은 물체가 존재하지 않아 반사돼 돌아온 음향 빔이 없는 공간과 대응된다. 그리고 흰색 혹은 회색 픽셀(S2)은 물체나 해저면에 의해 음향 빔이 반사되는 공간과 대응된다. 마지막 검은 픽셀(S3)은 음향 빔이 물체나 해저면에 막혀 도달하지 못하는 공간과 대응된다. 이와 같은 영역(S3)은 빛 또한 같은 물체나 해저면에 의해 막혀 도달할 수 없으므로, 상기 공간(S3)은 광학 카메라도 관측될 수 없는 공간에 해당된다. At this time, the first black pixel S1 corresponds to a space in which there is no sound beam reflected back because an object does not exist. And the white or gray pixel S2 corresponds to the space where the sound beam is reflected by the object or the seabed. The last black pixel S3 corresponds to a space where the sound beam cannot reach because the object or the sea floor is blocked. Since light cannot reach the area S3 because it is blocked by the same object or the sea floor, the space S3 corresponds to a space where even an optical camera cannot be observed.

계속 도 8의 (a)를 참조하되 설명의 편의상 음향 이미지의

Figure pat00014
-번째 열에 대해서만 살펴보면,
Figure pat00015
-번째 열에서 이미징 소나와 가장 가까운 지점(
Figure pat00016
)에서 시작되어 가장 마지막으로 연속적인 검은 픽셀(
Figure pat00017
)은
Figure pat00018
-번째 열에서 음향 빔의 첫 번째 반사(first reflection, 이하, 'f.r.')가 발생한 지점까지의 거리(
Figure pat00019
)와 대응된다. Continue to refer to (a) of Figure 8, but for convenience of explanation,
Figure pat00014
If we look only at the first column,
Figure pat00015
The point closest to the imaging sonar in the -th column (
Figure pat00016
) to the last consecutive black pixel (
Figure pat00017
)silver
Figure pat00018
- the distance from the first column of the acoustic beam to the point where the first reflection (hereafter, 'fr') occurs (
Figure pat00019
) corresponds to

이와 유사하게,

Figure pat00020
-번째 열에서 이미징 소나와 가장 먼 지점(
Figure pat00021
)에서 시작되어 가장 마지막으로 연속적인 검은 픽셀(
Figure pat00022
)은 음향 빔의 마지막 반사(last reflection, 이하, 'l.r.')가 발생한 지점까지의 거리(
Figure pat00023
)와 대응된다. 이와 관련하여,
Figure pat00024
-번째 빔의
Figure pat00025
Figure pat00026
는 다음 수학식 1을 이용하여 계산될 수 있다.Similarly,
Figure pat00020
In the -th column, the point farthest from the imaging sonar (
Figure pat00021
) to the last consecutive black pixel (
Figure pat00022
) is the distance to the point where the last reflection (hereinafter, 'lr') of the acoustic beam occurs
Figure pat00023
) corresponds to In this regard,
Figure pat00024
- of the second beam
Figure pat00025
class
Figure pat00026
can be calculated using Equation 1 below.

[수학식 1][Equation 1]

Figure pat00027
,
Figure pat00027
,

Figure pat00028
.
Figure pat00028
.

다음으로, 음향 체적 모델부(30)가 음향 이미지로부터 3차원 음향 체적 모델을 획득하는 과정에 대하여 상세히 설명하기로 한다.Next, a process in which the acoustic volume model unit 30 acquires a three-dimensional acoustic volume model from the acoustic image will be described in detail.

음향 이미지로부터 3차원 음향 체적 모델을 획득하는 과정은 크게 이미징 소나의 위치를 기준으로 하였을 때, 음향 빔의 첫번째 반사가 발생되는 지점을 포함하는 제 1 경계면(A1)을 설정하는 단계(S21)와, 음향 빔의 마지막 반사가 발생되는 지점을 포함하는 제 2 경계면(A2)을 설정하는 단계(S22)로 구분할 수 있다.The process of obtaining a three-dimensional acoustic volume model from the acoustic image largely includes the steps of setting a first boundary surface A1 including a point at which the first reflection of the acoustic beam occurs based on the position of the imaging sonar (S21); , it can be divided into a step (S22) of setting the second boundary surface A2 including the point at which the last reflection of the acoustic beam occurs.

제 1 경계면(A1) 또는 제 2 경계면(A2)을 설정하기 위하여, 음향 체적 모델부(30)는 먼저 음향 이미지의

Figure pat00029
-번째 열(
Figure pat00030
-번째 음향 빔에 의한 음향 이미지)에 대하여, 첫 번째 반사(f.r)와 마지막 반사(l.r)가 발생한 반사 지점을 포함하는 구면을 상정하여 음향 체적 모델의 일부를 생성할 수 있다. 이 때, 상기 구면은 이미징 소나가 위치하는 기준점을 중심으로 한다.In order to set the first boundary surface A1 or the second boundary surface A2, the acoustic volume model unit 30 first
Figure pat00029
-th column (
Figure pat00030
For the acoustic image by the -th acoustic beam), a part of the acoustic volume model can be generated by assuming a sphere including the reflection points where the first reflection (fr) and the last reflection (lr) occur. In this case, the spherical surface is centered on the reference point where the imaging sonar is located.

이러한 음향 체적 모델의 일부를 음향 빔의 방위각(

Figure pat00031
)과 고도각(
Figure pat00032
)을 고려하여 수학식으로 나타내면 다음과 같다.Part of this acoustic volume model is the azimuth of the acoustic beam (
Figure pat00031
) and the elevation angle (
Figure pat00032
) in consideration of the equation, it is as follows.

[수학식 2][Equation 2]

첫 번째 반사 지점을 포함하는 구면 =

Figure pat00033
Sphere containing first point of reflection =
Figure pat00033

마지막 반사 지점을 포함하는 구면 =

Figure pat00034
Sphere containing last reflection point =
Figure pat00034

Figure pat00035
,
Figure pat00036
,
Figure pat00037
.
Figure pat00035
,
Figure pat00036
,
Figure pat00037
.

이와 같이, 본 발명의 일 실시예에서, 첫 번째 또는 마지막 반사 지점의 위치를 특정한 하나의 좌표를 특정하지 않고, 반사가 발생한 반사 지점을 포함하는 구면을 상정하여 음향 체적 모델을 구성하는 것은 반사 지점의 고도각에 대한 정보를 알 수 없는 이미징 소나의 특징에 기인한다. 즉, 도 9에 도시된 바와 같이 반사 지점의 고도각이 다르더라도 반사 지점까지의 거리(

Figure pat00038
또는
Figure pat00039
)가 동일하다면 이들은 음향 이미지 상에서 동일한 픽셀로서 표현될 수 있기 때문이다.As such, in an embodiment of the present invention, constructing an acoustic volume model assuming a spherical surface including the reflection point where the reflection occurs without specifying one coordinate specifying the position of the first or last reflection point is the reflection point. It is due to the characteristics of the imaging sonar that the information on the elevation angle of the is not known. That is, even if the elevation angle of the reflection point is different as shown in FIG. 9, the distance to the reflection point (
Figure pat00038
or
Figure pat00039
) are the same, because they can be expressed as the same pixel on the sound image.

위와 같이 음향 이미지의

Figure pat00040
-번째 열에 대하여 음향 체적 모델의 일부를 생성하는 작업을,
Figure pat00041
개의 전체 음향 빔에 대하여 모두 수행한 후, 이들을 일체로 연결하면 제 1 경계면(A1)과 제 2 경계면(A2)이 형성될 수 있다. 여기서, 제 1 경계면(A1)은 첫 번째 반사 지점을 포함하는 구면
Figure pat00042
을 연결하여 형성된 것이며, 제 2 경계면(A2)은 마지막 반사 지점을 포함하는 구면
Figure pat00043
을 연결하여 형성된 것임은 물론이다. 도 8에는 상술한 제 1 경계면(A1)과 제 2 경계면(A2)의 일단면이 도시되어 있음을 유의해야 한다.As above, the sound image
Figure pat00040
-creating part of the acoustic volume model for the first column,
Figure pat00041
After performing all of the sound beams, the first boundary surface A1 and the second boundary surface A2 may be formed by integrally connecting them. Here, the first boundary surface A1 is a spherical surface including the first reflection point.
Figure pat00042
It is formed by connecting , and the second boundary surface A2 is a spherical surface including the last reflection point.
Figure pat00043
Of course, it is formed by connecting . It should be noted that one end of the above-described first interface A1 and second interface A2 is illustrated in FIG. 8 .

한편, 이미징 소나가 수중 물체(M) 방향으로 전진함에 따라, 제 1 경계면(A1)과 제 2 경계면(A2)은 계속적으로 갱신될 수 있다. Meanwhile, as the imaging sonar advances in the direction of the underwater object M, the first interface A1 and the second interface A2 may be continuously updated.

보다 상세하게, 이미징 소나는 공간 정보의 탐지 범위를 확장하기 위해서 수중 물체(M) 방향으로 이동하면서 반복하여 음향 빔을 방사하는데, 이러한 음향 빔의 방사시 마다 각기 다른 제 1 경계면(A1)과 제 2 경계면(A2)이 반복하여 생성될 수 있다. In more detail, the imaging sonar repeatedly radiates a sound beam while moving in the direction of the underwater object (M) to expand the detection range of spatial information. 2 The interface A2 may be repeatedly generated.

이와 관련하여, 음향 체적 모델부(30)는 시간의 흐름에 따라 생성된 개별 제 1 경계면(A1)과 제 2 경계면(A2)을 누적적으로 연결하며, 제 1 경계면(A1)과 제 2 경계면(A2)을 새롭게 갱신할 수 있다. 도 8의 (a) 내지 (e)는 이러한 제 1 경계면(A1)과 제 2 경계면(A2)의 갱신 과정을 시간순으로 나열하고 있다. 상술한 경계면(A1, A2)의 갱신 과정에 의해, 도 10에 도시된 것처럼 최종적인 제 1 경계면(A1)과 제 2 경계면(A2)이 확정될 수 있으며, 이들을 포함하는 음향 체적 모델이 생성될 수 있다.In this regard, the acoustic volume model unit 30 cumulatively connects the individual first and second boundary surfaces A1 and A2 generated over time, and the first boundary surface A1 and the second boundary surface. (A2) can be newly updated. 8( a ) to (e) of FIG. 8 , the updating process of the first boundary surface A1 and the second boundary surface A2 is arranged in chronological order. By the above-described updating process of the boundary surfaces A1 and A2, the final first boundary surface A1 and the second boundary surface A2 can be determined as shown in FIG. 10, and an acoustic volume model including them can be generated. can

다음으로, 도 5를 참조하여, 제 1 경계면(A1)과 제 2 경계면(A2)에 의해 분할되는 음향 체적 모델 내 각 공간의 의미를 살펴본다. 이와 관련하여 본 명세서에서 경계면에 의해 분할되는 공간의 위치를 규정함에 있어서, 이미징 소나와 상대적으로 인접한 곳을 내측이라 규정하고, 이미징 소나와 먼 곳을 외측이라 규정함을 밝혀 둔다.Next, with reference to FIG. 5 , the meaning of each space in the acoustic volume model divided by the first boundary surface A1 and the second boundary surface A2 will be examined. In this specification, in defining the location of the space divided by the boundary plane in the present specification, a place relatively adjacent to the imaging sonar is defined as the inside, and a location far from the imaging sonar is defined as the outside.

먼저, 제 1 경계면(A1) 사이에 존재하는 제 1 공간(S'1)은 음향 빔의 반사가 일어나지 않은 공간으로서, 수중 물체(M)가 존재하지 않는 공간일 수 있다. First, the first space S'1 existing between the first boundary surfaces A1 is a space in which the reflection of the acoustic beam does not occur, and may be a space in which the underwater object M does not exist.

그리고, 제 1 경계면(A1)과 제 2 경계면(A2) 사이에 존재하는 제 2 공간(S'2)은 수중 물체(M)가 존재할 가능성이 있는 공간이다. 이 때, 제 2 공간(S'2)의 내부에는 수중 물체(M)가 존재하지 않을 수도 있는데, 이것은 앞서 살펴본 바와 같이 음향 체적 모델의 경계면(A1, A2)은 음향 빔의 반사 지점을 포함하는 포괄적인 구면으로 이루어져 있기 때문이다.And, the second space S'2 existing between the first boundary surface A1 and the second boundary surface A2 is a space in which the underwater object M is likely to exist. At this time, the underwater object M may not exist in the interior of the second space S'2, which is, as described above, that the boundary surfaces A1 and A2 of the acoustic volume model include the reflection point of the acoustic beam. This is because it consists of a comprehensive spherical surface.

마지막으로, 제 2 경계면(A2)의 외측에 존재하는 제 3 공간(S'3)은 음향 빔의 진행이 수중 물체(M) 또는 해저면 의해 가로막혀 도달할 수 없는 공간을 의미한다. 따라서, 제 3 공간(S'3)은 실제 수중 물체(M)가 차지하는 공간을 의미할 수도 있고, 수중 물체(M) 너머의 빈 공간 또는 해저면 아래의 가상의 공간을 의미할 수 있다.Finally, the third space S'3 existing outside the second boundary surface A2 means a space that cannot be reached because the propagation of the acoustic beam is blocked by the underwater object M or the sea floor. Accordingly, the third space S'3 may mean a space occupied by the real underwater object M, or may mean an empty space beyond the underwater object M or a virtual space under the seabed.

이처럼 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템(10)은 음향 체적 모델을 구성함에 있어서, 첫 번째 반사가 발생되는 지점을 포함하는 제 1 경계면(A1) 뿐만 아니라, 마지막 반사(f.r)가 발생되는 지점을 포함하는 제 2 경계면(A2)을 함께 고려함으로써, 음향 체적 모델 내 공간을 보다 세분화할 수 있는 장점이 있다.As such, in the optical volume model acquisition system 10 according to an embodiment of the present invention, in configuring the acoustic volume model, not only the first interface A1 including the point at which the first reflection occurs, but also the last reflection f.r. By considering the second boundary surface A2 including the point where ?

도 11은 본 발명의 일 실시예에 따른 광학 체적 모델 획득 시스템의 보정부가 광학 체적 모델에 포함된 점을 보정하는 것을 설명하기 위한 도면이다.11 is a view for explaining that the correction unit of the optical volume model acquisition system corrects points included in the optical volume model according to an embodiment of the present invention.

한편, 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법은 보정부(40)가 상술한 음향 체적 모델의 정보를 기초로 광학 체적 모델을 보정하는 단계를 포함한다. (S30)Meanwhile, the method of obtaining the optical volume model according to an embodiment of the present invention includes the step of the correction unit 40 correcting the optical volume model based on the above-described information on the acoustic volume model. (S30)

본 발명의 일 실시예에서, 광학 체적 모델 획득 시스템(10)의 보정부(40)는 광학 체적 모델에 포함된 어느 한 점을 인접한 음향 체적 모델 상의 점으로 이동시킬 수 있다. 이 때, 광학 체적 모델에 포함된 점 중에서, 음향 체적 모델 상의 점으로 이동하는 점(P1, P2)은 음향 체적 모델을 기준으로 판단하였을 때, 광 반사가 발생되기 어려운 영역에 위치하는 점을 의미할 수 있다.In an embodiment of the present invention, the corrector 40 of the optical volume model acquisition system 10 may move any one point included in the optical volume model to a point on an adjacent acoustic volume model. At this time, among the points included in the optical volume model, the points P1 and P2 moving to the points on the acoustic volume model are points located in an area where light reflection is difficult to occur when judged based on the acoustic volume model. can do.

보다 상세하게, 도 10을 참조하면, 앞서 살펴본 바와 같이 음향 체적 모델의 제 1 경계면(A1)의 내측, 즉 제 1 공간(S'1)에는 수중 물체(M)가 존재하지 않는 영역일 수 있다. 따라서, 만약 광학 체적 모델을 구성하는 점구름(K) 중에서, 음향 체적 모델의 제 1 경계면(A1) 내측에 존재하는 제 1 점(P1)은 광학 체적 모델의 오차에 의해 생성된 것으로 판단할 수 있으며, 이러한 제 1 점(P1)을 음향 체적 모델 상의 인접한 점으로 이동시키거나, 또는 아예 광학 체적 모델에서 제외함으로써, 광학 체적 모델의 정확도를 높일 수 있다.More specifically, referring to FIG. 10 , as described above, the underwater object M may be an area inside the first boundary surface A1 of the acoustic volume model, that is, in the first space S′1, in which the underwater object M does not exist. . Therefore, among the point clouds K constituting the optical volume model, it can be determined that the first point P1 existing inside the first boundary A1 of the acoustic volume model is generated by the error of the optical volume model. In addition, by moving the first point P1 to an adjacent point on the acoustic volume model or excluding it from the optical volume model altogether, the accuracy of the optical volume model can be increased.

그리고, 제 2 경계면(A2)의 외측, 즉 제 3 공간(S'3)은 수중 물체(M) 또는 해저면에 의해 광이 도달할 수 없어 광 반사가 발생될 수 없는 영역일 수 있다. 따라서 제 3 공간(S'3) 내부에 존재하는 제 2 점(P2) 역시 광학 체적 모델의 오차에 의해 생성된 것일 수 있으므로, 이를 음향 체적 모델 상의 인접한 점으로 이동시키거나, 광학 체적 모델의 점구름(K)에서 제외시킴으로써 광학 체적 모델의 정확성을 향상시킬 수 있다.In addition, the outside of the second boundary surface A2, that is, the third space S'3, may be an area in which light cannot be reflected because light cannot reach by the underwater object M or the seabed. Therefore, since the second point P2 existing inside the third space S'3 may also be generated by an error of the optical volume model, it may be moved to an adjacent point on the acoustic volume model or a point of the optical volume model By excluding the cloud K, the accuracy of the optical volume model can be improved.

다시 도 11을 참조하면, 광학 체적 모델의 오차에 의한 제 1 점(P1)과 제 2 점(P2)을 이동시키는 구체적인 일례로서, 광학 카메라가 위치하는 기준점과 제 1 점(P1) 또는 제 2 점(P2)을 연결한 직선(L1, L2)과, 음향 체적 모델이 만나는 교차점(

Figure pat00044
,
Figure pat00045
)으로 제 1 점(P1) 또는 제 2 점(P2)을 이동시킬 수 있다. 이 경우, 광학 카메라를 향하는 광의 진행 경로를 최대한 고려하여 점구름을 이동시키므로, 광학 체적 모델이 가진 원근 오차를 효과적으로 해결할 수 있는 장점이 있다.Referring back to FIG. 11 , as a specific example of moving the first point P1 and the second point P2 due to the error of the optical volume model, the reference point where the optical camera is located and the first point P1 or the second The intersection of the straight line (L1, L2) connecting the points (P2) and the acoustic volume model (
Figure pat00044
,
Figure pat00045
) to move the first point P1 or the second point P2. In this case, since the point cloud is moved by considering the propagation path of light toward the optical camera as much as possible, there is an advantage in that the perspective error of the optical volume model can be effectively resolved.

제 1 점(P1) 또는 제 2 점(P2)을 이동시키는 다른 일례로서, 제 1 점(P1) 또는 제 2 점(P2)을 X축, Y축 및 Z축 방향 중 어느 일 방향만을 선택하여 이동시켰을 때 이와 만나는 음향 체적 모델 상의 점으로 이동시킬 수도 있다. 이러한 이동 방법에 의할 경우, 일 축 방향만의 이동만을 고려하므로 이동과 관련된 계산량을 현저히 감소시키고, 광학 체적 모델의 보정에 수행되는 시간을 절감할 수 있는 장점이 있다. As another example of moving the first point (P1) or the second point (P2), the first point (P1) or the second point (P2) is selected only in any one of the X-axis, Y-axis and Z-axis directions. It can also be moved to a point on the acoustic volume model that meets it when moved. In the case of such a movement method, since only movement in one axial direction is considered, the amount of calculation related to movement is remarkably reduced, and there is an advantage in that it is possible to reduce the time required to correct the optical volume model.

살펴본 바와 같이 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법은 광학 체적 모델에 포함된 원근 오차를 음향 체적 모델을 이용하여 보정함으로써 보다 정확한 광학 체적 모델을 획득할 수 있다.As described above, in the method of obtaining an optical volume model according to an embodiment of the present invention, a more accurate optical volume model can be obtained by correcting a perspective error included in the optical volume model using the acoustic volume model.

또한, 본 발명의 일 실시예에 따른 광학 체적 모델을 획득하는 방법은 음향 체적 모델과 관련하여 제 1 경계면(A1) 뿐만 아니라 제 2 경계면(A2)도 함께 고려하여 공간을 세분화하여 광학 체적 모델 내 제 3 공간(S'3)에 존재하는 원근 오차도 해소할 수 있어, 보다 정확한 광학 체적 모델을 획득할 수 있다.In addition, the method of obtaining an optical volume model according to an embodiment of the present invention subdivides the space by considering not only the first boundary surface A1 but also the second boundary surface A2 in relation to the acoustic volume model to be within the optical volume model. A perspective error existing in the third space S'3 can also be eliminated, so that a more accurate optical volume model can be obtained.

이상에서 본 발명의 일 실시예에 대하여 설명하였으나, 본 발명의 사상은 본 명세서에 제시되는 실시 예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서, 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본 발명의 사상범위 내에 든다고 할 것이다.Although one embodiment of the present invention has been described above, the spirit of the present invention is not limited to the embodiments presented herein, and those skilled in the art who understand the spirit of the present invention can add components within the scope of the same spirit. , changes, deletions, additions, etc. may easily suggest other embodiments, but this will also fall within the scope of the present invention.

10 광학 체적 모델 획득 시스템 20 광학 체적 모델부
30 음향 체적 모델부 40 보정부
M 수중 물체 A1 제 1 경계면
A2 제 2 경계면 K 점구름
P1 제 1 점 P2 제 2 점

Figure pat00046
,
Figure pat00047
교차점
Figure pat00048
최소 반사 지점 거리
Figure pat00049
최대 반사 지점 거리 S'1 제 1 공간
S'2 제 2 공간 S'3 제 3 공간
S1, S2, S3 음향 이미지의 픽셀10 Optical volume model acquisition system 20 Optical volume model unit
30 Acoustic volume model unit 40 Correction unit
M underwater object A1 first interface
A2 2nd interface K point cloud
P1 first point P2 second point
Figure pat00046
,
Figure pat00047
crossing
Figure pat00048
Minimum Reflection Point Distance
Figure pat00049
Maximum Reflection Point Distance S'1 First Space
S'2 second space S'3 third space
Pixels of the S1, S2, S3 sound image

Claims (11)

광학 카메라와 이미징 소나를 이용하여 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법으로서,
상기 광학 카메라를 이용하여 생성된 광학 이미지로부터 광학 체적 모델을 획득하는 단계;
상기 이미징 소나를 이용하여 생성된 음향 이미지로부터 음향 체적 모델을 획득하는 단계 및
상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 단계를 포함하는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
A method for obtaining a three-dimensional optical volume model for an underwater object using an optical camera and an imaging sonar, comprising:
obtaining an optical volume model from an optical image generated using the optical camera;
obtaining an acoustic volume model from an acoustic image generated using the imaging sonar; and
and correcting the optical volume model based on information in the acoustic volume model.
제 1 항에 있어서,
상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 단계에서는, 상기 광학 체적 모델에 포함된 어느 한 점을 인접한 상기 음향 체적 모델 상의 점으로 이동시키는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
The method of claim 1,
In the step of correcting the optical volume model based on the information of the acoustic volume model, any one point included in the optical volume model is moved to a point on the adjacent acoustic volume model, a three-dimensional optical volume model for an underwater object. how to obtain it.
제 2 항에 있어서,
상기 어느 한 점은, 상기 음향 체적 모델을 기준으로 판단하였을 때 광 반사가 발생되기 어려운 영역에 위치하는 점을 의미하는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
3. The method of claim 2,
The one point is a method of obtaining a three-dimensional optical volume model for an underwater object, which means a point located in an area where light reflection is difficult to occur when judged based on the acoustic volume model.
제 3 항에 있어서,
상기 어느 한 점은, 상기 광학 카메라가 위치하는 기준점과 상기 어느 한 점을 연결한 직선과, 상기 음향 체적 모델이 만나는 교차점으로 이동되는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
4. The method of claim 3,
The one point is a reference point where the optical camera is located and a straight line connecting the one point, and the acoustic volume model is moved to an intersection point, How to obtain a three-dimensional optical volume model for an underwater object.
제 1 항에 있어서,
상기 광학 체적 모델은 상기 광학 이미지를 SLAM 알고리즘을 통해 상기 수중 물체의 표면을 이루는 점구름의 3차원 좌표를 추정하여 획득되는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
The method of claim 1,
The optical volume model is obtained by estimating the three-dimensional coordinates of a point cloud constituting the surface of the underwater object using the optical image through a SLAM algorithm, a method of obtaining a three-dimensional optical volume model for an underwater object.
제 1 항에 있어서,
상기 이미징 소나를 이용하여 생성된 음향 이미지로부터 음향 체적 모델을 획득하는 단계는
상기 이미징 소나의 위치를 기준으로 하였을 때, 음향 빔의 첫번째 반사가 발생되는 지점을 포함하는 제 1 경계면을 설정하는 단계 및
상기 이미징 소나의 위치를 기준으로 하였을 때, 상기 음향 빔의 마지막 반사가 발생되는 지점을 포함하는 제 2 경계면을 설정하는 단계를 포함하는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
The method of claim 1,
Acquiring the acoustic volume model from the acoustic image generated using the imaging sonar comprises:
setting a first boundary surface including a point at which a first reflection of an acoustic beam occurs based on the position of the imaging sonar; and
based on the position of the imaging sonar, setting a second boundary surface including a point at which the last reflection of the sound beam occurs.
제 6 항에 있어서,
상기 제 1 경계면과 제 2 경계면은 각각 상기 이미징 소나가 위치하는 기준점을 중심으로 하는 구면의 일부를 포함하여 형성되는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
7. The method of claim 6,
The method for acquiring a three-dimensional optical volume model for an underwater object, wherein the first interface and the second interface each include a part of a sphere centered on a reference point on which the imaging sonar is located.
제 6 항에 있어서,
상기 제 1 경계면과 제 2 경계면은 상기 이미지 소나의 전진에 따라 계속적으로 갱신되는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
7. The method of claim 6,
wherein the first interface and the second interface are continuously updated according to the advancement of the image sonar.
제 6 항에 있어서,
상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 단계에서는, 상기 광학 체적 모델 중에서 상기 음향 체적 모델의 제 1 경계면 내측에 존재하는 제 1 점과 상기 광학 카메라가 위치하는 기준점을 연결한 직선과, 상기 음향 체적 모델이 만나는 교차점으로 상기 제 1 점을 이동시키는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
7. The method of claim 6,
In the step of correcting the optical volume model based on the information of the acoustic volume model, a first point existing inside the first interface of the acoustic volume model among the optical volume model and a reference point at which the optical camera is located are connected. A method of obtaining a three-dimensional optical volume model for an underwater object, moving the first point to an intersection point where a straight line and the acoustic volume model meet.
제 6 항에 있어서,
상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 단계에서는, 상기 광학 체적 모델 중에서 상기 음향 체적 모델의 제 2 경계면의 외측에 위치하는 제 2 점과 상기 광학 카메라가 위치하는 기준점을 연결한 직선과, 상기 음향 체적 모델이 만나는 교차점으로 상기 제 2 점을 이동시키는, 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 방법.
7. The method of claim 6,
In the step of correcting the optical volume model based on the information of the acoustic volume model, a second point located outside the second boundary surface of the acoustic volume model among the optical volume model and a reference point at which the optical camera is located are connected A method of obtaining a three-dimensional optical volume model for an underwater object, moving the second point to an intersection point where a straight line and the acoustic volume model meet.
광학 카메라와 이미징 소나를 이용하여 수중 물체에 대한 3차원 광학 체적 모델을 획득하는 광학 체적 모델 획득 시스템으로서,
상기 광학 카메라를 이용하여 생성된 광학 이미지로부터 광학 체적 모델을 획득하는 광학 체적 모델부;
상기 이미징 소나를 이용하여 생성된 음향 이미지로부터 상기 이미징 소나의 위치를 기준으로 하였을 때, 음향 빔의 첫번째 반사가 발생되는 지점이 포함된 제 1 경계면과, 상기 음향 빔의 마지막 반사가 발생되는 지점이 포함된 제 2 경계면을 포함하는 음향 체적 모델을 획득하는 음향 체적 모델부 및
상기 음향 체적 모델의 정보를 기초로 상기 광학 체적 모델을 보정하는 보정부를 포함하고,
상기 보정부는 상기 광학 체적 모델 중에서 상기 음향 체적 모델의 제 1 경계면의 내측 또는 상기 제 2 경계면의 외측에 위치하는 어느 한 점과 상기 광학 카메라가 위치하는 기준점을 연결한 직선과, 상기 음향 체적 모델이 만나는 교차점으로 상기 어느 한 점을 이동시키는, 광학 체적 모델 획득 시스템.
An optical volume model acquisition system for acquiring a three-dimensional optical volume model for an underwater object using an optical camera and an imaging sonar, comprising:
an optical volume model unit for obtaining an optical volume model from an optical image generated using the optical camera;
Based on the location of the imaging sonar from the sound image generated using the imaging sonar, the first boundary surface including the point at which the first reflection of the sound beam occurs, and the point at which the last reflection of the sound beam occurs an acoustic volume model unit to obtain an acoustic volume model including the included second boundary surface; and
a correction unit for correcting the optical volume model based on the information of the acoustic volume model;
The correction unit includes a straight line connecting any one point located inside the first boundary surface or outside the second boundary surface of the acoustic volume model among the optical volume model and a reference point at which the optical camera is located, and the acoustic volume model is An optical volume model acquisition system that moves the one point to an intersection point where it meets.
KR1020200146108A 2020-11-04 2020-11-04 Method and system for obtaining 3d optical volume model for underwater objects KR102456515B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200146108A KR102456515B1 (en) 2020-11-04 2020-11-04 Method and system for obtaining 3d optical volume model for underwater objects
PCT/KR2021/015604 WO2022098025A1 (en) 2020-11-04 2021-11-01 Method and system for obtaining 3d volumetric model of underwater object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200146108A KR102456515B1 (en) 2020-11-04 2020-11-04 Method and system for obtaining 3d optical volume model for underwater objects

Publications (2)

Publication Number Publication Date
KR20220060283A true KR20220060283A (en) 2022-05-11
KR102456515B1 KR102456515B1 (en) 2022-10-18

Family

ID=81607123

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200146108A KR102456515B1 (en) 2020-11-04 2020-11-04 Method and system for obtaining 3d optical volume model for underwater objects

Country Status (1)

Country Link
KR (1) KR102456515B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140003987A (en) * 2012-06-25 2014-01-10 서울대학교산학협력단 Slam system for mobile robot based on vision sensor data and motion sensor data fusion
KR20180097354A (en) * 2017-02-23 2018-08-31 국방과학연구소 The post-correction method of an acquired image including surface reflection signals by roll in an imaging sonar attached underwater vehicle
KR20200000083A (en) * 2018-06-22 2020-01-02 포항공과대학교 산학협력단 Underwater navigation method and system for underwater vehicle
KR102095009B1 (en) 2018-07-20 2020-04-24 포항공과대학교 산학협력단 Underwater monitoring system and VR image providing method for underwater monitoring
EP3940642A1 (en) * 2020-07-16 2022-01-19 Furuno Electric Co., Ltd. Underwater 3d reconstruction device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140003987A (en) * 2012-06-25 2014-01-10 서울대학교산학협력단 Slam system for mobile robot based on vision sensor data and motion sensor data fusion
KR20180097354A (en) * 2017-02-23 2018-08-31 국방과학연구소 The post-correction method of an acquired image including surface reflection signals by roll in an imaging sonar attached underwater vehicle
KR20200000083A (en) * 2018-06-22 2020-01-02 포항공과대학교 산학협력단 Underwater navigation method and system for underwater vehicle
KR102095009B1 (en) 2018-07-20 2020-04-24 포항공과대학교 산학협력단 Underwater monitoring system and VR image providing method for underwater monitoring
EP3940642A1 (en) * 2020-07-16 2022-01-19 Furuno Electric Co., Ltd. Underwater 3d reconstruction device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kim, Jason 외 4명. 3-D Reconstruction of Underwater Objects Using Image Sequences from Optical Camera and Imaging Sonar. OCEANS 2019 MTS/IEEE SEATTLE. 2019.10.* *

Also Published As

Publication number Publication date
KR102456515B1 (en) 2022-10-18

Similar Documents

Publication Publication Date Title
US10237532B2 (en) Scan colorization with an uncalibrated camera
US8593524B2 (en) Calibrating a camera system
JP6525459B2 (en) System and method for improved scoring and false point removal of 3D poses in 3D image data
KR102451601B1 (en) Systems and methods for external calibration of cameras and diffractive optical elements
CN107155341B (en) Three-dimensional scanning system and frame
WO2021140886A1 (en) Three-dimensional model generation method, information processing device, and program
CN111563921A (en) Underwater point cloud acquisition method based on binocular camera
WO2018227576A1 (en) Method and system for detecting ground shape, method for drone landing, and drone
KR20140027468A (en) Depth measurement quality enhancement
US20190188877A1 (en) Optical tracking system and optical tracking method
CN110703230B (en) Position calibration method between laser radar and camera
CN111123242B (en) Combined calibration method based on laser radar and camera and computer readable storage medium
CN111915723A (en) Indoor three-dimensional panorama construction method and system
CN117237789A (en) Method for generating texture information point cloud map based on panoramic camera and laser radar fusion
KR102456515B1 (en) Method and system for obtaining 3d optical volume model for underwater objects
Gracias et al. Underwater mosaic creation using video sequences from different altitudes
KR102456516B1 (en) Method and system for obtaining 3d acoustic volume model for underwater objects
JP7038315B2 (en) Camera parameter calculation device, camera parameter calculation method, program, and recording medium
JP2006234703A (en) Image processing device, three-dimensional measuring device, and program for image processing device
JP7400076B2 (en) Vision-based blade positioning
WO2022098025A1 (en) Method and system for obtaining 3d volumetric model of underwater object
Roznere et al. 3-D Reconstruction Using Monocular Camera and Lights: Multi-View Photometric Stereo for Non-Stationary Robots
Elnashef et al. Direct estimation of the relative orientation in underwater environment
JP2005326405A (en) Method for measuring attitude and/or position of object by means of image processing method
JP6604934B2 (en) Point cloud pixel position determination device, method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant