KR101952290B1 - 3D spatial data acquisition method using multi-beam sonar camera - Google Patents

3D spatial data acquisition method using multi-beam sonar camera Download PDF

Info

Publication number
KR101952290B1
KR101952290B1 KR1020170116082A KR20170116082A KR101952290B1 KR 101952290 B1 KR101952290 B1 KR 101952290B1 KR 1020170116082 A KR1020170116082 A KR 1020170116082A KR 20170116082 A KR20170116082 A KR 20170116082A KR 101952290 B1 KR101952290 B1 KR 101952290B1
Authority
KR
South Korea
Prior art keywords
area
edge
ultrasonic
camera
reflected wave
Prior art date
Application number
KR1020170116082A
Other languages
Korean (ko)
Inventor
유선철
조현우
김병진
표주현
조한길
김주환
송석용
성민성
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020170116082A priority Critical patent/KR101952290B1/en
Application granted granted Critical
Publication of KR101952290B1 publication Critical patent/KR101952290B1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/06Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

The present invention relates to a three-dimensional spatial data acquisition method using a multi-beam ultrasonic camera. The three-dimensional spatial data acquisition method comprises the steps of: a) setting a receiving area of a reflected wave so that an effect area irradiated with an ultrasonic beam of a multi-beam ultrasonic camera is included; b) receiving the reflected wave while moving the multi-beam ultrasonic camera so as to determine and display the brightness of a pixel according to the intensity of the reflected wave; c) obtaining a distance between an object and the multi-beam ultrasonic camera by considering a ratio of both edges on one side of the receiving area in which a highlight area is positioned after detecting an edge of the highlight area when the highlight area, which is an area obtained by converting a reflected wave reflected by the object into a pixel, moves from the effect area to the receiving area; and d) calculating a height of the object using the distance, a height and a tilt angle of the multi-beam ultrasonic camera, and a beam diffusion angle of the ultrasonic beam.

Description

다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법{3D spatial data acquisition method using multi-beam sonar camera}[0001] The present invention relates to a 3D spatial data acquisition method using a multi-beam ultrasonic camera,

본 발명은 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법에 관한 것으로, 더 상세하게는 물체의 높이 정보를 복원하여 입체적인 영상 데이터를 얻을 수 있는 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법에 관한 것이다.The present invention relates to a three-dimensional spatial data acquisition method using a multi-beam ultrasonic camera, and more particularly, to a three-dimensional spatial data acquisition method using a multi-beam ultrasonic camera capable of obtaining stereoscopic image data by restoring object height information .

일반적으로, 초음파 카메라는 열악한 시야의 수중지형이나 수중 물체를 영상으로 획득하기 위한 장치 중 하나로서, 해저탐사, 수중물체탐지 등의 목적으로 사용된다. 초음파 카메라는 초음파를 발산하고 수중 지형지물에 반사되는 반사파를 이용하여 영상으로 만든다.Generally, an ultrasonic camera is one of devices for acquiring an underwater terrain of a poor view or an underwater object as an image, and is used for the purpose of underwater exploration and underwater object detection. An ultrasound camera emits ultrasound waves and produces images using reflected waves reflected from underwater features.

도 1은 일반적인 다중 빔 초음파 카메라의 초음파 발사 형태를 보인 모식도이며, 다중 빔 초음파 카메라(1)중에서 전방으로 다수의 부채꼴 빔(2)을 발사한 후 그 반향을 측정하여 영상을 생성한다. FIG. 1 is a schematic view showing an ultrasonic emission mode of a general multi-beam ultrasonic camera. In FIG. 1, a plurality of sector beams 2 are emitted forward in a multi-beam ultrasonic camera 1, and the echo is measured to generate an image.

부채꼴 빔은 수평 방향으로 다수 분할된 것이며, 다중 빔 초음파 카메라의 위치에서 전방으로 일정한 면적의 영상을 검출하기 위하여 좌우방향으로는 폭이 좁고, 수직방향으로 펼쳐진 형태의 초음파 빔을 발사한다.In order to detect an image of a certain area forward from the position of the multi-beam ultrasonic camera, the sector beam is fired in the form of a narrow and horizontally spread ultrasonic beam in the horizontal direction.

도 2는 종래의 다중 빔 초음파 카메라의 영상 획득 과정의 설명도이다.2 is an explanatory diagram of an image acquisition process of a conventional multi-beam ultrasonic camera.

도 2를 참조하면 다중 빔 초음파 카메라(1)로부터 소정의 빔확산각(beam spreading angle, θ)를 가지는 부채꼴 빔(2)을 발사하며, 이때의 반사파를 소나 이미지 플랜(sonar image plane)에 영상의 픽셀로 매핑한다.Referring to FIG. 2, a sectorial beam 2 having a predetermined beam spreading angle (?) Is emitted from a multi-beam ultrasonic camera 1, and reflected waves are projected on a sonar image plane Lt; / RTI >

상기 다중 빔 초음파 카메라(1)는 도면 상의 화살표 방향으로 이동하는 것일 수 있으며, 부채꼴 빔(2)을 가까운 곳에서부터 먼 곳으로 이동하는 주사식 스캔을 수행하는 것일 수 있다.The multi-beam ultrasound camera 1 may be moving in the direction of the arrow in the figure, and may be to perform a scanning scan to move the sector beam 2 away from near.

따라서 시간에 따른 반사파의 강도(intensity)를 측정하여 물체(3)를 확인할 수 있다. Therefore, the object 3 can be identified by measuring the intensity of the reflected wave over time.

물체(3)의 앞쪽 바닥면을 스캔할 때의 반사파의 강도에 비하여 물체(3)의 꼭지점에서 반사되는 반사파의 강도가 더 강하며, 이러한 부분을 하이라이트(highlight) 영역이라고 한다. The intensity of the reflected wave reflected from the vertex of the object 3 is stronger than the intensity of the reflected wave when the front side of the object 3 is scanned and this portion is called a highlight area.

또한, 물체(3)의 뒷면은 초음파 빔이 가려지기 때문에 반사파가 발생하지 않는다. 이러한 부분을 쉐도우(shadow) 영역이라고 한다.Further, since the back surface of the object 3 is covered with the ultrasonic beam, no reflected wave is generated. This part is called the shadow area.

이와 같은 방식으로 종래에는 반사파의 강도를 영상의 픽셀로 변환하여, 하이라이트 영역과 쉐도우 영역이 연속하여 나타나는 경우 바닥면에서 돌출된 물체(3)가 위치하는 것으로 판단하는 영상을 제공할 수 있다.In this way, conventionally, the intensity of the reflected wave is converted into pixels of the image, and when the highlight area and the shadow area appear continuously, it is possible to provide an image judging that the object 3 protruding from the bottom surface is located.

그러나 물체(3)의 높이 정보를 알 수 없기 때문에 종래 다중 빔 초음파 카메라(1)로 촬영된 영상은 2차원 평면 영상이었다.However, since the height information of the object 3 can not be known, the image taken by the conventional multi-beam ultrasonic camera 1 was a two-dimensional plane image.

즉, 종래에는 스캔 과정에서 물체(3)의 높이정보가 소실되며, 높이정보의 소실 이유를 설명하면 다음과 같다.That is, in the related art, the height information of the object 3 is lost during the scanning process, and the reason why the height information is lost is as follows.

도 3은 물체의 높이정보가 소실되는 이유의 설명도이다.3 is an explanatory diagram of the reason why the height information of an object is lost.

다중 빔 초음파 카메라(1)의 초음파 빔은 조사 지점(위치)에는 차이가 있으나, 다중 빔 초음파 카메라(1)로부터의 거리(r)가 동일한 지점들에서 반사되는 반사파를 하나의 픽셀로 처리한다. The ultrasonic beam of the multi-beam ultrasonic camera 1 processes the reflected wave reflected at the same points at a distance r from the multi-beam ultrasonic camera 1 as one pixel though there are differences in the irradiation point (position).

도 3에 도시한 바와 같이 3개의 높이가 서로 다른 지점을 가지는 물체(3)를 스캔할 때 3개의 지점이 모두 다중 빔 초음파 카메라(1)와의 거리(r)가 동일한 경우 각 지점이 하나의 픽셀로 처리되기 때문에 지점들의 높이 정보는 소실된다.As shown in FIG. 3, when three objects are all located at the same distance r from the multi-beam ultrasonic camera 1 when scanning an object 3 having three different points, The height information of the points is lost.

따라서 종래 다중 빔 초음파 카메라를 이용하여 획득한 영상을 위에서 아래를 바라보는 것과 같은 평면 영상만을 생성할 수 있었으며, 높이에는 차이가 있으나 거리(r)가 동일한 물체의 3차원 영상을 얻을 수 없는 문제점이 있었다.Therefore, it is possible to generate only a plane image such as looking up an image obtained from a conventional multi-beam ultrasonic camera, and it is difficult to obtain a three-dimensional image of an object having the same distance (r) there was.

등록특허 10-1203269호(2012년 11월 14일 등록, 저주파 및 고주파를 선택적으로 운용하는 정밀수중탐사용 수중초음파카메라 및 그 작동방법)Registered Patent No. 10-1203269 (registered on Nov. 14, 2012, underwater ultrasonic camera for selectively operating low frequency and high frequency underwater probe and method of operation thereof)

본 발명이 해결하고자 하는 기술적 과제는, 다중 빔 초음파 카메라를 이용한 영상 획득과정에서 소실된 높이정보를 복원할 수 있는 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법을 제공함에 있다.SUMMARY OF THE INVENTION The present invention provides a method of acquiring 3D spatial data using a multi-beam ultrasonic camera capable of recovering lost height information in an image acquisition process using a multi-beam ultrasonic camera.

상기와 같은 과제를 해결하기 위한 본 발명 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법은, a) 다중 빔 초음파 카메라의 초음파 빔이 조사되는 효과영역이 포함되도록 반사파의 수신영역을 설정하는 단계와, b) 다중 빔 초음파 카메라를 이동시키며 반사파를 수신하여, 반사파의 강도에 따라 픽셀의 밝기를 결정하여 표시하는 단계와, c) 물체에서 반사되는 반사파를 픽셀로 변환한 영역인 하이라이트영역이 효과영역으로부터 수신영역으로 이동하면 하이라이트영역의 에지를 검출한 후 하이라이트영역이 위치하는 수신영역의 일측 양 에지의 비율을 고려하여 상기 물체와 다중 빔 초음파 카메라의 거리를 구하는 단계와, d) 상기 거리와 다중 빔 초음파 카메라의 높이 및 경사각, 초음파 빔의 빔확산각을 이용하여 물체의 높이를 산출하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of acquiring three-dimensional spatial data using a multi-beam ultrasonic camera, comprising the steps of: a) setting a reception area of a reflected wave to include an effect area irradiated with an ultrasonic beam of a multi- , b) moving the multi-beam ultrasonic camera, receiving the reflected wave, determining and displaying the brightness of the pixel according to the intensity of the reflected wave, and c) displaying the highlighted area, which is the area where the reflected wave reflected from the object is converted into pixels, The method comprising the steps of: detecting an edge of a highlight area and obtaining a distance between the object and a multi-beam ultrasonic camera in consideration of a ratio of one edge of a receiving area where the highlight area is located; d) The height of the object is calculated using the height and inclination angle of the beam ultrasonic camera and the beam diffusion angle of the ultrasonic beam Step < / RTI >

본 발명의 일실시예에 따르면 상기 a) 단계는, 다중 빔 초음파 카메라의 초음파 빔에 의해 결정되는 효과영역을 상기 다중 빔 초음파 카메라와 가까운 제1에지와, 상기 제1에지와는 상기 빔확산각 만큼 벌어지는 제2에지 사이의 영역으로 정의하고, 상기 수신영역의 내에 상기 제1에지와 제2에지가 모두 위치하도록 다중 빔 초음파 카메라의 수신영역을 설정할 수 있다.According to an embodiment of the present invention, in step a), an effect area determined by an ultrasonic beam of a multi-beam ultrasonic camera is divided into a first edge close to the multi-beam ultrasonic camera and a first edge close to the beam diffusion angle And a reception area of the multi-beam ultrasonic camera can be set such that both the first edge and the second edge are located within the reception area.

본 발명의 일실시예에 따르면 상기 수신영역은, 상기 제1에지의 외측 경계인 최소 에지와, 제2에지의 외측 경계인 최대 에지로 결정되는 영역일 수 있다.According to an embodiment of the present invention, the reception area may be a minimum edge which is an outer boundary of the first edge and an area which is determined by a maximum edge which is an outer boundary of the second edge.

본 발명의 일실시예에 따르면 상기 c) 단계의 거리는, 상기 제1에지와 최소 에지의 사이에 위치하는 상기 하이라이트영역의 에지의 위치의 비율을 이용하여 산출할 수 있다.According to an embodiment of the present invention, the distance of step c) may be calculated using a ratio of the position of an edge of the highlight area located between the first edge and the minimum edge.

본 발명의 일실시예에 따르면 상기 d) 단계는, 아래의 수학식을 통해 물체의 높이를 산출할 수 있다.According to an embodiment of the present invention, in the step d), the height of the object can be calculated through the following equation.

Figure 112017088112563-pat00001
Figure 112017088112563-pat00001

위의 수학식에서 h(j)는 j번째 초음파 빔에 의해 검출된 물체의 높이, h는 다중 빔 초음파 카메라의 높이, r(j)는 상기 c) 단계에서 산출된 거리, t는 다중 빔 초음파 카메라의 각도, s는 빔확산각In the above equation, h (j) is the height of the object detected by the jth ultrasonic beam, h is the height of the multi-beam ultrasonic camera, r (j) is the distance calculated in the step c) , S is the beam diffusion angle

본 발명 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법은, 다중 빔 초음파 장비를 이용하여 얻어지는 영상에서 소실된 높이정보를 복원하여, 3차원 공간데이터를 획득함으로써 3차원 영상을 얻을 수 있는 효과가 있다.The 3D spatial data acquisition method using the multi-beam ultrasonic camera according to the present invention can obtain the 3D image by obtaining the 3D spatial data by restoring the lost height information from the image obtained using the multi-beam ultrasonic device have.

도 1은 일반적인 다중 빔 초음파 카메라를 설명하기 위한 모식도이다.
도 2는 종래 다중 빔 초음파 카메라를 이용하여 영상을 획득하는 과정의 설명도이다.
도 3은 종래 다중 빔 초음파 카메라를 이용하여 영상을 획득할 때 높이정보의 소실을 설명하기 위한 설명도이다.
도 4는 본 발명의 바람직한 실시예에 따른 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법을 설명하기 위한 개념도이다.
도 5는 본 발명에 적용되는 효과영역(30)과 수신영역(40)의 관계를 설명하기 위한 설명도이다.
도 6 내지 도 9는 본 발명을 이용하여 물체의 높이정보 복원 과정을 설명하기 위한 설명도이다.
도 10은 상기 도 8의 상태에서 픽셀 맵의 평면도이다.
1 is a schematic view for explaining a general multi-beam ultrasonic camera.
2 is an explanatory diagram of a process of acquiring an image using a conventional multi-beam ultrasonic camera.
3 is an explanatory diagram for explaining loss of height information when an image is acquired using a conventional multi-beam ultrasonic camera.
4 is a conceptual diagram for explaining a method of acquiring three-dimensional spatial data using a multi-beam ultrasonic camera according to a preferred embodiment of the present invention.
5 is an explanatory diagram for explaining the relationship between the effect area 30 and the reception area 40 applied to the present invention.
6 to 9 are explanatory diagrams for explaining a process of restoring height information of an object using the present invention.
10 is a plan view of the pixel map in the state of FIG.

이하, 본 발명 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법에 대하여 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, a three-dimensional spatial data acquisition method using a multi-beam ultrasonic camera according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시 예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해 제공되는 것이며, 아래에 설명되는 실시 예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래의 실시 예들로 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 발명을 더욱 충실하고 완전하게 하며 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다.The embodiments of the present invention are provided to explain the present invention more fully to those skilled in the art, and the embodiments described below can be modified into various other forms, The scope of the present invention is not limited to the following embodiments. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art.

본 명세서에서 사용된 용어는 특정 실시 예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는"포함하는(comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. As used herein, the singular forms "a", "an," and "the" include plural forms unless the context clearly dictates otherwise. Also, " comprise "and / or" comprising "when used herein should be interpreted as specifying the presence of stated shapes, numbers, steps, operations, elements, elements, and / And does not preclude the presence or addition of one or more other features, integers, operations, elements, elements, and / or groups. As used herein, the term "and / or" includes any and all combinations of one or more of the listed items.

본 명세서에서 제1, 제2 등의 용어가 다양한 부재, 영역 및/또는 부위들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부위들은 이들 용어에 의해 한정되지 않음은 자명하다. 이들 용어는 특정 순서나 상하, 또는 우열을 의미하지 않으며, 하나의 부재, 영역 또는 부위를 다른 부재, 영역 또는 부위와 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 영역 또는 부위는 본 발명의 가르침으로부터 벗어나지 않고서도 제2 부재, 영역 또는 부위를 지칭할 수 있다.Although the terms first, second, etc. are used herein to describe various elements, regions and / or regions, it is to be understood that these elements, parts, regions, layers and / . These terms do not imply any particular order, top, bottom, or top row, and are used only to distinguish one member, region, or region from another member, region, or region. Thus, the first member, region or region described below may refer to a second member, region or region without departing from the teachings of the present invention.

이하, 본 발명의 실시 예들은 본 발명의 실시 예들을 개략적으로 도시하는 도면들을 참조하여 설명한다. 도면들에 있어서, 예를 들면, 제조 기술 및/또는 공차에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 발명의 실시 예는 본 명세서에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니 되며, 예를 들면 제조상 초래되는 형상의 변화를 포함하여야 한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings schematically showing embodiments of the present invention. In the figures, for example, variations in the shape shown may be expected, depending on manufacturing techniques and / or tolerances. Accordingly, embodiments of the present invention should not be construed as limited to any particular shape of the regions illustrated herein, including, for example, variations in shape resulting from manufacturing.

도 4는 본 발명의 바람직한 실시예에 따른 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법을 설명하기 위한 개념도이다.4 is a conceptual diagram for explaining a method of acquiring three-dimensional spatial data using a multi-beam ultrasonic camera according to a preferred embodiment of the present invention.

도 4를 참조하면 다중 빔 초음파 카메라(10)는 바닥면을 향하여 소정의 경사각(t)으로 기울어져 있으며, 바닥면으로부터 특정한 높이(h)에서 특정한 이동 방향(X)을 따라 일정한 속도로 이동한다.Referring to FIG. 4, the multi-beam ultrasound camera 10 is inclined at a predetermined inclination angle t toward the bottom surface and moves at a constant speed along a specific moving direction X at a specific height h from the bottom surface .

상기 다중 빔 초음파 카메라(10)는 다중의 초음파 빔을 송출하며, 송출되는 빔은 이동방향(X)을 따라 일정한 빔확산각(S)을 가지며, 초음파 빔은 상기 다중 빔 초음파 카메라(10)와 가까운 제1에지(remin)와 그 제1에지(remin)와는 빔확산각(S) 만큼 벌어져 있는 제2에지(remax)를 가진다.The multi beam ultrasound camera 10 transmits multiple ultrasound beams and the emitted beam has a constant beam spreading angle S along a moving direction X. The ultrasound beam is incident on the multi- The nearest first edge r emin and the first edge r emin have a second edge r emax that is widened by the beam diffusion angle S.

이와 같은 구성에서 본 발명에 적용되는 다중 빔 초음파 카메라(10)의 반사파 수신범위는 상기 빔확산각(S)으로 정의되는 스캔영역인 효과영역(effective reason)에 비하여 더 넓은 것으로 한다.In this configuration, the reflected wave reception range of the multi-beam ultrasonic camera 10 applied to the present invention is wider than that of the effective region which is the scan region defined by the beam diffusion angle S.

물체(20)의 높이(h(j))는 위의 관계들을 이용하여 산출될 수 있으며, 이러한 관계들에 대해 좀 더 구체적으로 설명하면 다음과 같다.The height h (j) of the object 20 can be calculated using the above relationships, and these relationships will be described in more detail as follows.

도 5는 본 발명에 적용되는 효과영역(30)과 수신영역(40)의 관계를 설명하기 위한 설명도이다.5 is an explanatory diagram for explaining the relationship between the effect area 30 and the reception area 40 applied to the present invention.

도 4에서는 다중 빔 초음파 카메라(10)에서 j번째의 초음파 빔을 고려한 것이며, 도 5에서는 초음파 빔의 순서에 무관하게 하나의 초음파 빔에 대해서만 고려한 것이다.In FIG. 4, the j-th ultrasonic beam is considered in the multi-beam ultrasonic camera 10. In FIG. 5, only one ultrasonic beam is considered regardless of the order of the ultrasonic beams.

다중 빔 초음파 카메라(10)는 바닥면에 대하여 소정의 경사각(t)으로 경사져 있으며, 스캔영역인 효과영역(30)은 다중 빔 초음파 카메라(10)의 경사각(t)과, 초음파 빔의 빔확산각(S) 및 다중 빔 초음파 카메라(10)의 높이(h)에 의해 결정되는 면이다.The multi-beam ultrasound camera 10 is inclined at a predetermined inclination angle t with respect to the bottom surface and the effective region 30 as the scan region is formed by the inclination angle t of the multi-beam ultrasonic camera 10, Is determined by the height (h) of the angle (S) and the multi-beam ultrasonic camera (10).

상기 효과영역(30)은 앞서 설명한 제1에지(remin)와 제2에지(remax)로 정의된다. The effect area 30 is defined by the first edge r emin and the second edge r emax described above.

다중 빔 초음파 카메라(10)의 사용자는 자신이 보고자 하는 범위를 설정함이 가능하며, 이 영역을 소나 이미지 윈도우(sonar image window)라고 한다. 본 발명에서는 소나 이미지 윈도우를 수신영역(40)이라 정의한다.The user of the multi-beam ultrasound camera 10 can set the range he or she wants to see, which is called a sonar image window. In the present invention, a sonar image window is defined as a reception area 40.

상기 수신영역(40)은 설정에 따라 변화될 수 있는 영역이며, 수신영역(40)을 효과영역(30)에 비하여 더 큰 면적으로 설정하되, 효과영역(30) 전체가 수신영역(40)의 내에 위치하도록 설정한다.The receiving area 40 may be changed according to the setting and the receiving area 40 may be set to a larger area than the area of the effect area 30, As shown in FIG.

수신영역(40)은 최소 에지(rmin)와 최대 에지(rmax)에 의해 정의되는 영역으로 최소 에지(rmin)와 최대 에지(rmax)의 사이에 상기 효과영역(30)의 제1에지(remin)와 제2에지(remax)가 위치한다.Receiving area 40 is the first of the at least the edge (r min) and the maximum edge minimum edge to the area defined by the (r max) (r min) and up to the edge (r max) the effective area 30 between the The edge r emin and the second edge r emax are located.

이와 같은 상태에서 다중 빔 초음파 카메라(10)에 수신되는 반사파는 효과영역(30)에서 반사된 반사파이며, 효과영역(30)외의 수신영역(40)에서는 반사파가 없기 때문에 이를 픽셀로 변경하면 효과영역(30)이 효과영역(30)을 제외한 수신영역(40)에 비하여 더 밝게 표시된다.Since the reflected wave received by the multi-beam ultrasound camera 10 in this state is a reflected wave reflected from the effect area 30 and there is no reflected wave in the receiving area 40 other than the effective area 30, (30) is brighter than the reception area (40) excluding the effect area (30).

도 6 내지 도 9는 본 발명을 이용하여 물체의 높이정보 복원 과정을 설명하기 위한 설명도이다.6 to 9 are explanatory diagrams for explaining a process of restoring height information of an object using the present invention.

도 6을 참조하면 초음파 빔이 조사되는 영역에 물체(20)가 위치하는 경우로, 초음파 빔에 의하여 물체(20)의 전면부에서 반사되는 반사파에 의해 효과영역(30) 내에 하이라이트영역(50)과, 그 하이라이트영역(50)과 접하여 쉐도우영역(60)이 나타나게 된다.6, when the object 20 is positioned in the area irradiated with the ultrasonic beam, the highlight area 50 is formed in the effect area 30 by the reflected wave reflected from the front part of the object 20 by the ultrasonic beam. And the shadow area 60 appears in contact with the highlight area 50. [

하이라이트영역(50)은 가장 밝은 픽셀로 표시되며, 쉐도우영역(60)은 반사파가 없기 때문에 효과영역(30)을 제외한 수신영역(40)과 동일하게 어두운 픽셀로 표시된다.The highlight area 50 is represented by the brightest pixel and the shadow area 60 is represented by dark pixels the same as the reception area 40 except for the effect area 30 because there is no reflected wave.

도 7은 다중 빔 초음파 카메라(10)가 이동하여 상기 물체(20)의 전면부 하단이 제1에지(remin)에 위치하는 경우를 나타낸다. 7 shows a case where the multi-beam ultrasound camera 10 moves and the lower end of the front part of the object 20 is located at the first edge r emin .

이때 반사파의 강도를 픽셀 맵으로 변환한 결과는 상기 하이라이트영역(50)이 수신영역(40)의 일부로 진입한 상태로 표시된다. 이는 상기 물체(20)의 전면 상단과 동일한 거리(r)에 있는 반사파들이 하나의 픽셀로 표시되기 때문에 발생하는 현상이다. 이때의 거리(r)는 다중 빔 초음파 카메라(10)로부터의 거리를 뜻한다.At this time, the result of converting the intensity of the reflected wave into the pixel map is displayed as a state in which the highlight area 50 has entered a part of the reception area 40. This is a phenomenon that occurs because the reflected waves at the same distance r as the top of the front surface of the object 20 are represented by one pixel. The distance r at this time means the distance from the multi-beam ultrasonic camera 10.

따라서 반사파가 수신되지 않는 영역이었던 수신영역(40)에 하이라이트영역(50)의 일부가 위치하게 되며, 영상의 에지 검출방법 등을 사용하여 하이라이트영역(50)의 경계면을 쉽게 검출할 수 있다.Therefore, a part of the highlight area 50 is located in the reception area 40 where the reflected wave is not received, and the boundary surface of the highlight area 50 can be easily detected using an edge detection method of the image or the like.

도 8은 상기 다중 빔 초음파 카메라(10)가 조금 더 이동하여 초음파 빔의 제1에지(remin)가 물체(20)의 전면과 상면 사이의 에지에 위치하는 경우, 상기 하이라이트영역(50)은 상기 수신영역(40)으로 더 많이 진입하게 되며, 쉐도우영역(60)의 일부도 수신영역(40)으로 진입하게 된다.8 shows that when the multi-beam ultrasound camera 10 moves a little further and the first edge r emin of the ultrasound beam is located at the edge between the front face and the top face of the object 20, The shadow area 60 enters the reception area 40 more and a part of the shadow area 60 also enters the reception area 40. [

다중 빔 초음파 카메라(10)의 이동이 더욱 진행되어, 도 9와 같이 초음파 빔의 제1에지(remin)가 물체(20)의 상면에 위치하는 경우 상기 하이라이트영역(50)의 크기는 도 8에 도시한 하이라이트영역(50)의 크기에 비해 줄어들게 된다.When the multi-beam ultrasound camera 10 moves further and the first edge r emin of the ultrasonic beam is located on the upper surface of the object 20 as shown in FIG. 9, the size of the highlight area 50 becomes The size of the highlight area 50 shown in FIG.

이는 초음파 빔이 물체(20)의 전면을 완전히 지나면서, 물체(20)에서 반사되는 영역이 줄어들기 때문이다.This is because the ultrasound beam passes completely through the front surface of the object 20, and the area reflected by the object 20 is reduced.

이처럼 다중 빔 초음파 카메라(10)의 초음파 빔이 조사되는 효과영역(30)이 포함되는 수신영역(40)을 설정하여 대상을 스캔할 때, 물체(20)의 반사파에 의해 나타나는 하이라이트영역(50)은 효과영역(30)으로부터 수신영역(40)으로 이동하며, 그 크기가 최대였다가 스캔이 지속됨에 따라 점차 감소하게 된다.When the target area is scanned by setting the reception area 40 including the area 30 where the ultrasound beam of the multi-beam ultrasound camera 10 is irradiated, the highlight area 50, which is indicated by the reflected wave of the object 20, Moves from the effective area 30 to the reception area 40, and its size is maximum, and then gradually decreases as the scan is continued.

도 10은 상기 도 8의 상태에서 픽셀 맵의 평면도이다.10 is a plan view of the pixel map in the state of FIG.

도 10에서 하이라이트영역(50)은 에지 검출 방법을 통해 쉽게 검출할 수 있으며, 픽셀 좌표로 미리 알고 있는 제1에지(remin)와 최소 에지(tmin)의 비례관계를 이용하여 하이라이트영역(50)의 끝에 해당하는 지점까지의 거리(r)를 알 수 있다.In FIG. 10, the highlight area 50 can be easily detected by the edge detection method. The highlight area 50 can be easily detected by using the proportional relationship between the first edge r emin and the minimum edge t min , (R) to the point corresponding to the end of the line.

이처럼 거리(r)를 구한 후, 이를 다시 도 4의 도면에 적용하면 아래의 수학식1을 통하여 물체(20)의 높이(h(j))를 구할 수 있다. 이때 j는 다중 빔에서 j번째 빔을 뜻한다.4, the height h (j) of the object 20 can be obtained by the following equation (1). Where j is the j-th beam in multiple beams.

Figure 112017088112563-pat00002
Figure 112017088112563-pat00002

위의 수학식1에서 h는 다중 빔 초음파 카메라(10)의 높이로 알려진 상수이며, r(j)의 값은 앞서 설명한 바와 같이 제1에지(remin)와 최소 에지(tmin)의 비례관계를 이용하여 산출할 수 있는 값이며, 다중 빔 초음파 카메라(10)의 경사각(t)과 빔확산각(s) 또한 미리 알 수 있는 값이다.In Equation (1), h is a constant known as the height of the multi-beam ultrasound camera 10, and the value of r (j) is a proportional relationship between the first edge r emin and the minimum edge t min And the inclination angle t and the beam diffusion angle s of the multi-beam ultrasonic camera 10 are values that can be known in advance.

따라서 물체(20)의 높이(h(j))의 값을 용이하게 산출할 수 있다.Therefore, the value of the height h (j) of the object 20 can be easily calculated.

이처럼 물체(20)의 높이를 복원하고, 복원된 높이정보를 이용하여 얻어지는 영상을 입체적으로 구현할 수 있다.In this way, the height of the object 20 can be restored, and the image obtained using the restored height information can be implemented in three dimensions.

본 발명은 상기 실시예에 한정되지 않고 본 발명의 기술적 요지를 벗어나지 아니하는 범위 내에서 다양하게 수정, 변형되어 실시될 수 있음은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어서 자명한 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention will be.

10:다중 빔 초음파 카메라 20:물체
30:효과영역 40:수신영역
50:하이라이트영역 60:쉐도우영역
10: Multi-Beam Ultrasonic Camera 20: Object
30: Effect area 40: Receiving area
50: highlight area 60: shadow area

Claims (5)

a) 다중 빔 초음파 카메라의 초음파 빔이 조사되는 효과영역이 포함되도록 반사파의 수신영역을 설정하는 단계;
b) 다중 빔 초음파 카메라를 이동시키며 반사파를 수신하여, 반사파의 강도에 따라 픽셀의 밝기를 결정하여 표시하는 단계;
c) 물체에서 반사되는 반사파를 픽셀로 변환한 영역인 하이라이트영역이 효과영역으로부터 수신영역으로 이동하면 하이라이트영역의 에지를 검출한 후 하이라이트영역이 위치하는 수신영역의 일측 양 에지의 비율을 고려하여 상기 물체와 다중 빔 초음파 카메라의 거리를 구하는 단계;
d) 상기 거리와 다중 빔 초음파 카메라의 높이 및 경사각, 초음파 빔의 빔확산각을 이용하여 물체의 높이를 산출하는 단계를 포함하는 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법.
a) setting a reception area of a reflected wave so that an effect area irradiated with an ultrasonic beam of the multi-beam ultrasonic camera is included;
b) moving the multi-beam ultrasound camera, receiving the reflected wave, determining the brightness of the pixel according to the intensity of the reflected wave, and displaying the determined brightness;
c) When a highlight area, which is an area obtained by converting a reflected wave reflected from an object into a pixel, moves from the effect area to the reception area, the edge of the highlight area is detected, and then the ratio of the edge of one side of the reception area, Obtaining a distance between the object and the multi-beam ultrasonic camera;
and d) calculating the height of the object using the distance, the height and the tilt angle of the multi-beam ultrasonic camera, and the beam diffusion angle of the ultrasonic beam, using the multi-beam ultrasonic camera.
제1항에 있어서,
상기 a) 단계는,
다중 빔 초음파 카메라의 초음파 빔에 의해 결정되는 효과영역을 상기 다중 빔 초음파 카메라와 가까운 제1에지와, 상기 제1에지와는 상기 빔확산각 만큼 벌어지는 제2에지 사이의 영역으로 정의하고,
상기 수신영역의 내에 상기 제1에지와 제2에지가 모두 위치하도록 다중 빔 초음파 카메라의 수신영역을 설정하는 것을 특징으로 하는 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법.
The method according to claim 1,
The step a)
An effective area determined by an ultrasonic beam of a multi-beam ultrasonic camera is defined as a region between a first edge close to the multi-beam ultrasonic camera and a second edge extending from the first edge to the beam diffusion angle,
And setting a reception area of the multi-beam ultrasonic camera such that both the first and second edges are located within the reception area.
제2항에 있어서,
상기 수신영역은,
상기 제1에지의 외측 경계인 최소 에지와, 제2에지의 외측 경계인 최대 에지로 결정되는 영역인 것을 특징으로 하는 다중 빔 초음파 카메라를 이용한 3차원 공간 데이터 획득방법.
3. The method of claim 2,
The receiving area includes:
Wherein the second edge is an area defined by a minimum edge which is an outer boundary of the first edge and a maximum edge which is an outer boundary of the second edge.
제3항에 있어서,
상기 c) 단계의 거리는,
상기 제1에지와 최소 에지의 사이에 위치하는 상기 하이라이트영역의 에지의 위치의 비율을 이용하여 산출하는 것을 특징으로 하는 다중 빔 초음파 카메라를 이용한 3차원 공간 데이터 획득방법.
The method of claim 3,
The distance of step c)
Wherein the ratio of the edge position of the highlight area located between the first edge and the minimum edge is used to calculate the three-dimensional spatial data using the multi-beam ultrasonic camera.
제4항에 있어서,
상기 d) 단계는,
아래의 수학식을 통해 물체의 높이를 산출하는 것을 특징으로 하는 다중 빔 초음파 카메라를 이용한 3차원 공간 데이터 획득방법.
Figure 112017088112563-pat00003

위의 수학식에서 h(j)는 j번째 초음파 빔에 의해 검출된 물체의 높이, h는 다중 빔 초음파 카메라의 높이, r(j)는 상기 c) 단계에서 산출된 거리, t는 다중 빔 초음파 카메라의 각도, s는 빔확산각
5. The method of claim 4,
The step d)
Wherein the height of the object is calculated by the following equation: < EMI ID = 1.0 >
Figure 112017088112563-pat00003

In the above equation, h (j) is the height of the object detected by the jth ultrasonic beam, h is the height of the multi-beam ultrasonic camera, r (j) is the distance calculated in the step c) , S is the beam diffusion angle
KR1020170116082A 2017-09-11 2017-09-11 3D spatial data acquisition method using multi-beam sonar camera KR101952290B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170116082A KR101952290B1 (en) 2017-09-11 2017-09-11 3D spatial data acquisition method using multi-beam sonar camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170116082A KR101952290B1 (en) 2017-09-11 2017-09-11 3D spatial data acquisition method using multi-beam sonar camera

Publications (1)

Publication Number Publication Date
KR101952290B1 true KR101952290B1 (en) 2019-02-27

Family

ID=65561075

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170116082A KR101952290B1 (en) 2017-09-11 2017-09-11 3D spatial data acquisition method using multi-beam sonar camera

Country Status (1)

Country Link
KR (1) KR101952290B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002168952A (en) * 2000-11-29 2002-06-14 Tokyo Shosen Univ Method of reconstituting submarine three-dimensional structure
KR101203269B1 (en) 2011-11-16 2012-11-21 한국해양연구원 dual frequency underwater acoustic camera and it's operating method for precise underwater survey
KR20160072295A (en) * 2014-12-12 2016-06-23 삼성중공업 주식회사 Device and method for generating compound image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002168952A (en) * 2000-11-29 2002-06-14 Tokyo Shosen Univ Method of reconstituting submarine three-dimensional structure
KR101203269B1 (en) 2011-11-16 2012-11-21 한국해양연구원 dual frequency underwater acoustic camera and it's operating method for precise underwater survey
KR20160072295A (en) * 2014-12-12 2016-06-23 삼성중공업 주식회사 Device and method for generating compound image

Similar Documents

Publication Publication Date Title
US9835727B2 (en) Method for optically scanning and measuring an environment
JP5889484B2 (en) Laser radar apparatus and radar image generation method
US8317708B2 (en) Setting an optimal image parameter in an ultrasound system
Aykin et al. Forward-look 2-D sonar image formation and 3-D reconstruction
EP1202075A2 (en) Distance measuring apparatus and distance measuring method
US10648795B2 (en) Distance measuring apparatus and distance measuring method
US9835726B2 (en) Method for optically scanning and measuring an environment
WO2016208318A1 (en) Distance image processing device, distance image processing method, distance image processing program, and recording medium
JP6263447B2 (en) Ultrasonic diagnostic apparatus and program
AU2014298574B2 (en) Device for assisting in the detection of objects placed on the ground from images of the ground taken by a wave reflection imaging device
KR101952290B1 (en) 3D spatial data acquisition method using multi-beam sonar camera
JP3690260B2 (en) Vehicle distance measurement method
JP2011053138A (en) Radar image processing apparatus
US20140078257A1 (en) Method for visualization of three-dimensional objects on a person
CN109116433B (en) Security check equipment and imaging method thereof
JP2019007744A (en) Object sensing device, program, and object sensing system
KR102276943B1 (en) Method and Underwater Robot for Scan Route Setting of Underwater Object using Acoustic Camera
KR101952291B1 (en) Object appearance detection method using multi-beam sonar camera
WO2020255265A1 (en) Radar system, imaging method, and imaging program
CN111562592B (en) Object edge detection method, device and storage medium
JP2000121732A (en) Underwater object detection identification
EP4279863A1 (en) Image-based method of defining a scanning area
WO2023181947A1 (en) Object detection device and object detection method
JP2023143755A (en) Object detection device and object detection method
Samavedam Ray Casting based Correction Algorithm for Terahertz Non-Line-of-Sight Imaging

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant