KR101952290B1 - 3D spatial data acquisition method using multi-beam sonar camera - Google Patents
3D spatial data acquisition method using multi-beam sonar camera Download PDFInfo
- Publication number
- KR101952290B1 KR101952290B1 KR1020170116082A KR20170116082A KR101952290B1 KR 101952290 B1 KR101952290 B1 KR 101952290B1 KR 1020170116082 A KR1020170116082 A KR 1020170116082A KR 20170116082 A KR20170116082 A KR 20170116082A KR 101952290 B1 KR101952290 B1 KR 101952290B1
- Authority
- KR
- South Korea
- Prior art keywords
- area
- edge
- ultrasonic
- camera
- reflected wave
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B42/00—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
- G03B42/06—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8993—Three dimensional imaging systems
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
본 발명은 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법에 관한 것으로, 더 상세하게는 물체의 높이 정보를 복원하여 입체적인 영상 데이터를 얻을 수 있는 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법에 관한 것이다.The present invention relates to a three-dimensional spatial data acquisition method using a multi-beam ultrasonic camera, and more particularly, to a three-dimensional spatial data acquisition method using a multi-beam ultrasonic camera capable of obtaining stereoscopic image data by restoring object height information .
일반적으로, 초음파 카메라는 열악한 시야의 수중지형이나 수중 물체를 영상으로 획득하기 위한 장치 중 하나로서, 해저탐사, 수중물체탐지 등의 목적으로 사용된다. 초음파 카메라는 초음파를 발산하고 수중 지형지물에 반사되는 반사파를 이용하여 영상으로 만든다.Generally, an ultrasonic camera is one of devices for acquiring an underwater terrain of a poor view or an underwater object as an image, and is used for the purpose of underwater exploration and underwater object detection. An ultrasound camera emits ultrasound waves and produces images using reflected waves reflected from underwater features.
도 1은 일반적인 다중 빔 초음파 카메라의 초음파 발사 형태를 보인 모식도이며, 다중 빔 초음파 카메라(1)중에서 전방으로 다수의 부채꼴 빔(2)을 발사한 후 그 반향을 측정하여 영상을 생성한다. FIG. 1 is a schematic view showing an ultrasonic emission mode of a general multi-beam ultrasonic camera. In FIG. 1, a plurality of
부채꼴 빔은 수평 방향으로 다수 분할된 것이며, 다중 빔 초음파 카메라의 위치에서 전방으로 일정한 면적의 영상을 검출하기 위하여 좌우방향으로는 폭이 좁고, 수직방향으로 펼쳐진 형태의 초음파 빔을 발사한다.In order to detect an image of a certain area forward from the position of the multi-beam ultrasonic camera, the sector beam is fired in the form of a narrow and horizontally spread ultrasonic beam in the horizontal direction.
도 2는 종래의 다중 빔 초음파 카메라의 영상 획득 과정의 설명도이다.2 is an explanatory diagram of an image acquisition process of a conventional multi-beam ultrasonic camera.
도 2를 참조하면 다중 빔 초음파 카메라(1)로부터 소정의 빔확산각(beam spreading angle, θ)를 가지는 부채꼴 빔(2)을 발사하며, 이때의 반사파를 소나 이미지 플랜(sonar image plane)에 영상의 픽셀로 매핑한다.Referring to FIG. 2, a
상기 다중 빔 초음파 카메라(1)는 도면 상의 화살표 방향으로 이동하는 것일 수 있으며, 부채꼴 빔(2)을 가까운 곳에서부터 먼 곳으로 이동하는 주사식 스캔을 수행하는 것일 수 있다.The
따라서 시간에 따른 반사파의 강도(intensity)를 측정하여 물체(3)를 확인할 수 있다. Therefore, the
물체(3)의 앞쪽 바닥면을 스캔할 때의 반사파의 강도에 비하여 물체(3)의 꼭지점에서 반사되는 반사파의 강도가 더 강하며, 이러한 부분을 하이라이트(highlight) 영역이라고 한다. The intensity of the reflected wave reflected from the vertex of the
또한, 물체(3)의 뒷면은 초음파 빔이 가려지기 때문에 반사파가 발생하지 않는다. 이러한 부분을 쉐도우(shadow) 영역이라고 한다.Further, since the back surface of the
이와 같은 방식으로 종래에는 반사파의 강도를 영상의 픽셀로 변환하여, 하이라이트 영역과 쉐도우 영역이 연속하여 나타나는 경우 바닥면에서 돌출된 물체(3)가 위치하는 것으로 판단하는 영상을 제공할 수 있다.In this way, conventionally, the intensity of the reflected wave is converted into pixels of the image, and when the highlight area and the shadow area appear continuously, it is possible to provide an image judging that the
그러나 물체(3)의 높이 정보를 알 수 없기 때문에 종래 다중 빔 초음파 카메라(1)로 촬영된 영상은 2차원 평면 영상이었다.However, since the height information of the
즉, 종래에는 스캔 과정에서 물체(3)의 높이정보가 소실되며, 높이정보의 소실 이유를 설명하면 다음과 같다.That is, in the related art, the height information of the
도 3은 물체의 높이정보가 소실되는 이유의 설명도이다.3 is an explanatory diagram of the reason why the height information of an object is lost.
다중 빔 초음파 카메라(1)의 초음파 빔은 조사 지점(위치)에는 차이가 있으나, 다중 빔 초음파 카메라(1)로부터의 거리(r)가 동일한 지점들에서 반사되는 반사파를 하나의 픽셀로 처리한다. The ultrasonic beam of the multi-beam
도 3에 도시한 바와 같이 3개의 높이가 서로 다른 지점을 가지는 물체(3)를 스캔할 때 3개의 지점이 모두 다중 빔 초음파 카메라(1)와의 거리(r)가 동일한 경우 각 지점이 하나의 픽셀로 처리되기 때문에 지점들의 높이 정보는 소실된다.As shown in FIG. 3, when three objects are all located at the same distance r from the multi-beam
따라서 종래 다중 빔 초음파 카메라를 이용하여 획득한 영상을 위에서 아래를 바라보는 것과 같은 평면 영상만을 생성할 수 있었으며, 높이에는 차이가 있으나 거리(r)가 동일한 물체의 3차원 영상을 얻을 수 없는 문제점이 있었다.Therefore, it is possible to generate only a plane image such as looking up an image obtained from a conventional multi-beam ultrasonic camera, and it is difficult to obtain a three-dimensional image of an object having the same distance (r) there was.
본 발명이 해결하고자 하는 기술적 과제는, 다중 빔 초음파 카메라를 이용한 영상 획득과정에서 소실된 높이정보를 복원할 수 있는 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법을 제공함에 있다.SUMMARY OF THE INVENTION The present invention provides a method of acquiring 3D spatial data using a multi-beam ultrasonic camera capable of recovering lost height information in an image acquisition process using a multi-beam ultrasonic camera.
상기와 같은 과제를 해결하기 위한 본 발명 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법은, a) 다중 빔 초음파 카메라의 초음파 빔이 조사되는 효과영역이 포함되도록 반사파의 수신영역을 설정하는 단계와, b) 다중 빔 초음파 카메라를 이동시키며 반사파를 수신하여, 반사파의 강도에 따라 픽셀의 밝기를 결정하여 표시하는 단계와, c) 물체에서 반사되는 반사파를 픽셀로 변환한 영역인 하이라이트영역이 효과영역으로부터 수신영역으로 이동하면 하이라이트영역의 에지를 검출한 후 하이라이트영역이 위치하는 수신영역의 일측 양 에지의 비율을 고려하여 상기 물체와 다중 빔 초음파 카메라의 거리를 구하는 단계와, d) 상기 거리와 다중 빔 초음파 카메라의 높이 및 경사각, 초음파 빔의 빔확산각을 이용하여 물체의 높이를 산출하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of acquiring three-dimensional spatial data using a multi-beam ultrasonic camera, comprising the steps of: a) setting a reception area of a reflected wave to include an effect area irradiated with an ultrasonic beam of a multi- , b) moving the multi-beam ultrasonic camera, receiving the reflected wave, determining and displaying the brightness of the pixel according to the intensity of the reflected wave, and c) displaying the highlighted area, which is the area where the reflected wave reflected from the object is converted into pixels, The method comprising the steps of: detecting an edge of a highlight area and obtaining a distance between the object and a multi-beam ultrasonic camera in consideration of a ratio of one edge of a receiving area where the highlight area is located; d) The height of the object is calculated using the height and inclination angle of the beam ultrasonic camera and the beam diffusion angle of the ultrasonic beam Step < / RTI >
본 발명의 일실시예에 따르면 상기 a) 단계는, 다중 빔 초음파 카메라의 초음파 빔에 의해 결정되는 효과영역을 상기 다중 빔 초음파 카메라와 가까운 제1에지와, 상기 제1에지와는 상기 빔확산각 만큼 벌어지는 제2에지 사이의 영역으로 정의하고, 상기 수신영역의 내에 상기 제1에지와 제2에지가 모두 위치하도록 다중 빔 초음파 카메라의 수신영역을 설정할 수 있다.According to an embodiment of the present invention, in step a), an effect area determined by an ultrasonic beam of a multi-beam ultrasonic camera is divided into a first edge close to the multi-beam ultrasonic camera and a first edge close to the beam diffusion angle And a reception area of the multi-beam ultrasonic camera can be set such that both the first edge and the second edge are located within the reception area.
본 발명의 일실시예에 따르면 상기 수신영역은, 상기 제1에지의 외측 경계인 최소 에지와, 제2에지의 외측 경계인 최대 에지로 결정되는 영역일 수 있다.According to an embodiment of the present invention, the reception area may be a minimum edge which is an outer boundary of the first edge and an area which is determined by a maximum edge which is an outer boundary of the second edge.
본 발명의 일실시예에 따르면 상기 c) 단계의 거리는, 상기 제1에지와 최소 에지의 사이에 위치하는 상기 하이라이트영역의 에지의 위치의 비율을 이용하여 산출할 수 있다.According to an embodiment of the present invention, the distance of step c) may be calculated using a ratio of the position of an edge of the highlight area located between the first edge and the minimum edge.
본 발명의 일실시예에 따르면 상기 d) 단계는, 아래의 수학식을 통해 물체의 높이를 산출할 수 있다.According to an embodiment of the present invention, in the step d), the height of the object can be calculated through the following equation.
위의 수학식에서 h(j)는 j번째 초음파 빔에 의해 검출된 물체의 높이, h는 다중 빔 초음파 카메라의 높이, r(j)는 상기 c) 단계에서 산출된 거리, t는 다중 빔 초음파 카메라의 각도, s는 빔확산각In the above equation, h (j) is the height of the object detected by the jth ultrasonic beam, h is the height of the multi-beam ultrasonic camera, r (j) is the distance calculated in the step c) , S is the beam diffusion angle
본 발명 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법은, 다중 빔 초음파 장비를 이용하여 얻어지는 영상에서 소실된 높이정보를 복원하여, 3차원 공간데이터를 획득함으로써 3차원 영상을 얻을 수 있는 효과가 있다.The 3D spatial data acquisition method using the multi-beam ultrasonic camera according to the present invention can obtain the 3D image by obtaining the 3D spatial data by restoring the lost height information from the image obtained using the multi-beam ultrasonic device have.
도 1은 일반적인 다중 빔 초음파 카메라를 설명하기 위한 모식도이다.
도 2는 종래 다중 빔 초음파 카메라를 이용하여 영상을 획득하는 과정의 설명도이다.
도 3은 종래 다중 빔 초음파 카메라를 이용하여 영상을 획득할 때 높이정보의 소실을 설명하기 위한 설명도이다.
도 4는 본 발명의 바람직한 실시예에 따른 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법을 설명하기 위한 개념도이다.
도 5는 본 발명에 적용되는 효과영역(30)과 수신영역(40)의 관계를 설명하기 위한 설명도이다.
도 6 내지 도 9는 본 발명을 이용하여 물체의 높이정보 복원 과정을 설명하기 위한 설명도이다.
도 10은 상기 도 8의 상태에서 픽셀 맵의 평면도이다.1 is a schematic view for explaining a general multi-beam ultrasonic camera.
2 is an explanatory diagram of a process of acquiring an image using a conventional multi-beam ultrasonic camera.
3 is an explanatory diagram for explaining loss of height information when an image is acquired using a conventional multi-beam ultrasonic camera.
4 is a conceptual diagram for explaining a method of acquiring three-dimensional spatial data using a multi-beam ultrasonic camera according to a preferred embodiment of the present invention.
5 is an explanatory diagram for explaining the relationship between the
6 to 9 are explanatory diagrams for explaining a process of restoring height information of an object using the present invention.
10 is a plan view of the pixel map in the state of FIG.
이하, 본 발명 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법에 대하여 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, a three-dimensional spatial data acquisition method using a multi-beam ultrasonic camera according to the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 실시 예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해 제공되는 것이며, 아래에 설명되는 실시 예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래의 실시 예들로 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 발명을 더욱 충실하고 완전하게 하며 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다.The embodiments of the present invention are provided to explain the present invention more fully to those skilled in the art, and the embodiments described below can be modified into various other forms, The scope of the present invention is not limited to the following embodiments. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art.
본 명세서에서 사용된 용어는 특정 실시 예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는"포함하는(comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. As used herein, the singular forms "a", "an," and "the" include plural forms unless the context clearly dictates otherwise. Also, " comprise "and / or" comprising "when used herein should be interpreted as specifying the presence of stated shapes, numbers, steps, operations, elements, elements, and / And does not preclude the presence or addition of one or more other features, integers, operations, elements, elements, and / or groups. As used herein, the term "and / or" includes any and all combinations of one or more of the listed items.
본 명세서에서 제1, 제2 등의 용어가 다양한 부재, 영역 및/또는 부위들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부위들은 이들 용어에 의해 한정되지 않음은 자명하다. 이들 용어는 특정 순서나 상하, 또는 우열을 의미하지 않으며, 하나의 부재, 영역 또는 부위를 다른 부재, 영역 또는 부위와 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 영역 또는 부위는 본 발명의 가르침으로부터 벗어나지 않고서도 제2 부재, 영역 또는 부위를 지칭할 수 있다.Although the terms first, second, etc. are used herein to describe various elements, regions and / or regions, it is to be understood that these elements, parts, regions, layers and / . These terms do not imply any particular order, top, bottom, or top row, and are used only to distinguish one member, region, or region from another member, region, or region. Thus, the first member, region or region described below may refer to a second member, region or region without departing from the teachings of the present invention.
이하, 본 발명의 실시 예들은 본 발명의 실시 예들을 개략적으로 도시하는 도면들을 참조하여 설명한다. 도면들에 있어서, 예를 들면, 제조 기술 및/또는 공차에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 발명의 실시 예는 본 명세서에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니 되며, 예를 들면 제조상 초래되는 형상의 변화를 포함하여야 한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings schematically showing embodiments of the present invention. In the figures, for example, variations in the shape shown may be expected, depending on manufacturing techniques and / or tolerances. Accordingly, embodiments of the present invention should not be construed as limited to any particular shape of the regions illustrated herein, including, for example, variations in shape resulting from manufacturing.
도 4는 본 발명의 바람직한 실시예에 따른 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법을 설명하기 위한 개념도이다.4 is a conceptual diagram for explaining a method of acquiring three-dimensional spatial data using a multi-beam ultrasonic camera according to a preferred embodiment of the present invention.
도 4를 참조하면 다중 빔 초음파 카메라(10)는 바닥면을 향하여 소정의 경사각(t)으로 기울어져 있으며, 바닥면으로부터 특정한 높이(h)에서 특정한 이동 방향(X)을 따라 일정한 속도로 이동한다.Referring to FIG. 4, the
상기 다중 빔 초음파 카메라(10)는 다중의 초음파 빔을 송출하며, 송출되는 빔은 이동방향(X)을 따라 일정한 빔확산각(S)을 가지며, 초음파 빔은 상기 다중 빔 초음파 카메라(10)와 가까운 제1에지(remin)와 그 제1에지(remin)와는 빔확산각(S) 만큼 벌어져 있는 제2에지(remax)를 가진다.The multi
이와 같은 구성에서 본 발명에 적용되는 다중 빔 초음파 카메라(10)의 반사파 수신범위는 상기 빔확산각(S)으로 정의되는 스캔영역인 효과영역(effective reason)에 비하여 더 넓은 것으로 한다.In this configuration, the reflected wave reception range of the multi-beam
물체(20)의 높이(h(j))는 위의 관계들을 이용하여 산출될 수 있으며, 이러한 관계들에 대해 좀 더 구체적으로 설명하면 다음과 같다.The height h (j) of the
도 5는 본 발명에 적용되는 효과영역(30)과 수신영역(40)의 관계를 설명하기 위한 설명도이다.5 is an explanatory diagram for explaining the relationship between the
도 4에서는 다중 빔 초음파 카메라(10)에서 j번째의 초음파 빔을 고려한 것이며, 도 5에서는 초음파 빔의 순서에 무관하게 하나의 초음파 빔에 대해서만 고려한 것이다.In FIG. 4, the j-th ultrasonic beam is considered in the multi-beam
다중 빔 초음파 카메라(10)는 바닥면에 대하여 소정의 경사각(t)으로 경사져 있으며, 스캔영역인 효과영역(30)은 다중 빔 초음파 카메라(10)의 경사각(t)과, 초음파 빔의 빔확산각(S) 및 다중 빔 초음파 카메라(10)의 높이(h)에 의해 결정되는 면이다.The
상기 효과영역(30)은 앞서 설명한 제1에지(remin)와 제2에지(remax)로 정의된다. The
다중 빔 초음파 카메라(10)의 사용자는 자신이 보고자 하는 범위를 설정함이 가능하며, 이 영역을 소나 이미지 윈도우(sonar image window)라고 한다. 본 발명에서는 소나 이미지 윈도우를 수신영역(40)이라 정의한다.The user of the
상기 수신영역(40)은 설정에 따라 변화될 수 있는 영역이며, 수신영역(40)을 효과영역(30)에 비하여 더 큰 면적으로 설정하되, 효과영역(30) 전체가 수신영역(40)의 내에 위치하도록 설정한다.The
수신영역(40)은 최소 에지(rmin)와 최대 에지(rmax)에 의해 정의되는 영역으로 최소 에지(rmin)와 최대 에지(rmax)의 사이에 상기 효과영역(30)의 제1에지(remin)와 제2에지(remax)가 위치한다.Receiving
이와 같은 상태에서 다중 빔 초음파 카메라(10)에 수신되는 반사파는 효과영역(30)에서 반사된 반사파이며, 효과영역(30)외의 수신영역(40)에서는 반사파가 없기 때문에 이를 픽셀로 변경하면 효과영역(30)이 효과영역(30)을 제외한 수신영역(40)에 비하여 더 밝게 표시된다.Since the reflected wave received by the
도 6 내지 도 9는 본 발명을 이용하여 물체의 높이정보 복원 과정을 설명하기 위한 설명도이다.6 to 9 are explanatory diagrams for explaining a process of restoring height information of an object using the present invention.
도 6을 참조하면 초음파 빔이 조사되는 영역에 물체(20)가 위치하는 경우로, 초음파 빔에 의하여 물체(20)의 전면부에서 반사되는 반사파에 의해 효과영역(30) 내에 하이라이트영역(50)과, 그 하이라이트영역(50)과 접하여 쉐도우영역(60)이 나타나게 된다.6, when the
하이라이트영역(50)은 가장 밝은 픽셀로 표시되며, 쉐도우영역(60)은 반사파가 없기 때문에 효과영역(30)을 제외한 수신영역(40)과 동일하게 어두운 픽셀로 표시된다.The
도 7은 다중 빔 초음파 카메라(10)가 이동하여 상기 물체(20)의 전면부 하단이 제1에지(remin)에 위치하는 경우를 나타낸다. 7 shows a case where the
이때 반사파의 강도를 픽셀 맵으로 변환한 결과는 상기 하이라이트영역(50)이 수신영역(40)의 일부로 진입한 상태로 표시된다. 이는 상기 물체(20)의 전면 상단과 동일한 거리(r)에 있는 반사파들이 하나의 픽셀로 표시되기 때문에 발생하는 현상이다. 이때의 거리(r)는 다중 빔 초음파 카메라(10)로부터의 거리를 뜻한다.At this time, the result of converting the intensity of the reflected wave into the pixel map is displayed as a state in which the
따라서 반사파가 수신되지 않는 영역이었던 수신영역(40)에 하이라이트영역(50)의 일부가 위치하게 되며, 영상의 에지 검출방법 등을 사용하여 하이라이트영역(50)의 경계면을 쉽게 검출할 수 있다.Therefore, a part of the
도 8은 상기 다중 빔 초음파 카메라(10)가 조금 더 이동하여 초음파 빔의 제1에지(remin)가 물체(20)의 전면과 상면 사이의 에지에 위치하는 경우, 상기 하이라이트영역(50)은 상기 수신영역(40)으로 더 많이 진입하게 되며, 쉐도우영역(60)의 일부도 수신영역(40)으로 진입하게 된다.8 shows that when the
다중 빔 초음파 카메라(10)의 이동이 더욱 진행되어, 도 9와 같이 초음파 빔의 제1에지(remin)가 물체(20)의 상면에 위치하는 경우 상기 하이라이트영역(50)의 크기는 도 8에 도시한 하이라이트영역(50)의 크기에 비해 줄어들게 된다.When the
이는 초음파 빔이 물체(20)의 전면을 완전히 지나면서, 물체(20)에서 반사되는 영역이 줄어들기 때문이다.This is because the ultrasound beam passes completely through the front surface of the
이처럼 다중 빔 초음파 카메라(10)의 초음파 빔이 조사되는 효과영역(30)이 포함되는 수신영역(40)을 설정하여 대상을 스캔할 때, 물체(20)의 반사파에 의해 나타나는 하이라이트영역(50)은 효과영역(30)으로부터 수신영역(40)으로 이동하며, 그 크기가 최대였다가 스캔이 지속됨에 따라 점차 감소하게 된다.When the target area is scanned by setting the
도 10은 상기 도 8의 상태에서 픽셀 맵의 평면도이다.10 is a plan view of the pixel map in the state of FIG.
도 10에서 하이라이트영역(50)은 에지 검출 방법을 통해 쉽게 검출할 수 있으며, 픽셀 좌표로 미리 알고 있는 제1에지(remin)와 최소 에지(tmin)의 비례관계를 이용하여 하이라이트영역(50)의 끝에 해당하는 지점까지의 거리(r)를 알 수 있다.In FIG. 10, the
이처럼 거리(r)를 구한 후, 이를 다시 도 4의 도면에 적용하면 아래의 수학식1을 통하여 물체(20)의 높이(h(j))를 구할 수 있다. 이때 j는 다중 빔에서 j번째 빔을 뜻한다.4, the height h (j) of the
위의 수학식1에서 h는 다중 빔 초음파 카메라(10)의 높이로 알려진 상수이며, r(j)의 값은 앞서 설명한 바와 같이 제1에지(remin)와 최소 에지(tmin)의 비례관계를 이용하여 산출할 수 있는 값이며, 다중 빔 초음파 카메라(10)의 경사각(t)과 빔확산각(s) 또한 미리 알 수 있는 값이다.In Equation (1), h is a constant known as the height of the
따라서 물체(20)의 높이(h(j))의 값을 용이하게 산출할 수 있다.Therefore, the value of the height h (j) of the
이처럼 물체(20)의 높이를 복원하고, 복원된 높이정보를 이용하여 얻어지는 영상을 입체적으로 구현할 수 있다.In this way, the height of the
본 발명은 상기 실시예에 한정되지 않고 본 발명의 기술적 요지를 벗어나지 아니하는 범위 내에서 다양하게 수정, 변형되어 실시될 수 있음은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어서 자명한 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention will be.
10:다중 빔 초음파 카메라 20:물체
30:효과영역 40:수신영역
50:하이라이트영역 60:쉐도우영역10: Multi-Beam Ultrasonic Camera 20: Object
30: Effect area 40: Receiving area
50: highlight area 60: shadow area
Claims (5)
b) 다중 빔 초음파 카메라를 이동시키며 반사파를 수신하여, 반사파의 강도에 따라 픽셀의 밝기를 결정하여 표시하는 단계;
c) 물체에서 반사되는 반사파를 픽셀로 변환한 영역인 하이라이트영역이 효과영역으로부터 수신영역으로 이동하면 하이라이트영역의 에지를 검출한 후 하이라이트영역이 위치하는 수신영역의 일측 양 에지의 비율을 고려하여 상기 물체와 다중 빔 초음파 카메라의 거리를 구하는 단계;
d) 상기 거리와 다중 빔 초음파 카메라의 높이 및 경사각, 초음파 빔의 빔확산각을 이용하여 물체의 높이를 산출하는 단계를 포함하는 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법.a) setting a reception area of a reflected wave so that an effect area irradiated with an ultrasonic beam of the multi-beam ultrasonic camera is included;
b) moving the multi-beam ultrasound camera, receiving the reflected wave, determining the brightness of the pixel according to the intensity of the reflected wave, and displaying the determined brightness;
c) When a highlight area, which is an area obtained by converting a reflected wave reflected from an object into a pixel, moves from the effect area to the reception area, the edge of the highlight area is detected, and then the ratio of the edge of one side of the reception area, Obtaining a distance between the object and the multi-beam ultrasonic camera;
and d) calculating the height of the object using the distance, the height and the tilt angle of the multi-beam ultrasonic camera, and the beam diffusion angle of the ultrasonic beam, using the multi-beam ultrasonic camera.
상기 a) 단계는,
다중 빔 초음파 카메라의 초음파 빔에 의해 결정되는 효과영역을 상기 다중 빔 초음파 카메라와 가까운 제1에지와, 상기 제1에지와는 상기 빔확산각 만큼 벌어지는 제2에지 사이의 영역으로 정의하고,
상기 수신영역의 내에 상기 제1에지와 제2에지가 모두 위치하도록 다중 빔 초음파 카메라의 수신영역을 설정하는 것을 특징으로 하는 다중 빔 초음파 카메라를 이용한 3차원 공간데이터 획득방법.The method according to claim 1,
The step a)
An effective area determined by an ultrasonic beam of a multi-beam ultrasonic camera is defined as a region between a first edge close to the multi-beam ultrasonic camera and a second edge extending from the first edge to the beam diffusion angle,
And setting a reception area of the multi-beam ultrasonic camera such that both the first and second edges are located within the reception area.
상기 수신영역은,
상기 제1에지의 외측 경계인 최소 에지와, 제2에지의 외측 경계인 최대 에지로 결정되는 영역인 것을 특징으로 하는 다중 빔 초음파 카메라를 이용한 3차원 공간 데이터 획득방법.3. The method of claim 2,
The receiving area includes:
Wherein the second edge is an area defined by a minimum edge which is an outer boundary of the first edge and a maximum edge which is an outer boundary of the second edge.
상기 c) 단계의 거리는,
상기 제1에지와 최소 에지의 사이에 위치하는 상기 하이라이트영역의 에지의 위치의 비율을 이용하여 산출하는 것을 특징으로 하는 다중 빔 초음파 카메라를 이용한 3차원 공간 데이터 획득방법.The method of claim 3,
The distance of step c)
Wherein the ratio of the edge position of the highlight area located between the first edge and the minimum edge is used to calculate the three-dimensional spatial data using the multi-beam ultrasonic camera.
상기 d) 단계는,
아래의 수학식을 통해 물체의 높이를 산출하는 것을 특징으로 하는 다중 빔 초음파 카메라를 이용한 3차원 공간 데이터 획득방법.
위의 수학식에서 h(j)는 j번째 초음파 빔에 의해 검출된 물체의 높이, h는 다중 빔 초음파 카메라의 높이, r(j)는 상기 c) 단계에서 산출된 거리, t는 다중 빔 초음파 카메라의 각도, s는 빔확산각5. The method of claim 4,
The step d)
Wherein the height of the object is calculated by the following equation: < EMI ID = 1.0 >
In the above equation, h (j) is the height of the object detected by the jth ultrasonic beam, h is the height of the multi-beam ultrasonic camera, r (j) is the distance calculated in the step c) , S is the beam diffusion angle
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170116082A KR101952290B1 (en) | 2017-09-11 | 2017-09-11 | 3D spatial data acquisition method using multi-beam sonar camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170116082A KR101952290B1 (en) | 2017-09-11 | 2017-09-11 | 3D spatial data acquisition method using multi-beam sonar camera |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101952290B1 true KR101952290B1 (en) | 2019-02-27 |
Family
ID=65561075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170116082A KR101952290B1 (en) | 2017-09-11 | 2017-09-11 | 3D spatial data acquisition method using multi-beam sonar camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101952290B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002168952A (en) * | 2000-11-29 | 2002-06-14 | Tokyo Shosen Univ | Method of reconstituting submarine three-dimensional structure |
KR101203269B1 (en) | 2011-11-16 | 2012-11-21 | 한국해양연구원 | dual frequency underwater acoustic camera and it's operating method for precise underwater survey |
KR20160072295A (en) * | 2014-12-12 | 2016-06-23 | 삼성중공업 주식회사 | Device and method for generating compound image |
-
2017
- 2017-09-11 KR KR1020170116082A patent/KR101952290B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002168952A (en) * | 2000-11-29 | 2002-06-14 | Tokyo Shosen Univ | Method of reconstituting submarine three-dimensional structure |
KR101203269B1 (en) | 2011-11-16 | 2012-11-21 | 한국해양연구원 | dual frequency underwater acoustic camera and it's operating method for precise underwater survey |
KR20160072295A (en) * | 2014-12-12 | 2016-06-23 | 삼성중공업 주식회사 | Device and method for generating compound image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9835727B2 (en) | Method for optically scanning and measuring an environment | |
JP5889484B2 (en) | Laser radar apparatus and radar image generation method | |
US8317708B2 (en) | Setting an optimal image parameter in an ultrasound system | |
Aykin et al. | Forward-look 2-D sonar image formation and 3-D reconstruction | |
EP1202075A2 (en) | Distance measuring apparatus and distance measuring method | |
US10648795B2 (en) | Distance measuring apparatus and distance measuring method | |
US9835726B2 (en) | Method for optically scanning and measuring an environment | |
WO2016208318A1 (en) | Distance image processing device, distance image processing method, distance image processing program, and recording medium | |
JP6263447B2 (en) | Ultrasonic diagnostic apparatus and program | |
AU2014298574B2 (en) | Device for assisting in the detection of objects placed on the ground from images of the ground taken by a wave reflection imaging device | |
KR101952290B1 (en) | 3D spatial data acquisition method using multi-beam sonar camera | |
JP3690260B2 (en) | Vehicle distance measurement method | |
JP2011053138A (en) | Radar image processing apparatus | |
US20140078257A1 (en) | Method for visualization of three-dimensional objects on a person | |
CN109116433B (en) | Security check equipment and imaging method thereof | |
JP2019007744A (en) | Object sensing device, program, and object sensing system | |
KR102276943B1 (en) | Method and Underwater Robot for Scan Route Setting of Underwater Object using Acoustic Camera | |
KR101952291B1 (en) | Object appearance detection method using multi-beam sonar camera | |
WO2020255265A1 (en) | Radar system, imaging method, and imaging program | |
CN111562592B (en) | Object edge detection method, device and storage medium | |
JP2000121732A (en) | Underwater object detection identification | |
EP4279863A1 (en) | Image-based method of defining a scanning area | |
WO2023181947A1 (en) | Object detection device and object detection method | |
JP2023143755A (en) | Object detection device and object detection method | |
Samavedam | Ray Casting based Correction Algorithm for Terahertz Non-Line-of-Sight Imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |