KR20130064564A - Apparatus for monitoring three-dimensional shape of target object - Google Patents

Apparatus for monitoring three-dimensional shape of target object Download PDF

Info

Publication number
KR20130064564A
KR20130064564A KR1020110131239A KR20110131239A KR20130064564A KR 20130064564 A KR20130064564 A KR 20130064564A KR 1020110131239 A KR1020110131239 A KR 1020110131239A KR 20110131239 A KR20110131239 A KR 20110131239A KR 20130064564 A KR20130064564 A KR 20130064564A
Authority
KR
South Korea
Prior art keywords
image
target object
thinning
unit
infrared
Prior art date
Application number
KR1020110131239A
Other languages
Korean (ko)
Other versions
KR101327433B1 (en
Inventor
김경환
Original Assignee
주식회사 엔티리서치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엔티리서치 filed Critical 주식회사 엔티리서치
Priority to KR1020110131239A priority Critical patent/KR101327433B1/en
Publication of KR20130064564A publication Critical patent/KR20130064564A/en
Application granted granted Critical
Publication of KR101327433B1 publication Critical patent/KR101327433B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2441Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using interferometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/025Testing optical properties by measuring geometrical properties or aberrations by determining the shape of the object to be tested
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/60Systems using moiré fringes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE: A device for measuring a 3D shape of a target object of a counter-gradient is provided to measure the 3D shape of the target object by using reflection images filtered by infrared rays, thereby determining a domain of the target object or matching a plurality of reflective domains rapidly and accurately. CONSTITUTION: A device for measuring a 3D shape of a target object(1) of a counter-gradient comprises laser irradiating units(110,130), image acquisition units(120,140), and a measuring unit(200). The laser irradiating units irradiates infrared lasers on the target object. The image acquisition units include infrared filters(123,143) and cameras(121,141). The infrared filter filters only the infrared lasers reflected by the target object. The cameras acquire reflection images of the target object infrared-filtered by the infrared filter. The measuring unit measures the 3D shape of the target object by using the acquired reflection images.

Description

역구배를 가지는 대상물체의 입체형상 측정 장치{Apparatus for monitoring three-dimensional shape of target object}Apparatus for monitoring three-dimensional shape of target object

본 발명은 역구배를 가지는 대상 물체의 입체 형상을 측정하는 장치에 관한 것으로, 보다 구체적으로 적외선 레이저를 대상 물체에 조사하고 대상 물체에서 반사되는 적외선 레이저를 필터링한 대상 물체의 반사 영상으로부터 대상 물체의 형상을 측정함으로써 대상 물체의 색상에 상관없이 대상 물체의 입체형상을 정확하게 측정할 수 있으며, 대상 물체의 수직 중심축을 기준으로 경사지게 배치되는 다수의 카메라를 통해 대상 물체의 다수 반사 영상을 획득하고 획득한 다수 반사 영상을 정합하여 역구배를 가지는 대상 물체의 형상을 정확하게 측정할 수 있는 3차원 입체형상 측정 장치에 관한 것이다.The present invention relates to an apparatus for measuring a three-dimensional shape of a target object having an inverse gradient, and more particularly, from an image of a target object irradiated with an infrared laser beam and filtered by an infrared laser beam reflected from the target object. By measuring the shape, it is possible to accurately measure the three-dimensional shape of the target object regardless of the color of the target object, and to acquire and obtain a plurality of reflection images of the target object through a plurality of cameras inclined with respect to the vertical center axis of the target object. The present invention relates to a three-dimensional three-dimensional shape measuring apparatus capable of accurately measuring the shape of a target object having an inverse gradient by matching a plurality of reflection images.

일반적으로 대상물체의 3차원 입체 형상을 측정하기 위해 빛의 간섭무늬를 이용한 방법이나 레이저를 대상물체에 조사하고 대상물체에서 반사된 레이저의 영상으로부터 대상물체의 입체 형상을 측정하는 방법들이 사용되고 있다.
Generally, a method using an interference fringe of light or a method of measuring a three-dimensional shape of an object from an image of a laser reflected from the object is used to measure a three-dimensional shape of the object.

도 1은 간섭무늬를 이용하여 대상물체의 입체형상을 측정하는 종래 입체형상 측정장치를 설명하는 기능블록도로서, 도 1을 참고로 살펴보면 종래 입체형상 측정장치는 조명광을 조사하는 광원(2)에서 빔분할기(4)를 통해 광원(2)으로부터의 조명광을 분할시킨다. 빔분할기(4)로부터 나온 조명광의 일부는 최고점과 최저점 단차를 가지는 측정 대상물체(6)에 조사되며 또한 빔분할기(4)로부터 나온 조명광의 나머지 일부는 기준면(5)에 조사되어 반사된다. 측정 대상물체(6)의 표면과 기준면(5)으로부터 반사되어 합쳐진 간섭무늬를 촬영장치(1)를 통해 촬영하고, 제어 컴퓨터를 이용하여 촬영장치(1)를 통해 촬영된 영상을 처리한다. 기준면(5)은 측정 대상물(6)의 최고점의 반사거리 및 측정 대상물(6)의 최저점 반사거리와 각각 동일한 반사거리를 제공하는 반사거리 조절수단(3)을 더 구비함으로써 다양한 측정 대상물의 형상을 측정할 수 있다.FIG. 1 is a functional block diagram illustrating a conventional three-dimensional shape measuring device for measuring a three-dimensional shape of an object by using an interference fringe. Referring to FIG. 1, a conventional three-dimensional shape measuring device is used in a light source 2 for illuminating illumination light. The beam splitter 4 splits the illumination light from the light source 2. A part of the illumination light emitted from the beam splitter 4 is irradiated to the measurement object 6 having the highest point and the lowest point difference, and the other part of the illumination light emitted from the beam splitter 4 is reflected on the reference plane 5. The interference fringes reflected and merged from the surface of the object to be measured 6 and the reference plane 5 are photographed by the photographing apparatus 1, and an image photographed by the photographing apparatus 1 is processed using a control computer. The reference plane 5 further includes reflecting distance adjusting means 3 which provide reflecting distances equal to the reflecting distance of the highest point of the measurement object 6 and the reflecting distance of the lowest point of the measurement object 6, respectively, thereby providing the shape of various measurement objects. It can be measured.

그러나, 간섭무늬를 이용하여 대상물체의 입체형상을 측정하는 종래 입체형상 측정장치는 불투명한 물체의 형상을 측정할 때는 조명광이 측정 대상물체에 반사되어 간섭무늬가 발생하기 때문에 측정가능하나, 반투명하거나 투명한 물체의 형상을 측정할때는 조명광이 측정 대상물체를 거의 투과함으로써 간섭무늬가 발생하지 않아 측정이 불가능한 단점이 있다.
However, the conventional three-dimensional shape measuring device for measuring the three-dimensional shape of the object using the interference fringe can measure the shape of the opaque object because the illumination light is reflected on the object to be measured to generate an interference fringe, When measuring the shape of a transparent object, the illumination light is almost transmitted through the object to be measured, there is a disadvantage that the interference pattern does not occur, it is impossible to measure.

도 2는 레이저를 이용한 종래 입체 형상 측정장치를 설명하기 위한 기능블록도로서, 도 2를 참고로 살펴보면 발광부(11)에서 빛을 조사하고, 조사된 빛(14)은 대상물체(13)에 반사되어 카메라부(12)를 통해 입력된 빛을 처리하여 대상물체(13)의 형상을 측정할 수 있다. 레이저를 이용한 종래 입체형상 측정장치는 도 1에서 설명한 간섭무늬를 이용한 종래 입체형상 측정장치와 달리 빛의 간섭현상을 이용하지 않으므로 반투명하거나 투명한 측정 대상물의 형상을 측정할 수 있다.FIG. 2 is a functional block diagram illustrating a conventional three-dimensional shape measuring apparatus using a laser. When referring to FIG. 2, light is emitted from the light emitting unit 11, and the irradiated light 14 is applied to the target object 13. The shape of the target object 13 may be measured by processing the light reflected and input through the camera unit 12. Conventional three-dimensional shape measurement apparatus using a laser, unlike the conventional three-dimensional shape measurement apparatus using the interference pattern described in Figure 1 does not use the interference phenomenon of light can measure the shape of the measurement object translucent or transparent.

그러나 레이저를 이용한 종래 입체형상 측정장치에서 조사되는 레이저와 같은 색상을 가지는 대상 물체의 입체 형상을 측정하고자 하는 경우, 카메라부(12)를 통해 촬영한 반사 영상에서 대상 물체와 레이저를 구분하기 곤란하여 대상 물체의 입체 형상을 정확하게 측정하기 곤란하며 존재하는 주변광에 의해 대상 물체의 입체 형상을 정확하게 측정하기 곤란하다는 문제점을 가진다.However, when a three-dimensional shape of a target object having the same color as the laser irradiated by a conventional three-dimensional shape measurement apparatus using a laser is to be measured, it is difficult to distinguish the target object and the laser from the reflection image photographed by the camera unit 12. It is difficult to accurately measure the three-dimensional shape of the target object, and it is difficult to accurately measure the three-dimensional shape of the target object by the existing ambient light.

더욱이 간섭 무늬를 이용한 종래 입체형상 측정 장치 또는 레이저를 이용한 종래 입체형상 측정 장치는 대상물체로부터 반사되는 간섭 무늬 또는 대상 물체에서 반사되는 레이저의 반사 영상으로부터 대상물체의 입체 형상을 측정하기 때문에, 역구배를 가지는 대상물체의 경우 입체 형상을 정확하게 측정할 수 없다는 문제점을 가진다.Furthermore, since the conventional three-dimensional shape measuring device using the interference fringe or the conventional three-dimensional shape measuring device using the laser measures the three-dimensional shape of the object from the interference fringe reflected from the object or the reflection image of the laser reflected from the object, the inverse gradient In the case of the object having a problem that can not accurately measure the three-dimensional shape.

본 발명은 위에서 언급한 종래 입체형상 측정 장치가 가지는 문제점들을 해결하기 위한 것으로, 본 발명이 이루고자 하는 목적은 적외선 레이저를 대상 물체에 조사하고 대상 물체에서 반사되는,적외선 필터링된 반사 영상으로부터 대상 물체의 입체 형상을 정확하게 측정할 수 있는 장치를 제공하는 것이다.The present invention is to solve the problems of the conventional three-dimensional shape measuring apparatus mentioned above, an object of the present invention is to irradiate an infrared laser to the target object and reflected from the target object, from the infrared filtered reflection image of the target object It is to provide an apparatus capable of accurately measuring three-dimensional shapes.

본 발명이 이루고자 하는 다른 목적은 대상 물체의 수직 중심선을 기준으로 경사지게 배치되는 다수 카메라를 통해 적외선 필터링된 다수 반사 영상을 획득하고 획득한 다수 반사 영상을 정합하여 역구배를 가지는 대상물체의 입체 형상을 정확하게 측정할 수 있는 장치를 제공하는 것이다.Another object of the present invention is to obtain an infrared filtered multiple reflection image through a plurality of cameras inclined with respect to the vertical centerline of the target object and match the obtained multiple reflection image to form a three-dimensional shape of the object having a reverse gradient It is to provide a device that can measure accurately.

본 발명이 이루고자 하는 또 다른 목적은 역구배를 가지는 대상 물체의 입체 형상을 정확하게 측정하고 측정한 대상 물체의 입체 형상에 기초하여 대상 물체의 체적을 정확하게 계산할 수 있는 장치를 제공하는 것이다. Another object of the present invention is to provide an apparatus capable of accurately measuring the three-dimensional shape of an object having an inverse gradient and accurately calculating the volume of the object based on the measured three-dimensional shape of the object.

본 발명의 목적을 달성하기 위하여 본 발명에 따른 3차원 입체형상 측정 장치는 대상 물체에 적외선 레이저를 조사하는 레이저 조사부와, 대상 물체에서 반사되는 적외선 레이저만을 필터링하는 적외선 필터와 적외선 필터에 의해 적외선 필터링된 대상 물체의 반사 영상을 획득하는 카메라를 구비하는 영상 획득부와, 획득한 반사 영상으로부터 대상 물체의 3차원 입체형상을 측정하는 측정부를 포함하는 것을 특징으로 한다.In order to achieve the object of the present invention, the three-dimensional three-dimensional shape measuring apparatus according to the present invention is infrared filtering by a laser irradiation unit for irradiating an infrared laser to a target object, an infrared filter and an infrared filter for filtering only the infrared laser reflected from the target object And an image acquisition unit including a camera for acquiring a reflection image of the target object, and a measurement unit for measuring a three-dimensional solid shape of the target object from the acquired reflection image.

여기서 영상 획득부는 대상 물체의 수직 중심축을 기준으로 경사지게 배치되어 적외선 필터링된 대상 물체의 반사 영상을 획득하는 다수 카메라를 구비하는 것을 특징으로 한다.The image acquisition unit may include a plurality of cameras disposed obliquely with respect to the vertical center axis of the target object to acquire a reflection image of the infrared filtered target object.

바람직하게 영상 획득부는 대상 물체의 수직 중심축을 기준으로 경사지게 배치되는 다수 레이저 조사부와, 다수의 레이저 조사부 각각에 쌍을 이루어 대상 물체의 수직 중심축을 기준으로 경사지게 배치되며 적외선 필터링된 대상 물체의 반사 영상을 획득하는 다수 카메라를 구비하며, 다수 카메라는 각 카메라에서 획득한 대상 물체의 반사 영상이 서로 겹치도록 3차원 대상 물체의 수직 중심축을 기준으로 경사지게 배치되는 것을 특징으로 한다.Preferably, the image acquiring unit includes a plurality of laser irradiation units disposed to be inclined with respect to the vertical center axis of the target object, and a pair of each of the plurality of laser irradiation units is disposed to be inclined with respect to the vertical center axis of the target object and to reflect the reflected image of the infrared filtered object. A plurality of cameras are obtained, and the plurality of cameras are disposed to be inclined with respect to the vertical center axis of the three-dimensional target object so that the reflection images of the target objects acquired by each camera overlap each other.

본 발명에 따른 3차원 입체형상 측정 장치는 제1 그룹을 이루는 레이저 조사부와 카메라를 통해 획득한 반사 영상의 단위 픽셀당 길이와 제2 그룹을 이루는 레이저 조사부와 카메라를 통해 획득한 반사 영상의 단위 픽셀당 길이가 서로 동일하도록 교정하는 교정부를 더 포함한다. The 3D stereoscopic measuring apparatus according to the present invention includes a unit pixel of a reflection image obtained through a laser irradiation unit and a camera and a second group of laser irradiation units forming a first group and a reflection image acquired through a camera. The apparatus further includes a calibration unit for calibrating sugar lengths to be the same.

본 발명에 따른 3차원 입체형상 측정 장치의 측정부는 획득한 반사 영상의 영상값을 임계값과 비교하여 획득한 반사 영상에서 대상 물체의 영역을 판단하는 영역 판단부와, 판단한 대상 물체의 영역 영상을 단위 픽셀로 세선화하여 세선화 영역 영상을 생성하는 세선화부와, 제1 그룹의 카메라를 통해 획득한 대상 물체의 제1 세선화 영역 영상과 제2 그룹의 카메라를 통해 획득한 대상 물체의 제2 세선화 영역 영상을 정합시켜 정합 영상을 생성하는 정합부와, 생성된 정합 영상의 단면으로부터 대상 물체의 3차원 입체 형상을 측정하는 입체형상 측정부를 포함한다. 바람직하게, 측정부는 정합된 제1 세선화 영역 영상과 제2 세선화 영역 영상에서 중복된 영역을 판단하며, 판단한 중복 영역을 보간하여 최종 정합 영상을 생성하는 중복 영역 보간부를 더 포함한다.The measuring unit of the 3D stereoscopic shape measuring apparatus according to the present invention compares the image value of the acquired reflection image with a threshold and determines an area of the target object in the acquired reflection image, and determines the area image of the determined target object. A thinning unit configured to generate a thinning area image by thinning unit pixels, and a first thinning area image of a target object obtained through a first group of cameras, and a second object of the target object obtained through a second group of cameras. A matching unit for matching the thinning region image to generate a matching image, and a three-dimensional shape measuring unit for measuring a three-dimensional solid shape of the target object from the cross-section of the generated matching image. Preferably, the measurement unit further includes a redundant area interpolation unit for determining overlapped areas in the matched first thinning area image and the second thinning area image, and generating a final matched image by interpolating the determined overlapping area.

본 발명의 일 실시예에 따른 3차원 입체형상 측정 장치에서 정합부는 제1 세선화 영역 영상을 구성하는 점 집합과 제2 세선화 영역 영상을 구성하는 점 집합 사이에서 가장 가까운 위치의 점들을 짝으로 설정하는 단계(이하 a1단계)와, 짝으로 설정된 점들의 거리 합을 계산하는 단계(이하 b1단계)와, 계산한 거리 합이 제1 임계값보다 작은지 판단하여 계산한 거리 합이 제1 임계값보다 작은 경우 제1 세선화 영역과 제2 세선화 영역을 정합하는 단계(이하 c1단계)를 수행하며, 계산한 거리 합이 제1 임계값보다 큰 경우 설정 거리 범위 또는 설정 각도 범위에서 제1 세선화 영역 영상과 제2 세선화 영역 영상의 거리 또는 각도를 변경하며 (a1) 단계 내지 (c1)단계를 반복하는 것을 특징으로 한다. In the apparatus for measuring a 3D shape according to an embodiment of the present invention, the matching unit sets pairs of points closest to each other between a set of points constituting the first thinning region image and a set of points constituting the second thinning region image. A step (hereinafter referred to as a1), a step of calculating the distance sum of paired points (hereinafter referred to as b1), and a distance sum calculated by determining whether the calculated distance sum is smaller than the first threshold value is a first threshold value. If smaller, the step of matching the first thinning area and the second thinning area (hereinafter, step c1) is performed, and when the calculated distance sum is greater than the first threshold value, the first thinning area is set in the set distance range or the set angle range. The steps (a1) to (c1) are repeated while changing the distance or angle between the linearization region image and the second thinning region image.

본 발명의 일 실시예에 따른 3차원 입체형상 측정 장치에서 정합부는 제1 세선화 영역 영상을 구성하는 점 집합과 제2 세선화 영역 영상을 구성하는 점 집합 사이에서 가장 가까운 위치의 점들을 짝으로 설정하는 단계(이하 a2단계)와, 짝으로 설정된 점들의 거리 합을 계산하는 단계(이하 b2단계)와, 계산한 거리 합의 오차가 제2 임계값 이내인지 판단하여 계산한 거리 합의 오차가 제2 임계값보다 작은 경우 제1 세선화 영역과 제2 세선화 영역을 정합하는 단계(이하 c2단계)를 수행하며, 계산한 거리 합의 오차가 제2 임계값보다 큰 경우 설정 거리 범위 또는 설정 각도 범위에서 제1 세선화 영역 영상과 제2 세선화 영역 영상의 거리 또는 각도를 변경하며 (a2) 단계 내지 (c2)단계를 반복하는 것을 특징으로 한다.In the apparatus for measuring a 3D shape according to an embodiment of the present invention, the matching unit sets pairs of points closest to each other between a set of points constituting the first thinning region image and a set of points constituting the second thinning region image. A step of calculating the sum of the distances of the pairs of pairs (hereinafter, step b2), and the distance sum error calculated by determining whether the calculated distance sum error is within the second threshold. If the value is smaller than the value, the first thinning area and the second thinning area are matched (step c2). If the calculated distance sum error is greater than the second threshold, The steps (a2) to (c2) are repeated while changing the distance or angle of the first thinning region image and the second thinning region image.

바람직하게, 짝으로 설정된 점들의 거리 합은 평균 제곱근 에러(Mean Square Error)로 계산되는 것을 특징으로 한다.Preferably, the sum of distances of the pairs of points is calculated as a mean square error.

본 발명에 따른 3차원 입체형상 측정 장치는 종래 3차원 입체형상 측정 장치와 비교하여 다음과 같은 다양한 효과들을 가진다.The three-dimensional conformation measuring apparatus according to the present invention has various effects as follows as compared with the conventional three-dimensional conformation measuring apparatus.

첫째, 본 발명에 따른 3차원 입체형상 측정 장치는 적외선 레이저를 대상 물체에 조사하고 대상 물체에서 반사되는, 적외선 필터링된 반사 영상으로부터 대상 물체의 입체 형상을 측정함으로써, 대상물체의 색상 또는 주변광에 영향을 받지않고 정확하게 대상물체의 입체형상을 측정할 수 있다.First, the three-dimensional three-dimensional shape measuring apparatus according to the present invention by irradiating an infrared laser to the target object and by measuring the three-dimensional shape of the target object from the infrared filtered reflection image, which is reflected from the target object, to the color or ambient light of the target object It is possible to accurately measure the three-dimensional shape of the object without being affected.

둘째, 본 발명에 따른 3차원 입체형상 측정 장치는 대상 물체의 수직 중심선을 기준으로 경사지게 배치되는 다수 카메라를 통해 적외선 필터링된 다수 반사 영상을 획득하고 획득한 다수 반사 영상을 정합하여 입체형상을 측정함으로써, 역구배를 가지는 대상물체의 입체 형상을 정확하게 측정할 수 있다.Second, the three-dimensional three-dimensional shape measuring apparatus according to the present invention by obtaining the infrared filtered multiple reflection image through a plurality of cameras inclined relative to the vertical centerline of the target object and by matching the obtained multiple reflection image to measure the three-dimensional shape , It is possible to accurately measure the three-dimensional shape of the object having an inverse gradient.

셋째, 본 발명에 따른 3차원 입체형상 측정 장치는 적외선 필터링된 반사 영상으로부터 대상물체의 입체 형상을 측정함으로써, 대상물체의 영역 판단 또는 다수 반사 영역의 정합을 빠르고 정확하게 수행할 수 있다.Third, the three-dimensional three-dimensional shape measuring apparatus according to the present invention can quickly and accurately perform the determination of the area of the object or the matching of the plurality of reflection areas by measuring the three-dimensional shape of the object from the infrared filtered reflection image.

넷째, 본 발명에 따른 3차원 입체형상 측정 장치는 역구배를 가지는 대상 물체의 입체 형상을 정확하게 측정하고 측정한 대상 물체의 입체 형상에 기초하여 대상 물체의 체적을 정확하게 계산할 수 있다.Fourth, the three-dimensional shape measurement apparatus according to the present invention can accurately measure the three-dimensional shape of the target object having an inverse gradient and accurately calculate the volume of the target object based on the measured three-dimensional shape of the target object.

도 1은 간섭무늬를 이용하여 대상물체의 입체형상을 측정하는 종래 입체형상 측정장치를 설명하는 기능블록도이다.
도 2는 레이저를 이용한 종래 입체 형상 측정장치를 설명하기 위한 기능블록도이다.
도 3은 본 발명의 일 실시예에 따른 3차원 입체 형상 측정 장치를 개략적으로 설명하기 위한 도면이다.
도 4는 본 발명에 따른 3차원 입체영상 측정장치에서 레이저 조사부와 카메라의 배치 상태의 일 예를 도시하다.
도 5는 제1 그룹의 카메라와 제2 그룹의 카메라에서 획득한 대상물체의 반사 영상이 서로 겹치도록 배치되어 있는 일 예를 도시하고 있다.
도 6은 본 발명에 따른 측정부를 보다 구체적으로 설명하기 위한 기능 블록도이다.
도 7은 판단한 대상물체 영역의 영상을 단위 픽셀로 세선화한 일 예를 도시하고 있다.
도 8은 본 발명에 따른 정합부에서 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합하는 일 예를 설명하기 위한 흐름도이다.
도 9는 본 발명에 따른 정합부에서 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합하는 다른 예를 설명하기 위한 흐름도이다.
1 is a functional block diagram illustrating a conventional three-dimensional shape measuring apparatus for measuring the three-dimensional shape of the object using the interference fringe.
2 is a functional block diagram illustrating a conventional three-dimensional shape measuring apparatus using a laser.
3 is a view for schematically explaining a three-dimensional three-dimensional shape measuring apparatus according to an embodiment of the present invention.
4 illustrates an example of an arrangement state of a laser irradiation unit and a camera in the 3D stereoscopic image measuring apparatus according to the present invention.
FIG. 5 illustrates an example in which the reflection images of the target objects acquired by the first group of cameras and the second group of cameras overlap each other.
6 is a functional block diagram for explaining in more detail the measuring unit according to the present invention.
7 illustrates an example of thinning an image of the determined object region by pixel units.
8 is a flowchart illustrating an example of registering a first thinning region image and a second thinning region image in the matching unit according to the present invention.
9 is a flowchart illustrating another example of matching the first thinning region image and the second thinning region image in the matching unit according to the present invention.

이하 첨부한 도면을 참고로 본 발명에 따른 3차원 입체형상 측정 장치에 대해 보다 구체적으로 살펴본다.Hereinafter, a three-dimensional solid shape measuring apparatus according to the present invention will be described in detail with reference to the accompanying drawings.

도 3은 본 발명의 일 실시예에 따른 3차원 입체 형상 측정 장치를 개략적으로 설명하기 위한 도면이다.3 is a view for schematically explaining a three-dimensional three-dimensional shape measuring apparatus according to an embodiment of the present invention.

도 3을 참고로 보다 구체적으로 살펴보면, 3차원 입체 형상 측정 장치는 대상 물체(1)로 적외선 레이저를 조사하는 다수의 레이저 조사부(110, 130), 각 레이저 조사부(110, 130)에서 조사되어 대상물체(1)로부터 반사되는 적외선 레이저의 반사 영상을 촬영하는 영상 획득부(120, 140)을 구비한다. 영상 획득부(120, 140)는 레이저 조사부(110, 130)에서 조사되어 대상물체(1)로부터 반사되는 적외선 레이저만을 필터링하는 적외선 필터링부(121, 141)와 적외선 필터링된 대상물체(1)의 반사 영상을 촬영하는 카메라(123, 143)를 구비하고 있다. 적외선 필터링부(121, 141)는 각 카메라(123, 143)의 촬영 전면에 배치되어, 적외선 필터링된 반사 영상이 각 카메라(123, 143)에서 획득된다. 각 카메라(123, 143)에서 획득한 반사 영상은 유선 또는 무선 네트워크를 이용하여 측정부(200)로 송신되며, 측정부(200)는 획득한 반사 영상으로부터 대상 물체(1)의 3차원 입체형상을 측정한다.Referring to Figure 3 in more detail, the three-dimensional three-dimensional shape measuring apparatus is irradiated from a plurality of laser irradiation unit (110, 130), each laser irradiation unit (110, 130) for irradiating an infrared laser to the target object (1) Image acquisition units 120 and 140 for capturing a reflection image of the infrared laser beam reflected from the object 1 are provided. The image acquisition units 120 and 140 may emit light from the infrared filtering units 121 and 141 and the infrared filtered object 1 to filter only infrared lasers irradiated from the laser irradiation units 110 and 130 and reflected from the object 1. Cameras 123 and 143 for photographing reflection images are provided. The infrared filtering units 121 and 141 are disposed in front of the photographing front of each of the cameras 123 and 143, and the infrared filtered reflection image is obtained from each of the cameras 123 and 143. The reflection images obtained by the cameras 123 and 143 are transmitted to the measurement unit 200 by using a wired or wireless network, and the measurement unit 200 is a three-dimensional solid shape of the target object 1 from the acquired reflection images. Measure

레이저 조사부(110)와 카메라(123)는 제1 그룹을 이루고 있으며 레이저 조사부(130)와 카메라(143)는 제2 그룹을 이루고 있다. 제1 레이저 조사부(110)로부터 조사되어 대상물체(1)로부터 반사되는 적외선 레이저의 반사 영상은 제1 카메라(121)를 통해 획득되며, 제2 레이저 조사부(130)로부터 조사되어 조사물체(1)로부터 반사되는 적외선 레이저의 반사 영상은 제2 카메라(141)를 통해 획득된다. 즉, 1개의 레이저 조사부와 1개의 카메라는 1개의 그룹을 이루며 다수의 그룹이 대상물체(1)의 적외선 레이저의 반사 영상을 획득한다. 본 발명에서는 제1 그룹을 구성하는 레이저 조사부(110)와 카메라(123) 및 제2 그룹을 구성하는 레이저 조사부(130)와 카메라(143)를 구비하는 3차원 입체형상 측정 장치의 일 예를 도시하여 설명하고 있으나, 본 발명이 적용되는 분야에 따라 2 이상의 다수 그룹을 구비할 수 있다.
The laser irradiator 110 and the camera 123 form a first group, and the laser irradiator 130 and the camera 143 form a second group. The reflected image of the infrared laser irradiated from the first laser irradiator 110 and reflected from the object 1 is obtained through the first camera 121 and irradiated from the second laser irradiator 130 to irradiate the object 1. The reflected image of the infrared laser reflected from the second camera 141 is obtained. That is, one laser irradiator and one camera form one group, and a plurality of groups acquire the reflection image of the infrared laser of the object 1. In the present invention, an example of a three-dimensional stereoscopic shape measuring apparatus including a laser irradiation unit 110 and a camera 123 constituting the first group and a laser irradiation unit 130 and a camera 143 constituting the second group is shown. As described above, two or more groups may be provided according to the field to which the present invention is applied.

본 발명에 따른 3차원 입체영상 측정장치에서 레이저 조사부와 카메라의 배치 상태의 일 예를 도시하고 있는 도 4를 참고로 살펴보면, 제1 그룹과 제2 그룹의 레이저 조사부(110, 130)는 대상물체(1)의 수직 중심축(C)을 기준으로 경사지게 이격 조사 각도(1, 2)로 배치되어 있으며, 대상물체(1)로 이격 각도로 일정 패턴, 예를들어 선 레이저 패턴의 적외선 레이저를 조사한다. 제1 그룹과 제2 그룹의 카메라(121, 141)는 대상물체(1)로부터 반사되는 적외선 필터링된 반사 영상을 이격 촬영 각도(3, 4)에서 획득한다. Referring to FIG. 4, which shows an example of an arrangement state of a laser irradiator and a camera in a 3D stereoscopic image measuring apparatus according to the present invention, the laser irradiators 110 and 130 of the first group and the second group are an object. (1) is disposed at an inclined distance ( 1 , 2 ) inclined relative to the vertical central axis (C), and irradiates an infrared laser of a predetermined pattern, for example, a line laser pattern, at an angle of separation to the object (1). do. The cameras 121 and 141 of the first group and the second group acquire the infrared filtered reflected image reflected from the target object 1 at the separated photographing angles 3 and 4 .

한편, 제1 그룹의 레이저 조사부(110)와 카메라(121)는 서로 이격 배치 각도(3-1)와 이격 배치 거리만큼 떨어져 배치되며, 제2 그룹의 레이저 조사부(110)와 카메라(141)는 서로 이격 배치 각도(4-2)와 이격 배치 거리만큼 떨어져 배치되어 있다. 여기서 제1 그룹의 레이저 조사부(110)와 카메라(121)의 이격 배치 각도와 이격 배치 거리 또는 제2 그룹의 레이저 조사부(110)와 카메라(141)의 이격 배치 각도와 이격 배치 거리는 삼각 측량법에 의해 레이저 조사부(110, 130)에서 조사된 적외선 레이저의 반사 영상을 카메라(121, 141)에서 정확하게 촬영하기 위해 필요한 이격 배치 각도와 이격 배치 거리로 대상물체(1)와 제1 그룹 또는 제2 그룹의 거리 및 대상물체의 종류에 따라 상이하게 설정된다.
On the other hand, the laser irradiation part 110 and the camera 121 are each spaced an angle (3 - 1) of the first group being arranged spaced arrangement distance and spaced apart, the laser irradiation part 110 of the second group and the camera 141 is It is disposed spaced and spaced away each other - the spaced arrangement angle (24). Here, the separation distance and the distance between the laser irradiation unit 110 and the camera 121 of the first group and the separation distance or the distance between the laser irradiation unit 110 and the camera 141 of the second group and the distance of the separation distance by triangulation method In order to accurately capture the reflected image of the infrared laser emitted from the laser irradiation unit 110 and 130 by the cameras 121 and 141, the target object 1 and the first group or the second group are separated by the separation distance and the separation distance. It is set differently according to the distance and the kind of the object.

바람직하게, 제1 그룹의 카메라(121)와 제2 그룹의 카메라(141)는 각각 획득한 대상물체(1)의 반사 영상이 서로 겹치도록 대상물체(1)의 수직 중심축(C)을 기준으로 경사지게 배치되는데, 도 5는 제1 그룹의 카메라(121)와 제2 그룹의 카메라(141)에서 획득한 대상물체(1)의 반사 영상이 서로 겹치도록 배치되어 있는 일 예를 도시하고 있다. 제1 그룹의 카메라(121)와 제2 그룹의 카메라(141)에서 획득한 대상물체(1)의 반사 영상이 서로 겹치도록 배치함으로써, 제1 그룹의 카메라(121)를 통해 획득한 반사 영상과 제2 그룹의 카메라(141)를 통해 획득한 반사 영상을 정확하게 정합시킬 수 있다.Preferably, the camera 121 of the first group and the camera 141 of the second group each reference the vertical central axis C of the object 1 so that the acquired reflection images of the object 1 overlap each other. 5 is an example in which the reflection images of the object 1 acquired by the camera 121 of the first group and the camera 141 of the second group are overlapped with each other. By reflecting the reflection images of the object (1) obtained from the camera 121 of the first group and the camera 141 of the second group so as to overlap each other, the reflection image obtained through the camera 121 of the first group and The reflected image acquired by the second group of cameras 141 may be accurately matched.

도 6은 본 발명에 따른 측정부를 보다 구체적으로 설명하기 위한 기능 블록도이다.6 is a functional block diagram for explaining in more detail the measuring unit according to the present invention.

도 6을 참고로 보다 구체적으로 살펴보면, 교정부(210)는 제1 그룹의 카메라(121)를 통해 획득한 반사 영상의 단위 픽셀당 길이와 제2 그룹의 카메라(141)를 통해 획득한 반사 영상의 단위 픽셀당 길이가 서로 동일하도록 교정한다. 제1 그룹의 카메라(121)와 제2 그룹의 카메라(141)의 위치에 따라 동일 대상물체(1)로부터 획득한 반사 영상의 단위 픽셀당 길이는 서로 상이할 수 있다. 따라서 교정부(210)는 제1 그룹의 카메라(121) 또는 제2 그룹의 카메라(141)의 위치를 조정하거나 제1 그룹의 카메라(121) 또는 제2 그룹의 카메라(141)를 통해 획득한 반사 영상을 조정하여 제1 그룹의 카메라(121) 또는 제2 그룹의 카메라(141)를 통해 획득한 반사 영상의 단위 픽셀당 길이가 서로 동일하도록 교정한다.Referring to FIG. 6, in detail, the correction unit 210 has a length per unit pixel of the reflection image obtained through the camera 121 of the first group and the reflection image obtained through the camera 141 of the second group. Correct the lengths per unit pixel of equal to each other. Depending on the position of the camera 121 of the first group and the camera 141 of the second group, the length per unit pixel of the reflected image obtained from the same object 1 may be different from each other. Therefore, the calibrator 210 adjusts the position of the camera 121 of the first group or the camera 141 of the second group or obtains through the camera 121 of the first group or the camera 141 of the second group. The reflection images are adjusted to correct the lengths of the reflection pixels acquired through the camera 121 of the first group or the camera 141 of the second group to have the same length per unit pixel.

영역 판단부(220)는 교정된 반사 영상의 영상값을 임계 영상값과 비교하여 획득한 반사 영상에서 대상 물체의 영역을 판단한다. 대상물체(1)의 영역을 판단하는 방법의 일 예를 살펴보면, 조사된 적외선 레이저는 대상물체에서 대상물체가 없는 부분보다 상대적으로 높은 영상값, 예를 들어 픽셀 명도값으로 반사되며, 영역 판단부(220)는 영상값에 기초하여 임계 영상값보다 높은 값을 가지는 픽셀을 대상 물체의 영역으로 판단한다. The area determiner 220 determines an area of the target object in the reflected image obtained by comparing the corrected image value of the reflected image with the threshold image value. As an example of a method of determining the area of the object 1, the irradiated infrared laser is reflected with a relatively higher image value, for example, a pixel brightness value, than the portion without the object in the object, and the area determination unit In operation 220, a pixel having a value higher than the threshold image value is determined as an area of the target object based on the image value.

세선화부는(230)는 판단한 대상물체 영역의 영상을 단위 픽셀로 세선화(thinning)하여 세선화 영역 영상을 생성한다. 세선화는 두께를 가진 이진 이미지를 그 형태 특성만 남은, 즉 두께가 1인 이미지로 바꾸어 주는 것을 의미한다. 세선화 방법의 일 예는 Zhang-Suen 알고리즘으로 한쌍의 함수 중 제1 함수는 해당 픽셀을 지울지 남겨둘지를 결정하는 역할을 하며, 제1 함수를 이미지 전체의 픽셀에 적용한 후 제2 함수를 이미지 전체의 픽셀에 적용하는 것으로 한번의 처리가 완료된다. 본 발명에서 대상물체 영역 영상의 세선화는 line Following 알고리즘, Stentiford 알고리즘, Holt Combined 알고리즘 등과 같은 종래 세선화 알고리즘을 통해 수행할 수 있으며, 구체적인 세선화 방법에 대한 설명은 생략한다.The thinning unit 230 generates a thinning region image by thinning the determined image of the object region to unit pixels. Thinning means converting a binary image with a thickness into an image with only its shape characteristics, that is, a thickness of 1. One example of the thinning method is the Zhang-Suen algorithm, in which a first function of a pair of functions decides whether to delete or leave a corresponding pixel, and after applying the first function to the pixels of the entire image, the second function is imaged. Applying to the whole pixel completes one process. In the present invention, the thinning of the object region image may be performed through a conventional thinning algorithm such as a line following algorithm, a Stentiford algorithm, a Holt Combined algorithm, and a detailed description of the thinning method is omitted.

도 7은 판단한 대상물체 영역의 영상을 단위 픽셀로 세선화한 일 예를 도시하고 있는데, 도 7과 같이 대상물체 영역의 영상을 단위 픽셀 폭으로 세선화함으로써, 이후 반사 영상 정합 또는 중복 영상 제거를 보다 적은 프로세스로 빠르게 수행할 수 있다.FIG. 7 illustrates an example of thinning an image of a determined object region by a unit pixel. As shown in FIG. 7, the image of the object region is thinned by a unit pixel width, thereby eliminating reflection image matching or eliminating duplicate images. You can do it faster with fewer processes.

정합부(240)는 제1 그룹의 카메라(121)를 통해 획득한 대상물체의 제1 세선화 영역 영상과 제2 그룹의 카메라(141)를 통해 획득한 대상물체의 제2 세선화 영역 영상을 정합시켜 대상물체의 정합 영상을 생성하고, 중복 영역 보간부(250)는 생성한 정합 영상에서 정합된 제1 세선화 영역 영상과 제2 세선화 영역 영상의 중복된 영역을 판단하며, 판단한 중복 영역을 보간하여 중복 영역을 제거한 최종 정합 영상을 생성한다. 여기서 중복 영역은 정합된 제1 세선화 영역 영상과 제2 세선화 영역 영상에서 서로 겹치지 않은 영역으로 판단된다.The matching unit 240 may display the first thinning region image of the target object acquired through the camera 121 of the first group and the second thinning region image of the target object obtained through the camera 141 of the second group. The image is matched to generate a matched image of the object, and the overlapping area interpolator 250 determines the overlapped areas of the first thinning area image and the second thinning area image matched in the generated matching image, and determine the overlapping area. Interpolate to generate a final registration image from which duplicate areas are removed. In this case, the overlapping region is determined as a region that does not overlap each other in the matched first thinning region image and the second thinning region image.

입체형상 측정부(260)는 생성된 최종 정합 영상으로부터 대상 물체의 3차원 입체형상을 측정한다. 중복 영역 보간부(250)에서 생성된 정합 영상은 대상물체의 단면 영상으로 입체형상 측정부(260)는 단위 간격으로 생성된 대상물체의 단면 영상을 연장하고 연장된 단면 영상을 결합하여 대상물체의 3차원 입체형상을 측정한다.
The three-dimensional shape measuring unit 260 measures the three-dimensional shape of the target object from the generated final matched image. The matched image generated by the overlapped area interpolator 250 is a cross-sectional image of the target object. The three-dimensional shape measuring unit 260 extends the cross-sectional image of the target object generated at unit intervals and combines the extended cross-sectional image of the target object. Three-dimensional solid shape is measured.

도 8은 본 발명에 따른 정합부에서 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합하는 일 예를 설명하기 위한 흐름도이다.8 is a flowchart illustrating an example of registering a first thinning region image and a second thinning region image in the matching unit according to the present invention.

도 8을 참고로 살펴보면, 제1 그룹의 카메라(121)를 통해 획득한 대상물체의 제1 세선화 영역 영상을 구성하는 점 집합(P)과 제2 그룹의 카메라(141)를 통해 획득한 대상물체의 제2 세선화 영역 영상을 구성하는 점 집합(M) 사이에서 가장 가까운 위치의 점들을 짝으로 설정한다(S10). 예를 들어, 제1 세선화 영역 영상을 구성하는 점 집합(P)의 점(p1)과 가장 가까운 거리에 위치하는 점 집합(M)의 점(m1)을 검색하고, 검색한 가장 가까운 거리에 위치하는 점(p1, m1)을 짝으로 설정한다. 짝으로 설정된 점들의 거리 합을 계산하고(S20), 계산한 거리 합이 제1 임계값보다 작은지 판단하여(S30), 계산한 거리 합이 제1 임계값보다 큰 경우 설정 거리 범위 또는 설정 각도 범위에서 제1 세선화 영역 영상과 제2 세선화 영역 영상의 거리 또는 각도를 변경하며 S10 단계 내지 S30단계를 반복한다(S40). 한편, 계산한 거리 합이 제1 임계값보다 작은 경우 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합한다.Referring to FIG. 8, the point set P constituting the first thinning region image of the object obtained through the camera 121 of the first group and the object obtained through the camera 141 of the second group are shown. Points of the closest position are set as pairs between the point sets M constituting the second thinning region image of the object (S10). For example, the point m1 of the point set M located at the closest distance to the point p1 of the point set P constituting the first thinning region image is searched, Set the points (p1, m1) to be paired. The distance sum of the pairs of points set as the pair is calculated (S20), and it is determined whether the calculated distance sum is smaller than the first threshold value (S30). The distance or angle of the first thinning region image and the second thinning region image is changed in a range, and steps S10 to S30 are repeated (S40). Meanwhile, when the calculated sum of distances is smaller than the first threshold value, the first thinning area image and the second thinning area image are matched.

여기서 짝으로 설정된 점들의 거리 합을 계산하는 단계는 제1 세선화 영역 영상과 제2 세선화 영역 영상의 정합 오차를 판단하기 위한 방법으로 본 발명에서 짝으로 설정된 점들의 평균 제곱근 에러(Mean Square Error)를 이용한다.The calculating of the sum of the distances of the pairs set as pairs is a method for determining a matching error between the first thinning region image and the second thinning region image. ).

여기서 계산한 거리 합이 제1 임계값보다 큰 경우 설정 거리 범위에서 제1 세선화 영역 영상 또는 제2 세선화 영역 영상 사이의 거리를 단위 설정 거리만큼씩 순차적으로 증감 변경하거나 설정 각도 범위에서 제1 세선화 영역 영상 또는 제2 세선화 영역 영상을 단위 설정 각도만큼씩 순차적으로 증감 변경하며, 변경한 거리 또는 각도에서 S10 단계 내지 S30단계를 반복하여 계산한 거리 합이 제1 임계값보다 작은 경우 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합한다.
If the sum of the distances calculated is greater than the first threshold value, the distance between the first thinning area image or the second thinning area image in the set distance range is sequentially increased or decreased by a unit setting distance, or the first angle is set in the set angle range. Subsequently, the thinning area image or the second thinning area image is sequentially increased or decreased by a unit setting angle, and if the sum of distances calculated by repeating steps S10 to S30 at the changed distance or angle is smaller than the first threshold value, The first thinning region image and the second thinning region image are matched.

도 9는 본 발명에 따른 정합부에서 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합하는 다른 예를 설명하기 위한 흐름도이다.9 is a flowchart illustrating another example of matching the first thinning region image and the second thinning region image in the matching unit according to the present invention.

도 9를 참고로 살펴보면, 제1 그룹의 카메라(121)를 통해 획득한 대상물체의 제1 세선화 영역 영상을 구성하는 점 집합(P)과 제2 그룹의 카메라(141)를 통해 획득한 대상물체의 제2 세선화 영역 영상을 구성하는 점 집합(M) 사이에서 가장 가까운 위치의 점들을 짝으로 설정한다(S110). 짝으로 설정된 점들의 거리 합을 계산하고(S120), 계산한 거리 합이 제1 임계값보다 작은지 판단하여(S30), 계산한 거리 합이 제1 임계값보다 큰 경우 이전 계산한 거리 합(S1)과 현재 계산한 거리 합(S2)의 차이가 제2 임계값보다 작은지 판단한다(S140). 이전 계산한 거리 합(S1)과 현재 계산한 거리 합(S2)의 차이가 제2 임계값보다 큰 경우 설정 거리 범위 또는 설정 각도 범위에서 제1 세선화 영역 영상과 제2 세선화 영역 영상의 거리 또는 각도를 변경하며 S110 단계 내지 S140단계를 반복한다(S150). Referring to FIG. 9, the point set P constituting the first thinning region image of the object obtained through the camera 121 of the first group and the object obtained through the camera 141 of the second group are shown. Points of the closest position are set as pairs between the point sets M constituting the second thinning region image of the object (S110). Calculate the sum of the distances of the points set as a pair (S120), determine whether the calculated distance sum is less than the first threshold value (S30), and if the calculated distance sum is greater than the first threshold value, the previously calculated distance sum ( It is determined whether the difference between S1) and the currently calculated distance sum S2 is smaller than the second threshold value (S140). When the difference between the previously calculated distance sum S1 and the currently calculated distance sum S2 is greater than the second threshold, the distance between the first thinning area image and the second thinning area image in the set distance range or the set angle range. Or change the angle and repeat steps S110 to S140 (S150).

한편, 계산한 거리 합(S2)이 제1 임계값보다 작거나, 이전 계산한 거리 합(S1)과 현재 계산한 거리 합(S2)의 차이가 제2 임계값보다 작은 경우 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합한다. 계산한 거리 합(S2)이 제1 임계값보다 크더라도 이전 계산한 거리 합(S1)과 현재 계산한 거리 합(S2)의 차이가 제2 임계값보다 작은 경우, 즉 거리 합의 변화 폭이 제2 임계값보다 작아지는 경우 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합 처리하여, 계산한 거리 합(S2)이 제1 임계값보다 커서 무한 루프에 빠지는 것을 방지한다.
Meanwhile, when the calculated distance sum S2 is smaller than the first threshold value or the difference between the previously calculated distance sum S1 and the currently calculated distance sum S2 is smaller than the second threshold value, the first thinning area Match the image with the second thinning region image. Even if the calculated distance sum S2 is greater than the first threshold value, the difference between the previously calculated distance sum S1 and the currently calculated distance sum S2 is smaller than the second threshold value, i. When the size is smaller than two thresholds, the first thinning area image and the second thinning area image are matched to prevent the calculated sum of the distances S2 from being greater than the first threshold value, thereby avoiding an infinite loop.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications and variations will be apparent to those skilled in the art. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

110, 130: 레이저 조사부 120, 140: 영상 획득부
121, 141: 카메라 123, 143: 적외선 필터부
210: 교정부 220: 영역 판단부
230: 세선화부 240: 정합부
250: 중복 영역 보간부 260: 입체 형상 측정부
110, 130: laser irradiation unit 120, 140: image acquisition unit
121, 141: cameras 123, 143: infrared filter unit
210: correction unit 220: region determination unit
230: thinning part 240: matching part
250: overlapped area interpolation unit 260: three-dimensional shape measuring unit

Claims (10)

대상 물체에 적외선 레이저를 조사하는 레이저 조사부;
상기 대상 물체에서 반사되는 적외선 레이저만을 필터링하는 적외선 필터와 상기 적외선 필터에 의해 적외선 필터링된 상기 대상 물체의 반사 영상을 획득하는 카메라를 구비하는 영상 획득부; 및
상기 획득한 반사 영상으로부터 상기 대상 물체의 3차원 입체형상을 측정하는 측정부를 포함하는 것을 특징으로 하는 3차원 입체형상 측정 장치.
A laser irradiation unit for irradiating an infrared laser to a target object;
An image acquisition unit including an infrared filter for filtering only infrared lasers reflected from the target object, and a camera for obtaining a reflection image of the target object filtered by the infrared filter; And
And a measuring unit for measuring a three-dimensional shape of the target object from the acquired reflection image.
제 1 항에 있어서, 상기 영상 획득부는
상기 대상 물체의 수직 중심축을 기준으로 경사지게 배치되어 적외선 필터링된 상기 대상 물체의 반사 영상을 획득하는 다수 카메라를 구비하는 것을 특징으로 하는 3차원 입체형상 측정 장치.
The method of claim 1, wherein the image acquisition unit
And a plurality of cameras disposed obliquely with respect to the vertical center axis of the target object to acquire a reflected image of the target object filtered by infrared rays.
제 2 항에 있어서, 상기 영상 획득부는
상기 대상 물체의 수직 중심축을 기준으로 경사지게 배치되는 다수 레이저 조사부; 및
상기 다수의 레이저 조사부 각각에 그룹을 이루어 상기 대상 물체의 수직 중심축을 기준으로 경사지게 배치되며, 적외선 필터링된 상기 대상 물체의 반사 영상을 획득하는 다수 카메라를 구비하는 것을 특징으로 하는 3차원 입체형상 측정 장치.
The method of claim 2, wherein the image acquisition unit
A plurality of laser irradiation units disposed to be inclined with respect to the vertical center axis of the target object; And
Three-dimensional stereoscopic shape measurement apparatus characterized in that it comprises a plurality of cameras to be grouped to each of the plurality of laser irradiation unit disposed inclined with respect to the vertical center axis of the target object, to obtain a reflection image of the infrared filtered object .
제 3 항에 있어서, 상기 다수 카메라는
각 카메라에서 획득한 상기 대상 물체의 반사 영상이 서로 겹치도록 상기 대상 물체의 수직 중심축을 기준으로 경사지게 배치되는 것을 특징으로 하는 3차원 입체형상 측정 장치.
The method of claim 3, wherein the plurality of cameras
3D stereoscopic measuring device, characterized in that arranged inclined with respect to the vertical center axis of the target object so that the reflection image of the target object obtained from each camera overlap each other.
제 3 항에 있어서, 상기 3차원 입체형상 측정 장치는
제1 그룹의 카메라를 통해 획득한 반사 영상의 단위 픽셀당 길이와 제2 그룹의 카메라를 통해 획득한 반사 영상의 단위 픽셀당 길이가 서로 동일하도록 교정하는 교정부를 더 포함하는 것을 특징으로 하는 3차원 입체형상 측정 장치.
According to claim 3, wherein the three-dimensional solid-state measuring device
And a calibrating unit configured to correct lengths of the reflection pixels obtained through the cameras of the first group and lengths of the reflection pixels acquired through the cameras of the second group to be the same. Three-dimensional shape measuring device.
제 3 항에 있어서, 상기 측정부는
상기 획득한 반사 영상의 영상값을 임계값과 비교하여 상기 획득한 반사 영상에서 상기 대상 물체의 영역을 판단하는 영역 판단부;
상기 판단한 대상 물체의 영역 영상을 단위 픽셀로 세선화하여 세선화 영역 영상을 생성하는 세선화부;
상기 다수 카메라 중 제1 카메라를 통해 획득한 상기 대상 물체의 제1 세선화 영역 영상과 상기 다수 카메라 중 제2 카메라를 통해 획득한 상기 대상 물체의 제2 세선화 영역 영상을 정합시켜 정합 영상을 생성하는 정합부; 및
상기 생성된 정합 영상의 단면으로부터 상기 대상 물체의 3차원 입체형상을 측정하는 3차원 입체형상 측정부를 포함하는 것을 특징으로 하는 3차원 입체형상 측정 장치.
The method of claim 3, wherein the measuring unit
An area determination unit which determines an area of the target object in the acquired reflection image by comparing an image value of the acquired reflection image with a threshold value;
A thinning unit configured to generate a thinning region image by thinning the determined region image of the target object into unit pixels;
A matching image is generated by matching a first thinning region image of the target object acquired through a first camera among the plurality of cameras with a second thinning region image of the target object obtained through a second camera among the plurality of cameras. Matching part; And
And a three-dimensional three-dimensional shape measuring unit for measuring a three-dimensional three-dimensional shape of the target object from the cross-section of the generated matched image.
제 6 항에 있어서, 상기 정합부는
(a1) 상기 제1 세선화 영역 영상을 구성하는 점 집합과 상기 제2 세선화 영역 영상을 구성하는 점 집합 사이에서 가장 가까운 위치의 점들을 짝으로 설정하는 단계;
(b1) 상기 짝으로 설정된 점들의 거리 합을 계산하는 단계; 및
(c1) 상기 계산한 거리 합이 제1 임계값보다 작은지 판단하여 상기 계산한 거리 합이 제1 임계값보다 작은 경우 상기 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합하는 단계를 수행하며,
상기 계산한 거리 합이 상기 제1 임계값보다 큰 경우 설정 거리 범위 또는 설정 각도 범위에서 제1 세선화 영역 영상과 제2 세선화 영역 영상의 거리 또는 각도를 변경하며 상기 (a1) 단계 내지 (c1)단계를 반복하는 것을 특징으로 하는 3차원 입체형상 측정 장치.
The method of claim 6, wherein the matching portion
(a1) pairing points of a position closest to each other between a set of points constituting the first thinning area image and a set of points constituting the second thinning area image;
(b1) calculating a sum of distances of the paired points; And
(c1) determining whether the calculated sum of distances is less than a first threshold value and matching the first thinning area image and the second thinning area image when the calculated distance sum is less than a first threshold value. Performing,
When the sum of the calculated distances is greater than the first threshold value, the distance or angle between the first thinning area image and the second thinning area image is changed in a set distance range or a set angle range, and the steps (a1) to (c1). 3) the three-dimensional shape measurement apparatus, characterized in that to repeat the step.
제 6 항에 있어서, 상기 정합부는
(a2) 상기 제1 세선화 영역 영상을 구성하는 점 집합과 상기 제2 세선화 영역 영상을 구성하는 점 집합 사이에서 가장 가까운 위치의 점들을 짝으로 설정하는 단계;
(b2) 상기 짝으로 설정된 점들의 거리 합을 계산하는 단계; 및
(c2) 상기 계산한 거리 합의 오차가 제2 임계값 이내인지 판단하여 상기 계산한 거리 합의 오차가 제2 임계값보다 작은 경우 상기 제1 세선화 영역 영상과 제2 세선화 영역 영상을 정합하는 단계를 수행하며,
상기 계산한 거리 합의 오차가 상기 제2 임계값보다 큰 경우 설정 거리 범위 또는 설정 각도 범위에서 제1 세선화 영역 영상과 제2 세선화 영역 영상의 거리 또는 각도를 변경하며 상기 (a2) 단계 내지 (c2)단계를 반복하는 것을 특징으로 하는 3차원 입체형상 측정 장치.
The method of claim 6, wherein the matching portion
(a2) pairing points of a position closest to each other between a set of points constituting the first thinning area image and a set of points constituting the second thinning area image;
(b2) calculating a sum of distances of the paired points; And
(c2) determining whether the calculated distance sum error is within a second threshold and matching the first thinned area image and the second thinned area image when the calculated distance sum error is smaller than a second threshold value. , And
If the calculated distance sum error is greater than the second threshold value, the distance or angle between the first thinning area image and the second thinning area image is changed in a set distance range or a set angle range, and the steps (a2) to ( c) measuring the three-dimensional solid shape, characterized in that to repeat the step.
제 7 항 또는 제 8 항에 있어서, 상기 짝으로 설정된 점들의 거리 합은 평균 제곱근 에러(Mean Square Error)로 계산되는 것을 특징으로 하는 3차원 입체형상 측정 장치.The apparatus of claim 7 or 8, wherein the sum of the distances of the paired points is calculated as a mean square error. 제 6 항에 있어서, 상기 측정부는
상기 정합된 제1 세선화 영역 영상과 제2 세선화 영역 영상에서 중복된 영역을 판단하며, 상기 판단한 중복 영역을 보간하여 중복 영역을 제거한 최종 정합 영상을 생성하는 중복 영역 생성부를 더 포함하는 것을 특징으로 하는 3차원 입체형상 측정 장치.
The method of claim 6, wherein the measuring unit
The apparatus may further include a duplicated region generator configured to determine a duplicated region in the matched first thinned region image and the second thinned region image, and generate a final matched image from which the duplicated region is removed by interpolating the determined overlapped region. Three-dimensional solid-state measuring device to be.
KR1020110131239A 2011-12-08 2011-12-08 Apparatus for monitoring three-dimensional shape of target object KR101327433B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110131239A KR101327433B1 (en) 2011-12-08 2011-12-08 Apparatus for monitoring three-dimensional shape of target object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110131239A KR101327433B1 (en) 2011-12-08 2011-12-08 Apparatus for monitoring three-dimensional shape of target object

Publications (2)

Publication Number Publication Date
KR20130064564A true KR20130064564A (en) 2013-06-18
KR101327433B1 KR101327433B1 (en) 2013-11-11

Family

ID=48861489

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110131239A KR101327433B1 (en) 2011-12-08 2011-12-08 Apparatus for monitoring three-dimensional shape of target object

Country Status (1)

Country Link
KR (1) KR101327433B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017204571A1 (en) * 2016-05-26 2017-11-30 주식회사 골프존 Camera sensing apparatus for obtaining three-dimensional information of object, and virtual golf simulation apparatus using same
CN117218743A (en) * 2023-11-07 2023-12-12 诺比侃人工智能科技(成都)股份有限公司 Intelligent inspection control method and system based on machine vision

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104165600B (en) * 2014-07-03 2016-10-05 杭州鼎热科技有限公司 A kind of wireless handheld 3D laser scanning system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3852285B2 (en) 2001-01-10 2006-11-29 富士ゼロックス株式会社 3D shape measuring apparatus and 3D shape measuring method
JP4191428B2 (en) 2002-05-01 2008-12-03 三菱重工業株式会社 Camera type three-dimensional measuring device
JP2008537190A (en) * 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド Generation of three-dimensional image of object by irradiating with infrared pattern
JP5336325B2 (en) 2009-10-30 2013-11-06 大日本スクリーン製造株式会社 Image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017204571A1 (en) * 2016-05-26 2017-11-30 주식회사 골프존 Camera sensing apparatus for obtaining three-dimensional information of object, and virtual golf simulation apparatus using same
CN117218743A (en) * 2023-11-07 2023-12-12 诺比侃人工智能科技(成都)股份有限公司 Intelligent inspection control method and system based on machine vision
CN117218743B (en) * 2023-11-07 2024-02-09 诺比侃人工智能科技(成都)股份有限公司 Intelligent inspection control method and system based on machine vision

Also Published As

Publication number Publication date
KR101327433B1 (en) 2013-11-11

Similar Documents

Publication Publication Date Title
KR20190051052A (en) A three-dimensional scanning method including a laser of a plurality of different wavelengths,
US9267790B2 (en) Measuring device of measurement object, calculating device, measurement method, and method for producing item
KR20120058828A (en) System for extracting 3-dimensional coordinate and method thereof
JP2002213931A (en) Instrument and method for measuring three-dimensional shape
WO2006013635A1 (en) Three-dimensional shape measuring method and apparatus for the same
JP2012504771A (en) Method and system for providing three-dimensional and distance inter-surface estimation
CN111735413A (en) Three-dimensional shape measuring device
CN110692084B (en) Apparatus and machine-readable storage medium for deriving topology information of a scene
JP7413372B2 (en) Three-dimensional sensor with opposing channels
KR101766468B1 (en) Method for 3D shape measuring using of Triple Frequency Pattern
KR101327433B1 (en) Apparatus for monitoring three-dimensional shape of target object
JP6673266B2 (en) Mutual reflection detecting device, mutual reflection detecting method, and program
KR101465996B1 (en) Method for measurement of high speed 3d shape using selective long period
JP2014238299A (en) Measurement device, calculation device, and measurement method for inspected object, and method for manufacturing articles
JP6362058B2 (en) Test object measuring apparatus and article manufacturing method
KR101750883B1 (en) Method for 3D Shape Measuring OF Vision Inspection System
JP6074284B2 (en) Method and apparatus for measuring shape of belt-like rubber member
JP5743433B2 (en) 3D shape measuring device
JP3852285B2 (en) 3D shape measuring apparatus and 3D shape measuring method
KR101613829B1 (en) Method and Apparatus for 3D Shape Measuring By Using Derivative Moire
KR101819141B1 (en) Method for decoding line structured light patterns by using fourier analysis
KR101706627B1 (en) Distance measurement device by using stereo image and method thereof
EP3688407A1 (en) Light projection systems
KR101765257B1 (en) Method for acquiring three dimensional image information, and computing device implementing the samemethod
KR20180053125A (en) 3-dimensional shape measurment apparatus and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161025

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181031

Year of fee payment: 6