KR101447645B1 - Method for measuring three dimensional shape - Google Patents

Method for measuring three dimensional shape Download PDF

Info

Publication number
KR101447645B1
KR101447645B1 KR1020140085079A KR20140085079A KR101447645B1 KR 101447645 B1 KR101447645 B1 KR 101447645B1 KR 1020140085079 A KR1020140085079 A KR 1020140085079A KR 20140085079 A KR20140085079 A KR 20140085079A KR 101447645 B1 KR101447645 B1 KR 101447645B1
Authority
KR
South Korea
Prior art keywords
height
weight
measurement object
brightness
directions
Prior art date
Application number
KR1020140085079A
Other languages
Korean (ko)
Other versions
KR20140095041A (en
Inventor
정중기
김민영
이승준
Original Assignee
주식회사 고영테크놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고영테크놀러지 filed Critical 주식회사 고영테크놀러지
Priority to KR1020140085079A priority Critical patent/KR101447645B1/en
Publication of KR20140095041A publication Critical patent/KR20140095041A/en
Application granted granted Critical
Publication of KR101447645B1 publication Critical patent/KR101447645B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2522Projection by scanning of the object the position of the object changing and being recorded
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/306Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces for measuring evenness
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/06Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the phase of light

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

N-버켓 알고리즘(N-bucket algorism)을 이용하여 측정 대상물의 3차원 형상을 측정할 수 있는 3차원 형상 측정방법으로, 복수의 방향들로부터 인가되는 격자 패턴광들 각각을 N번 측정 대상물로 조사한 후, 측정 대상물로부터 반사되는 격자 패턴광들을 순차적으로 검출하여, 각 방향에서의 측정 대상물의 N개의 패턴영상들을 획득한다. 이어서, 패턴영상들로부터 X-Y 좌표계의 각 위치에 대응하는 각 방향에서의 위상 및 밝기를 추출하고, 위상으로부터 최초 높이를 밝기로부터 높이 가중치를 계산한다. 이어서, 최초 높이에 높이 가중치를 곱하여 각 방향에서의 가중치 높이를 계산하고, 모든 방향에서의 가중치 높이들을 합하여 최종 높이를 계산한다. 이와 같이, 각 방향에서의 밝기에 따른 높이 가중치를 이용하여 최종 높이를 계산함으로써, 측정 대상물의 3차원 형상을 보다 정확하게 측정할 수 있다. A three-dimensional shape measuring method capable of measuring a three-dimensional shape of an object to be measured by using an N-bucket algorithm, wherein each of the grating light beams applied from a plurality of directions is irradiated with N measurement objects And then sequentially detects the grid pattern light reflected from the measurement object to acquire N pattern images of the measurement object in each direction. Next, the phase and brightness in each direction corresponding to each position of the X-Y coordinate system are extracted from the pattern images, and the height weight is calculated from the brightness of the initial height from the phase. Next, the initial height is multiplied by the height weight to calculate the weight height in each direction, and the final height is calculated by summing the weight weights in all directions. Thus, by calculating the final height using the height weight according to the brightness in each direction, the three-dimensional shape of the measurement object can be more accurately measured.

Description

3차원 형상 측정방법{METHOD FOR MEASURING THREE DIMENSIONAL SHAPE}[0001] METHOD FOR MEASURING THREE DIMENSIONAL SHAPE [0002]

본 발명은 3차원 형상 측정방법에 관한 것으로, 보다 상세하게는 격자 패턴광을 이용하여 측정 대상물의 3차원 형상을 측정할 수 있는 3차원 형상 측정방법에 관한 것이다.The present invention relates to a three-dimensional shape measuring method, and more particularly, to a three-dimensional shape measuring method capable of measuring a three-dimensional shape of a measurement object using grating light.

일반적으로, 3차원 형상 측정장치는 스테이지, 카메라, 조명유닛 및 중앙 처리부로 구성된다. 여기서, 상기 3차원 형상 측정장치를 이용하여 측정 대상물의 3차원 형상을 측정하는 일반적인 방법을 간단하게 설명하면 다음과 같다.Generally, a three-dimensional shape measuring apparatus is composed of a stage, a camera, a lighting unit, and a central processing unit. Here, a general method of measuring the three-dimensional shape of the measurement object using the three-dimensional shape measuring apparatus will be briefly described as follows.

우선, 상기 조명유닛에서 출사되는 격자 패턴광을 상기 스테이지 상에 배치된 측정 대상물로 조사한다. 이때, 상기 격자 패턴광은 N번 옆으로 이동하면서 상기 측정 대상물로 조사된다. 이후, 상기 카메라는 상기 측정 대상물로부터 반사되는 상기 격자 패턴광을 검출하여 상기 측정 대상물의 N개의 패턴영상들을 획득한다. 이어서, 상기 중앙 처리부는 N-버켓 알고리즘(N-bucket algorism)을 이용하여 상기 N개의 패턴영상들로부터 상기 측정 대상물의 각 위치에 따른 높이를 계산해낸다. 이렇게 계산된 상기 각 위치에 따른 높이를 종합할 경우, 상기 측정 대상물의 3차원 형상을 측정할 수 있다.First, the grating pattern light emitted from the illumination unit is irradiated onto a measurement object disposed on the stage. At this time, the grid pattern light is irradiated to the measurement object while moving to the side N times. Then, the camera detects the grid pattern light reflected from the measurement object to acquire N pattern images of the measurement object. Then, the central processing unit calculates the height of each measurement object from the N pattern images using an N-bucket algorithm. When the height according to each of the positions thus calculated is integrated, the three-dimensional shape of the measurement object can be measured.

한편, 상기 조명유닛에서 발생되어 상기 측정 대상물로 조사되는 상기 격자 패턴광은 상기 조명유닛과 인접한 상기 측정 대상물의 부분에 휘도가 상대적으로 높은 포화 영역을 형성시키고, 상기 조명유닛으로부터 멀리 떨어진 상기 측정 대상물의 부분에 휘도가 상대적으로 낮은 그림자 영역을 형성시킬 수 있다. 또는, 상기 측정 대상물의 형상에 따라 그림자 또는 포화영역이 발생될 수 있다. 그러나, 상기 포화 영역과 상기 그림자 영역은 상기 N-버켓 알고리즘을 통해 상기 측정 대상물의 각 위치에 따른 높이가 계산될 때, 계산된 상기 높이의 값의 신뢰도를 떨어뜨릴 수 있다. 즉, 상기 중앙 처리부는 상기 N-버켓 알고리즘을 이용하여 상기 측정 대상물의 각 위치에 따른 높이를 계산해낼 때, 상기 포화 영역과 상기 그림자 영역에서 부정확한 높이를 계산해낼 수 있다.On the other hand, the grating light generated in the illumination unit and irradiated to the measurement object forms a saturated region having a relatively high luminance in a portion of the measurement object adjacent to the illumination unit, A shadow region having a relatively low luminance can be formed. Alternatively, a shadow or a saturation region may be generated depending on the shape of the measurement object. However, the saturation region and the shadow region may decrease the reliability of the calculated height when the height according to each position of the measurement object is calculated through the N-bucket algorithm. That is, when the height according to each position of the measurement object is calculated using the N-bucket algorithm, the central processing unit can calculate an inaccurate height in the saturation region and the shadow region.

따라서, 본 발명은 상기 문제점을 해결하고자 하는 것으로, 본 발명의 해결하고자 하는 과제는 모든 영역에서 측정 대상물의 3차원 형상을 정확하게 측정할 수 있는 3차원 형상 측정방법을 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above problems, and it is an object of the present invention to provide a three-dimensional shape measuring method capable of accurately measuring a three-dimensional shape of a measurement object in all areas.

본 발명의 예시적인 일 실시예에 의한 3차원 형상 측정방법은 N-버켓 알고리즘(N-bucket algorism)을 이용하여 측정 대상물의 3차원 형상을 측정하는 측정방법에 관한 것으로, 우선 복수의 방향들로부터 인가되는 격자 패턴광들 각각을 N번 이동하면서 상기 측정 대상물로 조사한 후, 상기 측정 대상물로부터 반사되는 상기 격자 패턴광들을 순차적으로 검출하여, 상기 각 방향에서의 상기 측정 대상물의 N개의 패턴영상들을 획득한다. 이어서, 상기 패턴영상들로부터 X-Y 좌표계의 각 위치{i(x,y)}에 대응하는 상기 각 방향에서의 위상{Pi(x,y)} 및 밝기{Ai(x,y)}를 추출한 후, 상기 위상으로부터 상기 각 방향에서의 최초 높이{Hi(x,y)}를 계산하고, 상기 평균밝기를 매개변수로 하는 가중치 함수를 이용하여 상기 각 방향에서의 높이 가중치{Wi(x,y)}를 계산한다. 이어서, 상기 최초 높이에 상기 높이 가중치를 곱하여 상기 각 방향에서의 가중치 높이{Wi(x,y)ㆍHi(x,y)}를 계산하고, 모든 방향에서의 상기 가중치 높이들을 합하여 상기 각 위치에서의 최종 높이{∑Wi(x,y)ㆍHi(x,y)/∑Wi(x,y)}를 계산한다. 여기서, 상기 밝기는 상기 검출된 격자 패턴광들을 평균하여 얻은 평균밝기일 수 있다. 또한, 모든 방향에서의 상기 높이 가중치들의 합은 '1'인 것{∑Wi(x,y)=1}일 수 있다.A three-dimensional shape measuring method according to an exemplary embodiment of the present invention relates to a measuring method for measuring a three-dimensional shape of an object to be measured using an N-bucket algorithm, And sequentially grasping the grid pattern light reflected from the measurement object and irradiating the measurement object with N pattern images of the measurement object in each direction do. Then, a phase {P i (x, y)} and a brightness {A i (x, y)} in each direction corresponding to each position {i (x, y)} of the XY coordinate system are obtained from the pattern images after extraction, the initial height of the in each direction from the phase {H i (x, y) } a calculation, and increases in each direction by using a weighting function to the average brightness as a parameter weights {W i ( x, y)}. Then, the initial heights are multiplied by the height weights to calculate weight weights {W i (x, y) H i (x, y)} in the respective directions and summing the weights in all directions calculate the final height {ΣW i (x, y) and H i (x, y) / ΣW i (x, y)} in position. Here, the brightness may be an average brightness obtained by averaging the detected grid pattern light. In addition, the sum of the height weights in all directions may be '1' {ΣW i (x, y) = 1}.

상기 위상 및 상기 평균밝기를 추출하는 단계에서, 상기 패턴영상들로부터 상기 각 위치에 대응하는 가시도(visibility) 또는 SNR(signal-to-noise ratio)가 더 추출될 수 있고, 이때 상기 가중치 함수는 상기 평균밝기와 상기 가시도 또는 상기 SNR을 매개변수로 하는 함수일 수 있다.In the step of extracting the phase and the average brightness, a visibility or a signal-to-noise ratio (SNR) corresponding to each position may be further extracted from the pattern images, And may be a function having the average brightness and the visibility or the SNR as parameters.

또한, 상기 위상 및 상기 평균밝기를 추출하는 단계에서, 상기 패턴영상들로부터 상기 격자 패턴광들 각각에서의 격자피치인 측정범위(λ)가 더 추출될 수 있고, 상기 가중치 함수는 상기 평균밝기와 상기 가시도 또는 상기 SNR과 상기 측정범위를 매개변수로 하는 함수일 수 있다. 여기서, 상기 격자 패턴광들의 상기 측정범위들은 적어도 2개 이상이 상이할 수 있다.Also, in the step of extracting the phase and the average brightness, a measurement range (lambda), which is a lattice pitch in each of the grid pattern lights, can be further extracted from the pattern images, And may be a function having the visibility or the SNR and the measurement range as parameters. Here, the measurement ranges of the grating light may differ by at least two or more.

상기 가중치 함수는 상기 평균밝기가 중간치 또는 사전에 설정한 기준값을 기점으로 증가하거나 감소할 때 상기 높이 가중치를 감소시킬 수 있고, 상기 가시도 또는 상기 SNR이 증가될 때 상기 높이 가중치를 증가시킬 수 있으며, 상기 측정범위가 증가될 때 상기 높이 가중치를 감소시킬 수 있다. 이때, 상기 사전에 설정한 기준값은 시편석을 이용하여 3차원 측정 조건을 정할 때 설정되거나 또는 사용자에 의해 임의로 설정될 수도 있다.The weight function may decrease the height weight when the average brightness increases or decreases from a median or a preset reference value, and may increase the height weight when the visibility or the SNR is increased , The height weight can be reduced when the measurement range is increased. At this time, the preset reference value may be set when determining the three-dimensional measurement condition using a specimen, or may be arbitrarily set by a user.

한편, 상기 높이 가중치를 계산하는 단계에서는 상기 패턴영상들을 그림자 영역, 포화 영역 및 비포화 영역으로 구분하는 단계가 더 수행될 수 있고, 이때 상기 그림자 영역은 상기 평균밝기가 최소 밝기값 이하이고 상기 가시도 또는 상기 SNR이 최소 기준값 이하인 영역이고, 상기 포화 영역은 상기 평균밝기가 최대 밝기값 이상이고 상기 가시도 또는 상기 SNR이 최소 기준값 이하인 영역이며, 상기 비포화 영역은 상기 그림자 영역 및 상기 포화 영역을 제외한 나머지 영역이다.The step of dividing the pattern images into a shadow region, a saturated region, and a non-saturated region may further include dividing the pattern image into a shadow region, a shadow region, Wherein the saturation region is an area in which the average brightness is equal to or greater than a maximum brightness value and the visibility or the SNR is equal to or less than a minimum reference value, This is the remaining area.

상기 그림자 영역 및 상기 포화 영역에서의 상기 가중치 함수는 상기 높이 가중치를 '0'으로 계산할 수 있다. 반면, 상기 비포화 영역에서의 상기 가중치 함수는 상기 높이 가중치를 상기 비포화 영역 모두에서 동일한 값으로 계산할 수 있다. 이와 다르게, 상기 비포화 영역에서의 상기 가중치 함수는 상기 평균밝기가 중간치를 기점으로 증가하거나 감소할 때 상기 높이 가중치를 감소시키고, 상기 가시도 또는 상기 SNR이 증가될 때 상기 높이 가중치를 증가시키며, 상기 측정범위가 증가될 때 상기 높이 가중치를 감소시킬 수 있다.The weight function in the shadow region and the saturation region may calculate the height weight as '0'. On the other hand, the weight function in the non-saturated region may calculate the height weight as the same value in all the non-saturated regions. Alternatively, the weight function in the non-saturating region reduces the height weight when the average brightness increases or decreases from the median, increases the height weight when the visibility or the SNR is increased, The height weight can be reduced when the measurement range is increased.

또한, 상기 평균밝기가 일 특정값 이상일 경우에는 포화영역으로 판단하여 높이 가중치를 '0'으로 설정하고, 상기 평균밝기가 타 특정값 이하일 경우에는 그림자영역으로 판단하여 높이 가중치를 '0'으로 설정할 수 있다. 상기 일 특정값 및 상기 타 특정값은 측정기판의 컬러 등 측정 환경을 고려하여 사용자에 의해 임의로 설정될 수도 있다.If the average brightness is equal to or greater than a specific value, the brightness is determined as a saturation region and the height weight is set to '0'. If the average brightness is less than a specific value, the shadow region is determined and the height weight is set to '0' . The one specific value and the other specific value may be arbitrarily set by the user in consideration of the measurement environment such as the color of the measurement substrate.

본 발명의 예시적인 일실시예에 의한 3차원 형상 측정방법은 N-버켓 알고리즘(N-bucket algorism)을 이용하여 측정 대상물의 3차원 형상을 측정하는 측정방법에 관한 것으로, 우선 복수의 방향들로부터 인가되는 격자 패턴광들 각각을 N번 이동하면서 상기 측정 대상물로 조사한 후, 상기 측정 대상물로부터 반사되는 상기 격자 패턴광들을 순차적으로 검출하여, 상기 각 방향에서의 상기 측정 대상물의 N개의 패턴영상들을 획득한다. 이어서, 상기 패턴영상들로부터 X-Y 좌표계의 각 위치{i(x,y)}에 대응하는 상기 각 방향에서의 위상{Pi(x,y)} 및 가시도(visibility){Vi(x,y)}를 추출한 후, 상기 위상으로부터 상기 각 방향에서의 최초 높이{Hi(x,y)}를 계산하고, 상기 가시도를 매개변수로 하는 가중치 함수를 이용하여 상기 각 방향에서의 높이 가중치{Wi(x,y)}를 계산한다. 이어서, 상기 최초 높이에 상기 높이 가중치를 곱하여 상기 각 방향에서의 가중치 높이{Wi(x,y)ㆍHi(x,y)}를 계산하고, 모든 방향에서의 상기 가중치 높이들을 합하여 상기 각 위치에서의 최종 높이{∑Wi(x,y)ㆍHi(x,y)/∑Wi(x,y)}를 계산한다.A three-dimensional shape measuring method according to an exemplary embodiment of the present invention relates to a measuring method for measuring a three-dimensional shape of an object to be measured using an N-bucket algorithm, And sequentially grasping the grid pattern light reflected from the measurement object and irradiating the measurement object with N pattern images of the measurement object in each direction do. Then, from the pattern images, a phase {P i (x, y)} and a visibility {V i (x, y) in each direction corresponding to each position { (x, y)} in the respective directions from the phase, and calculates a height value {H i (x, y)} in each direction using a weight function having the visibility as a parameter {W i (x, y)}. Then, the initial heights are multiplied by the height weights to calculate weight weights {W i (x, y) H i (x, y)} in the respective directions and summing the weights in all directions calculate the final height {ΣW i (x, y) and H i (x, y) / ΣW i (x, y)} in position.

본 발명에 의하면, 각 방향에서 촬영된 패턴영상들로부터 평균밝기, 가시도 또는 SNR, 그리고 측정범위를 추출하고, 추출된 결과에 따라 높이 가중치를 결정함으로써, 그림자 영역 및 포화 영역을 포함하는 모든 영역에서 측정 대상물의 각 위치에 따른 높이를 종래보다 정확하게 측정할 수 있다.According to the present invention, the average brightness, the visibility or the SNR, and the measurement range are extracted from the pattern images photographed in each direction, and the height weight is determined according to the extracted result. Thus, all the regions including the shadow region and the saturation region The height according to each position of the measurement object can be measured more precisely than in the prior art.

도 1은 본 발명의 일 실시예에 의한 3차원 형상 측정방법에 사용되는 예시적인 3차원 형상 측정장치를 도시한 개념도이다.
도 2는 도 1의 측정 대상물로 조사된 격자 패턴광에 의한 격자무늬 패턴 이미지를 도시한 평면도이다.
도 3은 격자 패턴광이 우측 방향에서 측정 대상물로 조사될 때의 카메라에 측정된 영상을 평면도이다.
도 4는 격자 패턴광이 좌측 방향에서 측정 대상물로 조사될 때의 카메라에 측정된 영상을 평면도이다.
도 5는 카메라에 측정된 패턴영상들에서의 평균밝기와 기본 가중치 사이의 관계를 나타낸 그래프이다.
도 6은 카메라에 측정된 패턴영상들에서의 가시도 또는 SNR과 기본 가중치 사이의 관계를 나타낸 그래프이다.
도 7은 카메라에 측정된 패턴영상들에서의 측정범위와 기본 가중치 사이의 관계를 나타낸 그래프이다.
1 is a conceptual diagram showing an exemplary three-dimensional shape measuring apparatus used in a three-dimensional shape measuring method according to an embodiment of the present invention.
FIG. 2 is a plan view showing a grid pattern image by grid pattern light irradiated to the measurement object in FIG. 1. FIG.
3 is a plan view of an image measured by the camera when the grating light is irradiated to the measurement object in the right direction.
4 is a plan view of the image measured by the camera when the grid pattern light is irradiated to the measurement object in the left direction.
5 is a graph showing the relationship between the average brightness and the basic weight in the pattern images measured by the camera.
6 is a graph showing the relationship between the visibility or the SNR and the basic weight in the pattern images measured by the camera.
7 is a graph showing a relationship between a measurement range and a basic weight in pattern images measured by a camera.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprising" or "having ", and the like, are intended to specify the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted as ideal or overly formal in meaning unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

도 1은 본 발명의 일 실시예에 의한 3차원 형상 측정방법에 사용되는 예시적인 3차원 형상 측정장치를 도시한 개념도이다.1 is a conceptual diagram showing an exemplary three-dimensional shape measuring apparatus used in a three-dimensional shape measuring method according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예에 의한 3차원 형상 측정방법에 사용되는 3차원 형상 측정장치는 측정 스테이지부(100), 영상 촬영부(200), 제1 및 제2 조명부들(300, 400), 영상 획득부(500), 모듈 제어부(600) 및 중앙 제어부(700)를 포함할 수 있다.1, the three-dimensional shape measuring apparatus used in the three-dimensional shape measuring method according to the present embodiment includes a measurement stage unit 100, an image capturing unit 200, first and second illumination units 300 and 400 An image acquisition unit 500, a module control unit 600, and a central control unit 700. [

상기 측정 스테이지부(100)는 측정 대상물(10)을 지지하는 스테이지(110) 및 상기 스테이지(110)를 이송시키는 스테이지 이송유닛(120)을 포함할 수 있다. 본 실시예에서, 상기 스테이지(110)에 의해 상기 측정 대상물(10)이 상기 영상 촬영부(200)와 상기 제1 및 제2 조명부들(300, 400)에 대하여 이동함에 따라, 상기 측정 대상물(10)에서의 측정위치가 변경될 수 있다.The measurement stage unit 100 may include a stage 110 for supporting the measurement object 10 and a stage transfer unit 120 for transferring the stage 110. [ In this embodiment, as the measurement object 10 is moved by the stage 110 relative to the image capturing unit 200 and the first and second illumination units 300 and 400, the measurement object 10 10 can be changed.

상기 영상 촬영부(200)는 상기 스테이지(110)의 상부에 배치되어 상기 측정 대상물(10)로부터 반사되어온 광을 인가받아, 상기 측정 대상물(10)에 대한 영상을 측정한다. 즉, 상기 영상 촬영부(200)는 상기 제1 및 제2 조명부들(300, 400)에서 출사되어 상기 측정 대상물(10)에서 반사된 광을 인가받아, 상기 측정 대상물(10)의 평면영상을 촬영한다.The image capturing unit 200 is disposed at an upper portion of the stage 110 and receives light reflected from the measurement object 10 to measure an image of the measurement object 10. That is, the image capturing unit 200 receives the light emitted from the first and second illumination units 300 and 400 and reflected by the measurement object 10, and outputs a plane image of the measurement object 10 I shoot.

상기 영상 촬영부(200)는 카메라(210), 결상렌즈(220), 필터(230) 및 원형램프(240)를 포함할 수 있다. 상기 카메라(210)는 상기 측정 대상물(10)로부터 반사되는 광을 인가받아 상기 측정 대상물(10)의 평면영상을 촬영하고, 일례로 CCD 카메라나 CMOS 카메라 중 어느 하나가 적용될 수 있다. 상기 결상렌즈(220)는 상기 카메라(210)의 하부에 배치되어, 상기 측정 대상물(10)에서 반사되는 광을 상기 카메라(210)에서 결상시킨다. 상기 필터(230)는 상기 결상렌즈(220)의 하부에 배치되어, 상기 측정 대상물(10)에서 반사되는 광을 여과시켜 상기 결상렌즈(220)로 제공하고, 일례로 주파수 필터, 컬러필터 및 광세기 조절필터 중 어느 하나로 이루어질 수 있다. 상기 원형램프(240)는 상기 필터(230)의 하부에 배치되어, 상기 측정 대상물(10)의 2차원 형상과 같은 특이영상을 촬영하기 위해 상기 측정 대상물(10)로 광을 제공할 수 있다.The image capturing unit 200 may include a camera 210, an image forming lens 220, a filter 230, and a circular lamp 240. The camera 210 receives the light reflected from the measurement object 10 and captures a plane image of the measurement object 10. For example, either a CCD camera or a CMOS camera can be applied. The image-forming lens 220 is disposed below the camera 210 to image the light reflected from the measurement object 10 at the camera 210. The filter 230 is disposed at a lower portion of the image forming lens 220 to filter the light reflected from the measurement object 10 and provide the image to the image forming lens 220. For example, And an intensity adjustment filter. The circular lamp 240 may be disposed below the filter 230 to provide light to the measurement object 10 in order to capture a specific image such as a two-dimensional shape of the measurement object 10.

상기 제1 조명부(300)는 상기 영상 촬영부(200)의 우측에 상기 측정 대상물(10)을 지지하는 상기 스테이지(110)에 대하여 경사지게 배치될 수 있다. 상기 제1 조명부(300)는 제1 조명유닛(310), 제1 격자유닛(320), 제1 격자 이송유닛(330) 및 제1 집광렌즈(340)를 포함할 수 있다. 상기 제1 조명유닛(310)은 조명원과 적어도 하나의 렌즈로 구성되어 광을 발생시키고, 상기 제1 격자유닛(320)은 상기 제1 조명유닛(310)의 하부에 배치되어 상기 제1 조명유닛(310)에서 발생된 광을 격자무늬 패턴을 갖는 제1 격자 패턴광으로 변경시킨다. 상기 제1 격자 이송유닛(330)은 상기 제1 격자유닛(320)과 연결되어 상기 제1 격자유닛(320)을 이송시키고, 일례로 PZT(Piezoelectric) 이송유닛이나 미세직선 이송유닛 중 어느 하나로 적용될 수 있다. 상기 제1 집광렌즈(340)는 상기 제1 격자유닛(320)의 하부에 배치되어 상기 제1 격자유닛(320)로부터 출사된 상기 제1 격자 패턴광을 상기 측정 대상물(10)로 집광시킨다.The first illumination unit 300 may be disposed at an angle to the stage 110 supporting the measurement object 10 on the right side of the image sensing unit 200. The first illumination unit 300 may include a first illumination unit 310, a first grating unit 320, a first grating transfer unit 330, and a first condenser lens 340. The first illumination unit 310 is composed of an illumination source and at least one lens to generate light, and the first grating unit 320 is disposed below the first illumination unit 310, Unit 310 to the first lattice pattern light having a lattice pattern. The first grating transfer unit 330 is connected to the first grating unit 320 and transfers the first grating unit 320. For example, the first grating transfer unit 330 may be a PZT (Piezoelectric) transfer unit or a fine linear transfer unit . The first condensing lens 340 is disposed below the first grating unit 320 to condense the first grating pattern light emitted from the first grating unit 320 into the measurement object 10.

상기 제2 조명부(400)는 상기 영상 촬영부(200)의 좌측에 상기 측정 대상물(10)을 지지하는 상기 스테이지(110)에 대하여 경사지게 배치될 수 있다. 상기 제2 조명부(400)는 제2 조명유닛(410), 제2 격자유닛(420), 제2 격자 이송유닛(430) 및 제2 집광렌즈(440)를 포함할 수 있다. 여기서, 상기 제2 조명부(400)는 위에서 설명한 상기 제1 조명부(300)와 실질적으로 동일하므로, 자세한 설명은 생략하기로 한다.The second illumination unit 400 may be disposed at an angle to the stage 110 supporting the measurement object 10 on the left side of the image sensing unit 200. The second illumination unit 400 may include a second illumination unit 410, a second grating unit 420, a second grating transfer unit 430, and a second condenser lens 440. Here, the second illuminating unit 400 is substantially the same as the first illuminating unit 300 described above, and thus a detailed description thereof will be omitted.

상기 제1 조명부(300)는 상기 제1 격자 이송유닛(330)이 상기 제1 격자유닛(320)을 N번 순차적으로 이동하면서, 상기 측정 대상물(10)로 N개의 제1 격자 패턴광들을 조사할 때, 상기 영상 촬영부(200)는 상기 측정 대상물(10)에서 반사된 상기 N개의 제1 격자 패턴광들을 순차적으로 인가받아 N개의 제1 패턴영상들을 촬영할 수 있다. 또한, 상기 제2 조명부(400)는 상기 제2 격자 이송유닛(430)이 상기 제2 격자유닛(420)을 N번 순차적으로 이동하면서, 상기 측정 대상물(10)로 N개의 제2 격자 패턴광들을 조사할 때, 상기 영상 촬영부(200)는 상기 측정 대상물(10)에서 반사된 상기 N개의 제2 격자 패턴광들을 순차적으로 인가받아 N개의 제2 패턴영상들을 촬영할 수 있다. 여기서, 상기 N은 자연수로, 일례로 3 또는 4일 수 있다.The first illumination unit 300 irradiates N first grid pattern lights with the measurement object 10 while the first grid transfer unit 330 sequentially moves the first grid unit 320 N times, The image capturing unit 200 may sequentially acquire N first pattern images by sequentially receiving the N first pattern light beams reflected from the measurement object 10. [ The second illuminating unit 400 may be configured such that the second grating transfer unit 430 sequentially moves the second grating unit 420 N times, The image capturing unit 200 may sequentially receive the N second grid pattern lights reflected from the measurement object 10 and take N second pattern images. Here, N is a natural number, for example, 3 or 4.

한편, 본 실시예에서는 상기 제1 및 제2 격자 패턴광들을 발생시키는 조명장치로 상기 제1 및 제2 조명부들(300, 400)만을 설명하였으나, 이와 다르게 상기 조명부의 개수는 3개 이상일 수도 있다. 즉, 상기 측정 대상물(10)로 조사되는 격자 패턴광이 다양한 방향에서 조사되어, 다양한 종류의 패턴영상들이 촬영될 수 있다. 예를 들어, 3개의 조명부들이 상기 영상 촬영부(200)를 중심으로 정삼각형 형태로 배치될 경우, 3개의 격자 패턴광들이 서로 다른 방향에서 상기 측정 대상물(10)로 인가될 수 있고, 4개의 조명부들이 상기 영상 촬영부(200)를 중심으로 정사각형 형태로 배치될 경우, 4개의 격자 패턴광들이 서로 다른 방향에서 상기 측정 대상물(10)로 인가될 수 있다.In the present embodiment, only the first and second illumination units 300 and 400 are described as an illumination device for generating the first and second grid-patterned lights, but the number of the illumination units may be three or more . That is, the grid pattern light irradiated to the measurement object 10 is irradiated in various directions, and various types of pattern images can be photographed. For example, when three illumination units are arranged in an equilateral triangle shape around the image capturing unit 200, three grid pattern lights can be applied to the measurement object 10 in different directions, The four grid-patterned lights can be applied to the measurement object 10 in different directions when the image pickup unit 200 is arranged in a square shape with the center of the image pickup unit 200 as a center.

상기 영상 획득부(500)는 상기 영상 촬영부(200)의 카메라(210)와 전기적으로 연결되어, 상기 카메라(210)로부터 상기 패턴영상들을 획득하여 저장한다. 예를 들어, 상기 영상 획득부(500)는 상기 카메라(210)에서 촬영된 상기 N개의 제1 패턴영상들 및 상기 N개의 제2 패턴영상들을 인가받아 저장하는 이미지 시스템을 포함한다.The image acquisition unit 500 is electrically connected to the camera 210 of the image capturing unit 200 and acquires and stores the pattern images from the camera 210. For example, the image acquisition unit 500 includes an image system for receiving and storing the N first pattern images and the N second pattern images captured by the camera 210.

상기 모듈 제어부(600)는 상기 측정 스테이지부(100), 상기 영상 촬영부(200), 상기 제1 조명부(300) 및 상기 제2 조명부(400)와 전기적으로 연결되어 제어한다. 상기 모듈 제어부(600)는 예를 들어, 조명 콘트롤러, 격자 콘트롤러 및 스테이지 콘트롤러를 포함한다. 상기 조명 콘트롤러는 상기 제1 및 제2 조명유닛들(310, 410)을 각각 제어하여 광을 발생시키고, 상기 격자 콘트롤러는 상기 제1 및 제2 격자 이송유닛들(330, 430)을 각각 제어하여 상기 제1 및 제2 격자유닛들(320, 420)을 이동시킨다. 상기 스테이지 콘트롤러는 상기 스테이지 이송유닛(120)을 제어하여 상기 스테이지(110)를 상하좌우로 이동시킬 수 있다.The module control unit 600 is electrically connected to the measurement stage unit 100, the image capturing unit 200, the first illuminating unit 300, and the second illuminating unit 400 to control the module. The module control unit 600 includes, for example, a lighting controller, a lattice controller, and a stage controller. The illumination controller controls the first and second illumination units 310 and 410 to generate light, and the lattice controller controls the first and second lattice transfer units 330 and 430, respectively, Thereby moving the first and second grating units 320 and 420. The stage controller may control the stage transfer unit 120 to move the stage 110 vertically and horizontally.

상기 중앙 제어부(700)는 상기 영상 획득부(500) 및 상기 모듈 제어부(600)와 전기적으로 연결되어 각각을 제어한다. 구체적으로, 상기 중앙 제어부(700)는 상기 영상 획득부(500)의 이미지 시스템으로부터 상기 N개의 제1 패턴영상들 및 상기 N개의 제2 패턴영상들을 인가받아, 이를 처리하여 상기 측정 대상물의 3차원 형상을 측정할 수 있다. 또한, 상기 중앙 제어부(700)는 상기 모듈 제어부(600)의 조명 콘트롤러, 격자 콘트롤러 및 스테이지 콘트롤러을 각각 제어할 수 있다. 이와 같이, 상기 중앙 제어부는 이미지처리 보드, 제어 보드 및 인터페이스 보드를 포함할 수 있다.The central control unit 700 is electrically connected to the image acquisition unit 500 and the module control unit 600 to control the respective units. Specifically, the central control unit 700 receives the N first pattern images and the N second pattern images from the image system of the image obtaining unit 500, processes the received N first pattern images and the N second pattern images, The shape can be measured. In addition, the central control unit 700 may control the illumination controller, the lattice controller, and the stage controller of the module control unit 600, respectively. As such, the central control unit may include an image processing board, a control board, and an interface board.

도 2는 도 1의 측정 대상물로 조사된 격자 패턴광에 의한 격자무늬 패턴 이미지를 도시한 평면도이다.FIG. 2 is a plan view showing a grid pattern image by grid pattern light irradiated to the measurement object in FIG. 1. FIG.

도 1 및 도 2를 참조하면, 복수의 조명부들 중 어느 하나의 조명부에서 출사된 격자 패턴광이 상기 측정 대상물(10)로 조사될 때, 상기 측정 대상물(10) 상에는 격자무늬 패턴 이미지가 형성된다. 이때, 상기 격자무늬 패턴 이미지는 복수개의 격자무늬들을 포함하고 있는데, 본 실시예에서 상기 격자무늬들 사이의 간격, 즉 격자피치를 측정범위(λ)이라고 정의한다.1 and 2, a lattice pattern image is formed on the measurement object 10 when the lattice pattern light emitted from any one of the plurality of illumination units is irradiated onto the measurement object 10 . At this time, the grid pattern image includes a plurality of grid patterns. In this embodiment, the interval between the grid patterns, that is, the grid pitch is defined as a measurement range (?).

한편, 상기 측정범위(λ)는 상기 격자 패턴광들의 종류와 상관없이 동일한 값을 가질 수 있지만, 이와 다르게 상기 격자 패턴광들의 종류에 따라 서로 다른 값을 가질 수도 있다. 이때, 상기 측정범위(λ)는 상기 격자 패턴광들의 종류에 따라 적어도 2개 이상이 서로 상이한 것이 바람직하다. 예를 들어, 상기 제1 조명부(300)에서 발생된 상기 제1 격자 패턴광에 의한 격자무늬 패턴 이미지는 제1 측정범위의 격자무늬들을 갖고, 상기 제2 조명부(400)에서 발생된 상기 제2 격자 패턴광에 의한 격자무늬 패턴 이미지는 상기 제1 측정범위와 다른 제2 측정범위의 격자무늬들을 가질 수 있다.Meanwhile, the measurement range (?) May have the same value regardless of the type of the grating light, but may have a different value depending on the type of the grating light. At this time, it is preferable that at least two or more of the measurement range (λ) are different from each other depending on the type of the grid pattern light. For example, the grid pattern image of the first grid pattern light generated in the first illumination unit 300 has a grid pattern of a first measurement range, and the grid pattern image of the second grid pattern light generated by the second illumination unit 400 The grid pattern image by the grid pattern light may have a grid pattern of a second measurement range different from the first measurement range.

도 3은 격자 패턴광이 우측 방향에서 측정 대상물로 조사될 때의 카메라에 측정된 영상을 평면도이고, 도 4는 격자 패턴광이 좌측 방향에서 측정 대상물로 조사될 때의 카메라에 측정된 영상을 평면도이다. 이때, 도 3 및 도 4에서는 격자무늬 패턴이 생략된 단지 밝기(휘도)에 대한 상대적인 양만 표현한 영상을 도시하였다.FIG. 3 is a plan view of the image measured by the camera when the grid pattern light is irradiated to the measurement object in the right direction, FIG. 4 is a plan view of the image measured by the camera when the grid pattern light is irradiated as the measurement object in the left direction, to be. 3 and FIG. 4 illustrate an image expressing only the relative amount to the brightness (brightness) in which the grid pattern is omitted.

도 1, 도 3 및 도 4를 참조하면, 복수의 조명부들 중 어느 하나의 조명부에서 출사된 격자 패턴광이 상기 측정 대상물(10)로 조사될 때, 상기 카메라(210)에서 촬영된 영상에는 상대적으로 어두운 그림자 영역(shadow area) 및 상대적으로 밝은 포화 영역(saturation area)이 형성될 수 있다.1, 3, and 4, when the grid pattern light emitted from any one of the plurality of illumination units is irradiated to the measurement object 10, the image captured by the camera 210 is relatively A dark shadow region and a relatively bright saturation region may be formed.

예를 들어, 도 3과 같이 우측 방향에서 격자 패턴광이 상기 측정 대상물(10)로 인가될 때, 일반적으로 상기 포화 영역은 상기 측정 대상물의 우측부분에서 주로 형성되고, 상기 그림자 영역은 상기 측정 대상물의 좌측부분에서 주로 형성될 수 있다. 반면, 도 4와 같이 좌측 방향에서 격자 패턴광이 우측 방향에서 임의의 광이 상기 측정 대상물(10)로 인가될 때, 일반적으로 상기 포화 영역은 상기 측정 대상물의 우측부분에서 주로 형성되고, 상기 그림자 영역은 상기 측정 대상물의 좌측부분에서 주로 형성될 수 있다.For example, when the grid pattern light is applied to the measurement object 10 in the right direction as shown in Fig. 3, generally, the saturation region is mainly formed in the right portion of the measurement object, As shown in FIG. On the other hand, as shown in FIG. 4, when the arbitrary light is applied to the measurement object 10 in the right direction from the grid pattern light in the left direction, the saturation region is generally formed mainly in the right portion of the measurement object, The region may be formed mainly in the left portion of the measurement object.

이하, 도 1 내지 도 3을 다시 참조하면서, 위에서 설명한 내용을 기초로 본 실시예에 의한 3차원 형상 측정방법을 설명하겠다.Hereinafter, a method for measuring a three-dimensional shape according to the present embodiment will be described based on the above description with reference to FIGS. 1 to 3 again.

우선, 복수의 방향들에서 발생된 격자 패턴광들을 상기 스테이지(110) 상에 배치된 상기 측정 대상물(10)로 순차적으로 조사하고, 이렇게 조사되어 상기 측정 대상물(10)로부터 반사된 상기 격자 패턴광들을 상기 카메라(210)에서 순차적으로 검출하여 복수의 패턴영상들을 획득한다.First, grid pattern light generated in a plurality of directions is sequentially irradiated onto the measurement object 10 disposed on the stage 110, and the grid pattern light reflected from the measurement object 10 Are sequentially detected by the camera 210 to acquire a plurality of pattern images.

구체적으로, 상기 격자 패턴광들 각각은 N번, 예를 들어 3번 또는 4번 옆으로 이동하면서 상기 측정 대상물(10)로 조사함으로써, 상기 각 방향마다 상기 측정 대상물에 대한 N개의 패턴영상들을 획득한다. 예를 들어, 도 1에서와 같이 상기 제1 및 제2 조명부들(300, 400)에서 발생된 상기 제1 및 제2 격자 패턴광들이 상기 측정 대상물(10)로 조사될 경우, N개의 제1 패턴영상들과 N개의 제2 패턴영상들을 획득할 수 있다.Specifically, each of the grid pattern light beams is irradiated to the measurement object 10 while moving N times, for example, 3 or 4 times to obtain N pattern images for the measurement object in each of the directions do. For example, as shown in FIG. 1, when the first and second grid-shaped lights generated in the first and second illumination units 300 and 400 are irradiated to the measurement object 10, Pattern images and N second pattern images can be obtained.

이어서, 상기 각 방향에서의 N개의 패턴영상들로부터 X-Y 좌표계의 각 위치{i(x,y)}에서의 N개의 밝기정도들{Ii 1, Ii 2, ... , Ii N}과, 도 2에서와 같은 측정범위(λ)를 추출하고, 이들 중 상기 N개의 밝기정도들{Ii 1, Ii 2, ... , Ii N}로부터 상기 각 방향에서의 위상{Pi(x,y)}, 밝기{Ai(x,y)} 및 가시도{Vi(x,y)}를 계산해낸다. 이때, 상기 각 방향에서의 위상{Pi(x,y)}, 밝기{Ai(x,y)} 및 가시도{Vi(x,y)}는 N-버켓 알고리즘(N-bucket algorism)을 이용하여 계산되어 질 수 있다. 또한, 상기 밝기{Ai(x,y)}는 상기 검출된 격자 패턴광들을 평균하여 얻은 평균밝기인 것이 바람직하다. 따라서, 이하에서는 상기 밝기{Ai(x,y)}를 평균밝기{Ai(x,y)}로 명명하겠다.Next, N brightness levels {I i 1 , I i 2 , ..., I i N } at each position {i (x, y)} of the XY coordinate system from N pattern images in the above- and, the phase of the {P in each direction is also extracted from the measurement range (λ), as in 2, and the N light levels of these {I i 1, I i 2 , ..., I i N} i (x, y)}, recall calculated brightness {a i (x, y) } and visibility {V i (x, y) }. At this time, the phase {P i (x, y)}, the brightness {A i (x, y)}, and the visibility {V i (x, y)} in the respective directions are calculated using an N-bucket algorithm ). ≪ / RTI > Also, the brightness {A i (x, y)} is preferably an average brightness obtained by averaging the detected grid pattern light. Therefore, the brightness {A i (x, y)} will be hereinafter referred to as an average brightness {A i (x, y)}.

예를 들어, 상기 N이 3일 경우, 상기 각 방향에서의 3개의 패턴영상들로부터 3개의 밝기정도들{Ii 1, Ii 2, Ii 3}이 추출되고, 3-버켓 알고리즘을 통해 아래의 수식과 같은 위상{Pi(x,y)}, 평균밝기{Ai(x,y)} 및 가시도{Vi(x,y)}를 계산해낼 수 있다. 아래 수식에서 Bi(x,y)는 상기 각 방향에서의 3개의 패턴영상들에서의 영상신호(밝기신호)의 진폭을 의미한다. 이때, Ii 1은 a + b cos(Φ)이고, Ii 2은 a + b cos(φ+2π/3)이며, Ii 3은 a + b cos(φ+4π/3)이다.For example, if N is 3, three degrees of brightness {I i 1 , I i 2 , I i 3 } are extracted from the three pattern images in each direction, and through the 3-bucket algorithm It is possible to calculate the phase {P i (x, y)}, the average brightness {A i (x, y)} and the visibility {V i (x, y)}. In the following expression, B i (x, y) denotes the amplitude of the image signal (brightness signal) in the three pattern images in each direction. In this case, I i 1 is a + b cos (Φ), I i 2 is a + b cos (φ + 2π / 3), and I i 3 is a + b cos (φ + 4π / 3).

Figure 112014064073368-pat00001
Figure 112014064073368-pat00001

Figure 112014064073368-pat00002
Figure 112014064073368-pat00002

Figure 112014064073368-pat00003
Figure 112014064073368-pat00003

반면, 상기 N이 4일 경우, 상기 각 방향에서의 4개의 패턴영상들로부터 4개의 밝기정도들{Ii 1, Ii 2, Ii 3, Ii 4}이 추출되고, 4-버켓 알고리즘을 통해 아래의 수식과 같은 위상{Pi(x,y)}, 평균밝기{Ai(x,y)} 및 가시도{Vi(x,y)}를 계산해낼 수 있다. 아래 수식에서 Bi(x,y)는 상기 각 방향에서의 4개의 패턴영상들에서의 영상신호(밝기신호)의 진폭을 의미한다. 이때, Ii 1은 a + b cos(Φ)이고, Ii 2은 a + b cos(φ+π/2)이며, Ii 3은 a + b cos(φ+π/)이고, Ii 3은 a + b cos(φ+3π/2)이다.If N is 4, four brightness levels {I i 1 , I i 2 , I i 3 , I i 4 } are extracted from the four pattern images in each direction, through it can calculate a phase {P i (x, y) }, the average brightness {a i (x, y) } and visibility {V i (x, y) } , such as the following equation. In the following expression, B i (x, y) denotes the amplitude of the image signal (brightness signal) in the four pattern images in each direction. At this time, I i 1 is a + b cos (Φ) and, I i 2 is a + b, and cos (φ + π / 2) , I i 3 is a + b cos (φ + π /) and, I i 3 is a + b cos (? + 3? / 2).

Figure 112014064073368-pat00004
Figure 112014064073368-pat00004

Figure 112014064073368-pat00005
Figure 112014064073368-pat00005

Figure 112014064073368-pat00006
Figure 112014064073368-pat00006

한편, 본 실시예에서, 상기 가시도{Vi(x,y)}를 대신하여 신호대잡음비, 즉 SNR(signal-to-noise ratio)을 계산하여 사용할 수도 있다. 이때, 상기 SNR은 상기 각 방향에서의 N개의 패턴영상들에서의 노이즈 신호(N)에 대한 영상신호(S)의 비{S/N}를 나타낸 것이다.In the present embodiment, the signal-to-noise ratio, that is, the signal-to-noise ratio (SNR) may be calculated and used instead of the visibility V i (x, y). In this case, the SNR represents the ratio {S / N} of the image signal S to the noise signal N in the N pattern images in the respective directions.

이어서, 상기 각 방향에서의 위상{Pi(x,y)}으로부터 상기 각 방향에서의 최초 높이{Hi(x,y)}를 아래와 같이 계산해낸다. 이때, 아래 수식에서 ki(x,y)는 위상과 높이 사이의 변환비율을 나타내는 위상 대 높이 변환 스케일을 의미한다.Next, the initial height {H i (x, y)} in each direction from the phase {P i (x, y)} in each direction is calculated as follows. Here, k i (x, y) in the following equation means a phase-to-height conversion scale indicating a conversion ratio between phase and height.

Figure 112014064073368-pat00007
Figure 112014064073368-pat00007

한편, 상기 평균밝기{Ai(x,y)}, 상기 가시도{Vi(x,y)} 및 상기 측정범위(λ) 중 적어도 하나를 이용하여, 상기 각 방향에서의 높이 가중치{Wi(x,y)}를 계산해낸다. 상기 각 방향에서의 높이 가중치{Wi(x,y)}는 예를 들어, 상기 평균밝기{Ai(x,y)}, 상기 가시도{Vi(x,y)} 및 상기 측정범위(λ)를 매개변수로 하는 가중치 함수{f(Ai,Vi,λ)}에 의해 아래와 같이 도출될 수 있다. 이때, 모든 방향에서의 상기 높이 가중치들의 합은 '1'인 것{∑Wi(x,y)=1}이 바람직하다. On the other hand, by using at least one of the average brightness {A i (x, y)}, the visibility {V i (x, y)} and the measurement range i (x, y)}. The high weight {W i (x, y) } in each direction, for example, the average brightness {A i (x, y) }, the visibility {V i (x, y) } , and the measurement range can be derived as follows by a weight function {f (A i , V i , λ)} having a parameter λ as a parameter. At this time, it is preferable that the sum of the height weights in all directions is '1' (ΣW i (x, y) = 1}.

Figure 112014064073368-pat00008
Figure 112014064073368-pat00008

이어서, 상기 각 방향에서의 최초 높이{Hi(x,y)}에 상기 각 방향에서의 높이 가중치{Wi(x,y)}를 곱하여 상기 각 방향에서의 가중치 높이{Wi(x,y)ㆍHi(x,y)}를 계산하고, 모든 방향에서의 상기 가중치 높이들을 합하여 상기 높이 가중치들의 합{∑Wi(x,y)}으로 나누어 상기 각 위치에서의 최종 높이{∑Wi(x,y)ㆍHi(x,y)/∑Wi(x,y)}를 계산해낸다.Then, the first height {H i (x, y) } in each direction high weights of the in each direction on the {W i (x, y)} weight Height {W of the in each direction is multiplied by i (x, y) and H i (x, y)} and the calculation, the weight of the combined height of the sum of the height weight {ΣW i in all directions (x, y)} by dividing the final height at each position {Σ W i (x, y) · H i (x, y) / ΣW i (x, y)}.

이후, 이와 같이 계산된 상기 각 위치에 따른 높이를 통합하여, 상기 측정 대상물(10)의 3차원 형상을 정확하게 측정할 수 있다.Thereafter, the three-dimensional shape of the measurement object 10 can be accurately measured by integrating the height according to each of the positions thus calculated.

이하, 상기 가중치 함수{f(Ai,Vi,λ)}의 특성, 즉 상기 평균밝기{Ai(x,y)}, 상기 가시도{Vi(x,y)} 또는 상기 SNR, 및 상기 측정범위(λ)와, 상기 각 방향에서의 높이 가중치{Wi(x,y)} 사이의 관계를 보다 자세하게 설명하도록 하겠다.Hereinafter, the characteristics of the weight function {f (A i , V i , λ)}, ie, the average brightness {A i (x, y)}, the visibility {V i And the height weight {W i (x, y)} in the respective directions will be described in more detail.

도 5는 카메라에 측정된 패턴영상들에서의 평균밝기와 기본 가중치 사이의 관계를 나타낸 그래프이다.5 is a graph showing the relationship between the average brightness and the basic weight in the pattern images measured by the camera.

우선, 도 5를 참조하면, 상기 가중치 함수{f(Ai,Vi,λ)}는 상기 평균밝기{Ai(x,y)}가 사전에 설정된 특정값을 기점으로 증가하거나 감소할 때, 상기 높이 가중치{Wi(x,y)}를 감소시키도록 작용할 수 있다. 즉, 상기 평균밝기{Ai(x,y)}가 상기 특정값일 때, 상기 높이 가중치{Wi(x,y)}는 상대적으로 가장 높은 값을 갖고, 상기 평균밝기{Ai(x,y)}가 상기 특정값에서 멀어질수록 상기 높이 가중치{Wi(x,y)}의 값은 점점 감소할 수 있다. 여기서, 상기 특정값은 시편석을 이용하여 3차원 측정 조건을 정할 때 설정되거나 사용자에 의해 임의로 설정될 수도 있다. 그러나, 상기 특정값은 평균값, 즉 평균밝기{Vi(x,y)}의 중간치인 것이 바람직하다.At first, 5, the weight function {f (A i, V i , λ)} is to increase or decrease the starting point to a certain value is set to the average brightness {A i (x, y) } is pre , And to reduce the height weight {W i (x, y)}. That is, the average brightness {A i (x, y) } is the time a specific value, the height weight {W i (x, y) } has a relatively highest value and the average brightness {A i (x, the value of the height weight {W i (x, y)} may gradually decrease as the distance from the specific value increases. Here, the specific value may be set when determining the three-dimensional measurement condition using a specimen, or may be arbitrarily set by a user. However, it is preferable that the specific value is a median value of the average value, that is, the average brightness {V i (x, y)}.

도 6은 카메라에 측정된 패턴영상들에서의 가시도 또는 SNR과 기본 가중치 사이의 관계를 나타낸 그래프이다.6 is a graph showing the relationship between the visibility or the SNR and the basic weight in the pattern images measured by the camera.

이어서, 도 6을 참조하면, 상기 가중치 함수{f(Ai,Vi,λ)}는 상기 가시도{Vi(x,y)} 또는 상기 SNR이 증가될 때, 상기 높이 가중치를 증가시키도록 작용할 수 있다. 즉, 상기 가시도{Vi(x,y)} 또는 상기 SNR의 값이 서서히 증가될 때, 상기 높이 가중치{Wi(x,y)}의 값도 서서히 증가될 수 있다. 6, the weight function {f (A i , V i , λ)} increases the height weight when the visibility {V i (x, y)} or the SNR is increased Lt; / RTI > That is, the value of the height weight {W i (x, y)} can also be gradually increased when the visibility {V i (x, y)} or the value of the SNR is gradually increased.

도 7은 카메라에 측정된 패턴영상들에서의 측정범위와 기본 가중치 사이의 관계를 나타낸 그래프이다.7 is a graph showing a relationship between a measurement range and a basic weight in pattern images measured by a camera.

이어서 도 7을 참조하면, 상기 가중치 함수{f(Ai,Vi,λ)}는 상기 측정범위(λ)가 증가될 때, 상기 높이 가중치{Wi(x,y)}를 감소시키도록 작용할 수 있다. 즉, 상기 측정범위(λ)의 값이 서서히 증가될 때, 상기 높이 가중치{Wi(x,y)}의 값은 서서히 감소할 수 있다.Referring now to FIG. 7, the weight function {f (A i , V i , λ)} is calculated to decrease the height weight {W i (x, y)} as the measurement range λ is increased Lt; / RTI > That is, when the value of the measurement range (?) Is gradually increased, the value of the height weight {W i (x, y)} may gradually decrease.

한편, 도 2, 도 5 및 도 6을 다시 참조하면, 상기 각 방향에서의 N 개의 패턴영상들은 그림자 영역, 포화 영역 및 비포화 영역으로 구분되고, 각 영역에 따라 서로 다른 높이 가중치{Wi(x,y)}이 부여될 수 있다. 여기서, 상기 그림자 영역은 상기 평균밝기{Ai(x,y)}가 최소 밝기값(A1) 이하이고, 상기 가시도{Vi(x,y)} 또는 상기 SNR이 최소 기준값(Vmin) 이하인 영역이다. 상기 포화 영역은 상기 평균밝기{Ai(x,y)}가 최대 밝기값(A2) 이상이고, 상기 가시도 또는 상기 SNR이 최소 기준값(Vmin) 이하인 영역이다. 상기 비포화 영역은 상기 그림자 영역 및 상기 포화 영역을 제외한 나머지 영역이다.Referring again to FIGS. 2, 5 and 6, the N pattern images in the respective directions are divided into a shadow region, a saturated region, and a non-saturated region, and different height weights {W i x, y)} can be given. Here, the shaded areas are the average brightness {A i (x, y) } that is not more than the minimum luminance value (A1), the visibility {V i (x, y) } or less than or equal to the SNR to a minimum threshold (Vmin) Area. The saturation region is an area in which the average brightness Ai (x, y) is equal to or greater than a maximum brightness value A2 and the visibility or SNR is equal to or less than a minimum reference value Vmin. The non-saturation region is a region other than the shadow region and the saturation region.

우선, 상기 그림자 영역 및 상기 포화 영역에서의 상기 가중치 함수{f(Ai,Vi,λ)}는 상기 높이 가중치{Wi(x,y)}를 '0'으로 계산한다. 즉, 상기 그림자 영역 및 상기 포화 영역에서의 상기 높이 가중치{Wi(x,y)}는 '0'으로 결정된다.First, the weight function {f (A i , V i , λ)} in the shadow region and the saturation region calculates the height weight {W i (x, y)} as '0'. That is, the height weight {W i (x, y)} in the shadow region and the saturation region is determined as '0'.

이어서, 상기 비포화 영역에서의 상기 가중치 함수{f(Ai,Vi,λ)}는 도 5 내지 도 7과 같이, 상기 평균밝기{Ai(x,y)}가 중간치를 기점으로 증가하거나 감소할 때 상기 높이 가중치를 감소시키고, 상기 가시도{Vi(x,y)} 또는 상기 SNR이 증가될 때 상기 높이 가중치{Wi(x,y)}를 증가시키며, 상기 측정범위(λ)가 증가될 때 상기 높이 가중치{Wi(x,y)}를 감소시킬 수 있다.The weight function {f (A i , V i , λ)} in the non-saturation region is obtained by increasing the average brightness {A i (x, y) (X, y)} or increase the height weight {W i (x, y)} as the visibility {V i (x, y)} or the SNR is increased, the height weight {W i (x, y)} can be reduced when the wavelength λ is increased.

반면, 상기 비포화 영역에서의 상기 가중치 함수{f(Ai,Vi,λ)}는 상기 높이 가중치{Wi(x,y)}를 상기 비포화 영역 모두에서 동일한 값으로 계산할 수도 있다. 예를 들어, 상기 비포화 영역 내에 위치하는 4개의 방향에서의 높이 가중치들을 각각 제1 내지 제4 높이 가중치들(W1, W2, W3, W4)라 할 때, 상기 제1 내지 제4 높이 가중치들(W1, W2, W3, W4)의 값 모두가 '1/4'으로 결정될 수 있다.On the other hand, the weight function {f (A i , V i , λ)} in the non-saturation region may calculate the height weight {W i (x, y)} as the same value in all the non-saturated areas. For example, when height heights in four directions located in the non-saturation region are respectively referred to as first to fourth height weights W 1 , W 2 , W 3 and W 4 , All the values of the four height weights W 1 , W 2 , W 3 and W 4 can be determined as '1/4'.

이와 같이 본 실시예에 따르면, 상기 각 방향에서 촬영된 N 개의 패턴영상들로부터 상기 평균밝기{Ai(x,y)}, 상기 가시도{Vi(x,y)} 또는 SNR, 그리고 상기 측정범위(λ)를 추출하고, 추출된 결과에 따라 상기 높이 가중치{Wi(x,y)}를 결정함으로써, 모든 영역에서 상기 측정 대상물(10)의 각 위치에 따른 높이를 종래보다 정확하게 측정할 수 있다.As described above, according to the present embodiment, the average brightness {A i (x, y)}, the visibility {V i (x, y)} or SNR, extracting a measurement range (λ), said high weight according to the extracted result {W i (x, y)} to measure accurately than the conventional height for each location of the object to be measured 10 in the by determining, every area can do.

특별히, 상기 각 방향에서의 N 개의 패턴영상들을 그림자 영역, 포화 영역 및 비포화 영역으로 구분하고, 상기 각 영역에 따라 서로 다른 높이 가중치{Wi(x,y)}를 부여함으로써, 상기 그림자 영역 및 상기 포화 영역에서의 높이값의 신뢰도가 저하되는 것을 보상할 수 있다. 즉, 상기 높이 가중치{Wi(x,y)}를 상기 그림자 영역 및 상기 포화 영역에서 상대적으로 낮은 값, 예를 들어 '0'로 부여하고, 상기 비포화 영역에서 상대적으로 높은 값을 부여함으로써, 상기 그림자 영역 및 상기 포화 영역에 의한 악영향을 보상하여 상기 측정 대상물의 3차원 형상을 보다 정확하게 측정할 수 있다.Specifically, by dividing N pattern images in each direction into shadow regions, saturated regions, and non-saturated regions and assigning different height weights {W i (x, y)} to the regions, And the reliability of the height value in the saturation region is reduced. That is, by assigning the height weight {W i (x, y)} to a relatively low value, for example, '0' in the shadow region and the saturation region, and giving a relatively high value in the non- , It is possible to more accurately measure the three-dimensional shape of the measurement object by compensating for the adverse effects caused by the shadow region and the saturation region.

앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이다. 따라서, 전술한 설명 및 아래의 도면은 본 발명의 기술사상을 한정하는 것이 아닌 본 발명을 예시하는 것으로 해석되어져야 한다.While the present invention has been described in connection with what is presently considered to be practical and exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention. Accordingly, the foregoing description and drawings are to be regarded in an illustrative rather than a restrictive sense of the invention.

10 : 측정 대상물 100 : 측정 스테이지부
200 : 영상 촬영부 300 : 제1 조명부
400 : 제2 조명부 500 : 영상 획득부
600 : 모듈 제어부 700 : 중앙 제어부
10: Measurement object 100: Measurement stage
200: image capturing unit 300: first illuminating unit
400: second illuminating unit 500: image acquiring unit
600: module control unit 700: central control unit

Claims (20)

복수의 방향에서 격자 패턴광들을 측정 대상물에 N번 조사하여, 상기 측정 대상물로부터 반사되는 N개의 패턴영상들을 획득하는 단계;
획득된 패턴영상들로부터 상기 측정 대상물의 각 위치에 대응하는 각 방향에서의 위상 및 밝기를 추출하는 단계;
상기 밝기를 매개변수로 하는 가중치 함수를 이용하여 상기 각 방향에서의 높이 가중치를 추출하는 단계; 및
상기 위상에 근거한 측정 대상물의 높이 및 상기 높이 가중치를 이용하여 상기 각 방향에서의 측정 대상물의 가중치 높이를 계산하는 단계를 포함하는 3차원 형상 측정방법.
Obtaining N pattern images reflected from the measurement object by irradiating the measurement object with the grid pattern light N times in a plurality of directions;
Extracting phase and brightness in each direction corresponding to each position of the measurement object from the obtained pattern images;
Extracting a height weight in each of the directions using a weight function having the brightness as a parameter; And
And calculating a weight height of the measurement object in each of the directions using the height of the measurement object based on the phase and the height weight.
제1항에 있어서,
상기 N번 조사되는 격자 패턴광들은 서로 다른 패턴을 갖는 패턴광을 포함하는 것을 특징으로 하는 3차원 형상 측정방법.
The method according to claim 1,
Wherein the grid pattern lights irradiated N times include pattern light having different patterns.
제1항에 있어서,
상기 각 방향에서의 가중치 높이들을 이용하여 상기 각 위치에서의 높이를 계산하는 단계를 더 포함하는 것을 특징으로 하는 3차원 형상 측정방법.
The method according to claim 1,
And calculating a height at each of the positions using the weight heights in the respective directions.
제3항에 있어서,
상기 각 위치에서의 높이를 통합하여, 상기 측정 대상물의 3차원 형상을 측정하는 단계를 더 포함하는 것을 특징으로 하는 3차원 형상 측정방법.
The method of claim 3,
And measuring the three-dimensional shape of the measurement object by integrating the heights at the respective positions.
제1항에 있어서, 상기 밝기는 상기 격자 패턴광들을 평균하여 얻은 평균밝기인 것을 특징으로 하는 3차원 형상 측정방법.2. The method according to claim 1, wherein the brightness is an average brightness obtained by averaging the grid pattern light. 제1항에 있어서, 상기 매개변수는,
상기 각 방향에서의 패턴영상들로부터 추출된 상기 각 방향에서의 가시도(visibility) 및 SNR(signal-to-noise ratio) 중 적어도 하나를 더 포함하는 것을 특징으로 하는 3차원 형상 측정방법.
2. The method of claim 1,
Further comprising at least one of visibility and signal-to-noise ratio (SNR) in each direction extracted from the pattern images in the respective directions.
제6항에 있어서, 상기 매개변수는,
상기 각 방향에서의 패턴영상들로부터 추출된 격자 패턴광들 각각에서의 격자피치인 측정범위(λ)를 더 포함하는 것을 특징으로 하는 3차원 형상 측정방법.
7. The method of claim 6,
And a measurement range (lambda), which is a lattice pitch in each of the grid pattern lights extracted from the pattern images in the respective directions.
제7항에 있어서, 상기 격자 패턴광들의 측정범위들은 2개 이상 상이한 것을 특징으로 하는 3차원 형상 측정방법.8. The method according to claim 7, wherein the measurement ranges of the grating light are different by two or more. 제6항에 있어서,
상기 밝기는 상기 격자 패턴광들을 평균하여 얻은 평균밝기이고,
상기 가중치 함수는, 상기 평균밝기가 특정값을 기점으로 증가하거나 감소할 때, 상기 높이 가중치를 감소시키는 것을 특징으로 하는 3차원 형상 측정방법.
The method according to claim 6,
Wherein the brightness is an average brightness obtained by averaging the grating light,
Wherein the weight function reduces the height weight when the average brightness increases or decreases from a specific value.
제9항에 있어서, 상기 특정값은 상기 평균밝기의 중간치인 것을 특징으로 하는 3차원 형상 측정방법.10. The method according to claim 9, wherein the specific value is a median of the average brightness. 제6항에 있어서, 상기 가중치 함수는,
상기 가시도 또는 상기 SNR이 증가될 때, 상기 높이 가중치를 증가시키는 것을 특징으로 하는 3차원 형상 측정방법
7. The method of claim 6,
Wherein the height weight is increased when the visibility or the SNR is increased.
제7항에 있어서, 상기 가중치 함수는,
상기 측정범위가 증가될 때, 상기 높이 가중치를 감소시키는 것을 특징으로 하는 3차원 형상 측정방법.
8. The method of claim 7,
And decreasing the height weight when the measurement range is increased.
제6항에 있어서,
상기 밝기는 상기 격자 패턴광들을 평균하여 얻은 평균밝기이고,
상기 높이 가중치를 추출하는 단계는,
상기 패턴영상들을 그림자 영역, 포화 영역 및 비포화 영역으로 구분하는 단계를 포함하고,
상기 그림자 영역은 상기 평균밝기가 최소 밝기값 이하이고, 상기 가시도 또는 상기 SNR이 최소 기준값 이하인 영역이고,
상기 포화 영역은 상기 평균밝기가 최대 밝기값 이상이고, 상기 가시도 또는 상기 SNR이 최소 기준값 이하인 영역이며,
상기 비포화 영역은 상기 그림자 영역 및 상기 포화 영역을 제외한 나머지 영역인 것을 특징으로 하는 3차원 형상 측정방법.
The method according to claim 6,
Wherein the brightness is an average brightness obtained by averaging the grating light,
The step of extracting the height weights may comprise:
Dividing the pattern images into a shadow region, a saturated region, and a non-saturated region,
Wherein the shadow region is an area in which the average brightness is less than a minimum brightness value and the visibility or SNR is less than a minimum reference value,
Wherein the saturation region is an area in which the average brightness is greater than or equal to a maximum brightness value and the visibility or SNR is less than or equal to a minimum reference value,
And the non-saturation region is a region other than the shadow region and the saturation region.
제13항에 있어서, 상기 그림자 영역 및 상기 포화 영역에서의 상기 가중치 함수는,
상기 높이 가중치를 '0'으로 계산하는 것을 특징으로 하는 3차원 형상 측정방법.
14. The apparatus of claim 13, wherein the weight function in the shadow region and the saturation region comprises:
And the height weight is calculated as " 0 ".
제14항에 있어서, 상기 비포화 영역에서의 상기 가중치 함수는,
상기 평균밝기가 중간치를 기점으로 증가하거나 감소할 때, 상기 높이 가중치를 감소시키고,
상기 가시도 또는 상기 SNR이 증가될 때, 상기 높이 가중치를 증가시키는 것을 특징으로 하는 3차원 형상 측정방법.
15. The method of claim 14, wherein the weight function in the non-
Decreasing the height weight when the average brightness increases or decreases from a median,
Wherein the height weight is increased when the visibility or the SNR is increased.
제1항에 있어서,
모든 방향에서의 상기 높이 가중치들의 합은 1인 것을 특징으로 하는 3차원 형상 측정방법.
The method according to claim 1,
Wherein the sum of the height weights in all directions is one.
복수의 방향들에서 격자 패턴광들을 측정 대상물에 N번 조사하여, 상기 측정 대상물로부터 반사되는 N개의 패턴영상들을 획득하는 단계;
획득된 패턴영상들로부터 상기 측정 대상물의 각 위치에 대응하는 각 방향에서의 위상 및 가시도(visibility)를 추출하는 단계;
상기 가시도를 매개변수로 하는 가중치 함수를 이용하여 상기 각 방향에서의 높이 가중치를 추출하는 단계; 및
상기 위상에 근거한 측정 대상물의 높이와 상기 높이 가중치를 곱하여 상기 각 방향에서의 측정 대상물의 가중치 높이를 계산하는 단계를 포함하는 3차원 형상 측정방법.
Obtaining N pattern images reflected from the measurement object by irradiating the measurement object N times with the grid pattern light in a plurality of directions;
Extracting a phase and a visibility in each direction corresponding to each position of the measurement object from the obtained pattern images;
Extracting a height weight in each of the directions using a weight function having the visibility as a parameter; And
And multiplying the height of the measurement object based on the phase by the height weight to calculate a weight height of the measurement object in each of the directions.
제16항에 있어서,
상기 각 방향에서의 가중치 높이들을 이용하여 상기 각 위치에서의 높이를 계산하는 단계를 더 포함하는 것을 특징으로 하는 3차원 형상 측정방법.
17. The method of claim 16,
And calculating a height at each of the positions using the weight heights in the respective directions.
제15항에 있어서,
상기 각 위치에서의 높이를 통합하여, 상기 측정 대상물의 3차원 형상을 측정하는 단계를 더 포함하는 것을 특징으로 하는 3차원 형상 측정방법.
16. The method of claim 15,
And measuring the three-dimensional shape of the measurement object by integrating the heights at the respective positions.
제17항에 있어서,
상기 각 방향에서의 높이 가중치들의 합은 1인 것을 특징으로 하는 3차원 형상 측정방법.
18. The method of claim 17,
Wherein the sum of the height weights in the respective directions is one.
KR1020140085079A 2014-07-08 2014-07-08 Method for measuring three dimensional shape KR101447645B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140085079A KR101447645B1 (en) 2014-07-08 2014-07-08 Method for measuring three dimensional shape

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140085079A KR101447645B1 (en) 2014-07-08 2014-07-08 Method for measuring three dimensional shape

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020110062936A Division KR101466741B1 (en) 2011-06-28 2011-06-28 Method for measuring three dimensional shape

Publications (2)

Publication Number Publication Date
KR20140095041A KR20140095041A (en) 2014-07-31
KR101447645B1 true KR101447645B1 (en) 2014-10-08

Family

ID=51740478

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140085079A KR101447645B1 (en) 2014-07-08 2014-07-08 Method for measuring three dimensional shape

Country Status (1)

Country Link
KR (1) KR101447645B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100613421B1 (en) 2001-04-20 2006-08-17 요고, 테루아키 Three-dimensional shape measuring method
KR100841662B1 (en) 2006-06-23 2008-06-26 주식회사 고영테크놀러지 System and Method for Measuring Three Dimension Shape Using Moire and Stereo
KR100870922B1 (en) 2006-09-25 2008-11-28 주식회사 고영테크놀러지 System for Measuring Three Dimension Shape Using Multiple Interferometry
KR20100041022A (en) * 2008-10-13 2010-04-22 주식회사 고영테크놀러지 Apparatus and method for measuring three dimension shape using multi-wavelength

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100613421B1 (en) 2001-04-20 2006-08-17 요고, 테루아키 Three-dimensional shape measuring method
KR100841662B1 (en) 2006-06-23 2008-06-26 주식회사 고영테크놀러지 System and Method for Measuring Three Dimension Shape Using Moire and Stereo
KR100870922B1 (en) 2006-09-25 2008-11-28 주식회사 고영테크놀러지 System for Measuring Three Dimension Shape Using Multiple Interferometry
KR20100041022A (en) * 2008-10-13 2010-04-22 주식회사 고영테크놀러지 Apparatus and method for measuring three dimension shape using multi-wavelength

Also Published As

Publication number Publication date
KR20140095041A (en) 2014-07-31

Similar Documents

Publication Publication Date Title
JP5202575B2 (en) Shape measuring apparatus and shape measuring method
KR101639227B1 (en) Three dimensional shape measurment apparatus
JP5562407B2 (en) Substrate inspection apparatus and inspection method
JP5256251B2 (en) Inspection method of measurement object
JP6317296B2 (en) Three-dimensional shape measuring method and measuring apparatus
JP5627079B2 (en) Method for measuring an object to be measured on a printed circuit board
JP6238521B2 (en) Three-dimensional measuring apparatus and control method thereof
KR101196219B1 (en) Method for measuring height of a measuring target in a three dimensional shape measurment apparatus and three dimensional shape measurment apparatus using the same
CN105823438B (en) The height measurement method of 3 d shape measuring apparatus
KR101371376B1 (en) Three dimensional shape measurment apparatus
KR101237497B1 (en) Method of setting inspection area
KR101081538B1 (en) Three-dimensional image measuring apparatus and method thereof
EP3686550A1 (en) Three-dimensional shape measuring apparatus
KR20120052087A (en) Method of inspecting board
KR101088497B1 (en) Method for measuring three dimensional shape
JP5622816B2 (en) Method for measuring an object to be measured on a printed circuit board
JP2019109071A (en) Image processing system, image processing program, and method for processing image
KR101466741B1 (en) Method for measuring three dimensional shape
JP5584671B2 (en) Board inspection method
KR101684244B1 (en) Board inspection method
KR101447645B1 (en) Method for measuring three dimensional shape
KR101329025B1 (en) Method for compensating chromatic aberration, and method and apparatus for measuring three dimensional shape by using the same
KR101133972B1 (en) Method of inspecting terminal
KR101337888B1 (en) Three dimensional shape measuring apparatus
KR20120127371A (en) Method for compensating chromatic aberration, and method and apparatus for measuring three dimensional shape by using the same

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170621

Year of fee payment: 4