KR101226716B1 - 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치 - Google Patents

색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치 Download PDF

Info

Publication number
KR101226716B1
KR101226716B1 KR1020120111410A KR20120111410A KR101226716B1 KR 101226716 B1 KR101226716 B1 KR 101226716B1 KR 1020120111410 A KR1020120111410 A KR 1020120111410A KR 20120111410 A KR20120111410 A KR 20120111410A KR 101226716 B1 KR101226716 B1 KR 101226716B1
Authority
KR
South Korea
Prior art keywords
light
reference phase
phase change
average intensity
change amount
Prior art date
Application number
KR1020120111410A
Other languages
English (en)
Other versions
KR20120127371A (ko
Inventor
김홍민
전문영
홍종규
허정
윤상규
Original Assignee
주식회사 고영테크놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고영테크놀러지 filed Critical 주식회사 고영테크놀러지
Priority to KR1020120111410A priority Critical patent/KR101226716B1/ko
Publication of KR20120127371A publication Critical patent/KR20120127371A/ko
Application granted granted Critical
Publication of KR101226716B1 publication Critical patent/KR101226716B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1335Structural association of cells with optical devices, e.g. polarisers or reflectors
    • G02F1/1336Illuminating devices
    • G02F1/133602Direct backlight
    • G02F1/133609Direct backlight including means for improving the color mixing, e.g. white
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Nonlinear Science (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치가 개시된다. 이러한 색수차 보상방법은 적색광의 기준위상변화량, 녹색광의 기준위상변화량 및 청색광의 기준위상변화량을 획득하는 단계와, 적색광의 평균인텐시티, 녹색광의 평균인텐시티 및 청색광의 평균인텐시티를 획득하는 단계 및 상기 적색광의 기준위상변화량, 상기 녹색광의 기준위상변화량 및 상기 청색광의 기준위상변화량과 상기 적색광의 평균인텐시티, 상기 녹색광의 평균인텐시티 및 상기 청색광의 평균인텐시티를 이용하여 페이스 오프셋을 구하는 단계를 포함한다. 따라서, 기판과 기판에 형성된 측정대상물과의 색상차이에서 오는 색수차를 보정하여 보다 정확한 3차원 형상을 측정할 수 있다.

Description

색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치{METHOD FOR COMPENSATING CHROMATIC ABERRATION, AND METHOD AND APPARATUS FOR MEASURING THREE DIMENSIONAL SHAPE BY USING THE SAME}
본 발명은 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치에 관한 것으로, 보다 상세하게는 모아레 패턴을 이용한 위상천이법을 적용하여 3차원형상의 측정시 발생하는 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치에 관한 것이다.
일반적으로, 3차원 형상 측정장치는 스테이지, 카메라, 조명유닛 및 중앙 처리부로 구성된다. 여기서, 상기 3차원 형상 측정장치를 이용하여 측정 대상물의 3차원 형상을 측정하는 일반적인 방법을 간단하게 설명하면 다음과 같다.
우선, 상기 조명유닛에서 출사되는 격자 패턴광을 상기 스테이지 상에 배치된 측정 대상물로 조사한다. 이때, 상기 격자 패턴광은 N번 옆으로 이동하면서 상기 측정 대상물로 조사된다. 이후, 상기 카메라는 상기 측정 대상물로부터 반사되는 상기 격자 패턴광을 검출하여 상기 측정 대상물의 N개의 패턴영상들을 획득한다. 이어서, 상기 중앙 처리부는 N-버켓 알고리즘(N-bucket algorism)을 이용하여 상기 N개의 패턴영상들로부터 상기 측정 대상물의 각 위치에 따른 높이를 계산해낸다. 이렇게 계산된 상기 각 위치에 따른 높이를 종합할 경우, 상기 측정 대상물의 3차원 형상을 측정할 수 있다.
한편, 이러한 패턴광은 일반적으로 적색광(R), 녹색(G) 및 청색광(B)이 혼색된 백색광을 사용하게 되는데, 패턴영상을 획득하는 과정에서 색수차에 의한 편차가 발생하게 된다.
예컨대, PCB 기판 표면에 형성된 패드 또는 배선패턴의 형상 또는 패드에 부착된 솔더페이스트의 형상을 측정하는 경우, 녹색을 갖는 PCB 기판의 베이스 기판은 일반적으로 녹색을 갖게되어 적색광, 녹색광 및 청색광 중에서 녹색광만이 반사된다. 한편, 패드 또는 배선패턴의 표면에서는 적색광, 녹색광 및 청색광이 모두 반사된다. 따라서 카메라에 의한 패턴광 검출시, 조명유닛 및 카메라의 렌즈에 의한 색수차가 발생하여 베이스 기판 표면에 형성된 패드 또는 배선패턴의 높이 측정에 오차를 유발하게 된다.
따라서, 본 발명은 상기 문제점을 해결하고자 하는 것으로, 본 발명의 해결하고자 하는 과제는 이러한 색수차를 보상하는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는 이러한 색수차 보상방법을 적용하여 정확도가 향상된 3차원 형상을 측정하는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는 이러한 색수차 보상방법을 적용하여 정확도가 향상된 3차원 형상을 측정하는 장치를 제공하는 것이다.
본 발명의 예시적인 일 실시예에 의한 색수차 보상방법은 적색광의 기준위상변화량, 녹색광의 기준위상변화량 및 청색광의 기준위상변화량을 획득하는 단계와, 적색광의 평균인텐시티, 녹색광의 평균인텐시티 및 청색광의 평균인텐시티를 획득하는 단계 및 상기 적색광의 기준위상변화량, 상기 녹색광의 기준위상변화량 및 상기 청색광의 기준위상변화량과 상기 적색광의 평균인텐시티, 상기 녹색광의 평균인텐시티 및 상기 청색광의 평균인텐시티를 이용하여 페이스 오프셋을 구하는 단계를 포함한다.
예컨대, 상기 적색광의 기준위상변화량, 상기 녹색광의 기준위상변화량 및 상기 청색광의 기준위상변화량은, 시편석에 각각 적색광, 녹색광, 청색광 및 백색광을 조사한 후, 상기 시편석으로부터 획득된 적색광의 기준위상과 백색광의 기준위상의 차이를 구하여 상기 적색광의 기준위상변화량을 획득하고, 상기 시편석으로부터 획득된 녹색광의 기준위상과 백색광의 기준위상의 차이를 구하여 상기 녹색광의 기준위상변화량을 획득하며, 상기 시편석으로부터 획득된 청색광의 기준위상과 백색광의 기준위상의 차이를 구하여 상기 청색광의 기준위상변화량을 획득할 수 있다.
한편, 적색광의 가시도, 녹색광의 가시도 및 청색광의 가시도를 획득하는 단계를 더 포함할 수 있다.
이때, 상기 페이스 오프셋은, 다음의 수학식을 통해서 얻어질 수 있다,
Figure 112012081434940-pat00001
(이식에서, δΦi는 페이스 오프셋, IRO i는 적색광의 평균인텐시티, IGO i는 녹색광의 평균인텐시티, IBO i는 청색광의 평균인텐시티, δΦR i는 적색광의 기준위상변화량, δΦG i는 녹색광의 기준위상변화량, δΦB i는 청색광의 기준위상변화량, γR i는 적색광의 가시도(Visibility), γG i는 녹색광의 가시도, γB i는 청색광의 가시도임).
또한, 상기 적색광의 평균인텐시티(IRO i), 상기 녹색광의 평균인텐시티(IGO i) 및 상기 청색광의 평균인텐시티(IBO i)는, 각각 다음의 수학식에 의해 표현되어질 수 있다.
Figure 112012081434940-pat00002
(이식에서, ηm은 영상촬영부에서의 효율(efficiency), ηp는 조명부에서의 효율 및 RT는 시편석으로부터의 반사율(reflectance)로서 페이스 오프셋을 구하기 위한 식에서 분자와 분모에 모두 기재되어 상쇄되므로 측정할 필요 없는 값이고, IS,R
Figure 112012081434940-pat00003
, IS ,G
Figure 112012081434940-pat00004
, IS ,B
Figure 112012081434940-pat00005
로서, 각각 광원의 스펙트럴 파워(spectral power) iS(λ)를 적색파장범위, 녹색파장범위 청색파장범위에 대해 적분한 값으로 상수값이고, Ii C , PCB ,2 DR, Ii C , PCB ,2 DG, Ii C , PCB ,2 DB는 각각 측정대상물로부터 영상촬영부의 카메라에 입력되는 적색, 녹색, 청색광의 인텐시티이고, Ii C ,T,2 DR, Ii C,T,2DG, Ii C ,T,2 DB는 각각 시편석으로부터 영상촬영부의 카메라에 입력되는 적색, 녹색, 청색광의 인텐시티임).
한편, 상기 시편석은 백색 또는 회색을 가질 수 있다.
본 발명의 예시적인 일 실시예에 의한 3차원 형상 측정방법은 측정대상물에 패턴을 이동시켜가면서 조사하고, 렌즈를 포함하는 영상 촬영부를 통해서 이미지를 획득하는 단계와, 상기 측정대상물이 형성된 기판과 상기 측정대상물과의 색상차이에 의한 위상값을 보정하는 단계 및 보정된 상기 위상값을 이용하여 측정대상물의 3차원 형상을 측정하는 단계를 포함한다.
예컨대, 상기 위상값을 보정하는 방법은 위에서 언급된 색수차를 보정하는 방법들 중 어느 하나를 이용할 수 있다.
본 발명에 예시적인 일 실시예에 의한 3차원 형상 측정장치는 측정 스테이지부, 조명부, 영상촬영부 및 제어부를 포함한다. 상기 측정 스테이지부는 측정대상물을 지지한다. 상기 조명부는 광원 및 격자를 포함하며, 상기 측정대상물에 격자무늬조명을 조사한다. 상기 영상촬영부는 상기 측정대상물에서 반사되어 나오는 격자 이미지를 촬상한다. 상기 제어부는 상기 측정대상물이 형성된 기판과 상기 측정대상물과의 색상차이에 의한 위상값을 보정하고, 보정된 상기 위상값을 이용하여 측정대상물의 3차원 형상을 산출한다.
예컨대, 상기 제어부는 위에서 언급된 위상값을 보정하는 방법들 중 어느 하나를 이용하여 위상값을 보정할 수 있다.
또한, 얻어진 상기 적색광의 평균인텐시티(IRO i), 상기 녹색광의 평균인텐시티(IGO i) 및 상기 청색광의 평균인텐시티(IBO i)는 잡(job)화일에 저장하여 이후의 과정에서 반복사용될 수 있다.
본 발명에 의하면, 기판과 기판에 형성된 측정대상물과의 색상차이에서 오는 색수차를 보정하여 보다 정확한 3차원 형상을 측정할 수 있다.
도 1은 본 발명의 예시적인 일 실시예에 의한 색수차 보상방법을 도시하는 순서도이다.
도 2는 본 발명의 예시적인 일 실시예에 의한 3차원 형상 측정방법을 도시하는 순서도이다.
도 3은 본 발명의 예시적인 일 실시예에 의한 3차원 형상 측정장치를 도시하는 블럭도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명한다.
도 1은 본 발명의 예시적인 일 실시예에 의한 색수차 보상방법을 도시하는 순서도이다.
도 1을 참조하면, 본 발명의 예시적인 일 싱시예에 의한 색수차 보상방법에 의하면, 적색광의 기준위상변화량, 녹색광의 기준위상변화량 및 청색광의 기준위상변화량을 획득하고(단계 S101), 적색광의 평균인텐시티, 녹색광의 평균인텐시티 및 청색광의 평균인텐시티를 획득한 후(단계 S102), 상기 적색광의 기준위상변화량, 상기 녹색광의 기준위상변화량 및 상기 청색광의 기준위상변화량과 상기 적색광의 평균인텐시티, 상기 녹색광의 평균인텐시티 및 상기 청색광의 평균인텐시티를 이용하여 페이스 오프셋을 구한다(단계 S103).
이하, 모아레 패턴을 이용한 위상천이법에 의한 일반적인 3차원 형상 측정방법을 설명한다.
우선, 복수의 방향들에서 발생된 격자 패턴광들을 스테이지 상에 배치된 상기 측정 대상물로 순차적으로 조사하고, 이렇게 조사되어 상기 측정 대상물로부터 반사된 상기 격자 패턴광들을 영상촬영부의 카메라에서 순차적으로 검출하여 복수의 패턴영상들을 획득한다.
구체적으로, 상기 격자 패턴광들 각각은 격자 패턴 이미지를 격자 패턴 피치의 1/N 간격 만큼씩 N번, 예를 들어 3번 또는 4번 옆으로 이동하면서 상기 측정 대상물로 조사함으로써, 상기 각 방향마다 상기 측정 대상물에 대한 N개의 패턴영상들을 획득한다. 예를 들어, 도 3에서 도시된 제1 및 제2 조명부들(300, 400)에서 발생된 상기 제1 및 제2 격자 패턴광들이 상기 측정 대상물(10)로 조사될 경우, N개의 제1 패턴영상들과 N개의 제2 패턴영상들을 획득할 수 있다.
이어서, 상기 각 방향에서의 N개의 패턴영상들로부터 X-Y 좌표계의 각 위치{i(x,y)}에서의 N개의 밝기정도들{Ii 1, Ii 2, ... , Ii N}과, 도 2에서와 같은 측정범위(λ)를 추출하고, 이들 중 상기 N개의 밝기정도들{Ii 1, Ii 2, ... , Ii N}로부터 상기 각 방향에서의 위상{Φi(x,y)}, 밝기{Ai(x,y)} 및 가시도{Vi(x,y)}를 계산해낸다. 이때, 상기 각 방향에서의 위상{Φi(x,y)}, 밝기{Ai(x,y)} 및 가시도{Vi(x,y)}는 N-버켓 알고리즘(N-bucket algorism)을 이용하여 계산되어 질 수 있다. 또한, 상기 밝기{Ai(x,y)}는 상기 검출된 격자 패턴광들을 평균하여 얻은 평균밝기인 것이 바람직하다. 따라서, 이하에서는 상기 밝기{Ai(x,y)}를 평균밝기{Ai(x,y)}로 명명하겠다.
예를 들어, 상기 N이 3일 경우, 상기 각 방향에서의 3개의 패턴영상들로부터 3개의 밝기정도들{Ii 1, Ii 2, Ii 3}이 추출되고, 3-버켓 알고리즘을 통해 아래의 수식과 같은 위상{Φi(x,y)}, 평균밝기{Ai(x,y)} 및 가시도{Vi(x,y)}를 계산해낼 수 있다. 아래 수식에서 Bi(x,y)는 상기 각 방향에서의 3개의 패턴 영상들에서의 영상신호(밝기신호)의 진폭을 의미한다. 이때, Ii 1은 A + B cos(Φ)이고, Ii 2은 A + B cos(φ+2π/3)이며, Ii 3은 A + B cos(φ+4π/3)이다. 이들 3개의 식으로부터 φ, A, B 값을 구할 수 있으며, 위상값(φ)은 아래의 수학식 1, 평균밝기(A)는 아래의 수학식 2, 가시도(V=B/A)는 아래의 수학식 3과 같이 나타낼 수 있다.
Figure 112012081434940-pat00006
Figure 112012081434940-pat00007
Figure 112012081434940-pat00008
한편, 상기 N이 4일 경우, 상기 각 방향에서의 4개의 패턴영상들로부터 4개의 밝기정도들{Ii 1, Ii 2, Ii 3, Ii 4}이 추출되고, 4-버켓 알고리즘을 통해 아래의 수식과 같은 위상{Φi(x,y)}, 평균밝기{Ai(x,y)} 및 가시도{Vi(x,y)}를 계산해낼 수 있다. 아래 수식에서 Bi(x,y)는 상기 각 방향에서의 4개의 패턴영상들에서의 영상신호(밝기신호)의 진폭을 의미한다. 이때, Ii 1은 A + B cos(Φ)이고, Ii 2은 A + B cos(φ+π/2)이며, Ii 3은 A + B cos(φ+π)이고, Ii 3은 A + B cos(φ+3π/2)이다. 이들 4개의 식으로부터 φ, A, B 값을 구할 수 있으며, 위상값(φ)은 아래의 수학식 4, 평균밝기(A)는 아래의 수학식 5, 가시도(V=B/A)는 아래의 수학식 6과 같이 나타낼 수 있다.
Figure 112012081434940-pat00009
Figure 112012081434940-pat00010
Figure 112012081434940-pat00011
이어서, 상기 각 방향에서의 위상{Φi(x,y)}으로부터 상기 각 방향에서의 최초 높이{Hi(x,y)}를 아래의 수학식 7과 같이 계산해낸다. 이때, 아래 수식에서 ki(x,y)는 위상과 높이 사이의 변환비율을 나타내는 위상 대 높이 변환 스케일을 의미한다.
Figure 112012081434940-pat00012
그런데, 위의 수학식 7을 통해서 측정 대상물의 높이 H를 구할 수 있다. 또한, 각 측정지점(x,y)에 따른 높이 H를 구함으로써, 측정 대상물의 3차원적 형상을 측정하게 된다.
그런데, 일반적인 PCB기판은 예컨대 녹색을 갖고, PCB기판에 부착된 전자소자 또는 솔더페이스트는 PCB기판 상이한 색을 갖고, 이들로부터 반사된 광은 도 3의 영상 촬영부(200)의 렌즈들에 의해 색수차를 갖게 되어 위상값(φ)에 차이를 나타내게 된다. 이하, 이를 보정하는 방법을 제시한다.
먼저, 백색광을 적색, 녹색 및 청색으로 분리하여 백색광의 인텐시티를 표현하면, 아래의 수학식 8로 표현될 수 있다.
Figure 112012081434940-pat00013
이 식에서, 윗첨자 i는 각 픽셀(i)에서의 값을 의미하고, IRO i, IGO i, IBO i는 각각 적색광의 평균인텐시티, 녹색광의 평균인텐시티, 청색광의 평균인텐시티이고, γR i, γG i, γG i는 각각 적색광의 가시도, 녹색광의 가시도, 청색광의 가시도이고, ΦR i, ΦG i, ΦB i는 각각 적색광, 녹색광, 청색광 때문에 발생되는 위상변화(phase shift)값을 나타내고, ΦW, R i,은 백색광의 기준위상(reference phase)이며, δΦR i, δΦG i, δΦB i는 각각 적색광, 녹색광 청색광의 기준위상변화량으로서, 아래의 수학식 9로 표현된다.
Figure 112012081434940-pat00014
위의 수학식 8을 정리하면 아래의 수학식 10으로 나타낼 수 있다.
Figure 112012081434940-pat00015
이 식에서,
Figure 112012081434940-pat00016
,
Figure 112012081434940-pat00017
이고.
Figure 112012081434940-pat00018
임.
다시 수학식 10을 정리하면, 다음의 수학식 11로 나타낼 수 있다.
Figure 112012081434940-pat00019
이 식에서,
Figure 112012081434940-pat00020
이고,
Figure 112012081434940-pat00021
이다.
따라서, 페이스 오프셋(phase offset) δΦi는 아래의 수학식 12로 나타낼 수 있다.
Figure 112012081434940-pat00022
상기 수학식 12에서 나타난 페이스 오프셋을 구하기 위해서는 앞에서 설명한 적색광, 녹색광 청색광의 기준위상변화량 값들(δΦR i, δΦG i, δΦB i)과 적색광의 평균인텐시티, 녹색광의 평균인텐시티, 청색광의 평균인텐시티값들 (IRO i, IGO i, IBO i)이 필요하다.
적색광, 녹색광 청색광의 기준위상변화량 값들(δΦR i, δΦG i, δΦB i)을 구하기 위해서, 수학식 9에서 나타난 바와 같이, 시편석으로부터 획득된 적색광의 기준위상(ΦR, R i)과 백색광의 기준위상(Φw, R i)의 차이를 구하여 상기 적색광의 기준위상변화량(δΦR i)을 획득하고, 상기 시편석으로부터 획득된 녹색광의 기준위상(ΦG, R i)과 백색광의 기준위상(Φw, R i)의 차이를 구하여 상기 녹색광의 기준위상변화량(δΦG i)을 획득하며, 상기 시편석으로부터 획득된 청색광의 기준위상(ΦB, R i)과 백색광의 기준위상(Φw, R i)의 차이를 구하여 상기 청색광의 기준위상변화량(δΦB i)을 획득한다(단계 S101).
또한, 적색광의 평균인텐시티, 녹색광의 평균인텐시티, 청색광의 평균인텐시티값들 (IRO i, IGO i, IBO i)을 획득한 후(단계 S102), 상기 값들을 수학식 12에 대입하여 페이스 오프셋을 획득한다.
한편, 측정대상물에 대한 적색광의 평균인텐시티, 녹색광의 평균인텐시티, 청색광의 평균인텐시티값들 (IRO i, IGO i, IBO i)은 다음과 같이 근사될 수 있다.
먼저, 도 3에서 도시된 제1 조명부(300) 또는 제2 조명부(400)의 제1 또는 제2 조명유닛들(310, 410)의 인텐시티(IS ,W)는 다음의 수학식 13과 같이 나타낼 수 있다.
Figure 112012081434940-pat00023
이 식에서, is(λ)는 제1 또는 제2 조명유닛들(310, 410)의 스펙트럴 파워(spectral power)이고, 상기 적분범위를 나타내는 R, G, B는 각각 적색파장대, 녹색파장대, 청색 파장대를 나타낸다.
또한, 영상 촬영부(200)의 카메라(210)에서 관측되는 백색광의 인텐시티(IC,W)는 다음의 수학식 14로 나타낼 수 있다.
Figure 112012081434940-pat00024
이 식에서, ηm은 제1 또는 제2 조명유닛들(310, 410)의 효율을 나타내고, ηp는 영상촬영부(200)의 효율을 나타내며, R은 반사율을 나타낸다.
위의 수학식 14에서, ηm(λ), ηp(λ)는 각 파장대별로 차이가 크지 않고 모두 동일하다고 가정하고, 반사율 R(λ)를 각 파장대의 대표값으로 나타내면, 수학식 14는 다음의 수학식 15와 같이 표현될 수 있다.
Figure 112012081434940-pat00025
따라서, 다음의 비례식이 성립함을 알 수 있다.
Figure 112012081434940-pat00026
이 식에서, 각 파장대의 대표 반사율 RR i, RG i, RB i은 아래의 수학식 17로 표현된다.
Figure 112012081434940-pat00027
이 식에서, ηm은 영상촬영부에서의 효율(efficiency), ηp는 조명부에서의 효율 및 RT는 시편석으로부터의 반사율(reflectance)로서, Ii C , PCB ,2 DR, Ii C , PCB ,2 DG, Ii C,PCB,2DB는 각각 측정대상물로부터 영상촬영부의 카메라에 입력되는 적색, 녹색, 청색광의 인텐시티이고, Ii C ,T,2 DR, Ii C ,T,2 DG, Ii C ,T,2 DB는 각각 시편석으로부터 영상촬영부의 카메라에 입력되는 적색, 녹색, 청색광의 인텐시티이다.
상기 수학식 16 및 17로부터, 적색광의 평균인텐시티, 녹색광의 평균인텐시티, 청색광의 평균인텐시티값들 (IRO i, IGO i, IBO i)은 다음과 같이 수학식 18로 표현될 수 있다.
Figure 112012081434940-pat00028
이러한 수학식 18을 수학식 12에 대입하면, 페이스 오프셋(δΦi)는 아래의 수학식 19로 근사될 수 있다.
Figure 112012081434940-pat00029
도 2는 본 발명의 예시적인 일 실시예에 의한 3차원 형상 측정방법을 도시하는 순서도이다.
도 2를 참조하면, 본 발명의 예시적인 일 실시예에 의한 3차원 형상 측정방법은 측정대상물에 패턴을 이동시켜가면서 조사하고, 렌즈를 포함하는 영상 촬영부를 통해서 이미지를 획득하고(단계 S201), 상기 측정대상물이 형성된 기판과 상기 측정대상물과의 색상차이에 의한 위상값을 보정한 후(단계 S202), 보정된 상기 위상값을 이용하여 측정대상물의 3차원 형상을 측정한다(단계 S203).
이미지를 획득하는 절차는 앞서 설명한 바와 같이, 예컨대, 명부와 암부가 교대로 형성된 격자 유닛을 이동시켜 가면서 격자 이미지를 조사한 후, 측정 대상물로부터의 이미지를 획득한다.
위상값을 보정하는 과정은 앞서 설명하였으므로, 상세한 설명은 생략한다.
이렇게 보정된 위상값을 수학식 7에 대입하여, x,y좌표값에 대응하는 높이H를 측정함으로써, 3차원 형상을 측정한다.
도 3은 본 발명의 예시적인 일 실시예에 의한 3차원 형상 측정장치를 도시하는 블럭도이다.
도 3을 참조하면, 본 실시예에 의한 3차원 형상 측정방법에 사용되는 3차원 형상 측정장치는 측정 스테이지부(100), 영상 촬영부(200), 제1 및 제2 조명부들(300, 400), 영상 획득부(500) 및 모듈 제어부(600)와 중앙 제어부(700)를 포함하는 제어부를 포함할 수 있다.
상기 측정 스테이지부(100)는 측정 대상물(10)을 지지하는 스테이지(110) 및 상기 스테이지(110)를 이송시키는 스테이지 이송유닛(120)을 포함할 수 있다. 본 실시예에서, 상기 스테이지(110)에 의해 상기 측정 대상물(10)이 상기 영상 촬영부(200)와 상기 제1 및 제2 조명부들(300, 400)에 대하여 이동함에 따라, 상기 측정 대상물(10)에서의 측정위치가 변경될 수 있다.
상기 영상 촬영부(200)는 상기 스테이지(110)의 상부에 배치되어 상기 측정 대상물(10)로부터 반사되어온 광을 인가받아, 상기 측정 대상물(10)에 대한 영상을 측정한다. 즉, 상기 영상 촬영부(200)는 상기 제1 및 제2 조명부들(300, 400)에서 출사되어 상기 측정 대상물(10)에서 반사된 광을 인가받아, 상기 측정 대상물(10)의 평면영상을 촬영한다.
상기 영상 촬영부(200)는 카메라(210), 결상렌즈(220), 필터(230) 및 원형램프(240)를 포함할 수 있다. 상기 카메라(210)는 상기 측정 대상물(10)로부터 반사되는 광을 인가받아 상기 측정 대상물(10)의 평면영상을 촬영하고, 일례로 CCD 카메라나 CMOS 카메라 중 어느 하나가 적용될 수 있다. 상기 결상렌즈(220)는 상기 카메라(210)의 하부에 배치되어, 상기 측정 대상물(10)에서 반사되는 광을 상기 카메라(210)에서 결상시킨다.
상기 필터(230)는 상기 결상렌즈(220)의 하부에 배치되어, 상기 측정 대상물(10)에서 반사되는 광을 여과시켜 상기 결상렌즈(220)로 제공하고, 일례로 주파수 필터, 컬러필터 및 광세기 조절필터 중 어느 하나로 이루어질 수 있다. 상기 원형램프(240)는 상기 필터(230)의 하부에 배치되어, 상기 측정 대상물(10)의 2차원 형상과 같은 특이영상을 촬영하기 위해 상기 측정 대상물(10)로 광을 제공할 수 있다.
상기 제1 조명부(300)는 상기 영상 촬영부(200)의 우측에 상기 측정 대상물(10)을 지지하는 상기 스테이지(110)에 대하여 경사지게 배치될 수 있다. 상기 제1 조명부(300)는 제1 조명유닛(310), 제1 격자유닛(320), 제1 격자 이송유닛(330) 및 제1 집광렌즈(340)를 포함할 수 있다. 상기 제1 조명유닛(310)은 조명원과 적어도 하나의 렌즈로 구성되어 광을 발생시키고, 상기 제1 격자유닛(320)은 상기 제1 조명유닛(310)의 하부에 배치되어 상기 제1 조명유닛(310)에서 발생된 광을 격자무늬 패턴을 갖는 제1 격자 패턴광으로 변경시킨다.
상기 제1 격자 이송유닛(330)은 상기 제1 격자유닛(320)과 연결되어 상기 제1 격자유닛(320)을 이송시키고, 일례로 PZT(Piezoelectric) 이송유닛이나 미세직선 이송유닛 중 어느 하나로 적용될 수 있다. 상기 제1 집광렌즈(340)는 상기 제1 격자유닛(320)의 하부에 배치되어 상기 제1 격자유닛(320)로부터 출사된 상기 제1 격자 패턴광을 상기 측정 대상물(10)로 집광시킨다.
상기 제2 조명부(400)는 상기 영상 촬영부(200)의 좌측에 상기 측정 대상물(10)을 지지하는 상기 스테이지(110)에 대하여 경사지게 배치될 수 있다. 상기 제2 조명부(400)는 제2 조명유닛(410), 제2 격자유닛(420), 제2 격자 이송유닛(430) 및 제2 집광렌즈(440)를 포함할 수 있다. 여기서, 상기 제2 조명부(400)는 위에서 설명한 상기 제1 조명부(300)와 실질적으로 동일하므로, 자세한 설명은 생략하기로 한다.
상기 제1 조명부(300)는 상기 제1 격자 이송유닛(330)이 상기 제1 격자유닛(320)을 N번 순차적으로 이동하면서, 상기 측정 대상물(10)로 N개의 제1 격자 패턴광들을 조사할 때, 상기 영상 촬영부(200)는 상기 측정 대상물(10)에서 반사된 상기 N개의 제1 격자 패턴광들을 순차적으로 인가받아 N개의 제1 패턴영상들을 촬영할 수 있다.
또한, 상기 제2 조명부(400)는 상기 제2 격자 이송유닛(430)이 상기 제2 격자유닛(420)을 N번 순차적으로 이동하면서, 상기 측정 대상물(10)로 N개의 제2 격자 패턴광들을 조사할 때, 상기 영상 촬영부(200)는 상기 측정 대상물(10)에서 반사된 상기 N개의 제2 격자 패턴광들을 순차적으로 인가받아 N개의 제2 패턴영상들을 촬영할 수 있다. 여기서, 상기 N은 자연수로, 일례로 3 또는 4일 수 있다.
한편, 본 실시예에서는 상기 제1 및 제2 격자 패턴광들을 발생시키는 조명장치로 상기 제1 및 제2 조명부들(300, 400)만을 설명하였으나, 이와 다르게 상기 조명부의 개수는 3개 이상일 수도 있다. 즉, 상기 측정 대상물(10)로 조사되는 격자 패턴광이 다양한 방향에서 조사되어, 다양한 종류의 패턴영상들이 촬영될 수 있다.
예를 들어, 3개의 조명부들이 상기 영상 촬영부(200)를 중심으로 정삼각형 형태로 배치될 경우, 3개의 격자 패턴광들이 서로 다른 방향에서 상기 측정 대상물(10)로 인가될 수 있고, 4개의 조명부들이 상기 영상 촬영부(200)를 중심으로 정사각형 형태로 배치될 경우, 4개의 격자 패턴광들이 서로 다른 방향에서 상기 측정 대상물(10)로 인가될 수 있다.
복수의 조명부들 중 어느 하나의 조명부에서 출사된 격자 패턴광이 상기 측정 대상물(10)로 조사될 때, 상기 측정 대상물(10) 상에는 격자무늬 패턴 이미지가 형성된다. 이때, 상기 격자무늬 패턴 이미지는 복수개의 격자무늬들을 포함하고 있는데, 본 실시예에서 상기 격자무늬들 사이의 간격, 즉 격자피치를 측정범위(λ)이라고 정의한다.
한편, 상기 측정범위(λ)는 상기 격자 패턴광들의 종류와 상관없이 동일한 값을 가질 수 있지만, 이와 다르게 상기 격자 패턴광들의 종류에 따라 서로 다른 값을 가질 수도 있다. 이때, 상기 측정범위(λ)는 상기 격자 패턴광들의 종류에 따라 적어도 2개 이상이 서로 상이한 것이 바람직하다. 예를 들어, 상기 제1 조명부(300)에서 발생된 상기 제1 격자 패턴광에 의한 격자무늬 패턴 이미지는 제1 측정범위의 격자무늬들을 갖고, 상기 제2 조명부(400)에서 발생된 상기 제2 격자 패턴광에 의한 격자무늬 패턴 이미지는 상기 제1 측정범위와 다른 제2 측정범위의 격자무늬들을 가질 수 있다.
복수의 조명부들 중 어느 하나의 조명부에서 출사된 격자 패턴광이 상기 측정 대상물(10)로 조사될 때, 상기 카메라(210)에서 촬영된 영상에는 상대적으로 어두운 그림자 영역(shadow area) 및 상대적으로 밝은 포화 영역(saturation area)이 형성될 수 있다.
예를 들어, 도 3과 같이 우측 방향에서 격자 패턴광이 상기 측정 대상물(10)로 인가될 때, 일반적으로 상기 포화 영역은 상기 측정 대상물의 우측부분에서 주로 형성되고, 상기 그림자 영역은 상기 측정 대상물의 좌측부분에서 주로 형성될 수 있다. 반면, 도 4와 같이 좌측 방향에서 격자 패턴광이 우측 방향에서 임의의 광이 상기 측정 대상물(10)로 인가될 때, 일반적으로 상기 포화 영역은 상기 측정 대상물의 우측부분에서 주로 형성되고, 상기 그림자 영역은 상기 측정 대상물의 좌측부분에서 주로 형성될 수 있다. 따라서, 서로 대향하는 위치에 제1 조명부(300)와 제2 조명부(400)를 형성하는 경우, 이러한 그림자 영역을 제거할 수 있다.
상기 영상 획득부(500)는 상기 영상 촬영부(200)의 카메라(210)와 전기적으로 연결되어, 상기 카메라(210)로부터 상기 패턴영상들을 획득하여 저장한다. 예를 들어, 상기 영상 획득부(500)는 상기 카메라(210)에서 촬영된 상기 N개의 제1 패턴영상들 및 상기 N개의 제2 패턴영상들을 인가받아 저장하는 이미지 시스템을 포함한다.
상기 모듈 제어부(600)는 상기 측정 스테이지부(100), 상기 영상 촬영부(200), 상기 제1 조명부(300) 및 상기 제2 조명부(400)와 전기적으로 연결되어 제어한다. 상기 모듈 제어부(600)는 예를 들어, 조명 콘트롤러, 격자 콘트롤러 및 스테이지 콘트롤러를 포함한다. 상기 조명 콘트롤러는 상기 제1 및 제2 조명유닛들(310, 410)을 각각 제어하여 광을 발생시키고, 상기 격자 콘트롤러는 상기 제1 및 제2 격자 이송유닛들(330, 430)을 각각 제어하여 상기 제1 및 제2 격자유닛들(320, 420)을 이동시킨다. 상기 스테이지 콘트롤러는 상기 스테이지 이송유닛(120)을 제어하여 상기 스테이지(110)를 상하좌우로 이동시킬 수 있다.
상기 중앙 제어부(700)는 상기 영상 획득부(500) 및 상기 모듈 제어부(600)와 전기적으로 연결되어 각각을 제어한다. 구체적으로, 상기 중앙 제어부(700)는 상기 영상 획득부(500)의 이미지 시스템으로부터 상기 N개의 제1 패턴영상들 및 상기 N개의 제2 패턴영상들을 인가받아, 이를 처리하여 상기 측정 대상물의 3차원 형상을 측정할 수 있다. 또한, 상기 중앙 제어부(700)는 상기 모듈 제어부(600)의 조명 콘트롤러, 격자 콘트롤러 및 스테이지 콘트롤러을 각각 제어할 수 있다. 이와 같이, 상기 중앙 제어부는 이미지처리 보드, 제어 보드 및 인터페이스 보드를 포함할 수 있다.
이러한 중앙 제어부(700)는 상기 측정대상물이 형성된 기판과 상기 측정대상물과의 색상차이에 의한 위상값을 보정하고, 보정된 상기 위상값을 이용하여 측정대상물의 3차원 형상을 산출한다. 위의 알고리즘은 앞서 설명하였으므로, 중복되는 설명은 생략한다.
이 때, 계산에 필요한 값들, 예컨대, 적색광의 평균인텐시티(IRO i), 상기 녹색광의 평균인텐시티(IGO i) 및 상기 청색광의 평균인텐시티(IBO i)는 잡(job)화일에 저장하여 이후의 과정에서 반복사용될 수 있다.
본 발명에 의하면, 기판과 기판에 형성된 측정대상물과의 색상차이에서 오는 색수차를 보정하여 보다 정확한 3차원 형상을 측정할 수 있다.
앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이다. 따라서, 전술한 설명 및 아래의 도면은 본 발명의 기술사상을 한정하는 것이 아닌 본 발명을 예시하는 것으로 해석되어져야 한다.
10 : 측정 대상물 100 : 측정 스테이지부
200 : 영상 촬영부 300 : 제1 조명부
400 : 제2 조명부 500 : 영상 획득부
600 : 모듈 제어부 700 : 중앙 제어부

Claims (6)

  1. 적색광의 기준위상변화량, 녹색광의 기준위상변화량 및 청색광의 기준위상변화량을 획득하는 단계;
    적색광의 평균인텐시티, 녹색광의 평균인텐시티 및 청색광의 평균인텐시티를 획득하는 단계; 및
    상기 적색광의 기준위상변화량, 상기 녹색광의 기준위상변화량 및 상기 청색광의 기준위상변화량과 상기 적색광의 평균인텐시티, 상기 녹색광의 평균인텐시티 및 상기 청색광의 평균인텐시티를 이용하여 페이스 오프셋을 구하는 단계를 포함하는 색수차 보상방법.
  2. 제1항에 있어서, 상기 적색광의 기준위상변화량, 상기 녹색광의 기준위상변화량 및 상기 청색광의 기준위상변화량은,
    시편석에 각각 적색광, 녹색광, 청색광 및 백색광을 조사하고,
    상기 시편석으로부터 획득된 적색광의 기준위상과 백색광의 기준위상의 차이를 구하여 상기 적색광의 기준위상변화량을 획득하고, 상기 시편석으로부터 획득된 녹색광의 기준위상과 백색광의 기준위상의 차이를 구하여 상기 녹색광의 기준위상변화량을 획득하며, 상기 시편석으로부터 획득된 청색광의 기준위상과 백색광의 기준위상의 차이를 구하여 상기 청색광의 기준위상변화량을 획득하는 것을 특징으로 하는 색수차 보상방법.
  3. 제1항에 있어서,
    적색광의 가시도, 녹색광의 가시도 및 청색광의 가시도를 획득하는 단계를 더 포함하는 것을 특징으로 하는 색수차 보상방법.
  4. 제3항에 있어서, 상기 페이스 오프셋은, 다음의 수학식을 통해서 얻어지는 것을 특징으로 하는 색수차 보상방법,
    Figure 112012081434940-pat00030

    (이식에서, δΦi는 페이스 오프셋, IRO i는 적색광의 평균인텐시티, IGO i는 녹색광의 평균인텐시티, IBO i는 청색광의 평균인텐시티, δΦR i는 적색광의 기준위상변화량, δΦG i는 녹색광의 기준위상변화량, δΦB i는 청색광의 기준위상변화량, γR i는 적색광의 가시도(Visibility), γG i는 녹색광의 가시도, γB i는 청색광의 가시도임).
  5. 제4항에 있어서, 상기 적색광의 평균인텐시티(IRO i), 상기 녹색광의 평균인텐시티(IGO i) 및 상기 청색광의 평균인텐시티(IBO i)는, 각각 다음의 수학식에 의해 표현되는 것을 특징으로 하는 색수차 보상방법,
    Figure 112012081434940-pat00031
    ,
    Figure 112012081434940-pat00032
    ,
    Figure 112012081434940-pat00033
    ,
    (이식에서, ηm은 영상촬영부에서의 효율(efficiency), ηp는 조명부에서의 효율 및 RT는 시편석으로부터의 반사율(reflectance)로서 페이스 오프셋을 구하기 위한 식에서 분자와 분모에 모두 기재되어 상쇄되므로 측정할 필요 없는 값이고, IS,R
    Figure 112012081434940-pat00034
    , IS ,G
    Figure 112012081434940-pat00035
    , IS ,B
    Figure 112012081434940-pat00036
    로서, 각각 광원의 스펙트럴 파워(spectral power) iS(λ)를 적색파장범위, 녹색파장범위 청색파장범위에 대해 적분한 값으로 상수값이고, Ii C , PCB ,2 DR, Ii C , PCB ,2 DG, Ii C , PCB ,2 DB는 각각 측정대상물로부터 영상촬영부의 카메라에 입력되는 적색, 녹색, 청색광의 인텐시티이고, Ii C ,T,2 DR, Ii C,T,2DG, Ii C ,T,2 DB는 각각 시편석으로부터 영상촬영부의 카메라에 입력되는 적색, 녹색, 청색광의 인텐시티임).
  6. 제4항에 있어서, 상기 시편석은 백색 또는 회색을 갖는 것을 특징으로 하는 색수차 보상방법.
KR1020120111410A 2012-10-08 2012-10-08 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치 KR101226716B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120111410A KR101226716B1 (ko) 2012-10-08 2012-10-08 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120111410A KR101226716B1 (ko) 2012-10-08 2012-10-08 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020100112762A Division KR101329025B1 (ko) 2010-11-12 2010-11-12 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치

Publications (2)

Publication Number Publication Date
KR20120127371A KR20120127371A (ko) 2012-11-21
KR101226716B1 true KR101226716B1 (ko) 2013-01-25

Family

ID=47512577

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120111410A KR101226716B1 (ko) 2012-10-08 2012-10-08 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치

Country Status (1)

Country Link
KR (1) KR101226716B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108253907B (zh) * 2018-02-01 2020-07-21 深圳市易尚展示股份有限公司 基于希尔伯特变换相位误差校正的三维测量方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100835058B1 (ko) 2007-03-15 2008-06-04 삼성전기주식회사 피사계 심도 확장을 위한 이미지 처리 방법
KR20080092585A (ko) * 2007-04-12 2008-10-16 삼성전기주식회사 피사계 심도 확장을 위한 이미지 처리 방법
KR20090058316A (ko) * 2007-12-04 2009-06-09 삼성전자주식회사 광원 어셈블리, 액정 표시 장치, 및 광원 어셈블리의 구동방법
KR20090114672A (ko) * 2008-04-30 2009-11-04 엘지디스플레이 주식회사 액정표시장치의 색온도 보상 장치 및 이를 이용한 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100835058B1 (ko) 2007-03-15 2008-06-04 삼성전기주식회사 피사계 심도 확장을 위한 이미지 처리 방법
KR20080092585A (ko) * 2007-04-12 2008-10-16 삼성전기주식회사 피사계 심도 확장을 위한 이미지 처리 방법
KR20090058316A (ko) * 2007-12-04 2009-06-09 삼성전자주식회사 광원 어셈블리, 액정 표시 장치, 및 광원 어셈블리의 구동방법
KR20090114672A (ko) * 2008-04-30 2009-11-04 엘지디스플레이 주식회사 액정표시장치의 색온도 보상 장치 및 이를 이용한 방법

Also Published As

Publication number Publication date
KR20120127371A (ko) 2012-11-21

Similar Documents

Publication Publication Date Title
US10788318B2 (en) Three-dimensional shape measurement apparatus
JP5162702B2 (ja) 表面形状測定装置
KR101659302B1 (ko) 3차원 형상 측정장치
JP2015194500A (ja) 3次元形状の測定方法及び測定装置
KR101241175B1 (ko) 실장기판 검사장치 및 검사방법
JP2010091570A (ja) 多重波長を用いた3次元形状の測定装置及び測定方法
JP2003279329A (ja) 三次元計測装置
KR101081538B1 (ko) 3차원 형상 측정장치 및 측정방법
WO2013187203A1 (ja) 3次元計測装置と3次元計測方法
JP5545932B2 (ja) 三次元形状計測装置
JP2009025189A (ja) 計測器
KR101215083B1 (ko) 기판 검사장치의 높이정보 생성 방법
KR101196218B1 (ko) 3차원 형상 측정장치
KR101226716B1 (ko) 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치
KR101088497B1 (ko) 3차원 형상 측정방법
KR101329025B1 (ko) 색수차 보상방법, 이를 이용한 3차원 형상 측정방법 및 측정장치
CN113966457B (zh) 三维测量装置和三维测量方法
JP3723139B2 (ja) 三次元計測装置
KR20120090926A (ko) 인쇄회로기판 상의 솔더 영역의 측정방법
WO2016203668A1 (ja) 三次元計測装置
KR101466741B1 (ko) 3차원 형상 측정방법
JP2008170282A (ja) 形状測定装置
JP2010032448A (ja) 3次元形状測定装置
TW201640076A (zh) 三維測量裝置及三維測量方法
KR20140095041A (ko) 3차원 형상 측정방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160106

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161206

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171204

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181211

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20191210

Year of fee payment: 8