KR20230164248A - 대치 채널을 갖는 3-차원 센서 - Google Patents

대치 채널을 갖는 3-차원 센서 Download PDF

Info

Publication number
KR20230164248A
KR20230164248A KR1020237040736A KR20237040736A KR20230164248A KR 20230164248 A KR20230164248 A KR 20230164248A KR 1020237040736 A KR1020237040736 A KR 1020237040736A KR 20237040736 A KR20237040736 A KR 20237040736A KR 20230164248 A KR20230164248 A KR 20230164248A
Authority
KR
South Korea
Prior art keywords
channel
imaging system
point
imputation
point cloud
Prior art date
Application number
KR1020237040736A
Other languages
English (en)
Inventor
폴 알. 하우젠
칼 이 하우간
에릭 피. 러드
에반 제이. 리브닉
Original Assignee
사이버옵틱스 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사이버옵틱스 코포레이션 filed Critical 사이버옵틱스 코포레이션
Publication of KR20230164248A publication Critical patent/KR20230164248A/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

본 발명의 타깃 표면의 차원 정보를 결정하는 방법은, 광위상 프로파일 측정 시스템(1300)의 제1 영상 시스템-조명원 쌍(1302)에 의하여 생성된, 타깃 표면의 제1 복수의 재구성된 표면 포인트에 대응하는 제1 포인트 클라우드를 생성하는 단계; 광위상 프로파일 측정 시스템(1300)의 제2 영상 시스템-조명원 쌍(1304)에 의하여 생성된, 타깃 표면의 제2 복수의 재구성된 표면 포인트에 대응하는 제2 포인트 클라우드를 생성하는 단계; 제1 및 제2 포인트 클라우드에 기반하여 타깃 표면의 최초 추정값을 생성하는 단계; 및 제1 및 제2 포인트 클라우드의 위치 및 제1 및 제2 영상 시스템-조명원 쌍(1302; 1304)의 기하구조를 사용하여 최초 표면 추정값을 개선하여 최종 포인트 클라우드를 생성하는 단계를 포함한다.

Description

대치 채널을 갖는 3-차원 센서{THREE-DIMENSIONAL SENSOR WITH COUNTERPOSED CHANNELS}
본 발명은 광위상 프로파일 측정 시스템에 관한 것이다.
표면이나 대상에 대해 정밀한 차원 정보를 얻는 것은 많은 산업과 공정에서 필수적이다. 예를 들어, 전자 조립체 산업에서, 전자 구성요소가 적절하게 배치되는지를 결정하기 위하여 회로 기판상의 전자 구성요소에 대한 정밀한 차원 정보가 사용될 수 있다. 또한, 차원 정보는, 적합한 양의 솔더 페이스트(solder paste)가 회로 보드의 적절한 위치에 증착되는 것을 보장하기 위하여, 구성요소 장착 전에 회로 보드 상의 솔더 페이스트 증착물을 검사하는 데에도 유용하다. 또한, 차원 정보는 반도체 웨이퍼 및 평판 디스플레이의 검사에도 유용하다.
표면 또는 물체에 대한 정밀한 차원 정보를 정확하게 측정하고 획득하기 위하여 광위상 프로파일 측정 시스템이 사용되어 왔다. 그러나, 일부 새로운 전자 조립체는 반사성 거울(specular) 표면을 갖는 구성요소을 포함한다. 일반적으로 확산(diffuse) 비-반사성 표면을 측정하도록 구성된 종래 시스템은, 이러한 구성요소에 대한 정확한 차원 정보를 얻는 것이 곤란하다. 또한, 어떤 기술은 크기(예를 들어, 회로 기판 및 구성요소 및/또는 소자)를 줄이고 있고, 정확한 차원 정보를 얻기 위하여 높은 배율 및 높은 해상도 광학장치를 필요로 한다. 종래의 도량형 시스템은 적용 크기 및 표면 반사도가 진전하고 변화함에 따라 다양한 요소로부터의 다양한 측정 에러(errors)에 당면한다.
이러한 구성요소에 대한 차원 정보의 정밀도가 다양한 산업 및 공정에 점점 더 중요해짐에 따라, 이러한 정보를 정확하게 측정 및 획득하고, 측정된 표면 프로파일에서 측정 에러의 다양한 원인을 수정하는 것이 점점 더 중요해지고 있다.
이상의 설명은 단순히 일반적인 배경기술을 위하여 제공되었고, 본 발명의 청구된 주제의 범위를 결정을 돕기 위하여 사용되도록 의도된 것은 아니다. 본 발명의 청구된 주제는 배경기술에 설명된 일부 또는 모든 불이익을 해결하는 도구로 제한되지 않는다.
본 발명은 광위상 프로파일 측정 시스템을 제공한다.
본 발명의 광위상 프로파일 측정 시스템은, 타깃 표면에 대하여 제1 각도로 정렬되고, 타깃 표면상에 제1 조명을 투사하는 제1 작동 동축(coaxial) 카메라-프로젝터 쌍 및 타깃 표면에 대하여 제2 각도로 정렬되고, 타깃 표면상에 제2 조명을 투사하는 제2 작동 동축 카메라-프로젝터 쌍을 포함한다. 제1 및 제2 각도는 동일하고 타깃 표면에 대하여 서로 대향하고, 제2 작동 동축 카메라-프로젝터 쌍은 제1 조명으로부터 제1 반사를 포획하고, 제1 작동 동축 카메라-프로젝터 쌍은 제2 조명으로부터 제2 반사를 포획하도록 구성된다. 광위상 프로파일 측정 시스템은, 포획된 제1 및 제2 반사에 기반하여, 타깃 표면의 제1 및 제2 측정을 발생하고 이들을 결합하여 타깃 표면의 차원 프로파일을 생성하도록 구성된 제어기를 더 포함한다.
본 발명의 실시예는 아래 발명의 상세한 설명에 개시되는 단순화된 형태의 개념의 선택을 소개하기 위하여 제공된다. 본 발명의 요약은 청구된 주제의 주요 특징 또는 필수 특징을 확인하기 위한 것은 아니고, 청구된 주제의 범위 결정을 돕기 위하여 사용되는 것도 아니다.
본 발명의 광위상 프로파일 측정 시스템은, 영상 시스템 및 센서의 구조에 의해 포획된 이미지의 특정 지점(예, 픽셀)에서 투사된 조명의 위상 또는 위치를 측정함으로써, 타깃 표면 또는 대상의 차원을 계산한다.
본 발명의 대치 채널의 사용은 이점이 있다. 양 채널은 동일한 시야를 관측/노출하고 조명과 반사 사이의 동일한 상대 각도를 공유하고, 광학 범위에 차이가 없다. 더욱 중요하게는, 양 채널은 반짝임 또는 강도 기울기의 존재하에 영상 시스템의 점상 분포 함수의 효과와 관련하여 측정 에러를 제거 및/또는 감소하는데 더 강하다.
도 1은 통상적인 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다.
도 2a-2b는 광위상 프로파일 측정 시스템의 예를 나타내는 개략도이다.
도 2c-2d는 광학 검사 환경의 예를 나타내는 개략도이다.
도 3a-3b는 작동 동축 영상 시스템-조명원 쌍의 예를 나타내는 개략도이다.
도 4a-4b는 광위상 프로파일 측정 시스템의 예를 나타내는 개략도이다.
도 5a-5b는 광위상 프로파일 측정 시스템의 예를 나타내는 개략도이다.
도 6은 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다.
도 7은 반복적인 조인트 클라우드 개선(joint point cloud refinement) 방법을 나타내는 플로우차트이다.
도 8은 반복적인 조인트 클라우드 개선의 일 반복을 나타내는 개략도이다.
도 9는 대치 채널로부터 포인트 클라우드를 합병하는 방법을 나타내는 플로우차트이다.
도 10a-10c는 대치 채널로부터 포인트 클라우드를 합병하는 하나의 예를 나타내는 개략도이다.
도 11a는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다.
도 11b-11c는 생성된 구형(spherical) 타깃의 3-차원 프로파일의 예를 나타내는 개략도이다.
도 12는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다.
도 13a-13c는 광위상 프로파일 측정 시스템의 예를 나타내는 개략도이다.
도 14는 타깃 표면 및/또는 대상의 3-차원 프로파일을 생성하는 방법의 하나의 예를 나타내는 플로우차트이다.
도 15a-15b는 타깃 표면 및/또는 대상의 차원 프로파일을 생성하는 하나의 예를 나타내는 개략도이다.
도 16은 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다.
도 17은 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다.
도 18a는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다.
도 18b는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다.
도 19는 광위상 프로파일 측정 시스템에서 동적으로 에러를 보상하는 방법의 하나의 예를 나타내는 플로우차트이다.
도 20은 동적 보상의 하나의 예를 나타내는 개략도이다.
도 21은 동적 보상 방법의 하나의 예를 나타내는 플로우차트이다.
도 22a는 디지털 광 처리 프로젝터 시스템의 하나의 예를 나타내는 개략도이다.
도 22b는 광학 저-통과(low-pass) 필터의 하나의 예를 나타내는 블록도이다.
도 23은 타깃 표면에 빛을 투사하는 하나의 예를 나타내는 플로우차트이다.
도 24-25는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다.
도 26은 광위상 프로파일 측정 시스템의 예를 나타내는 블록도이다.
광위상 프로파일 측정 시스템은 표면 또는 대상에 대한 정밀한 차원 정보를 얻기 위하여 다양한 산업 및 공정에서 자주 사용된다. 예를 들어, 이들 시스템은 대상 표면상의 다양한 구성요소의 높이와 위치를 측정하기 위하여 사용될 수 있다. 예를 들어 전자 산업에서, 많은 전자 조립체는 회로 기판에 장착된 다양한 구성요소 및/또는 소자를 포함한다. 이러한 구성요소 및/또는 소자의 정확한 차원과 배치를 보장하기 위하여, 조명원(예를 들어, 프로젝터)은 타깃 표면이나 대상에 패턴화 조명을 투사한다. 타깃 표면 또는 물체로부터 반사된 패턴화 조명은 영상 시스템(예를 들어, 카메라)에 의해 포획되어 조명 각도(예를 들어, 삼각측량 각도)에 대하여 알려진 각도로 타깃 표면을 가시화한다. 광위상 프로파일 측정 시스템은, 영상 시스템 및 센서의 구조에 의해 포획된 이미지의 특정 지점(예, 픽셀)에서 투사된 조명의 위상 또는 위치를 측정함으로써, 타깃 표면 또는 대상의 차원을 계산한다.
통상적인 광위상 프로파일 측정 시스템에서, 구조화 패턴으로 표면을 조명하는 단일 프로젝터와 표면을 관측하는 복수의 경사(oblique) 카메라(예를 들어, 표면에 대하여 프로젝터에 비스듬한 각도로 배치된 카메라)를 갖는 것이 일반적이다. 또는 반대로 그러나 동등한 구조로, 복수의 경사 프로젝터(즉, 표면에 대하여 카메라에 비스듬한 각도로 배치된 프로젝터)에 의하여 조명되는 표면을 관측하는 단일 카메라가 사용된다.
측정되어야 할 표면의 추정값(예를 들어, 포인트 클라우드)은 통상적으로 각 카메라-프로젝터 쌍으로부터 독립적으로 발생하고, 이어서 이들 추정값은 함께 평균되어 표면에 가까운 재구성(reconstruction)을 형성한다. 보통 추정값은 표면에 사인곡선 프린지(sinusoidal fringe)를 투사하고 이미지에서 각 픽셀의 사인곡선의 위상을 추정함으로써 형성될 수 있다.
도 1은 통상적인 광위상 프로파일 측정 시스템(10)의 하나의 예를 나타내는 개략도이다. 시스템(10)은 프로젝터(12), 경사 카메라(14), 경사 카메라(16), 조명(18), 표면(20), 반사(22) 및 반사(24)를 포함한다. 위에 기술한 바와 같이, 시스템(10)은 단일 프로젝터(12) 및 복수 카메라(14; 16)를 갖는다. 프로젝터(12)는 표면(20)에 조명을 투사하고, 이는 반사(22; 24)로 반사되고 복수 경사 카메라(14; 16)에 의하여 포획된다. 도 1에서는 단일 프로젝터/복수 경사 카메라 구조를 도시하였지만, 위에 기술한 바와 같은 동등한 대향 구조가, 복수 경사 프로젝터가 조명을 투사하는 표면을 단일 카메라가 관측하는 통상적인 광위상 프로파일 측정 시스템에서 사용될 수 있다.
이들 통상적인 시스템은 거울 표면 및/또는 도전적인 표면 프로파일(예를 들어, "둥근(rounded)" 및/또는 "구부러진(curved)" 반사 표면, 경사 타깃 표면, 반사율 변화 등)을 갖는 대상을 관측할 때 다수의 제한을 갖는다.
본 발명의 하나의 목적은 거울 반사에 의한 측정 부정확에 관한 것이다. 광학 검사 동안에, 하나의 영상 시스템의 시점(point of view)으로부터 타깃 표면상의 어떤 위치에서 반짝임(glint)(즉, 빛나는 거울 반사)이 있는 환경에 대면하는 것이 일반적이다. 반짝임은 높은 반사 표면의 표면 법선이 카메라-프로젝터 쌍에 의하여 정의된 각도를 양분할 때 발생한다. 광위상 프로파일 측정에서 사용되는 영상 광학장치에서 실재하는 영상 시스템의 점상 분포 함수(point spread function; PSF)의 비-제로 폭(non-zero width) 때문에, 인접한 픽셀에서의 위상 측정치는, 반짝임에서의 반사가 표면의 인접 포인트의 반사보다 많이 강하기 때문에, 반짝임에서 관측된 위상에 의하여 왜곡될 수 있다. 이는 시험 표면의 광위상 프로파일 측정 시스템의 포인트 클라우드 설명에 부가되는 부정확한 결과를 초래할 수 있다.
도 2a는 광위상 프로파일 측정 시스템(50)의 하나의 예를 나타내는 개략도이다. 도 2a는 단지 하나의 경사 카메라 시점을 도시한다. 시스템(50)은 조명(52), 타깃 표면(54), 반사(56), 반짝임(58), 실제 표면 포인트(60), 에러 표면 포인트(62), 프로젝터(64) 및 제1 경사 카메라(66)를 포함한다. 도 2a에서 보는 바와 같이, 프로젝터(64)는 조명(52)을 타깃 표면(54)에 투사하고, 이는 반사(56)로 반사되고 제1 경사 카메라(66)에 의하여 포획된다. 그러나, 타깃 표면(54)은 조명(52)이 타깃 표면(54)에 도달하면 반짝임(58)을 초래하는 적어도 일부 거울 부분을 포함한다. 카메라(66) 이미지 특성의 점상 분포 함수 및 반짝임(58)의 반사강도에 의하여, 조명(52)의 위상 정보는 표면 포인트(60)의 카메라(66) 이미지에 나타난다. 카메라(66)가 반사(56)를 통하여 표면 포인트(60)로부터 수신하는 정보는 표면 포인트(60)와 반짝임(58)의 위상 정보의 결합이므로, 표면 포인트(60)의 재구성된 포인트는 부정확하게 측정된다. 도 2a에 도시한 바와 같이, 카메라(66)의 측정 위치 표면 포인트는 반짝임(58)의 방향에서 반사(56) 광선을 따라 이동하고, 예를 들어 에러 표면 포인트(62)를 초래한다.
도 2b는 광위상 프로파일 측정 시스템(50)의 하나의 예를 나타내는 개략도이다. 도 2b는 시스템(50)의 다른 경사 카메라 시점(도 2a에 대향)을 도시한다. 시스템(50)은 조명(52), 타깃 표면(54), 반사(57), 재구성된 표면 포인트(63), 프로젝터(64) 및 제2 경사 카메라(68)를 포함한다. 도 2b에서 보는 바와 같이, 프로젝터(64)는 조명(52)을 타깃 표면(54)에 투사하고, 이는 반사(57)로 반사되고 제2 경사 카메라(68)에 의하여 포획된다. 그러나, 도 2a와 다르게 제2 경사 카메라(68)의 시점으로부터 표면 포인트(63) 근처에 반짝임은 발생하지 않는다. 따라서, 카메라(68)의 재구성된 표면 포인트(63)는 실제 표면 포인트의 정확한 표시이다.
그러나, 제2 경사 카메라(68)는 정확하게 표면 포인트를 재구성하지만, 위에 기술한 바와 같이, 양 카메라(66; 68)에 의하여 발생한 추정값(예를 들어 포인트 클라우드)은 타깃 표면(54)의 최종 표면 추정값의 재구성 동안에 결합되므로, 제1 경사 카메라(66)에 의하여 측정된 부정확한 포인트(62) 때문에 에러가 있게 된다. 따라서, 최종 표면 추정값은 제1 카메라(66)의 포인트 클라우드에서의 에러에 의하여 한쪽으로 치우치게 된다.
도 2a-b에 설명한 것과 유사한 효과가 타깃 표면상에 강도 기울기(gradient) 및/또는 반사율 기울기(예를 들어 밝기 변화)가 있을 때 발생할 수 있다. 영상 광학장치(예를 들어, 카메라(66; 68))의 점상 분포 함수에 의하여, 더 어두운 포인트에서의 위상은 가까운 더 밝은 포인트에서의 위상에 의하여 영향을 받는다. 이는 최종 재구성에서 부정확을 초래할 수 있다(예를 들어, 최종 재구성은 각각의 반사(영상 시스템) 광선을 따라 더 밝은 포인트를 향하여 치우치게 된다).
도 2c는 광학 검사 환경의 하나의 예를 나타내는 개략도이다. 환경(70)은 투사(72), 반사(74), 타깃 표면(76), 화살표(77) 및 측정된 표면 포인트(78)를 포함한다. 타깃 표면(76)은 화살표(77)로 표시한 바와 같이 좌측에서 우측으로 "더 밝은"에서 "덜-밝은" 강도 및/또는 반사율 기울기를 갖는다. 일반적으로 이는 타깃 표면(76)이 좌측에서 우측으로 더에서 덜(more to less) 반사성이고 그리고/또는 더에서 덜 거울상임을 의미한다. 프로젝터 또는 다른 조명원에 의하여 타깃 표면(76)에 투사(72)가 투사되면, 반사(74)로 반사되고 카메라 또는 다른 영상 시스템에 의하여 포획된다. 그러나 기울기 때문에, 카메라는 측정된 표면 포인트(78)로 나타낸 바와 같이, 타깃(76)의 좌측의 증가된 밝기가 측정된 표면 포인트(78)를 타깃(76)의 밝은 부분을 향하여 치우치게 하므로, 반사(영상 시스템) 광선을 따라 실제 표면 높이보다 낮은 높이로 해석한다. 따라서 카메라의 측정 출력은 잘못된다. 이러한 에러는 표면(76)의 법선(예를 들어, 수직)이 투사(72)와 반사(74) 사이의 각도를 양분할 때 발생하는 경향이 있다.
도 2d는 광학 검사 환경(80)의 하나의 예를 나타내는 개략도이다. 환경(80)은 투사(82), 반사(84), 타깃 표면(86), 화살표(87) 및 측정된 표면 포인트(88)를 포함한다. 환경(80)은 투사(82)가 타깃 표면(86)의 우측("덜 밝은 측면"/적은 거울 측면)으로부터 오는 것을 제외하고는, 투사(72)가 타깃 표면(76)의 좌측("더 밝은 측면"/큰 거울 측면)으로부터 오는 환경(70)과 유사하다. 타깃 표면(86)은 화살표(87)로 표시한 바와 같이 좌측에서 우측으로 " 더 밝은"에서 "덜-밝은" 강도 및/또는 반사율 기울기를 갖는다. 일반적으로 이는 타깃 표면(86)이 좌측에서 우측으로 더에서 덜(more to less) 반사성이고 그리고/또는 더에서 덜 거울상임을 의미한다. 프로젝터 또는 다른 조명원에 의하여 타깃 표면(86)에 투사(82)가 투사되면, 반사(84)로 반사되고 카메라 또는 다른 영상 시스템에 의하여 포획된다. 그러나 기울기 때문에, 카메라는 측정된 표면 포인트(88)로 나타낸 바와 같이, 타깃(86)의 좌측의 증가된 밝기가 측정된 표면 포인트(88)를 타깃(86)의 밝은 부분을 향하여 치우치게 하므로, 반사(영상 시스템) 광선을 따라 실제 표면 높이보다 높은 높이로 해석한다. 따라서 카메라의 측정 출력은 잘못된다. 이 에러는 표면(86)의 법선(예를 들어, 수직)이 투사(82)와 반사(84) 사이의 각도를 양분할 때 발생하는 경향이 있다.
위에 기술한 문제를 극복하기 위하여, 대치 채널 구조를 갖는 복수의 동축 조명원/영상 시스템(예를 들어, 프로젝터/카메라) 쌍을 사용하는 시스템이 사용된다.
본 발명의 설명을 명확하게 하기 위하여, 용어 "채널"은 특정 조명원-영상 시스템 쌍을 말하고, "대치 채널은 조명원 및 영상 시스템 위치가 교체하는 것을 제외하고는 동일한 한 쌍의 채널을 말한다. 또한, 용어 "채널"은 하나의 작동 쌍(예를 들어, 작동 동축 영상 시스템-조명원 쌍)으로부터의 조명원 및 다른 작동 쌍으로부터의 영상 시스템을 포함할 수 있다. 또한, 용어 "채널"은 제1 카메라-프로젝터 쌍으로부터의 카메라 및 제2 카메라-프로젝터 쌍으로부터의 프로젝터를 포함할 수 있다.
도 3a는 작동 동축 영상 시스템-조명원 쌍의 예를 나타내는 개략도이다. 시스템(100)은 조명원(102), 영상 시스템(104), 빔 스플리터(106), 조명(108), 타깃 표면(110) 및 반사(112)를 포함한다. 조명원(102)(예를 들어, 프로젝터)은 조명을 타깃 표면(110)을 향하여 투사하고, 빔 스플리터(106)를 맞춘다. 조명(108)의 일부는 계속 타깃 표면(110)을 향하고 빔 스플리터(106)를 향하여 뒤로 반사되고 영상 시스템(104)을 향하여 반사(112)로 반사된다. 빔 스플리터(106)를 사용함으로써, 시스템(100)은 공통의 광학 경로를 공유하는 조명원(102)과 영상 시스템(104)으로 구성된다. 즉, 조명원(102)과 영상 시스템(104)은 거의 동축이고 동일한 투시/시점에서 효과적으로 타깃 표면(110)을 본다.
빔 스플리터(106)는 평판 빔 스플리터(106)로 도시하였고, 45°각도로 배치되고, 조명원(102)을 향하는 표면에 코팅된(예를 들어, 반-은도금) 얇고 평탄한 유리 평판으로 구성된다. 빔 스플리터(106)는 조명(108) 절반을 타깃 표면(110)(도시)으로 계속 향하는(예를 들어, 투과) 부분으로 분리하고, 다른 부분은 통상 영상 시스템(104) 시야의 기준 표면(예를 들어, 거울)을 향하여 반사되고(도 3a에 미도시), 기준 표면은 기준 빔(빔 스플리터(106)를 통하여 되돌아가는)을 영상 시스템(104)을 향하여 반사한다(일반적으로 스플리트 빔이 영상 시스템(104)에 도달하기 전에 재결합하는 목적으로). 설명의 명료성을 위하여 도 3에는 도시하지 않았지만, 시스템(100)은 다수의 렌즈(예를 들어, 집속(collimating) 렌즈, 대물렌즈, 복합 렌즈 조립체, 텔레센트릭(telecentric) 렌즈 조립체 등), 개구(apertures), 센서, 추가 빔 스플리터, 거울 및 다른 적합한 구성요소 또는 소자를 포함할 수 있다. 또한, 평판 빔 스플리터가 도시되었지만, 다른 형태의 빔 스플리터, 예를 들어 큐브(cube) 빔 스플리터가 사용될 수 있고 이에 한정되지 않는다.
도 3a에 설명을 위하여 서로 분리하여 도시하였지만, 조명원(102)과 영상 시스템(104)은 단일 하우징 내에 수용되는 작동 쌍이다. 설명의 편의를 위하여, 도 3b에 도시한 바와 같이 이하의 어떤 설명은 각각의 작동 조명원/영상 시스템 쌍에 단일 조립체로 나타낸다.
도 3b는 작동 동축 영상 시스템-조명원 쌍의 하나의 예를 나타내는 개략도이다. 도 3b는 도 3a에 도시된 시스템(100)의 간략화 버전이고 도 3a와 유사하고, 유사 구성요소는 동일하게 번호하였다. 시스템(101)은 숫자는 도시하지 않았지만 조명원(102), 영상 시스템(104) 및 빔 스플리터(106)를 포함하는 작동 조명원/영상 시스템 쌍(103)을 포함한다. 시스템(101)은 또한 조명(108), 타깃(110) 및 반사(112)를 포함한다. 도 3a 및 도 3b에서 조명(108)과 반사(112)는 라인을 공유하지만, 이는 화살표에 의하여 도시된 조명(108)과 반사(112)를 동일하게 나타낸다. 하나의 예에서, 조명원(102)은 프로젝터를 포함한다. 하나의 예에서, 영상 시스템(104)은 카메라를 포함한다.
도 4a는 광위상 프로파일 측정 시스템(200)의 하나의 예를 나타내는 개략도이다. 시스템(200)은 제1 조명원/영상 시스템 작동 쌍(202) 및 제2 조명원/영상 시스템 작동 쌍(204)을 포함한다. 작동 쌍(202; 204)은 도 3a-3b를 참조하여 설명한 바와 같이 동축 쌍이다. 시스템(200)은 타깃 표면(206), 조명(208; 214) 및 반사(212; 216)를 더 포함한다. 도 4a에 도시한 구조(예를 들어, 정렬구조)는 2개의 작동 쌍(202; 204)을 사용하고, 각각은 다른 각도로부터 타깃 표면(206)을 보고 2개의 대치 채널을 형성한다(이하에 설명).
도 4b는 광위상 프로파일 측정 시스템(200) 하나의 예를 나타내는 개략도이다. 도 4b는 도 4a와 유사하고 유사한 구성요소는 유사하게 번호하였다. 도 4b는 시스템(200)의 구조에 의하여 형성되는 2개의 대치 채널의 설명을 위하여 시스템(200)을 각각의 조명 및 영상 구성요소로 도시적으로 분리한다. 좌측에, 작동 쌍(204)의 조명원은 조명(214)을 타깃 표면(206)에 투사하고, 이는 타깃 표면으로부터 반사(216)로 반사되고 작동 쌍(202)의 영상 시스템에 의하여 포획된다. 이 광학 경로(예를 들어, 채널)(214; 216)는 제1 대치 채널(218)을 형성한다.
우측에, 작동 쌍(202)의 조명원은 조명(208)을 타깃 표면(206)에 투사하고, 이는 타깃 표면으로부터 반사(212)로 반사되고 작동 쌍(204)의 영상 시스템에 의하여 포획된다. 이 광학 경로(예를 들어, 채널)(208; 212)는 제2 대치 채널(220)을 형성한다.
대치 채널의 사용은 이점이 있다. 양 채널(218; 220)은 동일한 시야를 관측/노출하고 조명과 반사 사이의 동일한 상대 각도를 공유하고, 광학 범위에 차이가 없다. 더욱 중요하게는, 양 채널은 반짝임 또는 강도 기울기의 존재하에 영상 시스템의 점상 분포 함수의 효과와 관련하여 앞에 기술한(도 2a-2b) 측정 에러를 제거 및/또는 감소하는데 더 강하다. 특히, 이들 에러가 시스템(200)에서 발생하면, 2개의 채널(218; 220)의 추정값(예를 들어, 포인트 클라우드)으로부터의 해당 포인트는 거의 동일한 대향 방향으로 이동한다. 적절한 알고리즘을 사용하여 채널(218; 220)의 추정은 에러가 대부분 및/또는 실제로 서로 취소하는 방식으로 결합될 수 있다. 이런 점에서 대치 채널(218; 220)은 서로에 대하여 상보적이고 자기-보상(self-compensating)이다. 이는 아래의 도면에서 더 설명된다.
도 5a는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 도 5a는 도 4a와 유사하고, 유사한 요소는 유사하게 번호하였다. 시스템(200)은 작동 조명원/영상 시스템 쌍(202), 작동 조명원/영상 시스템 쌍(204), 타깃 표면(206), 조명(214) 및 반사(216)를 포함하고 제1 대치 채널(218)을 형성한다. 시스템(200)은 반짝임(222), 실제 표면 포인트(224) 및 에러 표면 포인트(226)를 더 포함한다. 도 2a의 현상과 유사하게, 반짝임(222)은 작동 쌍(202)의 영상 시스템이 에러 표면 포인트(226)를 생성하도록 한다. 실제 표면 포인트(224)는 반짝임(222)의 방향에서 반사(216) 광선을 따라 이동한다.
도 5b는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 도 5b는 도 4a와 유사하고, 유사한 요소는 유사하게 번호하였다. 시스템(200)은 작동 조명원/영상 시스템 쌍(202), 작동 조명원/영상 시스템 쌍(204), 타깃 표면(206), 조명(208) 및 반사(212)를 포함하고 제2 대치 채널(218)을 형성한다. 시스템(200)은 반짝임(222), 실제 표면 포인트(228) 및 재구성 표면 포인트(230)를 더 포함한다. 여기서 다시 반짝임(222)은 측정 에러를 초래한다. 작동 쌍(204)의 영상 시스템이 에러 재구성 표면 포인트(226)를 생성한다. 실제 표면 포인트(228)는 반사(212) 광선을 따라 당겨진다(도 5a 및 도 2a의 에러 재구성 표면 포인트와 같이). 그러나, 작동 쌍(202; 204)이 동축이고 2개의 대치 채널을 형성하도록 구성되었으므로, 에러는 서로 대향 방향으로 동축이고 따라서 보상된다.
위에 기술한 바와 같이, 대치 채널(218; 220)의 각각은 타깃 표면(206)의 추정값(포인트 클라우드)을 발생한다. 이들 추정값은 반짝임(예를 들어, (222)) 또는 강도 기울기의 존재하에 영상 시스템의 점상 분포 함수의 효과로부터 유래하는 에러를 포함한다. 그러나, 대치 채널(218; 220)에 의하여 재구성된 표면 포인트(226; 230)에서의 에러는 각각의 반사(216; 212) 광선을 따라 동일하고 대향 방향이고 다라서 서로 보상될 수 있다.
도 6은 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 시스템(250)은 작동 쌍(252; 254), 타깃 표면(256), 조명(258; 264) 및 반사(262; 266), 대치 채널(268; 270), 반짝임(272), 에러 재구성 표면 포인트(276; 280), 정확하게 재구성된 표면 포인트(282) 및 화살표(284; 286)를 포함한다. 화살표(284; 286)로 표시한 바와 같이, 재구성 표면 포인트(276; 280)의 에러는 정정되고, 표면 타깃 위치의 새로운 더 정확한 표시와 교차하고 정의할 때까지 에러 포인트(276; 280)를 각각의 반사(262; 266) 광선을 따라 이동함으로써 재구성 포인트(282)를 생성할 수 있다. 하나의 예에서, 반사 광선의 방향은 영상 시스템 교정 기술을 사용하여 시야 내의 영상 시스템의 픽셀 위치를 수신 각도(angle of reception)에 매핑함으로써 도출된다.
다른 실시예에서, 알고리즘을 사용하여 대치 채널의 에러 재구성 포인트의 교점을 가깝게 하는 것이 가능하다. 일반적으로 알고리즘은 대치 채널로부터 각각의 추정값(포인트 클라우드)을 반복적으로 개선하고, 각각의 포인트를 반사 광선(영상 시스템 광선)을 따라 다른 포인트 클라우드를 향하여 성공적으로 조금씩 이동한다.
도 7은 반복적인 조인트 클라우드 개선 방법의 하나의 예를 나타내는 플로우차트이다. 방법(300)은 블록(310)에서 시작하고, 재구성 표면 포인트는 광학 프로파일 측정 시스템을 사용하여 타깃 표면을 따라 제1 대치 채널의 포인트 클라우드 및 제2 대치 채널의 포인트 클라우드에서 발생한다. 표면 포인트는 제1 및 제2 대치 채널의 포인트 클라우드에 대하여 재구성된다(추정된다). 하나의 실시예에서, 시스템(250)과 같은 광학 프로파일 측정 시스템이 사용된다.
방법은 블록(320)으로 이어지고, 제1 채널의 포인트 클라우드의 각각의 재구성된 표면 포인트에 대하여, 제1 채널의 포인트 클라우드의 각각의 재구성된 표면 포인트의 각각의 반사(영상 시스템) 광선에 가까운 제2 채널의 포인트 클라우드의 재구성된 표면 포인트가 식별된다. 이 식별 단계는 선택된 제1 채널의 재구성된 표면 포인트의 반사(영상 시스템) 광선에 가까운 제2 채널의 포인트 클라우드 상의 일련의 후보(candicate) 포인트를 확인한다.
방법은 블록(330)으로 이어지고, 제2 채널의 포인트 클라우드의 근접(후보) 포인트의 각각의 투사는 제1 채널의 반사(영상 시스템) 광선 상에 계산된다. 즉, 제2 채널의 근접(후보) 포인트의 각각이 제1 채널의 반사(영상 시스템) 광선을 따르는 거리가 계산된다. 또는 다른 방식으로, 제1 채널의 반사(영상 시스템) 광선을 따라 근접(후보) 포인트의 각각이 위치하는 곳을 계산한다.
방법은 블록(340)으로 이어지고, 제2 채널의 근접(후보) 포인트의 각각의 평균 투사(위치)가 제1 채널의 반사(영상 시스템) 광선 상의 투사(위치)에 계산된다. 즉, 반사 광선에 대한 근접 포인트의 평균 위치를 계산한다.
방법은 블록(350)으로 이어지고, 제1 채널의 재구성된 표면 포인트는 반사(영상 시스템) 광선을 따라 반사(영상 시스템) 광선에 대한 근접(후보) 포인트의 계산된 평균 위치에 대한 거리의 일부를 이동한다.
방법(300)은 블록(360)으로 이어지고, 제2 채널의 포인트 클라우드의 각각의 재구성된 표면 포인트에 대하여, 제2 채널의 포인트 클라우드의 각각의 재구성된 표면 포인트의 각각의 반사(영상 시스템) 광선에 가까운 제1 채널의 포인트 클라우드의 재구성된 표면 포인트가 식별된다. 이 식별 단계는 선택된 제2 채널의 재구성된 표면 포인트의 반사(영상 시스템) 광선에 가까운 제1 채널의 포인트 클라우드 상의 일련의 후보 포인트를 확인한다.
방법(300)은 블록(370)으로 이어지고, 제1 채널의 포인트 클라우드의 근접(후보) 포인트의 각각의 투사는 제2 채널의 반사(영상 시스템) 광선 상에 계산된다. 즉, 제1 채널의 근접(후보) 포인트의 각각이 제2 채널의 반사(영상 시스템) 광선을 따르는 거리가 계산된다.
방법은 블록(380)으로 이어지고, 제1 채널의 근접(후보) 포인트의 각각의 평균 투사(위치)가 제2 채널의 반사(영상 시스템) 광선 상의 투사(위치)에 계산된다. 즉, 반사 광선 상의 근접 포인트의 평균 위치를 계산한다.
방법은 블록(390)으로 이어지고, 제2 채널의 재구성된 표면 포인트는 그 반사(영상 시스템)광선을 따라 반사(영상 시스템) 상의 근접(후보) 포인트의 계산된 평균 위치에 대한 거리의 일부를 이동한다.
도 8은 방법(300)의 일 반복을 나타내는 개략도이다. 특히, 도 8은 블록(310)-(350)을 나타낸다. 반복(301)은 작동 조명원/영상 시스템(252), 제1 대치 채널(268)의 일부를 형성하는 반사(266)(또는 반사/영상 시스템 광선), 제1 채널 표면 포인트(276), 근접(후보) 포인트(288), 평균 투사 포인트(290). 재배치(개선) 포인트(292) 및 화살표(294)를 포함한다. 반사(266)에 가까운 근접(후보) 포인트(288)가 식별된다. 반사(266)를 따라 근접 포인트(288) 평균 투사(위치) 포인트는 부호(290)로 나타낸 바와 같이 계산된다. 일단 평균 투사 포인트(290)가 계산되면, 화살표(294)로 나타낸 바와 같이 재계산한 표면 포인트(276)를 반사(266)를 따라 평균 투사 포인트(290)를 향하여 일부 이동함으로써 재배치(개선) 재구성 포인트(292)가 식별된다.
도 9는 대치 채널로부터 포인트 클라우드를 합병하는 방법의 하나의 예를 나타내는 플로우차트이다. 방법(400)은 블록(410)에서 시작하고, 적어도 제1 및 제2 대치 채널을 갖는 광학 위상 프로파일 측정 시스템에 의하여 제1 및 제2 포인트 클라우드를 발생한다. 제1 및 제2 대치 채널의 각각은 각각의 제1 및 제2 포인트 클라우드를 발생한다. 그리고 각각의 제1 및 제2 포인트 클라우드는 타깃 표면을 따라 측정된 표면 포인트에 해당하는 복수의 표면 포인트를 갖는다.
방법(400)은 블록(420)으로 이어지고, 타깃 표면에 대응하는 측정될 볼륨은 복셀(voxels) 세트로 분할된다. 방법(400)은 블록(430)으로 이어지고, 제1 및 제2 포인트 클라우드 각각의 표면 포인트에 대하여, 포인트의 부호 거리 함수(signed distance function; SDF) 및 대응 중량이 제1 및 제2 대치 채널의 반사(영상 시스템) 광선의 각각을 따라 복셀의 볼륨에 부가된다. 부호 거리는 포인트로부터 특정 방향에서 측정된 기준 표면까지의 거리이다. 예를 들어, 고도(elevation)는 해수면 위의 양수 값 및 해수면 아래의 음수 값을 갖는, 해수면에 대한 부호 거리이다. 부호 거리 함수(SDF)는 특정 포인트의 이 거리를 계산하는 함수이고, 이 경우에서 부호 거리는 개개의 복셀로부터 포인트 클라우드의 포인트까지의 거리를 나타낸다.
방법(400)은 블록(440)으로 이어지고, 제1 및 제2 포인트 클라우드 각각의 SDF의 레벨 세트(예를 들어, 이론적인 부호-변환점(zero-crossing))를 식별함으로써 복셀 볼륨의 타깃 표면에 해당하는 표면 프로파일 지도가 발생한다.
도 10a-10c는 대치 채널로부터 포인트 클라우드를 합병하는 하나의 예를 나타내는 개략도이다. 특히, 도 10a-10c는 방법(400)을 수행하는 하나의 예를 나타낸다. 도 10a-10c에 도시된 볼륨 및 복셀은 광위상 프로파일 측정 시스템의 전제 측정 공간을 정의하는 3D 대상이다. 설명의 명료를 위하여, 볼륨 및 복셀은 2D로 나타낸다.
도 10a는 복셀의 볼륨에서 제1 대치 채널에 대응하는 포인트 클라우드의 하나의 예를 나타내는 개략도이다. 복셀 볼륨(300)은 측정될 볼륨(302), 복셀(304), 표면 포인트(306) 및 반사(영상 시스템) 광선(308)을 포함한다. 일반적으로 복셀 볼륨(300)은 측정될 볼륨(302)을 나타내고, 복수의 복셀(304)을 갖고, 여기서 각각의 반사(영상 시스템) 광선(308)을 따라 각각의 포인트의 SDF 및 대응 중량을 갖는, 복수의 표면 포인트(306)가 측정될 볼륨(302)에 부가된다.
도 10b는 복셀의 볼륨에서 제2 대치 채널에 대응하는 포인트 클라우드의 하나의 예를 나타내는 개략도이다. 복셀 볼륨(310)은 측정될 볼륨(312), 복셀(314), 표면 포인트(316) 및 반사(영상 시스템) 광선(318)을 포함한다. 일반적으로 복셀 볼륨(310)은 측정될 볼륨(312)을 나타내고, 복수의 복셀(314)을 갖고, 여기서 각각의 반사(영상 시스템) 광선(318)을 따라 각각의 포인트의 SDF 및 대응 중량을 갖는, 복수의 표면 포인트(316)가 측정될 볼륨(312)에 부가된다.
도 10c는 제1 및 제2 대치 채널로부터 포인트 클라우드를 합병하는 하나의 예를 나타내는 개략도이다. 복셀 볼륨(320)은 측정될 볼륨(322), 복셀(324), 제1 대치 채널 반사(영상 시스템) 광선(326), 제2 대치 채널 반사(영상 시스템) 광선(328) 및 근사 타깃 표면(330)을 포함한다. 일반적으로 복셀 볼륨(320)은, 근사 타깃 표면(330)으로 나타낸 바와 같이, 제1 및 제2 포인트 클라우드 각각의 SDF의 레벨 세트(예를 들어, 이론적인 부호-변환점(zero-crossing))를 식별함으로써 발생한 타깃 표면 프로파일 지도를 나타내고, 이는 측정되어야 할 볼륨(322)에서 타깃 표면에 대응한다.
통상적인 광위상 프로파일 측정 시스템에 대한 다른 특별한 과제는 둥근/구형 프로파일(예를 들어, 공(ball))을 갖는 타깃 표면 및/또는 대상에 대한 정확한 측정이다. 특히, 이들 타깃 표면 및/또는 대상이 반짝임을 초래하는 거울 표면 부분을 갖는 경우이다.
위에 기술한 바와 같이, 통상적인 광위상 프로파일 측정 시스템은 구조화 패턴으로 표면을 검사하는 단일 프로젝터 및 표면을 관측하는 복수의 경사 카메라를 갖는 것이 보통이다. 또는 그 반대로 단일 카메라 및 2개의 경사 프로젝터를 갖는 동등한 구조가 사용된다.
도 11a는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 시스템(350)은 제1 경사 프로젝터(352), 제2 경사 프로젝터(354), 카메라(356), 구형 타깃(358), 투사(360; 362), 제1 경사 프로젝터 측정(364), 제2 경사 프로젝터 측정(366) 및 높이 에러(368)를 포함한다. 시스템(350)은 도 2a 및 도 2b와 관련하여 기술한 현상의 효과, 특히 반짝임으로 인한 측정 에러를 경험한다. 도 11a에 도시한 바와 같이, 제1 경사 프로젝터(352)는 카메라(356)와 결합하여 구형 타깃(358)의 상부에 높이 에러(368)를 나타내는 측정(364)을 발생한다(예를 들어, 높이 디벗(divot) 에러). 유사하게, 제2 경사 프로젝터(354)는 카메라(356)와 결합하여 구형 타깃(358)의 상부에 높이 에러(368)를 나타내는 측정(366)을 발생한다(예를 들어, 높이 디벗 에러). 이 에러는 앞에 기술한 바와 같이, 점상 분포 함수와 결합하여 각각의 프로젝터의 경사 각도와 카메라 시점의 결합에 의한 반짝임의 발생에 의하여 초래된다. 각각의 프로젝터는 구형 타깃(358) 상의 다른 위치로부터의 반짝임에 의한 영향을 받는다. 삼각측량 시스템에서, 본 발명의 실시예와 같이, 대상의 측정된 위치는 반작임에 의하여 교란된다. 교란의 크기는 2 요소의 결과에 의하여 조정된다: 1) 반짝임에 대한 거리; 2) 반짝임의 점상 분포 함수(PSF). 따라서 교란의 구획(plot)은 PSF의 폭에 대응하는 국부 영역에 대하여 기울어지는 경향이 있다. 이것은 일정치 않은 골프 스윙에 의하여 발생한 디벗과 유사하므로 디벗(divot)라고 부른다.
도 11b는 시스템(350)을 사용하여 발생한 구형 타깃(358)의 3-차원 프로파일의 하나의 예를 나타내는 개략도이다. 프로파일(370)에서 보는 바와 같이, "높이 디벗 에러"를 나타내는 높이 에러(368)가 발생한다. 높이의 정점인, 구형 타깃(358)의 상부의 높이에서의 높이 측정 유닛(374)에 의하여 반사된, 높이 측정에는 명확한 감소가 있다. 예를 들어, 타깃(358)의 외부(372)에서의 높이 판독을 높이 에러(368)로 표시한 영역에서의 높이 판독과 비교한다.
도 11c에 나타낸 바와 같이, 높이 디벗 에러는 단일 프로젝터-복수 경사 카메라 시스템을 사용하여 해결되지 않는다.
도 11c는 구형 타깃(358)의 3-차원 프로파일의 하나의 예를 나타내는 개략도이다. 좌측은 타깃(358)의 측정된 Z 높이이고, 타깃(358)의 실제 높이 프로파일을 나타낸다. 보는 바와 같이, 이미지가 높이 측정 유닛(376)에 의하여 반사되면 타깃(358)은 이미지의 중앙(타깃(358)의 상부에 대응)에 그 높이의 정점에 있다. 우측은 단일 카메라/2개 경사 카메라 시스템에 의하여 발생한 구형 타깃(358)의 3-차원 프로파일이다. 보는 바와 같이, 이미지가 높이 측정 유닛(376)에 의하여 반사되면 높이 에러(368)는 이미지의 중앙(타깃(358)의 상부에 대응)에 발생한다.
도 12는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 시스템(500)은 작동 동축 조명원/영상 시스템 쌍(502), 경사 작동 동축 조명원/영상 시스템 쌍(504; 506), 구형 타깃(508) 및 채널(510)을 포함한다. 시스템(500)은 도 11a-11c와 관련하여 기술한 측정 에러를 제거 또는 감소하도록 구성된다. 일 실시예에서, 반짬임에 의한 측정 에러는 시스템(500)의 정렬 기하구조에 의하여 보상되고, 예를 들어 4 채널 정렬구조(2쌍의 대치 채널이 있음)를 사용하면 반짝임에 의한 에러는 거의 동일하고 대향 방향이다(따라서 서로 상쇄된다). 일 실시예에서, 시스템(500)은 6 채널(4개 확산 채널[확산 반사를 포획하도록 구성된 광학 채널] 및 2개 거울 채널[거울 반사를 포획하도록 구성된 광학 채널을 생성하는 정렬구조])를 갖도록 구성된다. 일 실시예에서, 시스템(500)은 거울 및 확산 반사 모두를 포획하고 어느 하나에 의하여 초래된 에러를 보상하도록 구성된 정렬구조를 생성함으로써 거울 또는 부분 거울 타깃 및/또는 대상에 의하여 초래된 측정 에러를 보상한다. 이 정렬구조는 도 13a-13c에 더 상세히 설명된다.
도 13a는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 특히 도 13a는 시스템(500)의 정렬구조에 의하여 생성된 6 채널의 2개를 나타낸다. 제1 채널은 투사(512) 및 반사(514)에 의하여 생성된다. 투사(512)는 작동 쌍(502)의 조명원에 의하여 투사되고 타깃(508)으로부터 반사(514)로 반사되고 작동 쌍(504)의 영상 시스템에 의하여 포획된다. 제2 채널은 투사(516) 및 반사(518)에 의하여 생성된다. 투사(516)는 작동 쌍(504)의 조명원에 의하여 투사되고 타깃(508)으로부터 반사(518)로 반사되고 작동 쌍(502)의 영상 시스템에 의하여 포획된다. 제1 및 제2 채널은 제1쌍 대치 채널을 형성한다.
도 13b는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 특히 도 13b는 시스템(500)의 정렬구조에 의하여 생성된 6 채널의 2개를 나타낸다. 제3 채널은 투사(512) 및 반사(520)에 의하여 생성된다. 투사(512)는 작동 쌍(502)의 조명원에 의하여 투사되고 타깃(508)으로부터 반사(520)로 반사되고 작동 쌍(506)의 영상 시스템에 의하여 포획된다. 제4 채널은 투사(522) 및 반사(524)에 의하여 생성된다. 투사(522)는 작동 쌍(506)의 조명원에 의하여 투사되고 타깃(508)으로부터 반사(524)로 반사되고 작동 쌍(502)의 영상 시스템에 의하여 포획된다. 제3 및 제4 채널은 제2쌍 대치 채널을 형성한다.
도 13c는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 특히 도 13c는 시스템(500)의 정렬구조에 의하여 생성된 6 채널의 2개를 나타낸다. 제5 채널은 투사(516) 및 반사(526)에 의하여 생성된다. 투사(516)는 작동 쌍(504)의 조명원에 의하여 투사되고 타깃(508)으로부터 반사(526)로 반사되고 작동 쌍(506)의 영상 시스템에 의하여 포획된다. 제6 채널은 투사(522) 및 반사(528)에 의하여 생성된다. 투사(522)는 작동 쌍(506)의 조명원에 의하여 투사되고 타깃(508)으로부터 반사(528)로 반사되고 작동 쌍(504)의 영상 시스템에 의하여 포획된다.
일 실시예에서, 작동 쌍(502; 504; 506)의 광학구조는 텔레센트릭이다. 일 실시예에서, 작동 쌍(502; 504; 506)의 렌즈 조립체는 무한대의 입사 또는 출사 동공(pupil)을 갖는 복수-요소/복합 렌즈 조립체를 포함한다. 텔레센트릭 광학구조는 공칭(nominal) 투사 방향(부호 512; 516; 522 도시) 및 반사 방향(부호 514; 518; 520 도시)이 작동 쌍(502; 504; 506)의 시야를 가로질러 동일한 것을 보장한다. 투사 및 반사 각도가 시야를 가로질러 동일하므로, 각각의 채널의 각각의 반사가 각각의 작동 쌍의 각각의 영상 시스템에 의하여 수신되는 대치 채널의 이점은 유지된다. 일 실시예에서, 조명원에 의하여 생성된 조명은 복수-요소/복합 텔레센트릭 렌즈 조립체로 들어가고, 작동 쌍을 나올 때 실제로 평행하고 따라서 높게 집중한다. 따라서 조명원에 의하여 생성된 거의 모든 빛이 타깃 표면을 맞추고 결과적인 반사가 영상 시스템에 의하여 포획된다.
도 14는 타깃 표면 및/또는 대상의 차원 프로파일을 생성하는 방법의 하나의 예를 나타내는 플로우차트이다. 방법(600)은 블록(610)에서 시작하고, 타깃 표면 및/또는 대상의 제1 차원 프로파일이 생성된다. 이는 블록(612)에 나타낸 바와 같이 조인트 포인트 개선에 의하여 이루어지고, 블록(614)에 나타낸 바와 같이 예를 들어 SDF 및/또는 다른 것(616)을 사용하여 대치 채널로부터 포인트 클라우드를 합병한다. 다른 것(616)은 방법(300) 및/또는 방법(400)을 포함할 수 있다. 다른 것(616)은 단면을 포함할 수 있다. 다른 것(616)은 타깃 표면 및/또는 대상의 차원 프로파일을 생성하는 다른 적합한 기술을 포함할 수 있다.
방법(600)은 블록(620)으로 이어지고, 타깃 표면 및/또는 대상의 제2 차원 프로파일이 생성된다. 이는 블록(622)에 나타낸 바와 같이 조인트 포인트 개선에 의하여 이루어지고, 블록(624)에 나타낸 바와 같이, 예를 들어 SDF 및/또는 다른 것(626)을 사용하여 대치 채널로부터 포인트 클라우드를 합병한다. 다른 것(626)은 방법(300) 및/또는 방법(400)을 포함할 수 있다. 다른 것(626)은 단면을 포함할 수 있다. 다른 것(626)은 타깃 표면 및/또는 대상의 차원 프로파일을 생성하는 다른 적합한 기술을 포함할 수 있다.
방법(600)은 블록(630)으로 이어지고, 타깃 표면 및/또는 대상의 제3 차원 프로파일이 생성된다. 이는 블록(632)에 나타낸 바와 같이 제1 및 제2 차원 프로파일의 비교에 의하여 이루어진다. 이는 블록(634)에 나타낸 바와 같이 제1 및 제2 차원 프로파일의 결합에 의하여 이루어진다. 이는 블록(636)에 나타낸 바와 같이 다른 기술에 의하여 이루어진다. 예를 들어, 다른 것(626)은 제1 및 제2 차원 프로파일의 평균(예를 들어, 가중 평균)을 취하는 것을 포함할 수 있다. 다른 것(626)은 제1 및 제2 차원 프로파일에 기반하여 제3 차원 프로파일을 생성하는 다른 적합한 기술을 포함할 수 있다.
도 14에는 본 발명의 설명을 위하여 특정한 단계의 순서를 나타내었지만, 이들 단계의 일부 또는 전부는 동시에, 연속으로, 비-동시에, 비-연속으로 또는 다른 조합을 포함하는 다른 순서로 수행될 수 있고, 이에 한정되지 않는다.
도 15a-15b는 타깃 표면 및/또는 대상의 차원 프로파일을 생성하는 하나의 예를 나타내는 개략도이다. 보다 구체적으로, 도 15a-15b는 방법(600)을 수행하는 단계의 일부 예를 나타낸다.
도 15a는 반복적인 조인트 클라우드 개선을 사용하여 타깃 표면 및/또는 대상의 차원 프로파일을 생성하는 하나의 예를 나타내는 개략도이다. 차원 프로파일(650)은 복수의 타깃 대상(652)의 차원 프로파일의 표시이고, 여기서 구형 대상으로 표시된다. 차원 프로파일(650)은 마이크로미터에 측정된 y 좌표(예를 들어, 길이 및/또는 폭), 마이크로미터에 측정된 x 좌표(예를 들어, 길이 및/또는 폭) 및 부호(656)로 나타낸 높이(예를 들어, Z 좌표)를 포함하는 타깃 대상(652)의 복수의 차원 정보를 표시한다. 차원 프로파일(658)은 라인(654)으로 나타낸 선택된 타깃 대상의 단면이다. 차원 프로파일(658)은 마이크로미터에 측정된 x 좌표(예를 들어, 길이 및/또는 폭) 및 부호(657)로 나타낸 높이(예를 들어, Z 좌표)를 포함하는 선택된 타깃 대상(654)의 차원 정보를 표시한다. 일 실시예에서, 차원 프로파일(650 및/또는 658)은 방법(300)에 의하여 생성될 수 있다.
도 15b는 SDF로 대치 채널로부터 포인트 클라우드 합병을 사용하여 타깃 표면 및/또는 대상의 차원 프로파일을 생성하는 하나의 예를 나타내는 개략도이다. 차원 프로파일(660)은 복수의 타깃 대상(662)의 차원 프로파일의 표시이고, 여기서 구형 대상으로 표시된다. 차원 프로파일(660)은 마이크로미터에 측정된 y 좌표(예를 들어, 길이 및/또는 폭), 마이크로미터에 측정된 x 좌표(예를 들어, 길이 및/또는 폭) 및 부호(666)로 나타낸 높이(예를 들어, Z 좌표)를 포함하는 복수의 타깃 대상(662)의 차원 정보를 표시한다. 차원 프로파일(668)은 라인(664)으로 나타낸 선택된 타깃 대상의 단면이다. 차원 프로파일(668)은 마이크로미터에 측정된 x 좌표(예를 들어, 길이 및/또는 폭) 및 부호(667)로 나타낸 높이(예를 들어, Z 좌표)를 포함하는 선택된 타깃 대상(664)의 차원 정보를 표시한다. 일 실시예에서, 차원 프로파일(660 및/또는 668)은 방법(400)에 의하여 생성될 수 있다.
3면 교회 원리(Scheimplug theorem)에 의하면, 대상 평면이 광학 축에 수직하지 않으면 대상 평면은 경사진다. 도 16은 경사진 대상 및 영상 평면의 기하구조의 하나의 예를 나타내는 개략도이다. 평면(716)에 놓여있는 대상(708)은 광학 축(712)에 대하여 각도(718)로 기울어진 법선(714)을 갖는다. 광선 다발(712)은 렌즈(706)로 들어가고 광학 축에 대하여 세타(θ)로 표시된 각도(720)로 누워있는 광학 센서(704)에 초점을 맞춘다. 렌즈(706)는 광학 축에 대하여 수직이다. 3면 교회 원리(Scheimplug theorem)에 의하면;
tan(θ) = m * tan(30) 식 1
여기서, m은 영상 시스템(702)의 배율(magnification) 이고, 30°는 도 16의 부호(718)의 각도이다.
배율이 크면, 3면 교회 원리에 필요한 영상 평면의 경사는 커질 수 있다. 예를 들어, m=1.5 이면 세타(θ)는 40.9°이다. 이 필요한 각도는 특히 마이크로렌즈를 이용하는 통상적인 영상 시스템의 사용 가능한 범위의 외부이다.
영상 평면 경사(720)는 미국특허 US 397254A에 개시된 광학 경로의 프리즘의 도입에 의하여 실제로 감소된다. 유감스럽게, 영상 평면의 경사의 감소는 다양한 수차(aberrations), 특히 비점수차(astigmatism) 및 가로 색수차(lateral chromatic aberrations)의 도입에 수반된다. 이 문제를 피하기 위하여, 추가 프리즘이 광학 경로에 도입되고, 종래기술에 잘 알려진 렌즈 설계 프로그램에 의하여 성능이 최적화될 수 있다. 바람직한 실시예에서, 3개의 프리즘이 수차를 조절하기 위하여 사용되고, 종래기술에 잘 알려진 색수차 지움 렌즈(achromatic lenz)의 2개 형태의 유리에 필요한 유사한 적어도 2개 형태의 유리가 가로 색수차를 조절하기 위하여 사용된다. 프리즘의 수는 배율, 시야 및 경사에 의존하고, 본 발명의 범위를 벗어나지 않고 선택될 수 있다.
도 17은 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 시스템(760)은 렌즈(756), 초점면(focal plane)(754), 발생 광선 다발(758), 프리즘(761; 762; 763)을 포함하는 프리즘 조립체(752) 및 웨지(wedge) 각도(764; 765; 766)를 포함한다. 렌즈(756)의 후면으로부터 발생하는 빛은 프리즘 조립체(752)에 의하여 반사되고, 광학 축에 거의 수직인 초점면(754)에 수렴한다.
다른 실시예에서, 시스템(750)은 복수 프리즘(예를 들어, 761; 762; 763)를 사용하여 필요한 영상 센서 경사 각도(예를 들어, 3면 교회 각도)를 감소하여 빛이 영상 시스템 및 초점면까지 통과함에 따라 수차(예를 들어 색수차)를 보상, 예를 들어 감소 및/또는 제거함으로써 고 해상도 및/또는 고 배율 광위상 프로파일 측정기를 허용한다. 일 실시예에서, 적어도 하나의 프리즘(761; 762; 763)은 적어도 하나의 다른 프리즘과 다른 유리 형태를 포함한다. 다른 실시예에서, 각각의 프리즘(761; 762; 763)은 각각의 다른 프리즘과 다른 유리 형태를 포함한다. 일 실시예에서, 프리즘(761; 762; 763)은 웨지 프리즘을 포함한다. 일 실시예에서, 적어도 하나의 프리즘(761; 762; 763)은 적어도 하나의 다른 프리즘과 다른 웨지 각도를 포함한다. 일 실시예에서, 적어도 하나의 프리즘(761; 762; 763)은 적어도 하나의 다른 프리즘과 다른 방향을 향한 웨지 각도(예를 들어, 웨지 정점 각도)를 포함한다. 일 실시예에서, 프리즘 조립체(760)는 제1 방향을 향하는 웨지 각도(예를 들어, 웨지 정점 각도 764)를 갖는 제1 프리즘(예를 들어, 761), 제2 방향을 향하는 웨지 각도(예를 들어, 웨지 정점 각도 765)를 갖는 제2 프리즘(예를 들어, 762) 및 제2 방향을 향하는 웨지 각도(예를 들어, 웨지 정점 각도 766)를 갖는 제3 프리즘(예를 들어, 763)을 포함한다. 도 17에 3개의 프리즘이 도시되었지만, 임의의 수의 방향을 향하는 웨지 각도를 갖고 임의의 수의 물질을 포함하는 임의의 수의 프리즘이 사용될 수 있다.
통상적인 광위상 프로파일 측정 시스템의 다른 목표는 센서 또는 센서의 환경 변화에 따른 측정 에러이다. 예를 들어, 다양한 요소에 따른 열 스케일링, 기계적 드리프트(drift)는 측정 출력 에러를 일으킬 수 있다. 위에 기술한 바와 같이, 통상적인 광위상 프로파일 측정 시스템은 다른 시점(예를 들어, 단일 카메라/복수 프로젝터, 단일 프로젝터/복수 카메라 등)으로부터 타깃 표면을 보는 복수의 영상 경로를 갖는다. 각각의 카메라/프로젝터 쌍은 채널(영상/광학 경로)을 형성하고 측정될 표면의 경사 투시를 제공한다. 표면은 종종 각각의 채널(예를 들어, 포인트 클라우드에서)에 의하여 별개로 재구성되고, 이들 재구성은 타깃 표면의 최종 차원 프로파일(예를 들어, 높이 맵)로 결합된다.
도 18a는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 시스템(800)은 카메라(802), 프로젝터(804; 806), 타깃 표면(808), 투사(810; 812) 및 반사(814)를 포함한다. 투사(810) 및 반사(814)는 제1 채널(816)을 그리고 투사(812) 및 반사(814)는 제2 채널(818)을 형성한다. 도 18에서 반사(814)는 설명의 명료를 위하여 단일 라인으로 나타내었지만, 프로젝터(804)에 의하여 투사된 투사는 프로젝터(806)에 의하여 투사된 투사와 별개의 반사를 생성한다. 제1 채널 및 제2 채널 각각으로부터 타깃 표면(808)의 차원 재구성을 포함하는 포인트 클라우드가 발생한다. 제1 채널(816)은 제1 포인트 클라우드(820)를 발생하고, 제2 채널(818)은 제1 포인트 클라우드(822)를 발생한다. 프로젝터(804; 806) 및 타깃 표면(808)의 상대 높이의 정렬 기하구조 때문에, 각각의 포인트 클라우드에서 부호(824; 826)로 나타낸 바와 같이 탐사불능 지점(blind spots)/암영(shadows)이 있다. 따라서 부호(828)로 나타낸 바와 같이, 포인트 클라우드는 결합되어 타깃 표면(808)의 완전한 차원 프로파일을 생성한다.
이 별개의 포인트 클라우드를 결합하는 것은 이들이 서로에 대하여 잘 정렬되는 것이 필요하고, 이는 영상 센서의 교정 작업을 통하여 이루어진다. 그러나 위에 기술한 바와 같이, 시간이 지남에 따라 센서에 대한 변화(예를 들어, 열 스케일링, 기계 드리프트)는 각각의 포인트 클라우드의 이동(에러 정렬)을 초래한다. 이러한 경우에, 최종 결합된 차원 프로파일은 덜 정확하게 끝나고 정확한 정렬이 되도록 반복되어야 한다.
도 18b는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 도 18b는 도 18a와 유사하고 유사한 요소는 유사하게 번호하였다. 도 18b는 프로젝터(806)의 실제의 정렬과 비교하여 정확한 정렬(187)로 나타낸 바와 같이, 에러 정렬된 위치(예를 들어, 이동)에 있는 프로젝터(806)를 나타낸다. 이는 표면 포인트(819)에 의하여 나타낸 측정 에러를 초래한다. 이 에러 정렬은 제2 채널(818)의 포인트 클라우드(823)가 제1 채널(816)의 포인트 클라우드(820)에 대하여 이동하게 한다. 포인트 클라우드(820; 823)의 결합은 부호(829)로 나타낸 바와 같이 타깃 표면(808)의 에러 차원 프로파일의 결과로 된다.
이런 형태의 에러는 예를 들어 필드 교정 작업에 따라 센서를 재교정함으로써 해결될 수 있다. 그러나, 이들 필드 교정 작업은 작업자에 의하여 작업되어야 할 시스템을 위하여 종종 광위상 프로파일 측정 시스템이 측정을 중단하는 것을 필요로 한다. 이는 생산에 매우 방해가 되고 온라인 검사 작업의 처리능력을 낮춘다. 비교적 덜 방해적인 기술이 필요하다. 이러한 기술의 하나의 예는 이하에 제공된다.
동적 보상 방법을 사용함으로써, 에러는 가동중에(예를 들어, 시스템이 작업 계속중에) 해결될 수 있다. 각각의 포인트 클라우드 사이의 상대 에러는 동적으로 평가되고, 타깃 표면의 최종의 차원 정보로 결합되기 전에 보상될 수 있다. 일반적인 방법은 3차원으로 잘 정렬하는 변화를 계산함으로써 각각의 포인트 클라우드 사이의 상대 에러를 평가하는 것이다. 일반적으로 변환은 회전, 변형, 스케일링, 또는 영상 센서에 대한 변화에 의하여 기대되는 변화를 만드는 다른 형태의 변환( 예를 들어, 열 스케일링, 기계 드리프트 등)으로 구성될 수 있다. 일 실시예에서, 3차원 변형은 시스템 정렬구조의 작은 변화를 만드는 것으로 충분하다.
도 19는 광위상 프로파일 측정 시스템에서 동적으로 에러를 보상하는 방법의 하나의 예를 나타내는 플로우차트이다. 방법(900)은 블록(910)에서 시작하고, 제1 및 제2 채널(예를 들어, 영상/광학 경로)을 사용하여, 제1 및 제2 포인트 클라우드가 생성된다. 위에 2개의 각각의 채널로부터 2개의 각각의 포인트 클라우드를 개시하였지만, 임의의 수의 채널이 사용될 수 있고, 임의의 수의 포인트 클라우드가 생성될 수 있다. 다른 실시예에서, 특정의 광위상 프로파일 측정 시스템에서의 각각의 채널은 타깃 표면 및/또는 대상에 대한 개개의 포인트 클라우드를 생성할 수 있다.
방법(900)은 블록(920)으로 이어지고, 시야의 어느 부분이 비어있지 않은 지를 결정한다. 일 실시예에서, 이 결정은 포인트 클라우드의 어느 부분이 표면 포인트를 갖고 어느 부분이 갖지 않은 지를 포함한다. 일 실시예에서, 이 결정은 임의의 수의 특징(예를 들어, 타깃 표면 및/또는 대상에 대한 차원 정보)을 나타내는 센서 신호(예를 들어, 영상 센서로부터)를 수신하고, 센서 신호에 기반하여 시야(예를 들어, 각각의 영역, 측정될 볼륨, 시스템이 보는 환경 등)의 어느 부분이 비어있지 않은 지를(예를 들어, 대응 표면 포인트를 갖는 부분) 결정하도록 구성된 다수의 제어기 및/또는 프로세서(예를 들어, 마이크로프로세서)를 갖는 광위상 프로파일 측정 시스템에 의하여 이루어진다
방법(900)은 블록(930)으로 이어지고, 제1 및 제2 포인트 클라우드는 시야의 결정된 비어있지 않은 부분(예를 들어, 포인트 클라우드의 비어있지 않은 부분)에 정렬된다. 이 정렬은 다양한 방식으로 이루어질 수 있다. 일 실시예에서, 각각의 포인트 클라우드를 위한 최적의 변환이 블록(932)에 표시한 바와 같이 계산된다. 일 실시예에서, 블록(933)에 표시한 바와 같이 회전이 수행된다. 일 실시예에서, 블록(934)에 표시한 바와 같이 변형이 수행된다. 다른 실시예에서, 블록(935)에 표시한 바와 같이 스케일링이 수행된다. 다른 실시예에서, 블록(936)에 표시한 바와 같이 가중(weighting)이 수행된다. 다른 실시예에서, 블록(936)의 가중은 신뢰값(예를 들어, 신호-노이즈 지수)에 의한 포인트 클라우드의 표면 포인트의 가중을 포함한다. 다른 실시예에서, 블록(937)에 표시한 바와 같이 포인트 클라우드는 영상 센서에 다른 형태의 변환, 특히 모델 체인지(예를 들어, 열 스케일링, 기계 드리프트 등)를 수행함으로써 정렬될 수 있다.
방법(900)은 블록(940)으로 이어지고, 각각의 포인트 클라우드의 상대 에러가 결정된다. 일 실시예에서, 각각의 포인트 클라우드의 상대 에러 결정은 각각의 포인트 클라우드의 최적의 변환의 반대를 식별하는 것을 포함한다. 방법(900)은 블록(950)으로 이어지고, 타깃 표면 및/또는 대상의 차원 프로파일이 생성된다. 일 실시예에서, 타깃 표면 및/또는 대상의 차원 프로파일의 생성은 상대 에러를 빼는 것을 포함한다. 일 실시예에서, 차원 프로파일의 생성은 각각의 포인트 클라우드의 최적의 정보를 계산하고, 각각의 포인트 클라우드의 상대 에러(예를 들어, 최적의 변환의 반대)를 식별하고, 각각의 포인트 클라우드로부터 각각의 상대 에러를 빼고, 보상된 및/또는 정정된 포인트 클라우드를 결합하는 것을 포함한다.
도 20은 동적 보상의 하나의 예를 나타내는 개략도이다. 도 20의 상부에 제1 포인트 클라우드(962) 및 제2 포인트 클라우드(964)를 나타낸다. 일 실시예에서, 포인트 클라우드(962; 964)는 제1 및 제2 채널(예를 들어, 816; 818)에 의하여 생성된다. 제1 및 제2 포인트 클라우드 각각은 도트(dots)로 표시한 복수의 각각의 표면 포인트를 갖는다. 도 20에서 보는 바와 같이, 양 포인트 클라우드(962; 964)는 영상 센서에 대한 변화(예를 들어, 도 18a에 도시한 기계 드리프트)에 기인한 측정 에러를 갖는다. 발생한 포인트 클라우드는 측정될 타깃 표면(예를 들어, 808)을 정확하게 표시하지 않는다. 그러나 위에 기술한 바와 같이(예를 들어, 방법(900)), 동적 보상을 통하여 각각의 포인트 클라우드의 측정 에러는 보상 및/또는 정정되고, 정렬된 차원 프로파일(966)에 나타낸 바와 같이 타깃 표면의 실제 차원 프로파일을 정확하게 나타내는 타깃 표면의 차원 정보를 생성할 수 있다.
일 실시예에서, 동적 보상은 타깃 표면을 관측하는 광위상 프로파일 측정 시스템의 제1 및 제2 채널 각각으로부터, 광위상 프로파일 측정 시스템의 시야에 대한 차원 정보를 나타내는 제1 및 제2 포인트 클라우드를 발생하는 단계; 시야의 어느 부분이 비어있지 않은지를(예를 들어, 시야의 어느 부분이 표면 포인트를 갖는) 결정하는 단계; 비어있지 않은 영역에서 각각의 포인트 클라우드의 최적의 변환을 계산하고 각각의 포인트 클라우드의 상대 에러를 식별함으로써 제1 및 제2 포인트 클라우드를 정렬하는 단계; 각각의 포인트 클라우드로부터 상대 에러를 빼는 단계; 및 제1 및 제2 포인트 클라우드 각각으로부터 상대 에러를 빼고 정정된 및/또는 보상된 제1 및 제2 포인트 클라우드를 결합함으로써 차원 프로파일(예를 들어, 높이 맵)을 발생하는 단계를 포함한다. 일 실시예에서, 최적의 변환을 계산하는 단계는 제1 및 제2 포인트 클라우드 각각의 표면 포인트를 신뢰값(예를 들어, 신호-노이즈 지수)으로 가중하는 단계를 포함한다. 일 실시예에서, 최적의 변환을 계산하는 단계는 회전, 변형, 스케일링 또는 다른 변환 또는 그들의 결합을 수행하는 단계를 포함한다.
일부 경우에서, 각각의 포인트 클라우드의 상대 에러를 결정하는 것은 컴퓨터를 많이 사용하고 타깃 표면 및/또는 대상의 전체 재구성(예를 들어, 높이 맵의 생성)을 늦출 수 있다. 특히 온라인 검사 환경에서, 3차원 획득이 계속하여(전자 조립체 공정의 회로 보드의 자동 광학 검사 동안) 수행되고, 각각의 프레임에서 상대 에러를 결정하는 것은 필요하지 않거나 바람직하지 않다. 일 실시예에서, 상대 에러는 주기적으로 결정되고, 각각의 획득(예를 들어, 차원 프로파일, 높이 맵 등)에 인가된다. 또한, 상대 에러에 대한 각각의 결정은 소량의 노이즈를 포함할 수 있으므로, 결정은 상대 에러 결정의 이동 평균(running average)을 유지함으로써 일시적으로 원활해질 수 있다.
도 21은 동적 보상 방법의 하나의 예를 나타내는 플로우차트이다. 방법(1000)은 블록(1010)에서 시작하고, 타깃 표면 및/또는 대상의 각각의 3-차원 획득에 대하여, 상대 에러 평균의 최후 결정 이후의 시간이 임계치를 넘었는지가 결정된다. 블록(1010)에서, 최후의 상대 에러 평균이 결정된 이후의 시간이 임계치를 넘지 않는다고 결정되면, 가장 최근의 상대 에러 평균이 각각의 포인트 클라우드에 인가된다. 방법(1000)은 블록(1025)으로 이어지고, 타깃 표면 및/또는 대상의 차원 프로파일(예를 들어, 높이 맵)이 발생한다.
다시 블록(1010)으로 돌아가서, 최후의 상대 에러 평균 이후의 시간이 임계치를 넘는다고 결정되면, 방법(1000)은 블록(1030)으로 이어지고, 새로운 상대 에러 평균이 결정된다. 일 실시예에서, 새로운 상대 에러 평균은 변환(예를 들어 최적의 변환)의 평균을 결정함으로써 결정된다. 일 실시예에서, 변환의 평균은 다음 식에 따라 결정된다.
Tavg = αTnew + (1-α) Told 식 2
여기서, α는 0 과 1 사이의 상수이다.
방법(1000)은 블록(1040)으로 이어지고, 상대 에러 평균(예를 들어, Tavg)은 각각의 포인트 클라우드로부터 뺀다. 방법(1000)은 블록(1050)으로 이어지고, 정정된 및/또는 보상된(예를 들어, 상대 에러 평균 빼기) 포인트 클라우드는 결합된다. 방법(1000)은 블록(1060)으로 이어지고, 정정된 및/또는 보상된 포인트 클라우드의 결합에 기반하여 차원 프로파일(예를 들어, 높이 맵)이 발생된다. 방법(1000)은 광학 검사 작업이 완전할 때까지 각각의 3차원 획득을 위하여 계속할 수 있다.
일부 경우에서, 얼마나 많은 에러가 보상될 수 있는지에 대한 제한이 있을 수 있다. 상대 에러 결정이 이 제한에 가까워지면, 전체 필드 또는 공장 교정이 수행될 필요가 있다. 일 실시예에서, 광위상 프로파일 측정 시스템은 상대 에러 결정이 임계치(예를 들어, 에러의 양, 반복 숫자 등)를 넘었는 지를 결정할 수 있고, 임계치가 넘었다는 결정하에 광학 위상 프로파일 측정은 경고, 알람 또는 교정이 필요한 다른 표시(예를 들어, 사용자 인터페이스에 표지를 단다)의 통신을 발생할 수 있다.
통상적인 광위상 프로파일 측정 시스템의 다른 당면 목표는 타깃 표면 및/또는 대상의 획득 이미지의 품질 및 정확도를 제한하는 시스템 제한에 의한 것이다.
광위상 프로파일 측정은 투사된 사인파(sine wave)의 품질에 의하여 제한된다. 디지털 광 처리(digital light processing; DLP) 시스템은 유연성이 있고, 투사된 사인파의 위상에서 계단상(stair-step) 패턴을 생성하는 유한(finite) 픽셀 크기를 갖는다. DLP 시스템은 또한 제한된 동적 범위를 갖는다. 예를 들어, 통상적인 DLP 시스템은 256 레벨로 양자화되는 사인파의 결과로 유래하는 8-비트 이미지를 사용한다. 유감스럽게도, 이 디지털-아날로그(예를 들어, 광학 광 레벨) 전환은 완전히 선형이다. 실제의 적용은 중요한 적분(integral) 에러 및/또는 미분 선형(differential linearity) 에러를 가질 수 있고, 후자는 취급(예를 들어, 정정, 보상 등)하기 더 어렵다. 한편, 적분 에러는 옵셋(offset) 및 이득(gain) 에러와 함께 복수-위상 재구성에 의하여 제거될 수 있다. 예를 들어, 3-상 재구성은 옵셋 이득 에러에 영향을 받지 않고, 반면 4-상 재구성은 2차 적분 에러에 영향을 받지 않고, 높은 차수의 재구성은 높은 차수의 적분 에러를 보상한다. 반면 미분 선형 에러는 사인파의 모든 부분에 "랜덤(random)"(예를 들어 예측하기 어려움) 위상 노이즈를 부가한다.
DLP 시스템은 시간 배분(time-slicing) 방법에 의하여 복수의 회색도(gray levels)를 생산한다. 회색도를 생산하기 위하여, DLP 시스템의 각각의 거울은 펄스폭 변조(pulse width modulation; PWM)와 유사하게 플립 온(flip on) 및 오프(off) 된다. 거울은 기계 소자이므로, 전환(switching) 시간에서 제한되고, 따라서 투사된 회색도의 숫자를 증가시키는 것(예를 들어, 이미지에서 비트 숫자의 증가)은 또한 이미지의 프레임 시간을 증가시킨다. 예를 들어, 단일-비트 이미지는 사인파와 같이 보이지 않고, 높은 비트 이미지에 대하여 매우 빠르게 투사될 수 있고, 따라서 시스템 출력 시간이 개선된다.
도 22a는 DLP 프로젝터 시스템의 하나의 예를 나타내는 개략도이다. 시스템(1100)은 광원(1102), 디지털 마이크로거울 소자(1104), 광학 저-통과 필터(optical low-pass filter; OLPF)(1106), 렌즈(1110; 1112)를 포함하는 광학 투사렌즈 조립체(1108)를 포함한다. 시스템(1100)은 공급원 광선 다발(1114), 투사(1116) 및 타깃 표면(1118)을 더 포함한다. 일반적으로 시스템(1100)의 작동은 다음과 같다. 공급원 광선 다발(1114)이 광원(1102)(예를 들어, LED)으로부터 나오고, 디지털 마이크로거울 소자(1104)를 유효하게 조명하기 위하여 공급원 광선 다발(1114)을 수렴하는 집광렌즈(condenser lens)(1103)를 통과한다. 집광렌즈(1103)를 통과한 후에 공급원 광선 다발(1114)은 디지털 마이크로거울 소자(1104)에 떨어지고 그곳으로부터 디지털 투사(1116)로 투사된다. 디지털 투사(1116)는 이하(도 22b) 더 상세히 설명하는 OLPF를 통과하고, 위에 기술한 바와 같이 통상적인 DLP 시스템의 문제를 감소 및/또는 제거하도록 구성된다. 투사(1116)는 투사(1116)를 원하는 수준으로 타깃 표면(1118)에 초점을 맞추기 위하여 배열된 렌즈(1110; 1112)를 포함하는 프로젝터 렌즈 조립체(1108)로 계속한다. 이어서, 투사(1116)는 타깃 표면(1118)으로 나아가고, 그곳으로부터 반사되고 센서(예를 들어, 영상 센서)를 사용하여 타깃 표면(1118)의 차원 프로파일을 생산하는 영상 시스템(예를 들어, 카메라)에 의하여 포획된다. 도 22a에는 설명을 위하여 구성요소의 특정한 배열을 도시하였지만, 시스템(1100)은 추가 디지털 마이크로소자, 추가 렌즈(예를 들어, 형상렌즈), 프로젝터 렌즈 조립체(1108)에 다양한 방식으로 배열된 추가 렌즈, 칼라 필터, 추가 광원 및 시스템을 위하여 필요하거나 바람직한 다른 구성요소 및/또는 소자를 포함하는 임의의 수의 추가 구성요소 및/또는 소자를 포함할 수 있고, 이에 한정되지 않는다.
도 22b는 OLPF의 하나의 예를 나타내는 간략 블록도이다. OLPF(1106)는 복굴절(birefringent) 물질(1120) 및 다른 물질(1128)을 포함한다. 복굴절 물질(1120)은 수정판(quartz plates)(1122), 파장 지연제(wave retarder)(1124) 및 다른 물질(1126)을 포함한다. 일 실시예에서, OLPF(1106)는 복굴절 물질의 층을 구성한다. 일 실시예에서, 수정판(1122)은 디지털 마이크로거울 소자로부터의 포인트를 한 쌍의 포인트로 분할하는 제1 수정판 및 2개 포인트를 4개 포인트로 분할하는 제2 수정판을 포함한다. 일 실시예에서, 파장 지연제(1124)는 이미지(디지털 마이크로거울 소자에 의하여 투사된)의 각각의 카피(copy)의 편광을 원형 편광으로 전환하는 제1 1/4 파장 지연제 및 이미지의 각각의 카피의 편광을 원형 편광으로 전환하는 제2 1/4 파장 지연제를 포함한다. 일 실시예에서, 제2 1/4 파장 지연제는 OLPF(1106)에 의한 광(예를 들어, 투사(1116)) 출력이 원형으로 편광되는 것을 보장한다. 일 실시예에서, OLPF(1106)는 4층의 복굴절 물질을 포함하고, 여기서 제1층은 제1 수정판을 포함하고, 제2층은 제1 1/4 파장 지연제, 제3층은 제2 수정판 그리고 제4층은 제2 1/4 파장 지연제를 포함한다.
복굴절 물질(1120)은 또한 임의의 다른 수의 결정구조를 포함하는 임의의 수의 복굴절 물질을 포함할 수 있고, 이에 한정되지 않는다. OLPF(1106)는 또한 영상 시스템에서 광학 저-통과 여과 및/또는 재구성 여과를 위하여 필요하거나 바람직한 다른 수의 물질 및/또는 구성요소를 포함할 수 있다.
광위상 프로파일 측정 시스템의 수직 해상도는 투사된 높은 주파수에 의하여 제한된다. DLP 위상 프로파일 측정 시스템에서, 주파수는 통상 주기당 약 4 디지털 마이크로거울 소자 픽셀이다. 픽셀 당 1/4 사이클의 주파수는 효과적으로 구형파(square wave)이다. DLP 위상 프로파일 측정 시스템에 OLPF(1106)를 인가함으로써 구형파는 사인파로 변할 수 있다. 구형파로 시작하는 것의 이점은 구형파는 2진(binary) 이미지(예를 들어, 단지 2 레벨)이다. 2진 패턴을 사용함으로써 다른 것, 통상적인 DLP 위상 프로파일 측정 시스템에 비하여 시스템(1100)의 속도를 개선한다. 예를 들어, 8-비트 DLP 이미지는 이미지당 10 밀리초를 필요로 하고, 반면 단일 비트 이미지는 시스템(1100)의 경우에서 1 밀리초 이하로 더 잘 투사될 수 있고, 따라서 이미지 획득의 속도 및 차원 프로파일 출력을 개선한다.
저 주파수 사인파가 필요한 경우에, 추가 비트 레벨이 사인파에 부가될 수 있고, 예를 들어 사이클 당 6 픽셀 사인파는 단 3개 회색도(예를 들어, 0; 0.5; 1.0)로 충분히 투사될 수 있다. 일 실시예에서, 매 n 픽셀을 반복하는 사인파에서, n/2 회색도가 제공된다. 시스템(1100)은 원하는 투사 주파수의 신호 레벨을 최대화하고, 원하지 않는 인공구조(투사 주파수의 고조파(harmonics) 또는 "망사문(screen-door) 효과")를 최소화하도록 구성된다.
도 23은 타깃 표면에 빛을 투사하는 하나의 예를 나타내는 플로우차트이다. 방법(1200)은 블록(1210)에서 시작하고, 빛은 광원을 사용하여 디지털 마이크로거울 소자(DMD)에 투사된다. 빛이 DMD 표면에 도달하기 전에, 먼저 빛은 일 실시예에서 집광렌즈를 포함하는 렌즈 조립체를 통과한다. 빛은 또한 DMD에 이르는 진로 상의 다른 소자 및/또는 구성요소를 통과할 수 있다. 광원은 LED(1214)를 포함한다. 광원은 빛을 DMD에 투사하기 적합한 다른 형태의 광원(1215)을 포함할 수 있다.
방법(1200)은 블록(1220)으로 이어지고, 투사된 빛(투사)은 DMD로부터 타깃 표면 및/또는 대상을 향하여 반사된다. 방법(1200)은 블록(1230)으로 이어지고, 투사된 빛은 DMD로부터 반사된 후에 그러나 타깃 표면 및/또는 대상에 도달하기 전에 여과된다. 이 여과는 OLDF(1231)을 사용하여 이루어질 수 있다. 이 여과는 다른 형태의 필터(1232)를 사용하여 이루어질 수도 있다. 필터는 임의의 수의 파장판(1233), 예를 들어 수정판을 포함할 수 있다. 필터는 임의의 수의 파장 지연제(1233), 예를 들어 수정 파장 지연제를 포함할 수 있다. 필터는 복굴절 물질, 결정구조 및 여과 및/또는 재구성을 위하여 필요하거나 바람직한 다른 물질, 구성요소 및/또는 소자를 포함하는 임의의 수의 물질, 구성요소 및/또는 소자를 포함할 수 있고, 이에 한정되지 않는다. 일 실시예에서, 필터는 복수층으로 구성되는 OLDF 이고, 제1층은 제1 수정 파장판을 포함하고, 제2층은 제1 1/4 파장 지연제, 제3층은 제2 수정 파장판 그리고 제4층은 제2 1/4 파장 지연제를 포함한다. 일 실시예에서, 블록(1230)에서의 필터는 OLDF를 포함할 수 있다.
방법(1200)은 블록(1240)으로 이어지고, 여과된 투사는 타깃 표면 및/또는 대상에 초점이 맞춰진다. 여과된 투사는 우선 렌즈 조립체(1241)를 통과한다. 일 실시예에서, 블록(1241)의 렌즈 조립체는 프로젝터 렌즈 조립체(1108)이다. 여과된 투사는 먼저 개구(1241)를 통과한다. 여과된 투사는 타깃 표면 및/또는 대상에 이르는 진로 상의 임의의 수의 다른 소자 및/또는 구성요소를 통과할 수 있다,
일 실시예에서, 방법(1200)은 픽셀 당 1/4 사이클의 주파수로 반사(투사를 구형파로 반사)하도록 구성된 DMD에 LED로 투사하는 것을 포함한다. DMD로부터의 빛은 이어서 구형파를 사인파로 "재구성"하도록 구성된 OLPF에 의하여 여과된다. OLDF는 DMD로부터의 포인트를 한 쌍의 포인트로 분할하도록 구성된 제1 수정 파장판, 이미지의 각각의 카피의 편광을 원형 편광으로 전환하도록 구성된 제1 1/4 파장 지연제, 2개의 포인트를 4개의 포인트로 분할하도록 구성된 제2 수정 파장판 및 출력 광(예를 들어, OLDF를 통과하고 타깃 표면 및/또는 대상을 향하는)을 원형 편광으로 전환하는 제2 1/4 파장 지연제를 포함하고, 여기서 4개의 포인트는 구형 패턴으로 배열된다. 여과된 빛은 이어서 여과된 빛을 타깃 표면 및/또는 대상에 초점 맞추는 프로젝터 렌즈 조립체를 통과하고, 렌즈 조립체는 제1 볼록 표면을 갖는 제1 렌즈 및 제2 볼록 표면을 갖는 제2 렌즈를 포함하고, 제1 및 제2 볼록 표면은 대향 방향에 마주한다.
통상적인 광위상 프로파일 측정 시스템의 다른 목표는 타깃 경사, 특히 거울 타깃 표면에 관한 것이다. 통상적인 시스템에서, 조명원은 타깃 표면상의 각각의 포인트로부터 나오는 광선 다발의 경계를 정의하는 개구수(numerical aperture)를 갖는다. 일반적으로, 시스템은 비-경사 타깃에서 조명원 동공의 중앙이 영상 시스템의 동공의 중앙과 교차하도록 정렬된다. 그러나 타깃 표면의 경사는 이 정렬을 방해하고, 예를 들어 타깃 표면이 기울어짐에 따라 공급원으로부터의 광선 다발(타깃으로부터 반사로 반사된)은 수신기의 개구를 통과한다. 예를 들어, 타깃 표면이 이상적 평면으로부터 경사지고 삼각측량 각도를 변화시키므로 디플렉토미터(deflectometer) 에러가 발생한다, 이 에러는 반사가 에지(edge)에서 중첩하면 혼합되고 비네팅(vignetting)으로 알려져 있다. 일부 경우에서, 타깃이 매우 경사지면, 반사는 더 이상 중첩하지 않고 오히려 영상 시스템에 보이지 않고, 따라서 타깃 표면의 차원 정보가 발생하지 않는다. 타깃 표면 경사에 의한 이 에러는 미국출원 US 2019-0226835 A1에 설명된다.
디플렉토미터 에러의 예로서, 비-제로 높이(예를 들어 이상적 평면)의 거울 타깃이 경사지면 영상 시스템에 의하여 특정되는 높이는 변한다. 예를 들어, 60° 포함 각도 위상 프로파일 측정 시스템에서, 카메라의 최적 초점에서 1°경사진 1 밀리미터 타깃은 약 40 마이크로미터의 높이 에러를 갖는다,
도 24는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 시스템(1300)은 영상 시스템(1306), 조명원(1308) 및 빔 분할기(1310)를 포함하는 제1 작동 동축 영상 시스템/조명원 쌍(1302)을 포함한다. 시스템(1300)은 영상 시스템(1312), 조명원(1314) 및 빔 분할기(1316)를 포함하는 제2 작동 동축 영상 시스템/조명원 쌍(1304)을 더 포함한다. 작동 쌍(1302; 1304)은 그들의 각각의 영상 시스템(1306; 1312)이 각각의 조명원(1308; 1314)의 광학 경로를 공유하도록 구성된다. 작동 쌍(1302; 1304)은 일 실시예에서 각각의 영상 시스템(1306; 1312) 및 각각의 조명원(1308; 1314)에 대하여 45°각도로 구성된, 각각의 빔 분할기(1310; 1316)를 이용한다. 일 실시예에서, 영상 시스템(1306; 1312)은 카메라를 포함할 수 있다. 일 실시예에서, 영상 시스템(1306; 1312)은 영상 센서를 포함할 수 있다. 일 실시예에서, 조명원(1308; 1314)은 디지털 마이크로거울 소자(DMD) 및 OLPF를 포함하는 DLP 프로젝터를 포함할 수 있다. 시스템(1300)은 타깃 표면(1318), 조명(1320; 1324) 및 반사(1322; 1326)를 더 포함할 수 있다.
시스템(1300)은 작동 쌍(1302; 1304)이 경사 쌍(타깃 표면(1318) 및 법선(예를 들어, 수직)에 대하여 경사 각도로 배치)을 포함하도록 배열된다. 시스템(1300)은 작동 쌍(1302; 1304)이 서로에 대하여 대칭하도록 더 배열된다. 다시 말해서, 타깃 표면(1318) 및 법선에 대한 그들의 경사 각도는 동일하고 대향 방향(예를 들어, 법선의 대향 측면)에 있다. 이와 같은 작동 쌍(1302; 1304)은 대치 채널을 형성한다. 일 실시예에서, 이들은 제1 및 제2 거울 채널을 형성한다. 제1 채널은 조명원(1308)으로부터 투사된 조명(1320) 및 타깃 표면(1318)으로부터 반사된 반사(1322)를 포함한다. 일 실시예에서, 반사(1322)는 거울 반사를 포함한다. 제2 채널은 조명원(1314)으로부터 투사된 조명(1324) 및 타깃 표면(1318)으로부터 반사된 반사(1326)를 포함한다. 일 실시예에서, 반사(1326)는 거울 반사를 포함한다.
시스템(1300)의 정렬구조는 거울 타깃 표면의 경사에 기인한 높이 재구성 에러를 보상하는 이점을 갖는다. 시스템(1300)에서 타깃 경사에 의하여 초래되는 에러는 동일하고 각각의 작동 쌍(1302; 1304)에 대향한다. 따라서, 작동 쌍(1302; 1304)에 의하여 발생된 포인트 클라우드가 결합되면, 타깃 경사에 의하여 초래되는거울 에러는 정정된다. 또한 일 실시예에서, 조명원 및 영상 시스템의 광학 개구(미도시)는 동일하고(예를 들어, 각각의 채널의 개구수는 동등), 거울 에러는 최소화되고, 타깃 표면의 결과적인 표시는 더 정확하다.
도 25는 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 개략도이다. 시스템(1400)은 영상 시스템(1408), 조명원(1410) 및 빔 분할기(1412)를 포함하는 제1 작동 동축 영상 시스템/조명원 쌍(1402)을 포함한다. 시스템(1400)은 영상 시스템(1414), 조명원(1416) 및 빔 분할기(1418)를 포함하는 제2 작동 동축 영상 시스템/조명원 쌍(1404)을 더 포함한다. 시스템(1400)은 영상 시스템(1420), 조명원(1422) 및 빔 분할기(1424)를 포함하는 제3 작동 동축 영상 시스템/조명원 쌍(1406)을 더 포함한다.
작동 쌍(1402; 1404; 1406)은 그들의 각각의 영상 시스템(1408; 1414; 1420)이 각각의 조명원(1410; 1416; 1422)의 광학 경로를 공유하도록 구성된다. 작동 쌍(1402; 1404; 1406)은 일 실시예에서 각각의 영상 시스템(1408; 1414; 1420) 및 각각의 조명원(1410; 1416; 1422)에 대하여 45°각도로 구성된, 각각의 빔 분할기(1412; 1418; 1424)를 이용한다. 일 실시예에서, 영상 시스템(1408; 1414; 1420)은 카메라를 포함할 수 있다. 일 실시예에서, 영상 시스템(1408; 1414; 1420)은 영상 센서를 포함할 수 있다. 일 실시예에서, 조명원(1410; 1416; 1422)은 디지털 마이크로거울 소자(DMD) 및 OLPF를 포함하는 DLP 프로젝터를 포함할 수 있다. 시스템(1400)은 타깃 표면(1426), 조명(1428; 1434; 1438) 및 반사(1430/1440/1450; 1432/1442; 1436/1446)를 더 포함할 수 있다.
시스템(1400)은 6 대치 채널을 형성하도록 배열된다. 일 실시예에서, 4개의 확산 채널 및 2개의 거울 채널이다. 일 실시예에서, 4개의 대치 채널은 공칭 확산 반사를 포획하도록 구성되고, 그리고 2개의 대치 채널은 거울 반사를 포획하도록 구성된다. 시스템(1400)은 작동 쌍(1402; 1406)이 경사 쌍(타깃 표면(1426) 및 법선[예를 들어, 수직 및/또는 일 실시예에서 작동 쌍(1404)])에 대하여 경사 각도로 배치/정렬)을 포함하도록 배열된다. 시스템(1400)은 작동 쌍(1402; 1406)이 서로에 대하여 대칭하도록 배열된다. 다시 말해서, 타깃 표면(1426) 및 법선에 대한 그들의 경사 각도는 동일하고 대향 방향(예를 들어, 법선의 대향 측면)에 있다. 이와 같은 작동 쌍(1402; 1406)은 제1 및 제2 대치 거울 채널을 형성한다. 제1 채널은 조명원(1410)으로부터 투사된 조명(1428) 및 타깃 표면(1426)으로부터 반사된 반사(1432)를 포함한다. 일 실시예에서, 반사(1432)는 거울 반사를 포함한다. 제2 채널은 조명원(1422)으로부터 투사된 조명(1438) 및 타깃 표면(1426)으로부터 반사된 반사(1436)를 포함한다. 일 실시예에서, 반사(1436)는 거울 반사를 포함한다.
시스템(1400)은 4개 이상의 대치 채널이 형성되도록 정렬되고, 2개의 대치 채널은 각각의 경사 쌍(1402; 1406) 및 작동 쌍(1404) 사이에 정렬된다. 작동 쌍(1404)은 타깃(1426)에 대하여 거의 법선(예를 들어, 수직)에 배치/정렬된다. 제3 대치 채널은 조명원(1410)으로부터 투사된 조명(1428) 및 타깃 표면(1426)으로부터 반사된 반사(1440)를 포함한다. 일 실시예에서, 반사(1436)는 확산 반사이다. 제4 대치 채널은 조명원(1416)으로부터 투사된 조명(1434) 및 타깃 표면(1446)으로부터 반사된 반사(1440)를 포함한다. 일 실시예에서, 반사(1446)는 확산 반사이다. 제5 대치 채널은 조명원(1422)으로부터 투사된 조명(1438) 및 타깃 표면(1426)으로부터 반사된 반사(1450)를 포함한다. 일 실시예에서, 반사(1436)는 확산 반사이다. 제6 대치 채널은 조명원(1416)으로부터 투사된 조명(1434) 및 반사(1442)를 포함한다. 일 실시예에서, 반사(1442)는 확산 반사이다.
일 실시예에서, 시스템(1400)의 6개의 모든 채널을 획득하는데 필요한 시간을 최소화하기 위하여, 영상 시스템-조명원 쌍 각각의 시간측정은 번갈아 한다(interlaced). 통상적으로, 영상 시스템(1408; 1414; 1420)은 CMOS 영역 어레이 탐지기로 구성된다. 이 형태의 영상장치는 영상장치의 노출 시간이 영상장치의 프레임 시간(예를 들어, 획득 및 판독 및 이미지)의 적은 단편이 되도록 노출 시간을 제어하는 능력을 갖는다. 예를 들어, 영상 시스템(1408; 1414; 1420)이 초당 50 프레임의 이미지를 획득할 수 있으면, 획득 사이의 시간은 1/50 초 또는 20 밀리초이다. 하나의 영상 시스템으로부터 적어도 2개 이미지를 획득하는 직렬 모드의 6개 채널의 각각으로부터 적어도 하나의 이미지를 획득하기 위하여, 전체 세트의 이미지를 획득하는 시간은 120 밀리초이다(6 이미지 x 20 밀리초). 그러나, 반사(1436; 1446; 1430; 1440; 1450; 1432; 1442)에 충분한 강도가 있으면, 노출 시간은 20 밀리초보다 상당히 짧아질 수 있고, 이미지 획득의 순서는 3개 영상 시스템 사이에 맞춰질 수 있다. 3개의 영상 시스템의 획득 순서를 맞춤으로써, 하나의 영상 시스템의 노출은 다른 영상 시스템에 의하여 필요한 판독 시간과 같은 동일한 시간으로 정해질 수 있고, 실시예에서 120/3 또는 40 밀리초의 전체 획득 시간으로 귀착되는 프레임 시간을 완성한다.
다음은 시스템(1400)의 정렬구조의 획득 시간을 최소화하는 이점을 얻을 수 있는 6개 채널로부터 획득되는 이미지의 격행 트리거링(interlaced triggering) 순서의 예를 나타낸다.
트리거 시간 1: 조명원(1410)이 영상 시스템(1414)을 노출;
트리거 시간 2: 조명원(1416)이 영상 시스템(1420)을 노출;
트리거 시간 3: 조명원(1422)이 영상 시스템(1408)을 노출;
트리거 시간 4: 조명원(1422)이 영상 시스템(1414)을 노출;
트리거 시간 5: 조명원(1410)이 영상 시스템(1420)을 노출;
트리거 시간 6: 조명원(1416)이 영상 시스템(1408)을 노출;
실시예에서, 트리거 이벤트(events) 사이의 시간은 20/3 = 6.6 밀리초이다. 임의의 단일 하나의 영상 시스템 트리거링 사이의 시간은 아직 20 밀리초이고, 6개 모든 이미지의 전체 획득 시간은 6.6 밀리초 x 6 = 40 밀리초이다. 이는 격행(interlacong) 순서의 하나의 예이고, 다른 격행 순서는 본 발명의 범위로부터 벗어나지 않고 사용될 수 있다.
도 26은 광위상 프로파일 측정 시스템의 하나의 예를 나타내는 간략 블록도이다. 시스템(1500)은 조명원(1502), 영상 시스템(1504), 전자장치(1550), 정렬구조(1562), 동력원(1564), 메모리(1565), 사용자 인터페이스(1566), 빔 분할기(1567), 원격장치(1568), 하우징, 디스플레이(1570) 및 기타(1571)를 포함한다. 시스템(1500)은 여기에 설명된 임의의 실시예를 포함하고 임의의 방법을 삽입할 수 있다.
조명원(1502)은 조명 발생기(1512), 렌즈 조립체(1514), 필터(1515), 개구(1516), 하우징(1518) 및 기타를 포함한다. 조명원(1502)은 여기에 기술된 임의의 실시예를 포함할 수 있다. 조명 발생기(1512)는 타깃에 투사되는 조명(예를 들어, 구조화된 또는 패턴화 조명)을 발생하도록 구성된다. 조명 발생기(1512)는 공간 광변조기(spatial light modulator), 구조화 광생성기, DLP 프로젝터, 투과성 액정, 실리콘 상의 액정(LCOS) 또는 구조화 광 패턴을 투사하는 다른 적합한 기술, 디지털 마이크로거울 소자(DMD) 또는 임의의 수의 다른 적합한 조명 발생기를 포함할 수 있다.
렌즈 조립체(1514)는 일반적으로 조명원(1402)으로부터의 조명이 타깃을 향하게 하도록 구성되고, 텔레센트릭 렌즈 조립체, 입사렌즈 및 출사렌즈, 무한대 입사 및 출사 동공, 2개 이상의 렌즈 및 폴리카보네이트, 플라스틱, 폴리머, 유리, 액체 렌즈 물질 및 다른 적합한 물질을 포함하는 다양한 물질로 만들어진 렌즈를 포함할 수 있고 이에 한정되지 않는다. 렌즈 조립체(1514)는 집광렌즈, 프로젝터 렌즈 조립체를 포함할 수 있고, 프로젝터 렌즈 조립체는 제1 볼록 표면을 갖는 제1 렌즈 및 제2 볼록 표면을 갖는 제2 렌즈를 포함하고, 제1 및 제2 볼록 표면은 대향 방향으로 마주한다.
필터(1515)는 일반적으로 조명을 여과 및/또는 재구성하도록 구성된다. 필터(1515)는 OLPF를 포함할 수 있고, 여기서 OLPF는 임의의 수의 복굴절 물질을 포함한다. OLPF는 4층을 포함할 수 있고, 여기서 제1층은 제1 파장판(수정 파장판)을 포함하고, 제2층은 제1 1/4 파장 지연제를 포함하고, 제3층은 제2 파장판(수정 파장판) 그리고 제4층은 제2 1/4 파장 지연제를 포함한다. 필터(1515)는 다른 수의 물질, 구성요소 및/또는 결정구조, 플레이트 등을 포함하는 소자를 포함할 수 있고 이에 한정되지 않는다.
개구(1516)는 조명원(1502)으로부터의 조명이 타깃 표면을 향하도록 구성된다. 개구(1516)는 여기에 기술된 시스템 및 실시예와 같은 광위상 프로파일 측정 시스템에서 다양한 크기를 포함할 수 있다. 일 실시예에서, 각각의 작동 동축 영상 시스템-조명원 쌍의 개구수는 같다. 일 실시예에서, 개구수는 다른 크기이다. 일 실시예에서, 채널(예를 들어 대치, 거울, 확산 등)에서 수신기(예를 들어, 영상 시스템) 개구수는 공급원(예를 들어, 조명원) 개구수보다 적다. 일 실시예에서, 채널(예를 들어 대치, 거울, 확산 등)에서 수신기(예를 들어, 영상 시스템) 개구수는 공급원(예를 들어, 조명원) 개구수보다 크다. 일 실시예에서, 채널(예를 들어 대치, 거울, 확산 등)에서 수신기(예를 들어, 영상 시스템) 개구수는 공급원(예를 들어, 조명원) 개구수와 같다.
하우징(1518)은 조명원(1502)의 몸체를 정의하고 조명원(1502)의 하우스 요소를 수용하도록 구성된다. 하우징(1518)은 플라스틱, 폴리머, 금속 또는 다른 적합한 물질을 포함하는 임의의 물질을 포함할 수 있고 이에 한정되지 않는다. 하우징(1518)은 여기에 기술된 임의의 실시예를 포함할 수 있다. 기타(1522)는 타깃에 구조화 패턴을 투사하기 위하여 조명원에 적합하게 사용될 수 있는 다른 구성요소를 포함할 수 있다.
영상 시스템(1504)은 렌즈 조립체(1528), 개구(1530), 카메라(1532), 영상 평면(1534), 조정장치(1540), 하우징(1542). 센서(1543) 및 기타(1548)를 포함한다. 영상 시스템(1504)은 조명원(1402)으로부터 투사되고 타깃으로부터 반사하는 조명을 수신한다. 렌즈 조립체(1525)는 타깃으로부터 반사된 조명을 영상 시스템(1504)의 내부 구성요소(예를 들어, 카메라(1532), 영상 평면(1534), 센서(1546))로 향하게 구성되고, 텔레센트릭 렌즈 조립체, 입사렌즈 및 출사렌즈, 무한대 입사 및 출사 동공, 2개 이상의 렌즈, 조정 렌즈 및 폴리카보네이트, 플라스틱, 폴리머, 유리, 액체 렌즈 물질 및 다른 적합한 물질을 포함하는 다양한 물질로 만들어진 렌즈를 포함할 수 있고 이에 한정되지 않는다. 렌즈 조립체(1528)는 임의의 수의 프리즘(예를 들어, 761; 762; 763)을 포함할 수 있는 프리즘 조립체(예를 들어, 760)를 포함할 수 있다.
개구(1530)는 타깃으로부터 반사된 조명이 영상 시스템(1504)의 내부 구성요소를 향하도록 구성된다. 개구(1530)는 여기에 기술된 시스템 및 실시예와 같은 광위상 프로파일 측정 시스템에서 다양한 크기를 포함할 수 있다. 일 실시예에서, 각각의 작동 동축 영상 시스템-조명원 쌍의 개구수는 같다. 일 실시예에서, 개구수는 다른 크기이다. 일 실시예에서, 채널(예를 들어 대치, 거울, 확산 등)에서 수신기(예를 들어, 영상 시스템) 개구수는 공급원(예를 들어, 조명원) 개구수보다 적다. 일 실시예에서, 채널(예를 들어 대치, 거울, 확산 등)에서 수신기(예를 들어, 영상 시스템) 개구수는 공급원(예를 들어, 조명원) 개구수보다 크다. 일 실시예에서, 채널(예를 들어 대치, 거울, 확산 등)에서 수신기(예를 들어, 영상 시스템) 개구수는 공급원(예를 들어, 조명원) 개구수와 같다.
일 실시예에서, 개구(1516)와 개구(1530)의 개구수는 같고, 따라서 타깃 경사(예를 들어 디플렉토미터 에러, 비네팅 등)에 기인한 측정 에러를 감소, 보상 및/또는 제거하도록 구성된다.
카메라(1532)는 조명원(1502)에 의하여 투사되고 타깃으로부터 영상 시스템(1504)을 향하여 반사된 조명을 수신한다. 카메라(1532)는 타깃의 이미지를 나타내는 수신된 조명에 기반하여 센서 신호를 발생하도록 구성된 센서(1543)(예를 들어, 영상 센서)를 포함할 수 있다. 영상 평면(1534)은 카메라(1532)의 일부이고, 반사된 조명이 영상 시스템(1504)의 내부 구성요소를 통과한 후에 초점 맞춤되는 카메라의 표면을 정의한다.
조정장치(1540)는 렌즈 조립체(1528) 또는 영상 시스템(1504)의 다른 구성요소의 위치 또는 특징을 바꾸도록 구성된 소자이다. 조정장치(1540)는 렌즈의 위치를 바꾸어 렌즈의 초점 포인트가 변하도록 구성된 기계적인 소자를 포함할 수 있다. 조정장치(1540)는 이미지 획득 사이의 형상을 변화하여 초점 포인트가 변하게 하는 전기-광학 렌즈 소자를 포함할 수 있다. 이 시스템에서, 렌즈의 곡률은 전류를 인가함으로써 조정된다, 조정장치(1540)는 영상 평면(1534)의 위치를 변화하도록 구성된 소자를 포함할 수 있다. 조정장치(1540)는 카메라(1532)의 위치를 변화하도록 구성된 소자를 포함할 수 있다. 조정장치(1540)는 영상 시스템의 초점 위치가 변할 수 있는 다른 적합한 소자, 구성요소 및/또는 기술을 포함할 수 있다.
하우징(1542)은 영상 시스템(1504)의 몸체를 정의하고 영상 시스템(1504)의 구성요소를 수용하도록 구성된다. 하우징(1542)은 플라스틱, 폴리머. 금속 또는 다른 적합한 물질을 포함하는 임의의 물질을 포함할 수 있고 이에 한정되지 않는다. 하우징(1542)은 여기에 기술된 임의의 실시예를 포함할 수 있다.
센서(1543)는 수신된 조명, 타깃 차원 정보, 포획된 이미지 등의 특징을 나타내는 신호를 발생하도록 구성된 임의의 센서를 포함할 수 있다. 기타(1548)는 영상 시스템(1540)이 조명을 수신하거나 또는 타깃에 대한 차원 정보를 얻도록 구성된 다른 적합한 구성요소를 포함할 수 있다.
전자장치(1550)는 통신 회로(1552), 프로세서(1554), 제어기(1556) 및 기타(1560)를 포함한다. 통신 회로(1552)는 시스템(1500)(예를 들어, 조명원(1502) 및 영상 시스템(1504))의 구성요소, 외부 구성요소(예를 들어, 사용자 인터페이스(1566), 원격장치(1568) 및 디스플레이(1570))뿐만 아니라 전자장치(1550)의 다른 구성요소와 통신하도록 구성된다. 통신 회로(1552)는 유선(예를 들어, 유선 루프) 및/또는 무선(와이파이, 블루투스 등) 회로를 포함한다. 프로세서(1554)는 신호(예를 들어, 센서(1543)로부터의 센서 신호) 및 타깃에 대한 다른 입력을 받고, 그 신호 및 입력에 기반하여 타깃에 대한 특징 및/또는 차원 정보(예를 들어, 높이, 슬로프, x 위치, y 위치, z 위치 등)를 결정, 계산 및/또는 발생하도록 구성된다. 일 실시예에서, 프로세서(1554)는 시스템의 각각의 채널(예를 들어, 광학 경로)에 의하여 포획된 타깃에 대한 복수의 표면 포인트를 갖는 포인트 클라우드를 발생하도록 구성되고, 여기서 채널은 적어도 하나의 조명원 및 적어도 하나의 영상 시스템을 포함한다. 프로세서(1554)는 여기에 기술된 영상 시스템(1504)으로부터 획득된 이미지의 수신 및 다수의 계산, 방법 및/또는 기술의 실행을 위하여 하드웨어, 소프트웨어 또는 그 결합에 의하여 적용된다. 예를 들어, 프로세서(1554)는 포인트 클라우드 합병, 반복 조인트 클라우드 개선, 부호 거리 함수, 가중 평균, 동적 보상, 결합, 비교 및 여기에 기술된 다른 계산, 방법 및/또는 기술 또는 결합을 수행할 수 있다.
제어기(1556)는 프로세서(1554) 및 다른 구성요소(예를 들어, 사용자 인터페이스(1566))로부터 신호를 받고, 시스템(1500)의 구성요소에 제어 신호를 발생한다. 일 실시예에서, 제어기(1556)는 임의의 수의 프로세서 또는 프로세서(1554)를 포함하는 마이크로프로세서를 포함할 수 있다. 예를 들어, 제어기(1556)는 프로세서(1554)로부터 교정 프로세스를 시작할 필요(예를 들어, 상대 에러 결정이 한계를 넘고 필드 또는 공장 교정이 필요하다)를 나타내는 출력을 받는다. 그러면 제어기(1556)는 제어 신호를 발생하여 외부 구성요소(예를 들어, 사용자 인터페이스(1566), 원격장치(1568) 및/또는 디스플레이(1570))에 표시, 경고, 알람 또는 시스템(1500)의 다른 상태 표시를 한다(예를 들어, 교정 필요). 다른 실시예에서, 제어기(1556)는 프로세서가 새로운 상대 에러를 결정하라는 제어 신호 및 통신 회로(1552)가 새로운 상대 에러를 메모리(1565)에 저장하라는 제어신호를 발생할 수 있다. 제어기(1556)는 여기에 기술된 방법 및/또는 기술을 위한 제어 신호를 포함하는 임의의 수의 제어 신호를 발생할 수 있다.
다른 실시예에서, 제어기(1556)는 시스템(1500)의 시간 측정(투사 및 획득 시간, 노출 시간 등)을 작동하도록 구성된다, 일 실시예에서, 시스템(1500)의 시간 측정은 번갈아 한다(예를 들어 격행 트리거링 순서). 일 실시예에서, 하나의 영상 시스템의 노출은 다른 영상 시스템에 의하여 필요한 판독 시간과 같은 동일한 시간으로 정해질 수 있고, 프레임 시간을 완성한다. 일 실시예에서, 시스템(1500)을 위한 격행 트리거링 순서는 40 밀리초의 전체 획득 시간으로 귀결된다. 일 실시예에서, 트리거 이벤트 사이의 시간은 6.6 밀리초이다.
정렬구조(1562)는 시스템(1500)의 위치 및 정렬구조이다. 정렬구조(1562)는 조명원(1502) 및/또는 영상 시스템(1504)의 수직 또는 수평 위치를 포함할 수 있다. 정렬구조(1562)는 조명원(1502) 및/또는 영상 시스템(1504)의 방위각(aximuth)또는 광학축을 포함할 수 있다. 정렬구조(1562)는 여기에 예를 들어 도 3a-3b, 4a-4b, 12, 13a-13c, 17, 24 및 25의 정렬구조에 기술된 임의의 시스템, 방법, 기술 또는 실시예를 포함할 수 있다.
동력원(1564)은 시스템(1500)의 구성요소에 동력을 제공하도록 구성된다. 동력원(1564)은 배터리, 전자회로에 유선 연결 또는 시스템(1500)의 구성요소에 동력을 주는 다른 적합한 기술을 포함한다. 또한, 시스템(1500)의 개개의 서브시스템의 각각(예를 들어, 조명원(1502), 영상 시스템(1504, 전자장치(1550))은 서로 독립적으로 동력을 받도록 그들의 고유의 동력원(예를 들어, 배터리 또는 전자회로에 개별 연결)을 포함할 수 있다. 동력원(1564)은 또한 임의의 이들 결합을 포함할 수 있다.
메모리(1565)는 데이터(예를 들어, 타깃에 대한 차원 정보, 계산, 결정, 지시 등), 교정 정보, 시스템 상태 정보 등을 저장하도록 구성된다. 메모리(1565)는 RAM, ROM, 캐시, 동적 RAM, 정적 RAM, 플래시 메모리, 가상 메모리, 비디오 메모리, BIOS 또는 다른 적합한 형태의 메모리를 포함할 수 있다. 메모리(1565)는 바람직하게는 시스템(1500)에 전기적으로 결합된다.
빔 분할기(1567)는 조명원(1502)으로부터의 조명 및 타깃으로부터 반사된 반사를 분할하도록 구성되고, 일 실시예에서 조명원(1502) 및 영상 시스템(1504)은 작동 동축 쌍을 포함한다. 하우징(1569)은 조명원(1502) 및 영상 시스템(1504) 모두를 단일 하우징 내에 수용하도록 구성될 수 있고, 특히 여기에서 작동 동축 조명원/영상 시스템 쌍이 여기에 기술된 실시예와 같이 이용된다. 하우징(1569)은 조명원(1502) 및 영상 시스템(1504)의 몸체를 정의하고, 이들 각각의 내부 구성요소뿐만 아니라 일 실시예에서 빔 분할기(1567)를 수용하도록 구성된다. 하우징(1569)은 플라스틱, 폴리머, 금속 또는 다른 적합한 물질을 포함하는 임의의 물질을 포함할 수 있다. 시스템(1500)은 부호(1571)로 표시한 바와 같이 다른 적합한 구성요소 및/또는 소자를 포함할 수 있다.
사용자 인터페이스(1566)는 사용자 또는 작업자 입력을 수신하도록 구성된다. 사용자 인터페이스(1566)는 터치-스크린 디스플레이, 스위치, 레버 또는 전자 제어 보드, 버튼 또는 사용자 또는 작업자 입력을 수신하는 다른 적합한 기술을 포함할 수 있다. 원격장치(1568)는 제어실의 컴퓨터 또는 유선 루프와 같은 시스템(1500)에 전자적으로 결합되지만 시스템으로부터 떨어진 소자를 포함할 수 있다. 원격장치(1568)는 또한 손안에 드는(handheld) 장치, 랩탑, 타블렛, 외부 컴퓨터 등과 같은 시스템(1500)에 무선 결합된 소자를 포함할 수 있다. 원격장치(1568)는 시스템(1500)에 대한 정보(예를 들어, 타깃, 수행, 분석, 경고, 알람, 통지, 시스템 상태 등에 대한 정보)를 표시, 수신 및 송부하도록 구성될 수 있다. 디스플레이(1570)는 시스템(1500)에 대한 정보를 표시하도록 구성된다. 디스플레이(1570)는 스크린 디스플레이 또는 시스템(1500)의 상태를 표시하도록 구성된 광선(예를 들어 경고등)과 같은 가시(visible) 디스플레이를 포함할 수 있다. 디스플레이(1570)는 시스템(1500)에 대한 정보를 전달하기 위하여 소리를 발생하도록 구성된 가청(audible) 디스플레이를 포함할 수 있다.
시스템(1500)의 어느 또는 모든 구성요소 및/또는 소자는 임의의 구성요소, 소자, 기술, 방법 및/또는 여기에 기술된 실시예 또는 그들의 결합을 포함할 수 있다.
일 실시예에서, 본 발명에 기술된 특정의 실시예는 또한 본 발명에 기술된 에러(예를 들어, 측정 에러)를 감소, 제거, 보상 및/또는 정정하도록 구성된다. 이러한 에러는 타깃 표면의 반사율 기울기, 반짝임, 타깃의 경사 등에 기인한 에러를 포함하고, 이에 한정되지 않는다.
본 발명에 기술한 방법에서는 설명을 위하여 특정한 단계 순서를 나타내었지만 이들 단계의 일부 또는 모두는 동시에, 연속으로, 비-동시에, 비-연속으로 또는 이들의 다른 조합을 포함하는 다른 순서로 수행될 수 있고, 이에 한정되지 않는다.
본 발명은 바람직한 실시예를 참조하여 설명되었지만, 당업자는 본 발명의 사상 및 범주를 벗어나지 않고 형태 및 세부 사항이 변경될 수 있음을 인식할 것이다. 본 발명에 기술한 다른 실시예는 다른 방식을 결합될 수 있다. 즉, 하나 이상의 실시예의 일부는 하나 이상의 다른 실시예의 일부와 결합될 수 있다.
본 발명의 청구범위에 의하여 정의되는 주제는 위에 기술한 특정한 특징으로 한정되지 않고, 위에 기술한 본 발명의 특징은 청구범위를 실현하기 위한 예시 형태이다.

Claims (17)

  1. 제1 대치 채널을 갖는 광위상 프로파일 측정 시스템의 제1 영상 시스템-조명원 쌍에 의하여 생성된, 타깃 표면의 제1 복수의 재구성된 표면 포인트에 대응하는 제1 포인트 클라우드를 생성하는 단계;
    제2 대치 채널을 갖는 광위상 프로파일 측정 시스템의 제2 영상 시스템-조명원 쌍에 의하여 생성된, 타깃 표면의 제2 복수의 재구성된 표면 포인트에 대응하는 제2 포인트 클라우드를 생성하는 단계;
    타깃 표면에 대응하는 볼륨을 복셀 세트로 분할하는 단계;
    제1 및 제2 포인트 클라우드의 각각의 재구성된 표면 포인트에 대하여, 표면 포인트의 부호 거리 함수(SDF) 및 대응 중량을 제1 대치 채널 및 제2 대치 채널 각각의 영상 시스템 광선을 따라 복셀 세트에 부가하는 단계;
    제1 및 제2 포인트 클라우드의 SDF의 레벨 세트를 식별하는 단계; 및
    제1 및 제2 복수의 재구성된 표면 포인트, SDF의 레벨 세트 및 제1 및 제2 영상 시스템-조명원 쌍의 기하구조에 기반하여 최종 포인트 클라우드를 생성하는 단계를 포함하는, 타깃 표면의 차원 정보를 결정하는 방법.
  2. 제1항에 있어서, 상기 최종 포인트 클라우드를 생성하는 단계는 거울 반짝임에 의한 측정 에러를 감소하는, 타깃 표면의 차원 정보를 결정하는 방법.
  3. 제1항에 있어서, 상기 최종 포인트 클라우드를 생성하는 단계는 타깃 표면의 반사율 기울기에 의한 측정 에러를 감소하는, 타깃 표면의 차원 정보를 결정하는 방법.
  4. 제1항에 있어서, 상기 최종 포인트 클라우드를 생성하는 단계는 타깃 표면의 경사에 의한 측정 에러를 감소하는, 타깃 표면의 차원 정보를 결정하는 방법.
  5. 제1항에 있어서, 상기 제1 영상 시스템-조명원 쌍은 제1 작동 동축 카메라-프로젝터 쌍으로부터의 제1 카메라 및 제2 작동 동축 카메라-프로젝터 쌍으로부터의 제1 프로젝터, 그리고 제2 영상 시스템-조명원 쌍은 제2 작동 동축 카메라-프로젝터 쌍으로부터의 제2 카메라 및 제1 작동 동축 카메라-프로젝터 쌍으로부터의 제2 프로젝터를 포함하는, 타깃 표면의 차원 정보를 결정하는 방법.
  6. 제5항에 있어서, 상기 제1 및 제2 작동 동축 카메라-프로젝터 쌍의 적어도 하나는 타깃 표면 및 타깃 표면 법선에 대하여 경사 각도로 정렬되는, 타깃 표면의 차원 정보를 결정하는 방법.
  7. 제6항에 있어서, 상기 제1 및 제2 작동 동축 카메라-프로젝터 쌍의 적어도 하나는 타깃 표면에 대하여 수직으로 정렬되는, 타깃 표면의 차원 정보를 결정하는 방법.
  8. 제1 대치 채널의 포인트 클라우드에서 재구성된 표면 포인트를 생성하는 단계;
    제2 대치 채널의 포인트 클라우드에서 재구성된 표면 포인트를 생성하는 단계;
    제1 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트에 대하여, 제1 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트의 영상 시스템 광선에 가까운 제2 대치 채널의 포인트 클라우드의 재구성된 표면 포인트를 식별하는 단계;
    제2 대치 채널의 포인트 클라우드의 식별된 근접 포인트의 각각의 투사를 제1 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트의 영상 시스템 광선 상에 계산하는 단계;
    제2 대치 채널의 포인트 클라우드의 식별된 근접 포인트의 각각의 평균 투사를 제1 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트의 영상 시스템 광선 상에 계산하는 단계;
    제1 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트는 영상 시스템 광선을 따라 제2 대치 채널의 포인트 클라우드의 식별된 근접 포인트의 각각의 계산된 평균 위치에 대한 거리의 일부를 이동하는 단계;
    제2 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트에 대하여, 제2 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트의 영상 시스템 광선에 가까운 제1 대치 채널의 포인트 클라우드의 재구성된 표면 포인트를 식별하는 단계;
    제1 대치 채널의 포인트 클라우드의 식별된 근접 포인트의 각각의 투사를 제2 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트의 영상 시스템 광선 상에 계산하는 단계;
    제1 대치 채널의 포인트 클라우드의 식별된 근접 포인트의 각각의 평균 투사를 제2 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트의 영상 시스템 광선 상에 계산하는 단계;
    제2 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트는 영상 시스템 광선을 따라 제1 대치 채널의 포인트 클라우드의 식별된 근접 포인트의 각각의 계산된 평균 위치에 대한 거리의 일부를 이동하는 단계를 포함하고; 그리고
    상기 제1 대치 채널은 제1 영상 시스템-조명원 쌍에 의하여 형성되고, 제2 대치 채널은 제2 영상 시스템-조명원 쌍에 의하여 형성되는,
    포인트 클라우드를 합병하는 방법.
  9. 제8항에 있어서, 상기 제1 대치 채널의 재구성된 표면 포인트를 이동하는 단계는 거울 반짝임 측정 에러; 반사율 기울기 측정 에러; 타깃 표면 경사 측정 에러의 적어도 하나를 감소하도록 구성되는, 포인트 클라우드를 합병하는 방법.
  10. 제8항에 있어서, 상기 제1 및 제2 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트를 이동하는 단계는 거울 반짝임에 의한 측정 에러를 감소하도록 구성되는, 포인트 클라우드를 합병하는 방법.
  11. 제8항에 있어서, 상기 제1 및 제2 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트를 이동하는 단계는 타깃 표면의 반사율 기울기에 의한 측정 에러를 감소하도록 구성되는, 포인트 클라우드를 합병하는 방법.
  12. 제8항에 있어서, 상기 제1 및 제2 대치 채널의 포인트 클라우드의 선택된 재구성된 표면 포인트를 이동하는 단계는 타깃 표면의 경사에 의한 측정 에러를 감소하도록 구성되는, 포인트 클라우드를 합병하는 방법.
  13. 제8항에 있어서, 상기 제1 대치 채널은 제1 작동 동축 영상 시스템-조명원 쌍으로부터의 제1 프로젝터 및 제2 작동 동축 영상 시스템-조명원 쌍으로부터의 제1 카메라, 그리고 제2 대치 채널은 제2 작동 동축 영상 시스템-조명원 쌍으로부터의 제2 프로젝터 및 제1 작동 동축 영상 시스템-조명원 쌍으로부터의 제2 카메라를 포함하는, 포인트 클라우드를 합병하는 방법.
  14. 제13항에 있어서, 상기 제1 및 제2 작동 동축 영상 시스템-조명원 쌍의 적어도 하나는 타깃 표면 및 타깃 표면 법선에 대하여 경사 각도로 정렬되는, 포인트 클라우드를 합병하는 방법.
  15. 제14에 있어서, 상기 제1 및 제2 작동 동축 영상 시스템-조명원 쌍의 적어도 하나는 타깃 표면에 대하여 수직으로 정렬되는, 포인트 클라우드를 합병하는 방법.
  16. 제1 대치 채널을 사용하여, 타깃 표면에 대응하는 제1 복수의 표면 포인트를 갖는 제1 포인트 클라우드를 생성하는 단계;
    제2 대치 채널을 사용하여, 타깃 표면에 대응하는 제2 복수의 표면 포인트를 갖는 제2 포인트 클라우드를 생성하는 단계;
    제1 및 제2 포인트 클라우드 각각에 대응하는 비어있지 않은 부분을 결정하는 단계;
    제1 및 제2 포인트 클라우드 각각에 대한 변환을 식별하는 단계;
    제1 및 제2 포인트 클라우드 각각에 대한 최후의 상대 에러가 계산된 이후의 시간의 양이 시간 임계치를 초과하는지를 결정하는 단계;
    식별된 변환에 기반하여 제1 및 제2 포인트 클라우드 각각에 대한 상대 에러를, 시간의 양이 시간 임계치를 초과하는지를 기준으로 하여 결정하는 단계;
    제1 및 제2 포인트 클라우드 각각으로부터 상대 에러를 빼는 단계;
    제1 및 제2 포인트 클라우드를 비어있지 않은 부분에 정렬하는 단계;
    정렬에 기반하여 타깃 표면의 차원 프로파일을 생성하는 단계를 포함하고; 그리고
    상기 제1 대치 채널은 제1 영상 시스템-조명원 쌍에 의하여 형성되고, 제2 대치 채널은 제2 영상 시스템-조명원 쌍에 의하여 형성되는,
    포인트 클라우드를 합병하는 방법.
  17. 제16항에 있어서, 시간의 양이 시간 임계치를 초과하는지를 기준으로 하여,제1 및 제2 포인트 클라우드 각각에 대한 상대 에러를 결정하는 단계는, 시간의 양이 시간 임계치를 초과하면 가장 최근의 상대 에러 및 새로 결정된 상대 에러에 기반하여 제1 및 제2 포인트 클라우드 각각의 상대 에러 평균을 계산하는 것을 더 포함하는, 포인트 클라우드를 합병하는 방법.


KR1020237040736A 2018-10-18 2019-10-18 대치 채널을 갖는 3-차원 센서 KR20230164248A (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201862747350P 2018-10-18 2018-10-18
US201862747353P 2018-10-18 2018-10-18
US62/747,350 2018-10-18
US62/747,353 2018-10-18
US16/655,674 US10883823B2 (en) 2018-10-18 2019-10-17 Three-dimensional sensor with counterposed channels
US16/655,674 2019-10-17
KR1020217013145A KR20210058978A (ko) 2018-10-18 2019-10-18 대치 채널을 갖는 3-차원 센서
PCT/US2019/056921 WO2020081927A1 (en) 2018-10-18 2019-10-18 Three-dimensional sensor with counterposed channels

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020217013145A Division KR20210058978A (ko) 2018-10-18 2019-10-18 대치 채널을 갖는 3-차원 센서

Publications (1)

Publication Number Publication Date
KR20230164248A true KR20230164248A (ko) 2023-12-01

Family

ID=70280552

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020237040736A KR20230164248A (ko) 2018-10-18 2019-10-18 대치 채널을 갖는 3-차원 센서
KR1020217013029A KR102531282B1 (ko) 2018-10-18 2019-10-18 대치 채널을 갖는 3-차원 센서
KR1020217013145A KR20210058978A (ko) 2018-10-18 2019-10-18 대치 채널을 갖는 3-차원 센서

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020217013029A KR102531282B1 (ko) 2018-10-18 2019-10-18 대치 채널을 갖는 3-차원 센서
KR1020217013145A KR20210058978A (ko) 2018-10-18 2019-10-18 대치 채널을 갖는 3-차원 센서

Country Status (8)

Country Link
US (3) US10883823B2 (ko)
EP (3) EP4235573A3 (ko)
JP (3) JP7228690B2 (ko)
KR (3) KR20230164248A (ko)
CN (2) CN112912688B (ko)
SG (2) SG11202103748UA (ko)
TW (2) TWI731443B (ko)
WO (2) WO2020081927A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10883823B2 (en) * 2018-10-18 2021-01-05 Cyberoptics Corporation Three-dimensional sensor with counterposed channels
US20210262787A1 (en) * 2020-02-21 2021-08-26 Hamamatsu Photonics K.K. Three-dimensional measurement device
CN113223135B (zh) * 2021-04-15 2023-04-11 中山大学 一种基于特殊复合平面镜虚像成像的三维重建装置和方法

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US397254A (en) 1889-02-05 Rasp-cutting machine
US3972584A (en) 1971-09-07 1976-08-03 Redifon Limited Compound optical system with image tilt compensation
DE3942896A1 (de) 1989-12-23 1991-06-27 Zeiss Carl Fa Interferometrischer sensor zur messung von abstandsaenderungen einer kleinen flaeche
GB9500943D0 (en) 1994-12-01 1995-03-08 Popovich Milan M Optical position sensing system
US5832107A (en) 1996-09-19 1998-11-03 Optical Gaging Products, Inc. Optical system for stereoscopically measuring feature heights based on lateral image offsets
DE19641168A1 (de) * 1996-10-08 1998-04-09 Wolf Henning Vorrichtung zur Erfassung der Form von Objekten
US6107637A (en) 1997-08-11 2000-08-22 Hitachi, Ltd. Electron beam exposure or system inspection or measurement apparatus and its method and height detection apparatus
JP2001221979A (ja) * 2000-02-08 2001-08-17 Daishinku Corp 光学ローパスフィルタ用偏光解消板及びその偏光解消板を使用した光学ローパスフィルタ
AU2001282842A1 (en) * 2000-08-22 2002-03-04 Agilent Technologies Inc. Three dimensional inspection of leaded ics
US7023432B2 (en) 2001-09-24 2006-04-04 Geomagic, Inc. Methods, apparatus and computer program products that reconstruct surfaces from data point sets
WO2003075076A1 (en) * 2002-02-28 2003-09-12 3M Innovative Properties Company Compound polarization beam splitters
JP2003304437A (ja) 2002-04-10 2003-10-24 Ricoh Co Ltd 画像入力装置
TW576729B (en) 2003-06-12 2004-02-21 Univ Nat Taipei Technology Apparatus and technique for automatic 3-D dental data required for crown reconstruction
JP2006023378A (ja) * 2004-07-06 2006-01-26 Seiko Epson Corp プロジェクタ
SG121898A1 (en) * 2004-10-06 2006-05-26 Generic Power Pte Ltd System for 2-D and 3-D vision inspection
TW200615606A (en) * 2004-10-15 2006-05-16 Seiko Epson Corp Image display device and projector
JP4846295B2 (ja) * 2005-08-02 2011-12-28 株式会社テクノホロン 3次元座標測定装置及び方法
US7929751B2 (en) * 2005-11-09 2011-04-19 Gi, Llc Method and apparatus for absolute-coordinate three-dimensional surface imaging
WO2007073879A1 (de) 2005-12-16 2007-07-05 Automation W + R Gmbh Verfahren und anornung zur erkennung von materialfehlern, in werkstücken
JP2007198841A (ja) * 2006-01-25 2007-08-09 Soatec Inc 光学式測定方法及び光学式測定装置
KR100672818B1 (ko) * 2006-01-26 2007-01-22 주식회사 고영테크놀러지 3차원형상 측정방법
GB2455926B (en) * 2006-01-30 2010-09-01 Axellis Ltd Method of preparing a medical restraint
KR100722245B1 (ko) 2006-03-23 2007-05-29 주식회사 고영테크놀러지 3차원형상 측정장치
JP5057734B2 (ja) * 2006-09-25 2012-10-24 株式会社トプコン 測量方法及び測量システム及び測量データ処理プログラム
DE102006049695A1 (de) * 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
KR20080043047A (ko) 2006-11-13 2008-05-16 주식회사 고영테크놀러지 새도우 모아레를 이용한 3차원형상 측정장치
PE20120627A1 (es) * 2006-12-20 2012-05-26 Scanalyse Pty Ltd Sistema para la medicion del desplazamiento de una superficie relativa a una base de referencia
WO2008124397A1 (en) 2007-04-03 2008-10-16 David Fishbaine Inspection system and method
JP2008256483A (ja) * 2007-04-04 2008-10-23 Nikon Corp 形状測定装置
US7995055B1 (en) * 2007-05-25 2011-08-09 Google Inc. Classifying objects in a scene
WO2009094510A1 (en) 2008-01-25 2009-07-30 Cyberoptics Corporation Multi-source sensor for three-dimensional imaging using phased structured light
WO2009107981A2 (ko) 2008-02-26 2009-09-03 주식회사 고영테크놀러지 3차원형상 측정장치 및 측정방법
US7865316B2 (en) * 2008-03-28 2011-01-04 Lockheed Martin Corporation System, program product, and related methods for registering three-dimensional models to point data representing the pose of a part
US20090287427A1 (en) * 2008-05-16 2009-11-19 Lockheed Martin Corporation Vision system and method for mapping of ultrasonic data into cad space
CN101706264B (zh) * 2009-04-01 2012-11-21 姚征远 投影三维测量装置
US8823775B2 (en) * 2009-04-30 2014-09-02 Board Of Regents, The University Of Texas System Body surface imaging
TWI401409B (zh) * 2009-12-29 2013-07-11 Avermedia Information Inc 具有物體實際尺寸估計功能之實物攝影機
GB2483481A (en) * 2010-09-09 2012-03-14 Phase Vision Ltd Method and apparatus of measuring the shape of an object
JP5624457B2 (ja) 2010-12-28 2014-11-12 株式会社東芝 三次元データ処理装置、方法及びプログラム
KR101245148B1 (ko) 2011-03-10 2013-03-19 주식회사 미르기술 영상 선명도가 개선된 비전검사장치
CN102305601B (zh) * 2011-05-18 2012-10-10 天津大学 光学自由曲面三维形貌高精度非接触测量方法及装置
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
SG11201400794QA (en) * 2011-10-18 2014-06-27 Univ Nanyang Tech Apparatus and method for 3d surface measurement
CN104380036A (zh) 2012-06-13 2015-02-25 株式会社岛精机制作所 用于三维测量装置的合成参数的生成装置
TWI460394B (zh) 2012-07-20 2014-11-11 Test Research Inc 三維影像量測裝置
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US10126252B2 (en) * 2013-04-29 2018-11-13 Cyberoptics Corporation Enhanced illumination control for three-dimensional imaging
US9557630B1 (en) * 2013-06-26 2017-01-31 Amazon Technologies, Inc. Projection system with refractive beam steering
US9759554B2 (en) 2013-08-02 2017-09-12 Omnivision Technologies, Inc. Application specific, dual mode projection system and method
US9574951B2 (en) 2013-09-09 2017-02-21 Semiconductor Components Industries, Llc Image sensor including temperature sensor and electronic shutter function
US20150070468A1 (en) * 2013-09-10 2015-03-12 Faro Technologies, Inc. Use of a three-dimensional imager's point cloud data to set the scale for photogrammetry
US9182583B2 (en) 2013-11-15 2015-11-10 Mitutoyo Corporation Structured illumination microscopy optical arrangement including projection artifact supression element
CN103776390B (zh) * 2014-01-22 2017-05-17 广东工业大学 基于三维自然纹理数据扫描机的多视场数据拼接方法
KR102025038B1 (ko) * 2014-09-11 2019-09-24 사이버옵틱스 코포레이션 3-차원 형상측정에서 복수 카메라 및 광원으로부터의 포인트 클라우드 병합
EP3032241B1 (en) * 2014-12-11 2023-03-01 X-Rite Europe GmbH Method and apparatus for digitizing the appearance of a real material
EP3238447B1 (en) * 2014-12-22 2021-10-27 Cyberoptics Corporation Updating calibration of a three-dimensional measurement system
CN107113409B (zh) * 2014-12-31 2020-01-21 杜比实验室特许公司 用于高动态范围图像投影仪的方法和系统
KR101659302B1 (ko) 2015-04-10 2016-09-23 주식회사 고영테크놀러지 3차원 형상 측정장치
TWI574003B (zh) * 2015-05-21 2017-03-11 正修學校財團法人正修科技大學 銲道三維影像檢測裝置及其檢測方法
US9646410B2 (en) * 2015-06-30 2017-05-09 Microsoft Technology Licensing, Llc Mixed three dimensional scene reconstruction from plural surface models
JP6532325B2 (ja) * 2015-07-09 2019-06-19 キヤノン株式会社 被計測物の形状を計測する計測装置
TWI553304B (zh) * 2015-08-17 2016-10-11 財團法人工業技術研究院 高反光表面冷凝量測系統與方法
CN105222724B (zh) * 2015-09-10 2018-09-18 北京天远三维科技股份有限公司 多线阵列激光三维扫描系统及多线阵列激光三维扫描方法
US10002431B2 (en) * 2015-11-03 2018-06-19 The Boeing Company Locating a feature for robotic guidance
JP6348093B2 (ja) * 2015-11-06 2018-06-27 ファナック株式会社 入力データから検出対象物の像を検出する画像処理装置および方法
CN105526882B (zh) * 2015-12-28 2018-03-02 西南交通大学 基于结构光测量的道岔磨耗检测系统及其检测方法
CN105738915B (zh) * 2016-01-07 2017-09-26 福州华鹰重工机械有限公司 三维雷达测量方法及装置
US9816237B2 (en) 2016-03-15 2017-11-14 Willamette Valley Company Device for reinstatement of a micro-trench
EP3258211B1 (en) * 2016-06-17 2023-12-13 Hexagon Technology Center GmbH Determining object reflection properties with respect to particular optical measurement
KR102579994B1 (ko) 2016-10-24 2023-09-18 삼성에스디에스 주식회사 다중 배경 모델을 이용한 전경 생성 방법 및 그 장치
KR20180053125A (ko) 2016-11-11 2018-05-21 (주) 인텍플러스 3차원 형상 측정 장치 및 측정 방법
US10176589B2 (en) 2017-01-31 2019-01-08 Mitsubishi Electric Research Labroatories, Inc. Method and system for completing point clouds using planar segments
KR102461481B1 (ko) 2018-01-24 2022-10-31 사이버옵틱스 코포레이션 거울 표면을 위한 구조화 광의 투영
US10883823B2 (en) * 2018-10-18 2021-01-05 Cyberoptics Corporation Three-dimensional sensor with counterposed channels
US10867430B2 (en) * 2018-11-19 2020-12-15 Intel Corporation Method and system of 3D reconstruction with volume-based filtering for image processing
US10346998B1 (en) 2019-02-25 2019-07-09 Nurulize, Inc. Method of merging point clouds that identifies and retains preferred points

Also Published As

Publication number Publication date
US10883823B2 (en) 2021-01-05
TWI740237B (zh) 2021-09-21
CN112912688A (zh) 2021-06-04
CN112888913B (zh) 2023-05-02
EP4235573A3 (en) 2023-10-04
WO2020081925A1 (en) 2020-04-23
CN112888913A (zh) 2021-06-01
US20210088328A1 (en) 2021-03-25
EP4235573A2 (en) 2023-08-30
WO2020081927A1 (en) 2020-04-23
KR20210060612A (ko) 2021-05-26
KR20210058978A (ko) 2021-05-24
TW202028694A (zh) 2020-08-01
TW202037881A (zh) 2020-10-16
US20200124407A1 (en) 2020-04-23
SG11202103684TA (en) 2021-05-28
EP3867596A1 (en) 2021-08-25
JP7228690B2 (ja) 2023-02-24
EP3867596A4 (en) 2022-11-16
SG11202103748UA (en) 2021-05-28
EP3867597A1 (en) 2021-08-25
US20200124410A1 (en) 2020-04-23
US11604062B2 (en) 2023-03-14
JP2022505302A (ja) 2022-01-14
JP2024029135A (ja) 2024-03-05
EP3867597A4 (en) 2022-06-22
US11029146B2 (en) 2021-06-08
JP7413372B2 (ja) 2024-01-15
CN112912688B (zh) 2023-11-03
JP2022505166A (ja) 2022-01-14
TWI731443B (zh) 2021-06-21
EP3867597B1 (en) 2023-09-20
KR102531282B1 (ko) 2023-05-10

Similar Documents

Publication Publication Date Title
US20230236434A1 (en) System and method for reduced-speckle laser line generation
US20200166333A1 (en) Hybrid light measurement method for measuring three-dimensional profile
US10282855B2 (en) Determining object properties with respect to particular optical measurement
JP5055191B2 (ja) 3次元形状計測方法および装置
US11604062B2 (en) Three-dimensional sensor with counterposed channels
JP5016520B2 (ja) 3次元形状計測方法および装置
US10648789B2 (en) Method for monitoring linear dimensions of three-dimensional objects
CN111656260B (zh) 用于镜像表面的结构式光投射
JP2016008837A (ja) 形状測定方法、形状測定装置、構造物製造システム、構造物製造方法、及び形状測定プログラム

Legal Events

Date Code Title Description
A107 Divisional application of patent