KR20130032351A - 측정 대상 표면에 대한 3d 좌표들을 결정하기 위한 광학 측정 방법 및 측정 시스템 - Google Patents

측정 대상 표면에 대한 3d 좌표들을 결정하기 위한 광학 측정 방법 및 측정 시스템 Download PDF

Info

Publication number
KR20130032351A
KR20130032351A KR1020137000016A KR20137000016A KR20130032351A KR 20130032351 A KR20130032351 A KR 20130032351A KR 1020137000016 A KR1020137000016 A KR 1020137000016A KR 20137000016 A KR20137000016 A KR 20137000016A KR 20130032351 A KR20130032351 A KR 20130032351A
Authority
KR
South Korea
Prior art keywords
measurement
image sequence
measuring
projector
measured
Prior art date
Application number
KR1020137000016A
Other languages
English (en)
Other versions
KR101458991B1 (ko
Inventor
크누트 지에르크스
Original Assignee
라이카 게오시스템스 아게
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라이카 게오시스템스 아게 filed Critical 라이카 게오시스템스 아게
Publication of KR20130032351A publication Critical patent/KR20130032351A/ko
Application granted granted Critical
Publication of KR101458991B1 publication Critical patent/KR101458991B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/60Systems using moiré fringes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/52Combining or merging partially overlapping images to an overall image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N2021/0181Memory or computer-assisted visual determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • G01N2021/8893Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques providing a video image and a processed signal for helping visual decision

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 측정 대상 표면(1s)의 다수의 측정 지점들에 대한 3D 좌표들을 결정하기 위한 광학 측정 방법에 관한 것이다. 이러한 목적을 위해, 측정 대상 표면(1s)은 프로젝터(3)를 이용하여 다양한 패턴들(2a, 2b)의 패턴 시퀀스로 조사되고, 패턴 시퀀스로 조사되는 측정 대상 표면(1s)의 이미지 시퀀스는 카메라 시스템(4)으로 기록되고, 측정 지점들의 3D 좌표들은 이미지 시퀀스의 평가에 의해 결정된다. 본 발명에 따르면, 이미지 시퀀스가 기록되는 동안, 적어도 이미지 시퀀스의 개개의 이미지들의 조사 시간들 동안, 프로젝터(3), 카메라 시스템(4) 및/또는 상기 측정 대상(1)의 병진 및/또는 회전 가속도들은 각각의 경우에, 이미지 시퀀스의 각각의 개개의 이미지들의 조사 시간들 중, 가속도들에 대한 복수의 값들, 특히 다수의 값들이 획득된다. 따라서, 측정된 가속도들에 기초하여, 3D 좌표들을 결정할 때, 프로젝터(3), 카메라 시스템(4) 및/또는 측정 대상(1)의 움직임들을 알고리즘적으로 고려하는 것이 가능하고, 움직임들은 이미지 시퀀스의 각각의 개개의 이미지들의 조사 시간들 동안 일어나고 이미지 시퀀스의 각각의 개개의 이미지들에서 불안정함 및/또는 모션 블러를 초래한다.

Description

측정 대상 표면에 대한 3D 좌표들을 결정하기 위한 광학 측정 방법 및 측정 시스템{Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface}
본 발명은 청구항 1의 전제부에 따른 측정 대상 표면의 다수의 측정 지점들의 3D 좌표들을 결정하기 위한 광학 측정 방법 및 청구항 9의 전제부에 따른 이와 같은 목적을 위해 구성되는 측정 시스템에 관한 것이다.
이러한 유형의 장치 및 방법들은 특히 기계 공학, 자동차 공학에서, 요업(ceramics industry), 신발 산업, 보석류 산업, 치과 기술(dental technology) 및 인간 의술(정형외과술) 및 다른 영역들에서 사용되고, 예를 들어 품질 제어, 분해 공학(reverse engineering), 쾌속 시제품화(rapid prototyping), 고속 밀링 또는 디지털 모형(digital mock-up)에서 용도를 찾을 수 있다.
운영 제조 공정(running production process)에서 크게 완전한 품질 제어를 위한 그리고 원형들(prototypes)의 공간 형상의 디지털화를 위한 증가하는 수요들은 표면 지형의 기록이 증가하는 주파수를 갖는 측정 태스크로 되는 것을 의미한다. 여기서 목적은 단기 내에 측정될 물체들의 표면의 개개의 지점들의 좌표들을 결정하는 것이다.
예를 들어 포터블, 휴대형 및/또는 고정 장착된 시스템으로서 구성될 수 있는 측정 대상들의 3D 좌표들을 결정하기 위한, 종래 기술로 알려져 있는, 이미지 시퀀스들을 이용하는 측정 시스템들은 여기서 일반적으로 패턴으로 측정 대상을 조사하기 위한 패턴 프로젝터를 가지며, 그러므로 종종 또한 패턴-투영 3D 스캐너들 또는 라이트 구조 3D 스캐너들로서 불린다. 측정 대상의 표면 위로 투영되는 패턴은 측정 시스템의 추가 구성 부분으로서 카메라 시스템에 의해 기록된다.
따라서, 측정의 부분으로서, 프로젝터는 측정 대상을 시간적으로 연속하여(time-sequentially) 상이한 패턴들(예를 들어 상이한 폭들의 평행한 명암 스트라이프들, 스트라이프 패턴은 특히 또한 예를 들어 90°회전될 수 있음)로 조사된다. 카메라(들)은 투영(projection)에 대해 알려진 관측 각도로 투영된 스트라이프 패턴을 등록한다. 각각의 카메라로, 하나의 이미지가 각각의 투영 패턴에 대해 기록된다. 따라서, 상이한 휘도값의 타임 시퀀스가 모든 카메라들의 각 화소에 대해 생성된다.
그러나, 스트라이프들에 더하여, 또한 대응하는 다른 패턴들, 예컨대 예를 들어 랜덤 패턴들, 의사코드들 등이 투영되는 것이 가능하다. 이것에 적합한 패턴들이 종래 기술로부터 이 기술분야에서 숙련된 사람에게 충분히 알려져 있다. 의사코드들은 예를 들어 매우 미세한 스트라이프들의 투영에서 점점 더 곤란하게 되는, 물체 포인트들의 절대 관련(absolute association)을 더 용이하게 한다. 따라서, 이러한 목적을 위해, 먼저 하나 이상의 의사코드들을 고속으로 연속해서 투영하고 이후 미세 스트라이프 패턴을, 또는 연속 기록들로, 시퀀스에서 점점 더 미세하게 되는 상이한 스트라이프 패턴들을, 측정 대상 표면 위의 측정 지점들의 해상도의 원하는 정밀도가 달성될 때까지 투영하는 것이 가능하다.
이후 측정 대상 표면의 3D 좌표들이 사진측량 및/또는 스트라이프 투영으로부터 이 기술분야에서 숙련된 사람에게 알려진 방법들에 따라 이미지 처리를 이용하여 기록된 이미지 시퀀스로부터 계산될 수 있다. 예로서, 이와 같은 측정 방법들 및 측정 시스템들은 WO 2008/046663, DE 101 27 304 A1, DE 196 33 686 A1 또는 DE 10 2008 036 710 A1에 기재되어 있다.
카메라 시스템은 전형적으로 측정 중 서로에 대해 알려진 공간 위치에 위치된 하나 이상의 디지털 카메라들을 포함한다. 서로에 관해 카메라들의 안전한 위치치를 보장하기 위해, 이들은 보통 알려진 공간 포지셔닝 및 정렬로, 하나의 공통 하우징에 함께 고정되어 통합되고, 특히 여기서 카메라들은 개개의 카메라들의 시야들이 대체로 교차하도록 정렬된다. 여기서, 2개 또는 3개의 카메라들이 종종 사용된다. 이 경우 프로젝터는 카메라 시스템(만약 별도의 카메라들이 또한 카메라 시스템의 이용 가능한 카메라들의 부분에만 사용되면)에 고정적으로 연결될 수 있고 또는 카메라 시스템으로부터 완전히 분리되어 위치될 수 있다.
일반적인 경우, 즉 카메라 시스템에 대해 프로젝터의 상대 포지셔닝 및 정렬이 서로에 대해 고정되고 그러므로 미리 이미 알려져 있지 않은 경우에 표면 영역의 원하는 3차원 좌표들이 2단계로 계산된다. 제 1 단계에서, 프로젝터의 좌표들은 다음과 같이 결정된다. 주어진 물체 지점에서, 카메라 이미지에서의 이미지 좌표들이 알려져 있다. 프로젝터는 역전 카메라(reversed camera)에 대응한다. 다수의 스트라이프가 각각의 카메라 화소에 대한 이미지 시퀀스로부터 측정된 연속의 휘도값으로부터 계산될 수 있다. 가장 단순한 경우에, 이것은 프로젝터의 이산 좌표(discrete coordinate)로서 스트라이프의 수를 특징 짓는, 이진 코드(예를 들어 그레이 코드)를 통해 실행된다. 따라서, 위상 이동 방법으로 알려진 것으로 고도의 정확도를 달성하는 것이 가능한 데, 그 이유는 그것이 비-이산 좌표를 결정할 수 있기 때문이다. 그것은 그레이 코드의 보완(supplementation)으로 또는 절대 측정 헤테로다인법(absolute measuring heterodyne method)으로서 사용될 수 있다.
프로젝터의 위치가 이렇게 결정된 후 또는 카메라 시스템에 대한 그것의 위치가 이미 미리 알려진 경우에, 예를 들어 교차법으로 - 다음과 같이 측정 대상 표면 위의 측정 지점들의 3D 좌표들을 확인하는 것이 가능하다. 프로젝터에 있어서의 스트라이프 수는 카메라에서의 이미지 좌표에 대응한다. 스트라이프 수는 공간에서의 광 평면을 특정하고, 이미지 좌표는 광 비임을 특정한다. 알려진 카메라 및 프로젝터 위치로, 평면 및 직선의 교차점이 계산될 수 있다. 이것은 센서의 좌표계에서의 물체 지점의 원하는 3차원 좌표이다. 모든 이미지 레이들(rays)의 기하학적 위치가 정확히 알려져야 한다. 비임들은 사진측량으로부터 알려진 교차를 이용하여 정확하게 계산하다.
3D 좌표들의 계산을 위한 이러한 측정 방법에서 더 양호한 정확도들을 달성하기 위해, 이미지의 왜곡들을 생기게 하는 실제 렌즈계들의 비이상 특성들이 왜곡 보정에 의해 적응될 수 있고 및/또는 이미징 특성들의 정확한 교정이 일어날 수 있다. 프로젝터 및 카메라들의 모든 이미지 특성들이 이 기술분야에서 숙련된 사람에게 알려진 교정 프로세스들의 과정(예를 들어 일련의 교정 기록들)에서 측정될 수 있고, 이들 이미징 특성들을 기술하는 수학적 모델이 그로부터 발생될 수 있다(사진측량법들 - 특히 번들링 등화 계산(bundling equalization calculation)을 이용하여 - 이미징 특성들을 정의하는 파라미터들이 예를 들어 일련의 교정 기록들로부터 결정된다).
요약하면, 패턴 투영 방법에서 또는 라이트 구조 3D 스캐너들에서, 라이트 패턴들의 시퀀스에 의한 물체의 조사가 삼각측량(교차)의 도움으로 측정 영역에서 측정 지점들의 명확한 깊이 결정을 가능하게 하기 위해 필요하다. 따라서, 대응하는 상이한 패턴 투영들(즉, 대응하는 일련의 패턴들)에 의한 측정 대상의 조사하에서의 보통 복수의 기록들(즉, 일련의 이미지들)이 측정 결과에 대해 충분히 높은 정확도를 보장하기 위해 필요하다. 종래 기술로부터 알려진 휴대형 시스템에 있어서, 예를 들어 WO 2008/046663에 기재된 측정 장치에서, 여기서 조사 시퀀스는 일련의 이미지들의 기록 중 조작자에 의한 움직임이 측정 에러들을 생기게 하지 않도록 아주 신속하게 일어나야 한다. 개개의 투영의 카메라들에 의해 기록된 화소들은 충분한 정확도로 서로에 대해 할당될 수 있어야 한다. 따라서, 이미지 시퀀스는 조작자에 의해 야기된 패턴 또는 이미지 이동보다 더 빠르게 일어나야 한다. 프로젝터의 방출 가능한 광에너지가 이용 가능한 광원들에 의해 그리고 방사 방지 조절들에 의해 제한되므로, 이것은 카메라 시스템에서의 검출 가능한 에너지의 제한을 야기하고 따라서 약 반사성 측정 대상 표면들에 대한 측정 제한을 야기한다. 프로젝터들은 투영 속도(이미지 레이트)의 면에서 더 제한된다. 이와 같은 프로젝터들의 전형적인 최대 이미지 레이트들은 예를 들어 약 60 Hz이다.
일련의 패턴들의 투영 및 카메라 시스템에 의한 각각의 패턴들의 이미지 시퀀스의 기록을 포함하는 측정 동작을 위해, 예를 들어 대략 200 ms의 측정 지속기간이 통상의 측정 장치들에서 필요하다(일례: 이미지 당 20 ms 내지 40 ms의 노출 지속기간을 갖는 8로부터 10까지의 이미지들의 시퀀스들을 기록하기 위해, 예를 들어 측정 위치 당 160 ms와 400 ms 사이의 전체 기록 시간들 또는 측정 지속기간들이 생길 수 있다).
안정성이 불충분한 경우에 또는 카메라 장치, 프로젝터(또는 적당하다면, 통합 방식으로 카메라 장치 및 프로젝터를 포함하는 측정 헤드의) 및 측정 동작 중(측정 위치에서의) 서로에 대한 측정 대상의 불충분하게 높은 위치 및 정렬 안정성의 경우에, 다양한 바람직하지 않은 효과들이 일어나서, 평가를 더 어렵고, 더 복잡하고, 심지어 불가능하게 하고, 또는 적어도 얻을 수 있는 정확도에 악영향을 줄 수 있는 효과들이 생길 수 있다.
카메라 장치, 프로젝터(또는, 적절하다면, 통합 방식으로 카메라 장치 및 프로젝터를 포함하는 측정 헤드의) 및 측정 대상의 만족스럽지 못한 불안정함은 여기서 다양한 원인들을 가질 수 있다.
먼저, 측정 환경에서의 진동들(예를 들어 만약 측정들이 생산 라인에 통합된 제조 스테이션에서 행해지면)은 측정 대상의 홀더(holder) 또는 측정 헤드를 고정하는 로봇 아암에 전달될 수 있고 그에 따라 교란 요동들(disturbing oscillations)을 일으킬 수 있다. 그러므로, 요동 댐핑(oscillation damping)에 대해 복잡한 측정들이 훨씬 더 필요하고, 또는 특정 측정 공간들로 이동시킬 필요가 있고, 그러나 이것은 제조 공정을 상당히 더 복잡하게 한다(생산 라인으로부터의 측정 대상의 제거 및 특히 측정 공간을 위해 설계된 측정 공간으로의 측정 대상의 전송이 필요하므로).
휴대형 시스템들에 있어서, 불만족러운 불안정함의 주된 원인은 특히 인간 사용자의 손에서의 자연스런 떨림이다.
서로에 대해 카메라 장치, 프로젝터 및 측정 대상의 위치 및 방향 안정성의 부족에 의해 야기될 수 있는, 여기서 언급된 부정적인 효과들은 먼저 이미지 시퀀스의 개개의 기록된 이미지들에서의 모션 블러 및/또는 카메라 흔들림이다.
둘째, 그러나, 측정 대상에 대한 이미지들 각각의 기록 위치들 및 방향들(즉, 이미지 시퀀스 내의 개개의 이미지들에서의 기록 위치들 및 방향들에서의 가변성)에 대한 서로에 대한 이미지 시퀀스의 개개의 이미지들의 불일치들(unconformities)이 발생할 수 있고, 그 결과 측정 대상 표면 위에 동일한 측정 지점들을 갖는 개개의 이미지들에서의 화소들의 각각의 관련이 전부 불가능하게 되고 또는 거대하게 높은 계산 복잡도 및 측정 대상 표면의 동일한 영역의 다수의 이미지들로부터의 정보의 포함에 의해서만 가능하게 될 수 있다(즉, 그것은 나중에 계산적 방식으로 개개의 이미지들에 공간 관계가 생길 필요가 있을 수 있고, 이것은 매우 노동 집약적이고, 이것은 지금까지, 부분적으로 이러한 효과에 대한 예방 방법으로서, 이미지 시퀀스 당 초과 이미지들이 기록되기 때문이며, 이것은 주로 서로 중 개개의 이미지들의 기록 위치들 및 방향들의 공간 관계를 다시 계산하기 위해서만 기능한다).
특정 대상 위의 측정 영역을 확장하기 위해(예를 들어 대상을 전부 측정하기 위해), 빈번하게 연속의 복수의 측정들(여러 측정 위치들로부터 및 측정 대상에 대해 카메라들의 상이한 관측 각도들에서)이 필요하고, 여기서 여러 측정들의 결과들은 나중에 서로 링크된다. 이것은 예를 들어 각각의 측정 동작들에서 중첩식(overlapping fashion)으로 각각의 경우에 선택되는 캡쳐링 영역들에 의해 그리고 수개의 측정 동작들(즉, 포인트 클라우드들)에서 얻어진 3D 좌표들을 함께 대응적으로 연결(joining)하는 데 사용되는 각각의 중첩에 의해 일어날 수 있다(개개의 측정 동작들에서 결정되는 포인트 클라우드들에서의 동일 또는 유사 분포들이 식별되고 그에 따라 포인트 클라우드들이 함께 연결될 수 있다).
그러나, 이러한 연결 동작은 일반적으로 특히 계산의 면에서 많은 주의를 기울려야 하고 가장 높은 프로세서 파워들이 이용 가능할지라도 시간 및 에너지 면에서 중요하지 않고 교란시키어 높은 경비를 필요로 한다. 따라서, 예를 들어 로봇 아암이 측정 헤드를 고정 및 안내하기 위해 사용될 경우, 연결 동작을 위해 필요한 계산 비용의 감소는 각각의 로봇 아암 위치에 기초하여 개개의 측정들에서 기록 위치들 및 방향들을 캡쳐링하고 이전 정보로서(예를 경계 조건들로서) 연결하기 위해 이들을 이용하여 달성될 수 있다.
이 경우의 문제점은 측정 위치가 로봇 아암 위치에 기초하여 결정 가능한 상대적으로 낮은 정확도에 있고, 그럼에도 불구하고 이와 같은 로봇 아암이 존재하는 요건에 있다. 따라서, 복수의 측정 동작들의 측정 결과들을 함께 연결하는 데 필요한 계산 능력은 휴대형 측정 시스템들에 대한 이러한 방식으로 감소될 수 있다.
패턴 조사를 위해 실질적으로 간섭 광 방사를 이용하는 종래 기술의 시스템들의 다른 문제점들은 - 패턴 시퀀스의 각각의 패턴들에서 일어나는 원치 않는 스펙클 필드들로 인한 - 로컬 측정 부정확성들 또는 측정 지점 간격들이다.
그러므로, 본 발명이 기초하는 기술적 목적은 측정 대상 표면 위의 3D 좌표들을 결정하기 위해, 이미지 시퀀스들을 이용하는, 개선된 광학 측정 방법 및 측정 시스템의 제공이고, 여기서 하나 이상의 상기 문제점들이 감소 또는 제거될 수 있다.
여기서 본 발명의 더 구체적인 목적들은 측정 동작 중(즉, 패턴 시퀀스 투영 및 이미지 시퀀스 기록 중) 종래 기술(예를 들어 원치 않는 요동들, 진동들 또는 불안정함으로 인한)로부터 알려진 측정 시스템들에 대한 불만족스러운 프로젝터, 카메라 시스템 및/또는 측정 대상의 위치 안정의 경우에도 3D 좌표들의 더 정밀한 결정을 가능하게 한다. 특히, 여기서 의도는 먼저 이미지 시퀀스의 개개의 이미지들에서 카메라 흔들림 및/또는 모션 블러에 의해 야기되는 3D 좌표들의 결정에서의 에러들 또는 부정확성을 감소시킬 수 있는 것이다. 둘째, 목표는 또한 불안정한 경우에 발생하는 서로에 대한 이미지 시퀀스의 이미지들에서 기록-위치 및 기록-방향 가변성에 의해 야기되는 에러들을 감소 또는 제거할 수 있는 것이다.
패턴들을 투영하기 위해 가간섭성 소스(coherent source)를 이용할 때의 더 구체적인 목적은 측정 대상 표면 상의 패턴에서 발생하는 스펙클들에 의해 야기되는 국부적 측정 간격들 또는 국부적 측정 부정확성들의 감소이다.
특히 휴대형 측정 시스템들을 위한 더 구체적인 목적은 복수의 측정 동작들의 측정 결과들(예를 들어 그로부터 생성된 포인트 클라우드들)을 함께 연결하는 것 및/또는 이와 같은 연결에 필요한 계산 능력의 감소를 가능하게 하는 것의 단순화이다.
이들 목적들은 종속 청구항들의 특징적인 특징들의 구현에 의해 달성된다. 대안의 또는 유리한 방식으로 본 발명을 발전시키는 특징들은 종속 청구항들로부터 이해될 수 있다.
본 발명은 측정 대상 표면의 3D 좌표들을 결정하기 위해, 이미지 시퀀스들을 사용하는 패턴-투영 측정 방법 및 상기 목적을 위해 구성되는 측정 시스템에 관한 것이다.
본 발명의 상황(context)에서, 측정 동작 - 즉 이미지 시퀀스를 기록할 때 - 패턴 프로젝터, 카메라 시스템(예를 들어, 적절하다면, 통합 방식으로 카메라 장치 및 프로젝터를 포함하는 측정 헤드의) 및/또는 측정 대상의 병진 및/또는 회전 가속도들이 관성 센서들을 이용하여 측정되고, 측정된 가속도들은 3D 좌표들의 결정 시 고려된다.
더 상세한 설명에서, 본 발명에 따르면, 이미지 시퀀스의 개개의 이미지들의 노출 시간들 동안, 병진 및/또는 회전 가속도들은 각각의 경우에 이미지 시퀀스의 각각의 개개의 이미지들의 노출 시간들 동안, 가속도들에 대한 복수의 값들, 특히 다수의 값들이 캡쳐되는 적어도 이와 같은 측정 속도로 이미지 시퀀스의 기록 동안 측정된다. 이것에 기초하여, 본 발명에 따르면, 이미지 시퀀스의 각각의 개개의 이미지들의 노출 시간들 동안 발생하고 따라서 이미지 시퀀스의 각각의 개개의 이미지들에서 카메라 흔들림 및/또는 모션 블러를 초래하는 프로젝터, 카메라 시스템 및/또는 측정 대상의 움직임들이 3D 좌표들의 결정 시 측정된 가속도들에 기초하여 알고리즘적으로 고려된다.
특히, 측정된 가속도들에 의존하여, 이미지 시퀀스의 각각의 개개의 이미지들의 노출 시간들 동안 발생하는 프로젝터, 카메라 시스템 및/또는 측정 대상의 움직임들에 의해 야기되는 카메라 흔들림 및/또는 모션 블러의 보상 및/또는 보정이 이미지 시퀀스의 개개의 이미지들에서 각각 이루어진다.
이러한 목적을 위해, 관성 센서들은 카메라 시스템, 프로젝터 및/또는 측정 대상 위에 배열될 수 있고, 여기서 관성 센서들은 특히 통합된 관성 측정 유닛으로서 함께 구성된다.
카메라 시스템 및 프로젝터의 구체적인 변형예에 의존하여, 관성 센서들은 이러한 경우에 카메라 시스템 및/또는 프로젝터의 구성요소들을 포함하는 하우징에 적절히 통합될 수 있다. 카메라 시스템(카메라 장치로서도 불림)은 예를 들어 - 종래 기술로부터 이미 알려져 있는 것과 같이 - 공통 하우징에서 서로에 대해 고정 및 알려진 위치 및 방향으로 배열되고 개개의 이미지들의 실질적으로 동시 기록을 위해 구성되는 1, 2, 3, 4개 이상의 카메라들로 구성될 수 있다. 대안으로, 카메라 장치의 개개의 카메라들은 또한 각각의 경우에 전용 하우징으로 서로로부터 물리적으로 분리되도록 구성될 수 있지만, 전용 하우징은 일반적으로 이미지 시퀀스들의 평가를 어렵게 하는 데, 그 이유는 그 경우에 서로에 대한 카메라들의 상대 공간 관계가 미리 규정되지 않기 때문이다(통상의 경우에 이미지 시퀀스들의 평가시 계산 비용의 증가를 야기한다. 게다가, 휴대형 시스템들에서 물리적으로 분리된 카메라들의 경우에, 복수의 분리 장비 아이템들이 보유되고 고정되는 것이 사용 중 곤란하다. 이들 2가지 이유들 때문에, 카메라 시스템은 - 특히 로봇 아암 위에 장착되도록 구성된 휴대형 시스템들 또는 시스템들에서 - 측정 시스템의 공통 측정 헤드에서 물리적으로 서로에 대해 고정 및 알려진 위치 및 방향을 갖는 프로젝터와 함께 수용될 수 있고, 여기서, 그 경우에 본 발명에 따르면, 관성 센서들 또는 관성 측정 유닛이 또한 배열될 수 있다.
마찬가지로, 관성 센서들의 그룹은 - 대안으로 또는 부가적으로 - 측정될 물체 위에 장착되도록 구성될 수 있고, 그룹은 3D 좌표 결정에서 고려되도록 하기 위해 측정 시스템의 평가 유닛에 측정된 가속도들(또는 이미 움직임으로부터 또는 심지어 위치들 및 정렬들로부터 유도되는)을 전달한다.
특히, 여기서 관성 센서들은, 관성 측정 유닛이 가속도를 모든 6자유도로 특히 대략 50과 2000 Hz 사이의 측정 속도로 측정하기 위해 구성되도록 MEMS-기반 구성요소들(MEMS는 마이크로 전자 기계 시스템을 의미함)에 기초한 관성 측정 유닛으로 결합되고 통합된다.
이 기술 분야에서 숙련된 사람에게 알려져 있는 것과 같이, 여기서 6자유도의 가속도들은 일반적으로 관성 측정 유닛(IMU)에서 복수의 관성 센서들의 대응하는 조합에 의해 다음과 같은 센서 유형들을 이용하여 측정될 수 있다:
3개의 직교하여 배열된 가속도 센서들(병진 센서들로서도 불림)은 x 또는 y 또는 z 축에서 선형 가속도를 검출한다. 이것에 기초하여, 병진 움직임(및 상대 위치)임 계산될 수 있다. 3개의 직교하여 배열된 회전 속도 센서들(자이로스코프 센서들로도 불림)은 x 또는 y 또는 z 축에 대한 각가속도를 측정한다. 이것에 기초하여, 회전 운동(및 상대 정렬)이 계산될 수 있다.
소형화 장비 또는 조립체들로서 구성되는 MEMS-기반 구성요소들에 기초한 이와 같은 관성 측정 유닛들은 종래 기술로부터 이미 충분히 알려져 있고 대규묘 제조에서 장시간 동안 제조되어 왔다..
특정 동작 중 - 또는 추가로 또한 복수의 측정 동작들 사이에서 - 검출되는 카메라 시스템, 프로젝터 및/또는 측정 대상의 가속도들은 본 발명에 따라 여기서 다양한 목적들 및 다양한 양상들을 개선하기 위해 평가하는 동안(예를 들어 이미지 시퀀스로부터 측정 지점들의 3D 좌표들의 결정 동안 또는 복수의 실행되는 측정 동작 중으로부터 즉 복수의 이미지 시퀀스들로부터 얻어지는 측정 결과들을 함께 연결하는 동안) 사용될 수 있다.
만약 - 본 발명의 상황에서 제공되는 것과 같이 - 이미지 시퀀스의 개개의 이미지들의 노출 시간들 동안 가속도들은 충분히 높은 속도(즉 개개의 이미지의 지속기간 당 적어도 몇개, 예를 들어 5 내지 50의 가속도값들을 제공하는 속도)를 갖고, 이미지 시퀀스의 개개의 이미지들의 노출 시간들 동안 프로젝터, 카메라 시스템 및/또는 측정 대상의 움직임들은 - 움직임들은 카메라 흔들림 및/또는 모션 블러를 초래하고 - 이들 측정된 가속도값들을 이용하여 알고리즘적으로 고려될 수 있다. 측정된 가속도 값들은 바람직하게는 - 예를 들어 사진촬영기술로부터 충분히 알려진 방법에 따라 - 이미지 시퀀스의 개개의 이미지들에서 카메라 흔들림 및/또는 모션 블러의 보상 또는 보정을 위해 사용될 수 있다.
이미지들의 노출 시간들 동안 서로에 대한 측정 시스템 및 측정 대상의 위치 및 방향 안정성의 부족은 여기서 예를 들어 프로젝터, 카메라 시스템 및/또는 측정 대상을 그의 손으로 잡는 사용자에 의해 야기되고, 특히 손떨림 및 우연, 또는 프로젝터, 카메라 시스템 및/또는 측정 대상의 홀더들에서의 진동들 또는 요동들에 의해 야기될 수 있다.
따라서, 본 발명에 따라 캡쳐되는 공간에서의 움직임이 예를 들어 디지털 카메라들 또는 삼각측량 스캐너들의 개개의 기록들에서 블러를 보정하기 위해 사용될 수 있다. 게다가, 사용자 손의 떨림에 의해 야기되는 원리 제한들(principle limitations)을 제거 또는 적어도 감소시키는 것이 휴대형 측정 시스템들에서 가능하다.
따라서, 측정 시스템의 정지 장착 동안 종종 일어나는 측정들 동안의 교란 요동들/진동들이 본 발명에 따라 - 위에서 기재한 것과 같이 - 또한 평가에서 및 3D 좌표들의 결정에서 고려될 수 있다. 결과적으로, 예를 들어 구성의 면에서 종종 매우 복잡한 요동 댐핑에 대한 대책들(또는 적어도 상당히 덜 복잡한 대책들이 제공될 수 있음)로서, 3D 좌표 결정에서 정확도의 동시 개선 또는 적어도 정확도의 면에서 손실들을 허용하지 않고 제공하는 것이 가능하다. 따라서, 본 발명에 따른 측정 시스템은 생산 라인에서 직접 사용하는 데 더 적합하다. 일반적으로, - 본 발명으로 인해 - 전체적으로 보아 매우 복잡한 특별한 측정 공간(생산 라인으로부터 측정 대상의 제거 및 그것을 이송을 위해 적절히 설계된 측정 공간으로 이송하는 것을 포함하는)에서 측정 시스템 "오프-라인(off-line)을 동작시키는 것으로 제공하는 것이 가능하다.
하나의 발전된 양상에 따르면, 측정 시스템 구성요소들(즉 카메라 장치/프로젝터) 및/또는 측정 대상의 캡쳐된 가속도들은 각각의 경우에 본 발명에 따라 또한 각각의 기록 시간에서 현재(current)인 측정 대상에 대한 하나의 이미지 기록 위치 및 방향을 이미지 시퀀스의 각각의 이미지들에 관련짓기 위해 사용될 수 있다. 이를 위해, 가속도들이 전체 측정 동작(즉 이미지 시퀀스 또는 복수의 이미지 시퀀스들을 기록하는 전체 동작) 중 캡쳐될 수 있고, 특히, 이를 위해 가속도들이 개개의 이미지들의 각각의 기록 시간들의 충분히 정확한 관련짓기가 가능하게 되는 속도로 측정될 수 있다. 만약 가속도들이 이미지들이 순차적으로 기록되는 것보다 상당히 높은 속도로 캡쳐되면, 또한 각각의 이미지들과 또한 개개의 이미지들의 노출 지속기간들 동안 캡쳐된 가속도들의 평균화에 기인하는 이들 이미지 기록 위치들 및 방향들과 관련짓는 것이 가능하다.
각각의 기록 위치들 및 방향들은, - 예를 들어 떨림으로 인해 - 개개의 이미지들의 기록 위치들 및 방향들에서의 가변성이 이미지 시퀀스 내에서 일어나는 경우에도, 측정 대상 표면 상의 동일 측정 지점들을 갖는 개개의 이미지들에 있는 화소들의 단순화된 연결을 위해 이미지 시퀀스의 개개의 이미지들과 관련지워진다.
따라서, 본 발명에 따라, 이미지 시퀀스의 평가(특히 교차법에 필요한)를 위한 계산 비용이 상당히 감소될 수 있는 데, 그 이유는 기록 위치들 및 방향들로부터 유도되어, 이미지 시퀀스의 각각의 이미지들에 있는 어느 화소들에 의해 표면의 각각 동일한 측정 지점들이 이미징되는지를 미리 결정하는 것이 가능하기 때문이다.
종래 기술로부터의 시스템들에 있어서, 부분적으로 이미지 시퀀스 당 과잉의 이미지들은 - 실제 평가 전에 - 이미지 처리에 의해 서로에 대한 공간 관계가 미리 이미지들에 생기게 하기 위해 기록되었으므로, 본 발명에 따라 계산 비용 및/또는 이러한 이미지 시퀀스로부터 3D 좌표들의 비교적 정확한 결정을 위해 이미지 시퀀스 당 기록될 이미지들의 필요한 수를 감소시키는 것이 가능하다.
그러나, 한편, 본 발명은 또한 이미지 시퀀스의 이미지들이 더 긴 측정 기간들에 걸쳐 기록되는 것을 가능하게 하는 데, 그 이유는 일련의 이미지들의 기록 중 측정 구성요소들의 불안정함에 의한 영향이 본 발명에 따라 충분히 잘 보상 또는 보정 가능하고 측정 실패들로 이어지지 않는다.
예를 들어, 카메라 장치 및 프로젝터의 관측 및 패턴 투영 영역을 벗어나는 측정 대상 표면의 더 큰 영역들을 측정하기 위해, 종래 기술에 따라 복수의 측정 동작들이 행해질 필요가 있고 결과들(예를 들어 포인트 클라우드들)이 중첩식으로 측정되는 부분 영역들에 기초하여 나중에 함께 연결될("stitching") 필요가 있다.
본 발명에 따르면, 예를 들어 상대적으로 긴 측정 동작 중(예를 들어 1-5초 이상 또는 이미지들의 연속적인 순차 기록보다 긴) 실행하는 것이 또한 가능하고, 여기서 프로젝터 및 카메라 시스템은 궁극적으로 전체 원하는 측정 영역이 포함되도록(예를 들어 모든 측면들로부터의 전체 측정 대상) 신중하게 이동된다. 움직임 속도 및 투영된 패턴들의 연속(succession) 및 이미지 기록 주파수는 여기서 모든 부분 영역들이 평가를 위해 충분히 변하는 패턴들로 조사되고 충분한 수의 이미지들이 그러한 이유에서 기록되도록 적응되고 구성되어야 한다.
각각의 개개의 측정들 - 그것의 측정 결과들은 나중에 계산 집중 방식으로 연결되고 - 중 가능한 한 정지하고 있는 카메라 및 프로젝터의 위치 및 정렬 안정성을 갖는 복수의 개개의 측정 동작 중 대신에, 따라서 본 발명에 따라 연속 측정 동작이 "글라이딩 방식(gliding manner)"으로 실행되는 것이 가능하고, 이들 각각의 기록 위치들 및 방향들에 대한 개개의 이미지들을 - 이미지 시퀀스의 평가를 위해 - 본 발명에 따라 그 동안 측정된 가속도들에 기초하여 서로에 대해 공간 관계가 생기게 하는 것이 가능하다.
그러나, 본 발명의 추가의 실시예에 있어서, 개개의 측정 동작들이 - 측정 결과들(예를 들어 포인트 클라우드들)은 - 측정된 가속도들을 이용하여 본 발명에 따라 함께 연결("스티칭(stitching)")될 수 있고 - 감소된 계산 비용으로 실행되는 것이 가능하다. 여기서 우선 측정 결과들의 대응하는 연결을 가능하게 하기 위해 특정 부분 영역들이 중첩식으로 측정되는 것이 절대적으로 필요한 것을 아니다. 그러나, 그럼에도 불구하고 본 발명의 상황에서 또한 개개의 측정 결과들의 스티칭 정확도 및 신뢰성을 더 증가시키기 위해 중첩 측정이 행해질 수 있다. 측정 위치들 및 방향들 - 가속도들에 기초하여 유도될 수 있는 - 은 또한, 만약 이것이 동일한 지점들(제어 포인트들) 또는 동일한 패턴들/기하학들(중첩 영역들에서)에 관한 것이면, 예를 들어 포인트 클라우드들의 계산적 연결을 위한 개선된 시작값을 제공하기 위해 각각의 개별 측정 동작들에서 또한 사용될 수 있다.
본 발명의 다른 양상에 따르면, 각각의 이미지들과 연관된 기록 위치들 및 방향들 - 기록 위치들 및 방향들은 측정된 가속도들로부터 유도되고 - 은 또한 조밀화하기 위해(3D 좌표들이 더 많은 수의 측정 지점들에 대한 특정 측정 영역 내에서 결정되도록) 사용될 수 있다. 이를 위해, 예를 들어 프로젝터, 카메라 장치 및/또는 측정 대상의 약간 의도적인 움직임(예를 들어 사용자 손의 자연스런 떨림에 의해 야기됨)에 의해 일련의 패턴들이 표면 영역 위로 투영되는 것이 가능하고 일련의 이미지들이 그로부터 기록되는 것(또는 복수의 일련의 동일한 측정 영역이 함께 연결되는 것)이 가능하고, - 가속도들에 의해 - 이미지들이 고정밀도로 서로에 대해 공간 관계가 생기는 것이 가능하고, 결과적으로 3D 좌표들은 높은 측정 지점 밀도로 측정 영역 내에서 결정될 수 있다. 특히 결과적으로 측정 지점들의 3D 좌표들이 측정 대상의 표면 상에서 예를 들어 개개의 이미지들의 부화소에서도 결정되는 것이 가능하다.
유사한 방식으로 또한 본 발명에 따라 패턴 조사를 위해 실질적으로 가간섭성 광학 방사를 이용하는 시스템들이 측정 결과들(예를 들어 국부적 측정 부정확성들 또는 측정 지점 간격들)에 대한 패턴 시퀀스의 각각의 패턴들에서 우연히 발생하는 스펙클 필드들에 의해 야기되는 부정적인 영향들을 감소시키는 것이 가능하게 된다. 만약, 예를 들어 프로젝터, 카메라 장치 및/또는 측정 대상이 측정 동작 중(예를 들어 사용자 손의 자연스런 떨림에 의해 야기되는) 약간 의도적으로 이동되면, 측정 대상 표면 위에 투영된 패턴들에서의 스펙클 필드들이 또한 변한다. 따라서, 결과적으로, 각각의 이미지들에 있는 스펙클 필드들이 측정 대상 표면 위의 동일한 장소들에서 항상 발생하지 않는 것이 가능하다. 그러므로, 이러한 방식으로 기록되는 이미지 시퀀스의 상황에서, 실질적으로 스펙클이 없는 패턴으로 조사되는 방식으로 이미지 시퀀스의 이미지들의 적어도 일부에 이미징되지 않는 약간의 또는 거의 없는 장소들이 존재해야 한다. 따라서, 이미지 시퀀스의 이미지들의 병치(juxtaposition)를 통해(여기서 이미지들은 다시 여기서 측정된 가속도들을 이용하여 본 발명에 따라 서로에 대해 공간 관계가 생김), 가간섭성 광 방사에 의한 패턴 투영의 경우에 스펙클에 의해 야기되는 부정적인 영향들을 감소시키는 것이 가능하다.
따라서, 요약하면, 본 발명에 따라, 측정 동작(패턴 시퀀스 투영 및 이미지 시퀀스 기록) 중 여러 목적들을 위해 측정 대상, 카메라 시스템 및/또는 프로젝터(또는 실제로 원치않는 움직임에 의해 야기되는 부정적인 영향들을 감소 또는 제거하기 위해)를 의도적으로 이동시키는 것이 가능하다. 이를 위해 프로젝터, 카메라 장치 및/또는 측정 대상의 가속도들이 관성 센서들을 이용하여 측정되고 이미지 시퀀스의 개개의 이미지들의 평가에서 고려된다.
특히, 이미지에서 개개의 이미지들의 노출 시간 동안 움직임들(카메라 흔들림/모션 블러)에 의해 야기되는 영향들의 보상 또는 보정이 측정된 가속도들을 이용하여 따로따로 각각의 이미지에 대해 실행되는 것이 본 발명에 따라 가능하다.
그러나, 추가로 또는 대안으로, 측정 대상(및 만약 적절하다면 각각의 현재 패턴 투영 위치 및 방향)에 대해 가속도들(만약 적절히 평균화된다면)로부터 유도된 각각의 현재 기록 위치 및 방향이 각각의 이미지와 관련지워지고 따라서 이미지들이 이미지 시퀀스에 기인하는 3D 좌표들의 결정을 위해 미리 서로에 대해 공간 관계를 갖게 하는 것이 또한 가능하다. 예를 들어 그 경우에 측정 대상, 카메라 시스템 및/또는 프로젝터의 의도적인 움직임이,
- 측정 대상 표면 위의 측정 영역을 확대하기 위해,
- 측정 영역을 조밀화하고 따라서 측정 대상 표면 상의 측정 지점 밀도를 증가시키기 위해 및/또는
- 패턴 시퀀스의 각각의 패턴들에서, 실질적으로 가간섭성 광 방사에 의한 조사의 경우에 우연히 발생하는 스펙클 필드들을 변경하고 따라서 이와 같은 스펙클 필드들에 의해 야기되는 국부적 측정 부정확성들 또는 측정 지점 간격들을 증가시키기 위해,
실행되는 것이 가능하다.
특히, 여기서 이들 목적들을 위해 실행되는 움직임이 프로젝터, 카메라 시스템 및/또는 측정 대상을 위한, 측정 대상 및/또는 카메라 시스템을 손으로 잡는 사용자 및 그를 위해 설계되고 수동 또는 자동으로 프로그램된 방식으로 제어되는 홀더 - 특히 로봇 아암 - 에 의해 야기되는 것이 가능하다.
또, 추가로 또는 대안으로, 그러나, 복수의 개개의 측정 동작을 연속적으로 실행하는 동안 측정 위치 및 정렬(서로에 대한 카메라 장치, 프로젝터 및 측정 대상의)이 각각의 측정 동작과 관련지워지고 따라서 복수의 개개의 측정 동작들로부터의 결과들의 연결이 단순화되고 또는 우선 가능하게 되는 것이 가능하다.
이하, 본 발명에 따른 방법 및 본 발명에 따른 장치가 단지 예시적인 방식으로 도면들에 개략적으로 도시된 구체적인 대표 실시예들을 참조하여 더 상세히 기술되고, 여기서 본 발명의 다른 이점들이 또한 언급된다.
도 1은 관성 측정 유닛(inertial measurement unit; IMU)이 휴대형 측정 헤드에 본 발명에 따라 통합되어 있는, 3D 좌표들을 결정하기 위한 광학 측정 시스템을 도시한 도면.
도 2는 측정 대상으로서의 차문이 3D 좌표 결정 과정에서 패턴으로 조사되는, IMU, 프로젝터 및 3개의 카메라들을 가진 휴대형 측정 헤드를 갖는 본 발명에 따른 광학 측정 시스템을 도시한 도면.
도 3 및 도 4는 측정 대상으로서의 차문이 상이한 미세도(degrees of fineness)를 가지는 패턴들로 연속해서 조사되는, IMU, 프로젝터 및 카메라를 가진 휴대형 측정 헤드를 갖는 본 발명에 따른 광학 측정 시스템을 도시한 도면.
도 5 및 도 6은 측정 대상으로서의 차문이 상이한 미세도를 가진 스트라이프 패턴들로 연속해서 조사되는, 로봇 아암에 의해 유지되는 측정 헤드를 갖는 본 발명에 따른 광학 측정 시스템을 도시한 도면.
도 7은 측정 중 손떨림(hand tremor)에 의해 야기되는 불안정함(unsteadiness)이 조사되는, 휴대형 측정 헤드를 갖는 본 발명에 따른 광학 측정 시스템을 도시한 도면.
도 8은 측정 대상이 측정 영역을 확대하기 위해 상이한 위치들로 이동되고 상이한 위치들에 기록된 이미지들이 측정된 가속도들에 기초하여 함께 링크되는, 측정 대상 위에 배열된 IMU를 갖는 본 발명에 따른 광학 측정 시스템을 도시한 도면.
도 9는 측정 헤드가 측정 영역을 확대하기 위해 상이한 위치들로 이동되는 상이한 위치들에 기록되는 이미지들이 측정된 가속도들에 기초하여 함께 링크되는, IMU을 가지는 휴대형 측정 헤드를 갖는 본 발명에 따른 광학 측정 시스템을 도시한 도면.
도 10은 본 발명에 따른 측정 시스템을 갖는 측정들에 영향을 주고 이웃 생산 스테이션로부터 전달되는 진동들이 측정된 가속도들에 기초하여 보상되는, 생산 라인에서 사용되고 있는 본 발명에 따른 광학 측정 시스템을 도시한 도면.
측정 대상 표면(1s)의 다수의 측정 지점들의 3D 좌표들을 결정하기 위한 도 1에 도시된 광학 측정 시스템(7)은, 본 발명에 따라, 프로젝터(3), 카메라 시스템(4), 평가 유닛(6) 및 관성 측정 유닛(IMU)에 통합되는 관성 센서들(5a)을 가진다.
프로젝터(3)는 여기서 상이한 광학 패턴들(2a)의 패턴 시퀀스를 갖는 측정 대상 표면(1s)의 조사를 위해 구성된다. 예를 들어, 패턴 프로젝터(3)는 슬라이드 프로젝터의 원리와 유사하게 구성될 수 있다. 그러나, 다른 투영 기술들이 라이트 패턴들(2a), 예를 들어 프로그램 가능 LCD 프로젝터들, 프로젝터에서 상이한 격자 구조들을 갖는 이동 가능 글라스 슬라이드들(movable glass slides), 전기적으로 스위칭 가능한 격자 및 기계적 이동 장치의 조합 또는 글라스 슬라이드들에 기초한 개개의 격자들의 투영을 발생하기 위해 사용되는 것이 또한 가능하다.
카메라 시스템(4)은 패턴 시퀀스로 조사되는 측정 대상 표면(1s)의 이미지 시퀀스의 기록을 위해 구성되고 여기서 적어도 하나의 카메라, 특히 그러나 2, 3 또는 4개의 카메라들(4a, 4b, 4c)을 가질 수 있는 데, 카메라는 예를 들어 서로에 대해 고정 및 알려진 위치 및 방향을 갖고 배열될 수 있고 특히 개개의 이미지들의 실질적으로 동시 기록을 위해 구성된다.
이 기술분야에서 숙련된 사람에게 알려져 있는 것과 같이, 예를 들어 추가의 처리를 위해 이미지 매트릭스 형태로 이미지 정보를 제공하는, 전자 이미지 센서, 예를 들어 CCD 또는 CMOS 센서들을 갖는 카메라들(4a, 4b, 4c)을 이미지를 기록하기 위해 사용하는 것이 가능하다. 단색 카메라들 및 또한 컬러 카메라들 모두를 이용하는 것이 이 경우에 가능하다.
평가 유닛(6)은, 특히 기록된 이미지 시퀀스의 각각의 이미지들에서 측정 대상 표면(1s)의 동일 측정 지점들에 대한 일련의 휘도값을 확인하면서, 이미지 시퀀스로부터 측정 지점들의 3D 좌표들의 결정을 위해 구성된다.
프로젝터(3) 및 카메라 시스템(4)은 측정 시스템(7)의 공통 측정 헤드(8)에서 물리적으로 서로에 대해 고정 및 알려진 위치결정 및 방향을 갖는 대표 실시예에 따라 제공되고, 특히 측정 헤드(8)는 손으로 잡을 수 있고 및/또는 로봇 아암에 부착되도록 구성된다.
본 발명에 따르면, 관성 센서들(5a)을 가지는 IMU는 또한 측정 헤드(8)에 통합되고, 따라서 관성 센서들(5a)은 이미지 시퀀스를 기록하는 동안 측정 헤드(즉, 프로젝터(3) 및 카메라 시스템(4)의)의 병진 및 회전 가속도들의 측정을 위해 구성된다. 관성 센서들(5a)은 여기서 각각의 경우에 이미지 시퀀스의 각각 개개의 이미지들의 노출 시간 동안, 가속도들에 대한 복수의 값들 특히 많은 값들이 캡쳐 가능한 적어도 이와 같은 측정 속도로 가속도들의 측정을 위해 구성된다.
평가 유닛(6)은 여기서 그것으로 관성 센서들(5a) 및 카메라 시스템(4)의 동기화된 제어가 실행되어 각각의 경우에 이미지 시퀀스의 기록 중 가속도들에 대한 복수의 값들이 이미지 시퀀스의 개개의 이미지들의 적어도 노출 시간 동안 캡쳐되도록 구성된다.
따라서, 이미지 시퀀스의 각각의 개개의 이미지들에서 카메라 흔들림(camera shake) 및/또는 모션 블러(motion blur)를 일으키는 프로젝터(3), 카메라 시스템(4) 및/또는 측정 대상(1)의 움직임들을 알고리즘적으로(algorithmically)) 고려하기 위해, 3D 좌표들의 결정을 위해 관성 센서들(5a)에 의해 측정된 가속도들에 기초하여 본 발명에 따라 평가 유닛(6)을 이용하는 것이 궁극적으로 가능하다.
여기서 특히 측정된 가속도들에 기초하여 이미지에서 개개의 이미지들(카메라 흔들림/모션 블러)의 노출 시간 동안 움직임들에 의해 생긴 영향들의 보상 또는 보정이 각각의 이미지에 대해 별개로 일어나는 것이 가능하다.
이를 위해 평가 유닛(6)은 측정된 가속도들에 의존하여, 이미지 시퀀스의 개개의 이미지들에서 각각의 경우에, 이미지 시퀀스의 각각의 개개의 이미지들의 노출 시간들 동안 일어나는 프로젝터(3), 카메라 시스템(4) 및/또는 측정 대상(1)의 움직임들에 의해 야기되는 카메라 흔들림 및/또는 모션 블러의 보상 및/또는 보정이 일어나도록 구성될 수 있다.
요약하면, 가속도들은 충분히 높은 속도로(즉, 개개의 이미지의 노출 지속기간 당 적어도 약간의 - 예를 들어 5와 50 사이의 - 가속도 값들을 제공하는 속도로) 이미지 시퀀스의 개개의 이미지들의 노출 시간들 동안 캡쳐되고, 이것에 기초하여, 이들 측정된 가속도 값들에 기초하여, 움직임들이 이미지에서 카메라 흔들림 및/또는 모션 블러를 일으키는, 이미지 시퀀스의 개개의 이미지들의 노출 시간들 동안 측정 대상의 프로젝터, 카메라 시스템 및/또는 측정 대상의 움직임들을 알고지즘적으로 고려하는 것이 가능하다. 측정된 가속도 값들은 바람직하게는 - 예를 들어 사진촬영기법(photography)으로부터 충분히 알려진 방법들에 따라 - 이미지 시퀀스의 개개의 이미지들에서 카메라 흔들림 및/또는 모션 블러를 보상 또는 보정하기 위해 사용될 수 있다.
여기서 관성 측정 유닛의 관성 센서들(5a)은 특히 MEMS-기반 구성요소들에 기초할 수 있고 모두 6개의 자유도로, 특히 대략 50 내지 2000 Hz의 측정 속도에서의 가속도들의 측정을 위해 구성되도록 IMU로 결합되고 통합될 수 있다.
따라서, 위에서 이미 기재한 것과 같이, 본 발명에 따른 광학 측정 방법을 실행하도록 구성되고 설계될 도시된 광학 측정 시스템(7)은 특히 평가 유닛(6)에 의해 자동으로 및 프로그램된 방식으로 제어되는 것이 가능하다.
본 발명에 따른 광학 측정 시스템(7)의 도 2에 도시된 대표 실시예는 IMU(관성 센서들(5a)을 가짐), 프로젝터(3) 및 3개의 카메라(4a, 4b, 4c)(예를 들어 핸들을 갖는 휴대형 하우징에 통합되고 따라서 경량 구조 3D 핸드 스캐너로서 구성되는)를 포함하는 휴대형 측정 헤드(8)를 가지며, 여기서 측정 대상(10)으로서의 차문은 3D 좌표들을 결정하는 동안 프로젝터(3)를 이용하여 패턴(2a)(패턴 시퀀스의 부분으로서)으로 조사된다.
서로에 대해 고정 및 알려지 포지셔닝 및 방향을 가지고 예로서 여기에 배열되는 카메라 시스템(4)의 3개의 카메라(4a, 4b, 4c)는 패턴 시퀀스로 조사되는 차문 표면의 이미지 시퀀스를 기록하기 위해 구성된다. 카메라들(4a, 4b, 4c)은 여기서 개개의 이미지들의 실질적으로 동시 기록을 위해 구성될 수 있다.
게다가, 관성 측정 유닛(관성 센서들(5a)을 가짐)은 다시 측정 헤드(8)에 통합되고, 예를 들어 손떨림과 관련된 불안정함에 의해 생기는 측정 에러들의 본 발명에 따른 보상이 이미지 시퀀스의 평가 및 3D 좌표들의 유도 동안 행해질 수 있다. 특히 자동으로 및 프로그램된 방식으로 평가 유닛에 의해 제어되므로, 조사된 광학 측정 시스템(7)은 위에 기재한 것과 같이, 본 발명에 따른 광학 측정 방법을 실행하도록 구성되고 설계되는 것이 가능하다.
도 3 및 도 4는 IMU(관성 센서들(5a)을 가짐), 프로젝터(3) 및 카메라(4a)(예를 들어 핸들을 갖는 휴대형 하우징에 통합되고 따라서 경량 구조 3D 핸드 스캐너로서 구성되는)를 가지는 휴대형 측정 헤드(8)를 갖는 본 발명에 따른 광학 측정 시스템(7)을 도시하고, 여기서, 측정 대상(1)으로서의 차문은 패턴 시퀀스(도 3: 거친 패턴(2a); 및 도 4: 미세하게 구성된 패턴(2b))의 부분으로서 상이한 미세도를 가진 패턴들(2a, 2b)로 연속해서 조사된다.
종래 기술로부터 알 수 있는 것과 같이, 따라서 물체(예를 들어 차문)은 삼각측량(교차)의 도움으로 측정 영역에 있는 측정 지점들의 명확한 깊이 결정을 얻기 위해 상이한 구조 미세도를 갖는 라이트 패턴들(2a, 2b)의 시퀀스로 조사된다. 여기서 복수의 이미지들은 또한 대응하는 상이한 패턴들(2a, 2b)(즉 패턴들의 시리즈를 가짐)에 의한 측정 대상(1)의 조사로 기록된다(즉 일련의 이미지들).
본 발명에 따르면, 일단 다시 관성 측정 유닛(관성 센서들(5a)을 가짐)이 도 3 및 도 4에 도시된 3D 스캐너의 측정 헤드(8)로 통합되면, 그 결과 예를 들어 손떨림들과 관련된 불안정함에 의해 생기는 측정 에러들의 본 발명에 따른 보상이 이미지 시퀀스의 평가 및 3D 좌표들의 유도 동안 실행될 수 있다. 특히, 자동으로 및 미리 프로그램된 방식으로 평가 유닛에 의해 제어되면, 도시된 광학 측정 시스템(7)은 본 발명(예를 들어 청구항 1 내지 8 중 어느 하나에 청구된 것과 같은)에 따른 광학 측정 방법의 위에 기재한 개개의 또는 복수의 실시예들을 실행하도록 구성되고 설계될 수 있다.
여기서 측정 헤드(8)가 로봇 아암에 의해 유지되는 측정 헤드(8)로서 구성되고 프로젝터(3)가 패턴 시퀀스로서 상이한 미세도들을 가지는 스트라이프 패턴들(2a, 2b)의 연속 투영을 위해 구성되는 점을 제외하고, 도 5 및 도 6은 도 3 및 도 4로부터의 것과 유사한 본 발명에 따른 광학 측정 시스템(7)을 도시한다.
본 발명에 따르면, 도 3 및 도 4에 도시된 측정 헤드(8)는 또한 관성 측정 유닛(IMU)(관성 센서들(5a)을 가짐)을 가지며, 그 결과 예를 들어 측정 영역 환경으로부터 로봇 아암으로 전달되는 진동들에 의해 생기는, 측정 에러들의 본 발명에 따른 보상은 이미지 시퀀스의 평가 및 3D 좌표들의 유도 동안 실행될 수 있다. 대안으로 또는 추가로, 측정된 가속도들은 또한 공간적 연결(상이한 로봇 아암 위치들(하나 이상의 이미지 시퀀스들의 부분으로서)로부터 캡쳐되는 개개의 이미지들의 "스티칭(stiching)")을 위해 이용될 수 있고, 그 결과 - 요구들에 따라 이 기술분야에서 숙련된 사람에 의해 적응될 수 있는, 상이한 위치들의 선택에 의존하여, 측정 영역은 확대 및/또는 조밀(densify)하게 될 수 있고, 또는 패턴 시퀀스의 각각의 패턴들(2a, 2b)에서의 실질적 간섭 광 방사에 의해 조사하는 경우에 우연히 일어나는 스펙클 필드들(speckle fields)의 변경 및 따라서 이와 같은 스펙클 필드들에 의해 생기는 국부적 측정 부정확성 또는 측정 지점 간격들의 감소가 행해질 수 있다.
도 7 및 도 9는 도 1에서와 같은 측정 시스템(7)을 나타내고 여기서 측정 중 측정 헤드(8)의 불안정함/움직임(손떨림에 의해 우연히 생기거나 - 예를 들어 측정 영역의 조밀화 또는 확대를 위해 - 고의로 생김)을 도시한다. 이때 IMU(관성 센서들(5a)을 가짐)를 이용하여 측정되는 가속도들은 공간적으로 함께 연결(상이한 핸드헬드 위치(하나 이상의 이미지 시퀀스들의 부분으로서)로부터 캡쳐되는 개개의 이미지들을 "스티칭(stitching)")하기 위해 이용될 수 있다.
게다가, 여기서 개개의 패턴 투영들(2a, 2b)(패턴 시퀀스의)의 카메라 흔들림이 측정 대상(1)에 대해 실행되고 개개의 이미지 기록들(이미지 시퀀스의)의 카메라 흔들림이 실행되는 것이 가능하고, 여기서 이미지에서 카메라 흔들림에 의해 생기는 에러들은 마찬가지로 측정 헤드(8)에 통합된 IMU에 의해 측정되는 가속도들을 이용하여 3D 좌표들을 결정하는 동안 본 발명에 따라 정정 또는 보상 또는 고려될 수 있다.
도 8은 측정 대상(1) 위에 배열되는 IMU(관성 센서들(5b)을 가짐)를 가지는 본 발명에 따른 광학 측정 시스템(7)을 도시하고, 여기서 측정 대상(1)은 측정 영역의 확대를 위해 상이한 위치들로 이동될 수 있고, - 본 발명에 따라 - 개개의 이미지들(이미지 시퀀스의)에 기록된 측정 대상(1)의 상이한 위치들은 IMU에 의해 측정되는 가속도들에 기초하여 링크될 수 있고 서로에 대해 공간 관계를 낳을 수 있다.
측정 대상(1) 상의 IMU(관성 센서들(5b)을 가짐)에 더하여, 또한 다시 IMU(관성 센서들(5a)을 가짐)는 또한 측정 헤드(8)에 통합되는 것이 가능하다. 그 결과, 위에 기재한 것과 같이, 또한 측정 중 발생하는 측정 헤드(8)의 움직임들이 깊이 정보 및 3D 좌표들의 결정 중 본 발명에 따라 고려될 수 있다.
도 10은 생산 라인에서 사용하고 있는 본 발명에 따른 광학 측정 시스템(7)을 도시하고, 본 발명에 따른 측정 시스템(7)에 의해 측정들에 영향을 주는 진동들 - 진동들은 이웃 생산 스테이션으로부터 전달됨 - 은 측정된 가속도들에 기초하여 보상된다.
이를 위해, 각각의 경우에 하나의 IMU(관성 센서들(5a 및/또는 5b)을 가짐)는 본 발명에 따라 - 예를 들어 도 8과 관련하여 위에서 또한 기재한 것과 같이 - 측정 대상(1) 위에 배열될 수 있고 측정 헤드(8)에 통합될 수 있고(이 경우 단지 예로서 2개의 카메라들을 가짐), 그 결과 예를 들어 측정 영역으로부터 로봇 아암에 전달되는 진동들에 의해 그리고 측정 헤드(8)의 불안정함에 의해 발생되는 측정 에러들의 본 발명에 따른 보상이 이미지 시퀀스의 평가 및 3D 좌표들의 유도 중 실행될 수 있다.
이들 도시된 도면들은 단지 가능한 대표 실시예들을 개략적으로 도시한 것이라는 것이 이해될 수 있다. 상이한 접근방법들이 마찬가지로 서로 그리고 종래 기술의 방법과 결합될 수 있다.

Claims (14)

  1. 측정 대상 표면(1s)의 다수의 측정 지점들의 3D 좌표들을 결정하기 위한 광학 측정 방법으로서,
    - 프로젝터(3)를 이용하여 상이한 패턴들(2a, 2b)의 패턴 시퀀스(pattern sequence)로 상기 측정 대상 표면(1s)을 조사하는 단계,
    - 카메라 시스템(4)을 이용하여, 상기 패턴 시퀀스로 조사되는, 상기 측정 대상 표면(1s)의 복수의 개개의 이미지들의 이미지 시퀀스를 기록하는 단계, 및
    - 상기 이미지 시퀀스를 평가하여 상기 측정 지점들의 상기 3D 좌표들을 결정하는 단계로서, 특히 일련의 휘도값이 상기 이미지 시퀀스의 상기 각각의 이미지들에서 상기 측정 대상 표면(1s)의 동일 측정 지점들에 대해 확인되는, 상기 3D 좌표들을 결정하는 단계를 포함하는, 광학 측정 방법에 있어서,
    - 상기 이미지 시퀀스의 개개의 이미지들의 적어도 상기 노출 시간들 동안 상기 이미지 시퀀스의 상기 기록 동안,
    - 상기 프로젝터(3),
    - 상기 카메라 시스템(4) 및/또는
    - 상기 측정 대상(1)의
    병진 및/또는 회전 가속도들이, 각각의 경우에 상기 이미지 시퀀스의 상기 각각의 개개의 이미지들의 상기 노출 시간들 동안, 적어도 상기 가속도들에 대한 복수의 값들, 특히 다수의 값들이 캡쳐되는 측정 속도로 측정되고,
    - 상기 이미지 시퀀스의 상기 각각의 개개의 이미지들에서 카메라 흔들림 및/또는 모션 블러(motion blur)를 초래하고 상기 이미지 시퀀스의 상기 각각의 개개의 이미지들의 상기 노출 시간들 동안 일어나는, 상기 프로젝터(3), 상기 카메라 시스템(4) 및/또는 상기 측정 대상(1)의 움직임들은 상기 측정된 가속도들에 기초하여 상기 3D 좌표들의 상기 결정 시 알고리즘적으로(algorithmically) 고려되는 것을 특징으로 하는, 광학 측정 방법.
  2. 제1항에 있어서,
    상기 프로젝터(3), 상기 카메라 시스템(4) 및/또는 상기 측정 대상(1)의 가속도들은 모든 6 자유도(6 degress of freedom)로 측정되고 상기 가속도들은 특정 측정 속도로, 특히 대략 50과 2000 Hz 사이에서, 특히 상기 이미지 시퀀스를 기록하는 전체 동작 중 연속적으로 측정되는 것을 특징으로 하는, 광학 측정 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 측정된 가속도들에 의존하여, 상기 이미지 시퀀스의 상기 각각의 개개의 이미지들의 상기 노출 시간들 동안 발생하는 상기 프로젝터(3), 상기 카메라 시스템(4) 및/또는 상기 측정 대상(1)의 움직임들에 의해 야기되는, 카메라 흔들림 및/또는 모션 블러의 보상 및/또는 보정이 상기 이미지 시퀀스의 상기 개개의 이미지들에서 각각 이루어지고,
    특히 상기 움직임들은
    - 특히 손떨림 및 우연히 생기는 상기 프로젝터(3), 상기 카메라 시스템(4) 및/또는 상기 측정 대상(1)을 손으로 잡는 사용자에 의해, 또는
    - 상기 프로젝터(3), 상기 카메라 시스템(4) 및/또는 상기 측정 대상(1)의 홀더들(holders)에서의 진동들(vibration) 또는 요동들(oscillations)에 의해 야기되는 것을 특징으로 하는, 광학 측정 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 이미지 시퀀스 또는 복수의 이미지 시퀀스들을 기록하는 상기 전체 동작 동안, 상기 가속도들이 측정되고 상기 측정 지점들의 상기 3D 좌표들에 대한 상기 개개의 이미지들의 상기 평가에 의해 얻어진 상기 정보는 상기 측정된 가속도들을 이용한 계산적 방식(in a computational manner)으로 함께 연결되고,
    특히 상기 기록 동작 중,
    - 상기 측정 대상 표면(1s) 상의 상기 측정 영역을 확대하기 위해,
    - 상기 측정 영역을 조밀화하고 따라서 상기 측정 대상 표면(1s) 상의 상기 측정 지점 밀도를 증가시키기 위해 및/또는
    - 상기 패턴 시퀀스의 각각의 패턴들(2a, 2b)에서, 실질적 간섭 광 방사에 의한 조사의 경우에 우연히 발생하는 스펙클 필드들을 변경하고 따라서 이와 같은 스펙클 필드들에 의해 생기는 국부적 측정 부정확성 또는 측정 지점 간격들의 감소를 위해,
    상기 측정 대상(1), 상기 카메라 시스템(4) 및/또는 상기 프로젝터(3)는 이동되고,
    특히 이러한 목적을 위해 실행되는 상기 움직임은,
    - 상기 측정 대상(1) 및/또는 상기 카메라 시스템(4)을 손으로 잡는 사용자, 및/또는
    - 상기 프로젝터(3), 상기 카메라 시스템(4) 및/또는 상기 측정 대상(1)을 위한, 수동으로 또는 자동으로 미리 프로그램된 방식으로 제어되고 설계되는 홀더, 특히 로봇 아암
    에 의해 실행되는 것을 특징으로 하는, 광학 측정 방법.
  5. 제4항에 있어서,
    계산적 연결(computational joining together)을 위해, 상기 측정 대상(1)에 관한 이미지들의 기록 위치들 및 방향들에 대해 서로에 관한 상기 개개의 기록된 이미지들간의, 상기 측정된 가속도들로부터 유도되는 공간 관계들은 시작 조건들이 사용되지 않는 방법에 대해, 상기 계산적 연결(computational joining together) 자체가 감소된 계산적 지출(computational outlay)을 요구하도록 시작 조건들로서 사용되는 것을 특징으로 하는, 광학 측정 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 측정 지점들의 상기 3D 좌표들은 상기 이미지 시퀀스로부터 상기 삼각측량 원리에 따라 사진측량으로 이용하여, 그리고 특히 교차(intersection)을 이용하는 상기 이미지 시퀀스의 상기 각각의 이미지들에서 캡쳐된 상기 패턴 시퀀스의 상기 패턴의 상기 지식으로 결정되는 것을 특징으로 하는, 광학 측정 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    서로에 대해 알려진 위치들의 상기 기록 및 상기 조사는 서로에 대해 알려진 정렬들로부터 실행되고, 특히 상기 기록은 상이한 위치들로부터 상기 카메라 시스템(4)의 부분들로서 복수의 카메라들(4a, 4b, 4c)로 실행되는 것을 특징으로 하는, 광학 측정 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 측정 대상 표면(1s)은, 상기 패턴 시퀀스의 상기 상이한 패턴들로서의,
    - 상이한 미세도의 스트라이프 패턴들,
    - 의사코드들(pseudocodes) 및/또는
    - 랜덤 패턴들(random patterns)
    에 의해 연속적으로 조사되고, 특히 상기 조사는 대략 100과 300 ms 사이의, 특히 대략 200 ms의 투영 지속기간을 갖는 실질적으로 직접적인 시간 연속(direct temporal succession)으로 상기 개개의 패턴들(2a, 2b)에 의해 실행되고, 상기 이미지 시퀀스의 상기 기록은 각각의 경우에 대략 100 ms와 300 ms 사이의, 특히 대략 200 ms의 이미지 당 노출 지속 기간에서 이루어지는 것을 특징으로 하는, 광학 측정 방법.
  9. 측정 대상 표면(1s)의 다수의 측정 지점들의 3D 좌표들을 결정하기 위한 광학 측정 시스템(7)으로서,
    - 상이한 패턴들(2a, 2b)의 패턴 시퀀스로 상기 측정 대상 표면(1s)을 조사하기 위한 프로젝터(3),
    - 상기 패턴 시퀀스로 조사되는 상기 측정 대상 표면(1s)의 복수의 개개의 이미지들의 이미지 시퀀스를 기록하기 위한 카메라 시스템(4), 및
    - 특히 상기 이미지 시퀀스의 상기 각각의 이미지들에서 상기 측정 대상 표면(1s)의 동일 측정 지점들에 대한 일련의 휘도값을 확인하면서, 상기 이미지 시퀀스로부터의 상기 측정 지점들의 상기 3D 좌표들을 결정하기 위한 평가 유닛을 포함하는, 광학 측정 시스템(7)에 있어서,
    관성 센서들(5a, 5b)은, 각각의 경우에 상기 이미지 시퀀스의 상기 각각의 개개의 이미지들의 상기 노출 시간들 동안 적어도 상기 가속도들에 대한 복수의 값들, 특히 다수의 값들이 캡쳐될 수 있는 측정 속도로, 상기 프로젝터(3), 상기 카메라 시스템(4) 및/또는 상기 측정 대상(1)의 상기 병진 및 회전 가속도들을 측정하기 위해,
    - 상기 프로젝터(3) 위에,
    - 상기 카메라 시스템(4) 위에 및/또는
    - 상기 측정 대상(1) 위에
    배열되고, 상기 평가 유닛(6)은,
    - 상기 이미지 시퀀스의 상기 기록 동안 각각의 경우에 상기 가속도들에 대한 복수의 값들이 적어도 상기 이미지 시퀀스의 개개의 이미지들의 상기 노출 시간들 동안 캡쳐되도록 상기 관성 센서들(5a, 5b) 및 상기 카메라 시스템(4)을 동기하여 제어하도록, 그리고
    - 상기 3D 좌표들의 상기 결정을 위해 상기 관성 센서들(5a, 5b)에 의해 측정된 상기 가속도들에 기초하여, 상기 이미지 시퀀스의 상기 각각의 개개의 이미지들에서 카메라 흔들림 및/또는 모션 블러를 초래하는, 상기 프로젝터(3), 상기 카메라 시스템(4) 및/또는 상기 측정 대상(1)의 움직임들을 알고리즘적으로 고려하도록,
    구성되는 것을 특징으로 하는, 광학 측정 시스템(7).
  10. 제9항에 있어서,
    상기 관성 센서들(5a, 5b)은 상기 관성 측정 유닛이 모든 6자유도로, 특히 대략 50 내지 2000 Hz의 측정 속도로 상기 가속도들을 측정하기 위해 구성되도록, 특히 MEMS-기반 구성요소들에 기초하여, 관성 측정 유닛에 결합되고 통합되는 것을 특징으로 하는, 광학 측정 시스템(7).
  11. 제9항 또는 제10항에 있어서,
    상기 평가 유닛(6)은 상기 측정된 가속도들에 의존하여, 상기 이미지 시퀀스의 상기 각각의 개개의 이미지들의 상기 노출 시간들 동안 발생하는 상기 프로젝터(3), 상기 카메라 시스템(4) 및/또는 상기 측정 대상(1)의 움직임들에 의해 야기되는 카메라 흔들림 및/또는 모션 블러의 보상 및/또는 보정이 상기 이미지 시퀀스의 상기 개개의 이미지들에서 각각 발생하도록 구성되는 것을 특징으로 하는, 광학 측정 시스템(7).
  12. 제9항 내지 제11항 중 어느 한 항에 있어서,
    상기 프로젝터(3) 및 상기 카메라 시스템(4)은 상기 관성 센서들(5a, 5b)이 또한 배열되는 상기 측정 시스템의 공통 측정 헤드(8)에서 물리적으로 서로에 대해 고정 및 알려진 위치 및 방향으로 제공되고, 특히 상기 측정 헤드(8)는 손에 의해 잡힐 수 있고 및/또는 로봇 아암에 부착될 수 있도록 구성되는 것을 특징으로 하는, 광학 측정 시스템(7).
  13. 제9항 내지 제12항 중 어느 한 항에 있어서,
    상기 카메라 시스템(4)은 적어도 하나의 카메라(4a, 4b, 4c)를 가지며, 특히 상기 카메라 시스템(4)은 2개, 3개 또는 4개의 카메라들(4a, 4b, 4c)을 포함하고, 상기 카메라들은 서로에 대해 고정 및 알려진 위치 및 방향으로 배열되고 개개의 이미지들의 상기 실질적으로 동시 기록을 위해 구성되는 것을 특징으로 하는, 광학 측정 시스템(7).
  14. 제9항 내지 제13항 중 어느 한 항에 있어서,
    상기 측정 시스템은 제 1 항 내지 제 8 항 중 어느 한 항에 청구된 것과 같은 상기 광학 측정 방법을 실행하도록 구성 및 설계되는 것을 특징으로 하는, 광학 측정 시스템(7).
KR1020137000016A 2010-06-21 2011-06-09 측정 대상 표면에 대한 3d 좌표들을 결정하기 위한 광학 측정 방법 및 측정 시스템 KR101458991B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10166672A EP2400261A1 (de) 2010-06-21 2010-06-21 Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
EP10166672.5 2010-06-21
PCT/EP2011/059641 WO2011160962A1 (de) 2010-06-21 2011-06-09 Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche

Publications (2)

Publication Number Publication Date
KR20130032351A true KR20130032351A (ko) 2013-04-01
KR101458991B1 KR101458991B1 (ko) 2014-11-12

Family

ID=42697642

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137000016A KR101458991B1 (ko) 2010-06-21 2011-06-09 측정 대상 표면에 대한 3d 좌표들을 결정하기 위한 광학 측정 방법 및 측정 시스템

Country Status (9)

Country Link
US (1) US9683837B2 (ko)
EP (2) EP2400261A1 (ko)
JP (1) JP5680196B2 (ko)
KR (1) KR101458991B1 (ko)
CN (1) CN102947670B (ko)
AU (1) AU2011269189B2 (ko)
BR (1) BR112012032875B1 (ko)
CA (1) CA2801595C (ko)
WO (1) WO2011160962A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130140880A (ko) * 2011-04-14 2013-12-24 헥사곤 테크놀로지 센터 게엠베하 마킹 타겟 지점들용 측지 마킹 시스템
KR20160030428A (ko) * 2014-09-10 2016-03-18 삼성전자주식회사 모바일 장치용 레이저 스펙클 간섭계 시스템 및 방법
KR101687307B1 (ko) * 2015-12-29 2016-12-16 인천대학교 산학협력단 프로젝터-투사면-카메라 기반 무선 디지털 광통신 방법
KR20180099497A (ko) * 2017-02-27 2018-09-05 쿨처 게엠베하 가속도계를 갖는 3d 스캐너
KR20190020087A (ko) * 2016-06-20 2019-02-27 코그넥스코오포레이션 알려진 이동 중에 이동하는 물체의 3차원 측정을 위한 방법
WO2019132196A1 (ko) * 2017-12-26 2019-07-04 경북대학교 산학협력단 3차원 스캐닝 장치 및 3차원 스캐닝 방법

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006031580A1 (de) 2006-07-03 2008-01-17 Faro Technologies, Inc., Lake Mary Verfahren und Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs
US9482755B2 (en) 2008-11-17 2016-11-01 Faro Technologies, Inc. Measurement system having air temperature compensation between a target and a laser tracker
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8630314B2 (en) 2010-01-11 2014-01-14 Faro Technologies, Inc. Method and apparatus for synchronizing measurements taken by multiple metrology devices
US8832954B2 (en) 2010-01-20 2014-09-16 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US8677643B2 (en) 2010-01-20 2014-03-25 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US8615893B2 (en) 2010-01-20 2013-12-31 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine having integrated software controls
CN102771079A (zh) 2010-01-20 2012-11-07 法罗技术股份有限公司 具有多通信通道的便携式关节臂坐标测量机
US8875409B2 (en) 2010-01-20 2014-11-04 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US8898919B2 (en) 2010-01-20 2014-12-02 Faro Technologies, Inc. Coordinate measurement machine with distance meter used to establish frame of reference
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
WO2011090895A1 (en) 2010-01-20 2011-07-28 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with multi-bus arm technology
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US9377885B2 (en) 2010-04-21 2016-06-28 Faro Technologies, Inc. Method and apparatus for locking onto a retroreflector with a laser tracker
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
WO2012033892A1 (en) 2010-09-08 2012-03-15 Faro Technologies, Inc. A laser scanner or laser tracker having a projector
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
US8607536B2 (en) 2011-01-14 2013-12-17 Faro Technologies, Inc. Case for a device
CN103403575B (zh) 2011-03-03 2015-09-16 法罗技术股份有限公司 靶标设备和方法
EP2511656A1 (de) 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
US9164173B2 (en) 2011-04-15 2015-10-20 Faro Technologies, Inc. Laser tracker that uses a fiber-optic coupler and an achromatic launch to align and collimate two wavelengths of light
GB2504890A (en) 2011-04-15 2014-02-12 Faro Tech Inc Enhanced position detector in laser tracker
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
EP2527784A1 (de) 2011-05-19 2012-11-28 Hexagon Technology Center GmbH Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
US8922647B2 (en) * 2011-08-03 2014-12-30 The Boeing Company Projection aided feature measurement using uncalibrated camera
DE102011114674C5 (de) * 2011-09-30 2020-05-28 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
US8934010B2 (en) * 2011-11-21 2015-01-13 Shenzhen China Star Optoelectronics Technology Co., Ltd. Method for smear measurement of display device and device for smear measurement of display device
DE102012100609A1 (de) 2012-01-25 2013-07-25 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9638507B2 (en) 2012-01-27 2017-05-02 Faro Technologies, Inc. Measurement machine utilizing a barcode to identify an inspection plan for an object
DE102012100953B4 (de) * 2012-02-06 2020-01-09 A.Tron3D Gmbh Vorrichtung zum Erfassen der dreidimensionalen Geometrie von Objekten und Verfahren zum Betreiben derselben
JP2013234951A (ja) * 2012-05-10 2013-11-21 Mitsutoyo Corp 三次元測定装置
JP5816773B2 (ja) * 2012-06-07 2015-11-18 ファロ テクノロジーズ インコーポレーテッド 取り外し可能なアクセサリーを備える座標測定マシン
US8937657B2 (en) * 2012-07-15 2015-01-20 Erik Klass Portable three-dimensional metrology with data displayed on the measured surface
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
WO2014074003A1 (ru) * 2012-11-07 2014-05-15 Артек Европа С.А.Р.Л. Способ контроля линейных размеров трехмерных объектов
DE102012112322B4 (de) 2012-12-14 2015-11-05 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE202012104890U1 (de) 2012-12-14 2013-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112321B4 (de) 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US20140307055A1 (en) * 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
US9400930B2 (en) * 2013-09-27 2016-07-26 Qualcomm Incorporated Hybrid photo navigation and mapping
US9233469B2 (en) * 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
JP6317618B2 (ja) * 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
FR3021784B1 (fr) 2014-05-27 2017-10-13 European Aeronautic Defence & Space Co Eads France Procede de projection de donnees virtuelles et dispositif permettant cette projection
US9395174B2 (en) 2014-06-27 2016-07-19 Faro Technologies, Inc. Determining retroreflector orientation by optimizing spatial fit
DE102014216390A1 (de) * 2014-08-19 2016-02-25 Siemens Aktiengesellschaft Projektor
DE102014019670B3 (de) * 2014-12-30 2016-06-30 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels Redundanzen
DE102014019053A1 (de) * 2014-12-18 2016-06-23 Testo Ag Verfahren und Vorrichtung zur Bestimmung einer Abmessung eines Objektes
EP3238447B1 (en) * 2014-12-22 2021-10-27 Cyberoptics Corporation Updating calibration of a three-dimensional measurement system
WO2016103541A1 (ja) * 2014-12-25 2016-06-30 パナソニックIpマネジメント株式会社 投影装置
EP3158731B1 (en) 2014-12-31 2020-11-25 SZ DJI Technology Co., Ltd. System and method for adjusting a baseline of an imaging system with microlens array
JP6245671B2 (ja) * 2015-02-02 2017-12-13 オーシーアールシステム株式会社 光学端末装置及びスキャンプログラム
DE102015204474B4 (de) * 2015-03-12 2016-10-13 Hans-Günter Vosseler Vorrichtung und Verfahren zum berührungslosen dreidimensionalen Vermessen von Bauteilen
USD754130S1 (en) * 2015-03-19 2016-04-19 Faro Technologies, Inc. Optical scanner
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
DE102016002398B4 (de) 2016-02-26 2019-04-25 Gerd Häusler Optischer 3D-Sensor zur schnellen und dichten Formerfassung
CA3018886C (en) * 2016-04-08 2020-10-27 Shining 3D Tech Co., Ltd. Three-dimensional measuring system and measuring method with multiple measuring modes
US10659764B2 (en) * 2016-06-20 2020-05-19 Intel Corporation Depth image provision apparatus and method
CN109496265B (zh) * 2016-06-20 2023-04-28 康耐视公司 用于在使用时间编码的图案目标的情况下校准由至少一个传感器相机构成的图像采集传感器的方法
US10609359B2 (en) 2016-06-22 2020-03-31 Intel Corporation Depth image provision apparatus and method
US11060853B2 (en) 2016-09-14 2021-07-13 Scantech (Hangzhou) Co., Ltd. Three-dimensional sensor system and three-dimensional data acquisition method
CN106403845B (zh) * 2016-09-14 2017-10-03 杭州思看科技有限公司 三维传感器系统及三维数据获取方法
CN107202554B (zh) * 2017-07-06 2018-07-06 杭州思看科技有限公司 同时具备摄影测量和三维扫描功能的手持式大尺度三维测量扫描仪系统
DE102017222708A1 (de) * 2017-12-14 2019-06-19 Conti Temic Microelectronic Gmbh 3D-Umfelderfassung mittels Projektor und Kameramodulen
WO2019116401A1 (en) * 2017-12-15 2019-06-20 Camoga S.P.A. Three-dimensional mapping machine for leather or similar material covered objects
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7124424B2 (ja) * 2018-05-02 2022-08-24 オムロン株式会社 3次元形状計測システム及び計測時間設定方法
US10477180B1 (en) * 2018-05-22 2019-11-12 Faro Technologies, Inc. Photogrammetry system and method of operation
KR20200005332A (ko) 2018-07-06 2020-01-15 삼성전자주식회사 캘리브레이션 장치 및 그것의 동작 방법
JP7346775B2 (ja) * 2018-12-25 2023-09-20 株式会社Xtia 光学測定機器及びそのデータ生成方法
JP7206127B2 (ja) * 2019-02-20 2023-01-17 株式会社Ihiエアロスペース 画像センサの情報補正方法及び移動体
DE102019110508A1 (de) * 2019-04-23 2020-10-29 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zum Steuern eines Koordinatenmessgerätes und Koordinatenmessgerät
CN112348948B (zh) * 2019-08-08 2024-04-30 中国石油天然气股份有限公司 三维地质模型的构建方法、装置及存储介质
TWI714221B (zh) * 2019-08-19 2020-12-21 國立中央大學 基於穿透式光線的抖動辨識方法及其系統
TWI721533B (zh) * 2019-08-19 2021-03-11 國立中央大學 抖動辨識方法及其系統
WO2021038276A1 (en) 2019-08-28 2021-03-04 Elasizer S.R.L. Method and system for an automatic selection of items of equipment
EP4042104A1 (en) * 2019-10-11 2022-08-17 Leica Geosystems AG Metrology system
US11132804B2 (en) * 2020-01-07 2021-09-28 Himax Technologies Limited Hybrid depth estimation system
CN111383332B (zh) * 2020-03-26 2023-10-13 深圳市菲森科技有限公司 一种三维扫描和重建系统、计算机设备和可读存储介质
CN111409109B (zh) * 2020-04-01 2022-11-04 伯朗特机器人股份有限公司 工业机器人稳定性的测量和评估方法
CN114485479B (zh) * 2022-01-17 2022-12-30 吉林大学 基于双目相机和惯性导航的结构光扫描测量方法及系统
CN115002429B (zh) * 2022-05-07 2023-03-24 深圳市和天创科技有限公司 一种基于摄像头计算自动校准投影位置的投影仪

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2292605B (en) * 1994-08-24 1998-04-08 Guy Richard John Fowler Scanning arrangement and method
DE19633686C2 (de) 1996-08-12 1998-08-20 Fraunhofer Ges Forschung Vorrichtung und Verfahren zur Vermessung von Entfernungen und/oder räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung
US6992700B1 (en) 1998-09-08 2006-01-31 Ricoh Company, Ltd. Apparatus for correction based upon detecting a camera shaking
JP4010753B2 (ja) * 2000-08-08 2007-11-21 株式会社リコー 形状計測システムと撮像装置と形状計測方法及び記録媒体
DE10127304C5 (de) 2001-06-06 2007-07-19 Technische Universität Carolo-Wilhelmina Zu Braunschweig Verfahren und Vorrichtung zur Bestimmung der dreidimensionalen Kontur einer spiegelnden Oberfläche eines Objektes
WO2004085956A2 (en) 2003-03-24 2004-10-07 D3D, L.P. Laser digitizer system for dental applications
JP4480488B2 (ja) 2003-08-28 2010-06-16 富士通株式会社 計測装置、コンピュータ数値制御装置及びプログラム
US8239162B2 (en) * 2006-04-13 2012-08-07 Tanenhaus & Associates, Inc. Miniaturized inertial measurement unit and associated methods
JP4800163B2 (ja) 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
DE102006049695A1 (de) 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
EP2026034B1 (de) * 2007-08-16 2020-04-29 Carl Zeiss Optotechnik GmbH Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
DE102007060263A1 (de) * 2007-08-16 2009-02-26 Steinbichler Optotechnik Gmbh Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
AT506110B1 (de) * 2007-12-12 2011-08-15 Nextsense Mess Und Pruefsysteme Gmbh Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102008036710A1 (de) 2008-08-07 2010-02-11 GOM - Gesellschaft für Optische Meßtechnik mbH Messsystem und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
DE102008047816B4 (de) * 2008-09-18 2011-08-25 Steinbichler Optotechnik GmbH, 83115 Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
JP5583761B2 (ja) * 2009-06-01 2014-09-03 ホスラー ゲルト 動的基準フレームを用いた3次元表面検出方法及び装置
CN101697233B (zh) 2009-10-16 2012-06-06 长春理工大学 一种基于结构光的三维物体表面重建方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130140880A (ko) * 2011-04-14 2013-12-24 헥사곤 테크놀로지 센터 게엠베하 마킹 타겟 지점들용 측지 마킹 시스템
KR20160030428A (ko) * 2014-09-10 2016-03-18 삼성전자주식회사 모바일 장치용 레이저 스펙클 간섭계 시스템 및 방법
KR101687307B1 (ko) * 2015-12-29 2016-12-16 인천대학교 산학협력단 프로젝터-투사면-카메라 기반 무선 디지털 광통신 방법
KR20190020087A (ko) * 2016-06-20 2019-02-27 코그넥스코오포레이션 알려진 이동 중에 이동하는 물체의 3차원 측정을 위한 방법
KR20210076205A (ko) * 2016-06-20 2021-06-23 코그넥스코오포레이션 알려진 이동 중에 이동하는 물체의 3차원 측정을 위한 방법
US11243072B2 (en) 2016-06-20 2022-02-08 Cognex Corporation Method for the three dimensional measurement of moving objects during a known movement
KR20180099497A (ko) * 2017-02-27 2018-09-05 쿨처 게엠베하 가속도계를 갖는 3d 스캐너
US10459083B2 (en) 2017-02-27 2019-10-29 Kulzer Gmbh 3D scanner with accelerometer
WO2019132196A1 (ko) * 2017-12-26 2019-07-04 경북대학교 산학협력단 3차원 스캐닝 장치 및 3차원 스캐닝 방법

Also Published As

Publication number Publication date
WO2011160962A1 (de) 2011-12-29
AU2011269189B2 (en) 2013-09-26
CA2801595C (en) 2015-10-27
EP2583055B1 (de) 2020-09-23
US9683837B2 (en) 2017-06-20
BR112012032875A2 (pt) 2016-11-08
JP2013531237A (ja) 2013-08-01
KR101458991B1 (ko) 2014-11-12
CN102947670B (zh) 2015-11-25
CA2801595A1 (en) 2011-12-29
EP2583055A1 (de) 2013-04-24
US20130100282A1 (en) 2013-04-25
AU2011269189A1 (en) 2012-11-22
JP5680196B2 (ja) 2015-03-04
CN102947670A (zh) 2013-02-27
EP2400261A1 (de) 2011-12-28
BR112012032875B1 (pt) 2020-02-04

Similar Documents

Publication Publication Date Title
KR101458991B1 (ko) 측정 대상 표면에 대한 3d 좌표들을 결정하기 위한 광학 측정 방법 및 측정 시스템
US9628779B2 (en) Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface
US8243286B2 (en) Device and method for the contactless detection of a three-dimensional contour
JP6823482B2 (ja) 三次元位置計測システム,三次元位置計測方法,および計測モジュール
JP5771117B2 (ja) 移動距離計測装置及び撮影カメラ
US20150070468A1 (en) Use of a three-dimensional imager's point cloud data to set the scale for photogrammetry
US10704891B2 (en) Method and apparatus for determining the 3D coordinates of an object
WO2012133926A2 (en) Profile measuring apparatus, method for measuring profile, and method for manufacturing structure
JP2006514739A5 (ko)
WO2018207720A1 (ja) 特徴量を用いた3次元計測方法およびその装置
JP2017528714A (ja) 3次元座標の光学測定のための方法および3次元測定デバイスの制御
JP2008045983A (ja) ステレオカメラの調整装置
US20120056999A1 (en) Image measuring device and image measuring method
JP2006170688A (ja) ステレオ画像作成方法及び3次元データ作成装置
JP2007033087A (ja) キャリブレーション装置及び方法
JP2004077262A (ja) 三次元撮像装置および方法
US20190268519A1 (en) A bundle adjustment system
JP2004193947A (ja) 三次元撮像装置および方法
US8885051B2 (en) Camera calibration method and camera calibration apparatus
JP2004347488A (ja) 現場作業支援装置
JP2016008838A (ja) 形状測定装置、構造物製造システム、形状測定方法、及び構造物製造方法
JPH07113535B2 (ja) 面傾度測定装置
Maas Concepts of single highspeed-camera photogrammetric 3D measurement systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171020

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181023

Year of fee payment: 5