KR101395234B1 - 삼차원 영상 캡쳐 방법 - Google Patents

삼차원 영상 캡쳐 방법 Download PDF

Info

Publication number
KR101395234B1
KR101395234B1 KR1020127011692A KR20127011692A KR101395234B1 KR 101395234 B1 KR101395234 B1 KR 101395234B1 KR 1020127011692 A KR1020127011692 A KR 1020127011692A KR 20127011692 A KR20127011692 A KR 20127011692A KR 101395234 B1 KR101395234 B1 KR 101395234B1
Authority
KR
South Korea
Prior art keywords
image
determined
cameras
camera
neighbor
Prior art date
Application number
KR1020127011692A
Other languages
English (en)
Other versions
KR20120081185A (ko
Inventor
크리스토프 노와크
호르스트 쾨니히
Original Assignee
에이. 트론쓰리디 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이. 트론쓰리디 게엠베하 filed Critical 에이. 트론쓰리디 게엠베하
Publication of KR20120081185A publication Critical patent/KR20120081185A/ko
Application granted granted Critical
Publication of KR101395234B1 publication Critical patent/KR101395234B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/52Combining or merging partially overlapping images to an overall image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Endoscopes (AREA)

Abstract

본 발명은 서로 중첩하는 획득 영역들을 가진 두 대의 카메라들(1a, 1b)을 이용하여 대상들의 3차원 영상들을 획득하기 위한 방법에 관한 것이다. 조정 방법 동안, 서로 관련된 등극선들(9a, 9b)의 군이 상기 카메라들(1a, 1b)의 각각에 대하여 결정된다. 특정된 랜덤 영상(40)이 영상화될 상기 대상(30) 위로 투사된다. 상기 카메라의 각 화소에 대하여, 제 1 이웃(13a)이 결정되고, 상기 관련된 제 1 등극선(9a)이 결정되고, 상기 제 1 등극선(9a)에 대하여, 상기 제 2 카메라(1b)의 상기 관련된 제 2 등극선(9b)이 결정된다. 상기 제 2 등극선(9b) 상에 위치된 상기 제 2 카메라(1b)의 영상의 모든 화소들에 대하여, 상기 제 1 이웃과 합동인 제 2 이웃(13b)이 결정된다. 상기 제 1 이웃(13a) 및 제 2 이웃(13b)의 세기 값들은 서로 비교되고 일치도가 계산된다. 상기 일치도가 가장 큰 상기 제 2 등극선(9b) 상의 상기 영상 위치(14)가 결정된다. 공간 위치(17)는 이전에 결정된 변환에 의하여 결정된다. 상기 3차원 영상은 그렇게 결정된 상기 공간 위치들(17)을 포함한다.

Description

삼차원 영상 캡쳐 방법{METHOD FOR ACQUIRING THREE-DIMENSIONAL IMAGES}
본 발명은 대상물들의 삼차원 영상들을 캡쳐하기 위한 청구항 제 1 항의 전제부에 따른 방법과 대상물들의 삼차원 영상들을 캡쳐하기 위한 청구항 제 8 항의 전제부에 따른 조립체에 관한 것이다.
본 발명의 방법들과 조립체들은 특히 치아의 삼차원 영상들을 제공하기 위하여 사용될 것이다. 사용 영역들은 치아 및 악골의 디지털 인상들의 제공, 진단 보조제들, 치과 치료의 모니터링, 및 임플란트의 신뢰할 수 있는 검사의 이행의 제공을 망라한다. 예를 들어, 내시경 검사를 위한 의학 및 산업 기술의 분야들에서 다른 사용 영역들과는 별개로, 접근하기 어려운 영역들의 체적 측정들을 위하여 상기 방법 및 조립체를 사용하는 것이 일반적으로 가능하다.
사람의 구강에서 접근하기 어려운 영역들, 예를 들어, 치아의 체적측정의 영상들의 획득은 본 발명의 배경을 구성한다. 이러한 연결의 어려움들은 한편으로는 캡쳐 장치의 소형화 요구 및 다른 한편으로는 방법의 높은 신뢰성 요구에 달려있다. 특히, 치과 진로의 영역에서, 약 0.1 mm의 치수들이 관련될 수 있고, 충분히 높은 해상도로 영상화되는 대상들의 모든 상세들을 기록할 수 있도록 약 0.01 mm의 범위에서 해상도가 요구된다.
기술의 상태에 따라, 3차원 영상들을 캡쳐하기 위한 치과 측정 장치들이 알려져 있다. 수많은 부품들이 영상 영역에서 요구받을 수 있듯이, 이들 장치들의 중요한 단점은 대개는 영상화되는 대상들에게 제기되는 센서 부품들이 다루기 어렵고 부피가 큰 치수들에 있다.
이처럼, 본 발명의 과제는 가능한 컴팩트한 구성을 가진 조립체와, 매우 정확한 3차원 영상들을 제공하기 위한 방법을 제공하는데 있다.
본 발명은 상기에서 설명된 유형을 가지며 청구항 제 1 항의 특징들을 가진 방법에 의하여 이 과제를 수행한다. 또한 본 발명은 상기에서 설명된 유형을 가지며, 청구항 제 8 항의 특징을 가진 조립체에 의하여 상기 과제를 수행한다.
본 발명에 따르면, 두 대의 카메라들의 배치가 사전 조정되고, 서로에 대하여 상기 카메라들의 위치들과 방위들이 결정되고, 두 대의 카메라들 중 하나의 카메라로 기록된 영상의 각 영상 위치와 다른 하나의 카메라로 기록된 영상의 각 영상 위치에 대하여 공간, 즉 3차원 캡쳐 공간에서 정확하게 하나의 위치를 할당하는 변환이 이루어진다. 조정 과정 동안, 다수의 등극선(epipolar line)들이 상기 카메라들의 각각에 대하여 결정되고, 상기 하나의 카메라의 하나의 등극선은 나머지 카메라의 하나의 등극선에게 할당된다. 소정의 랜덤 영상(random image)이 영상화될 대상 위로 투사되고, 상기 랜덤 영상의 개별적인 픽쳐 지점들은 두 개의 다른 색 값들 및/또는 세기 값들 중 적어도 하나를 갖는 것이 제공된다. 그 후, 상기 제 1 카메라의 각 화소에 대하여 제 1 이웃(neighborhood)이 결정되고, 상기 제 1 카메라에 대하여 결정되고 각 화소를 포함하는 등극선이 구축된다. 이후, 상기 구축된 제 1 등극선에 할당된 상기 제 2 카메라의 제 2 등극선이 결정된다. 상기 제 1 이웃에 합동인 제 2 이웃이 상기 제 2 등극선 상에 위치된 상기 제 2 카메라의 영상의 모든 화소들에 대하여 결정되고, 상기 제 1 이웃과 상기 제 2 이웃의 세기들이 비교되고, 상기 두 이웃들의 일치도가 결정되고, 가장 높은 일치도를 가진 상기 제 2 등극선 위의 영상 위치가 위치된다. 상기 변환은 상기 영상에서 상기 제 1 카메라의 화소의 위치와 상기 제 2 등극선의 상기 구축된 위치를 기반으로 공간에서의 위치를 결정하기 위하여 사용되고, 공간에서의 이 위치는 저장되며, 상기 영상화된 대상의 영상은 공간에서 결정된 위치들의 집합에 의하여 결정되고 다음의 처리를 위하여 이용가능하게 만들어진다. 이 과정은 3차원 영상들의 간단하고 효율적인 캡쳐와 대상들의 영상화를 감안하고, 동일한 화소 영역을 묘사하는 상기 두 카메라들의 두 화소들의 할당은 이전 방법들보다 훨씬 더 쉽고, 동일한 영상 영역을 묘사하는 두 개의 화소들을 위치시키기 위한 계산들은 상당히 가속된다.
본 발명의 특별한 실시예는, 공간에서 위치들의 집합이 기록되기 전 또는 후에 즉시 임의 영상의 투사의 비활성화를 제공하며 상기 대상의 선택적인 추가 조명을 제공하며, 적어도 하나의 카메라가 영상을 캡쳐한다. 각각의 세기 또는 영상 위치는 상기 지점들의 공간 내 위치가 상기 변환을 이용하여 결정되는 것에 근거하여 공간에서 상기 결정된 지점들의 각각에게 할당된다. 이 과정은 색으로, 선택적으로는 그들의 원래 색으로 표시될 상기 대상의 기록된 3차원 영상들을 감안한다.
기록된 지점들의 집합에 근거한 메슁(meshing) 방법을 이용하여 그리고 수많은 공간 요소들 또는 표면 요소들을 이용하여 표면 또는 공간의 분할이 또한 제공될 수 있다. 이는 상기 기록된 지점들의 집합이 쉽게 3차원적으로 표현될 때 장점을 구성하고, 후속의 조정을 수행하기가 쉽다.
본 발명의 특별한 양태는 상기 지점들의 집합의 공간에서 상기 지점들의 세기 값들에 근거하여 결정된 세기 값이 특히 보간에 의하여 상기 분할된 표면의 표면 요소들에게 할당되고 선택적으로 표시되는 것을 제공한다. 이는 상기 영상화된 대상들의 색의 특별히 현실적인 표시를 감안한다.
본 발명의 특별히 유리한 양태는 대상들이 카메라 조립체에 대하여 움직이는 동안 상기 대상들의 3차원 영상들이 연속적으로 기록되는 것을 제공하고, 상기 대상들의 상대적인 운동은 충분히 느려서 후속의 영상들에 기록된 영역들이 중첩되는 것과, 상기 결정된 지점들의 집합, 상기 분할된 표면들 또는 상기 분할된 공간들이 등거리 변환(isometric transformation)에 의하여 정렬되는 것을 제공한다. 그러므로, 다수의 영상들에 근거하여 조립된 영상을 생성하는 것이 가능하다. 매우 짧은 거리로부터 정상적으로 찍은 영상들이 몇 개의 부분 영상들로 구성되는 전체 영상을 생성하기 위하여 쉽게 조립되는 것이 유리한데, 상기 전체 영상의 크기는 상기 두 카메라들의 영상 영역의 크기보다 크다.
또한, 상기 제 2 카메라에 의하여 기록된 영상의 등극선 상에서 상기 화소들의 제 1 이웃과 제 2 이웃 사이의 일치가 부족한 경우, 광택 방지 유체가 영상화될 대상들의 표면 위로 분사되는 것과, 일치하는 이웃들을 위치시키는 과정이 상기 유체의 분사 후에 계속되는 것이 제공될 수도 있다. 이는 특히 강하게 반사하거나 매우 부드러운 표면을 가진 대상들의 경우 정확한 3차원 영상들을 얻는 것을 감안한 것이다.
더욱이, 영상 영역들과 중첩된 두 대의 카메라들을 이용하여 대상들의 3차원영상들을 캡쳐하기 위한 조립체에서, 랜덤 영상을 투사하기 위한 투사 장치가 본 발명에 따라 제공되어, 상기 랜덤 영상의 개별적 화소들은 적어도 두 개의 다른 색 및/또는 세기 값들 중 하나를 가지고, 상기 랜덤 영상은 상기 투사 장치의 두 카메라들의 중첩 영상 영역들로 투사될 수 있다. 이 조립체에서, 상기 랜덤 영상은 두 대의 카메라들(1a, 1b)의 영상 영역들에서 동일 등극선(9a, 9b) 위에 위치된 화소들이 뚜렷한 이웃들을 가지는 그러한 식으로 선택되는 것이 제공된다. 그러한 조립체는 쉽게 3차원 영상으로 변환될 수 있는 영상들을 캡쳐하는 것을 감안한 것이다.
본 발명의 특별한 양태는 바람직하게는 스위칭 가능하고 상기 두 대의 카메라들의 중첩 영상 영역들을 조명하는 광원을 제공한다. 상기 광원을 이용한 조명덕분에, 3차원 영상들을 캡쳐하기 위하여 요구되는 영상들 외에도 추가로 영상들을 찍을 수 있는데, 캡쳐링 후 대상의 3차원 영상을 채색하기 위하여 상기 추가적인 영상들을 즉시 보거나 사용할 수 있다.
더욱이, 광택 방지 유체를 영상화될 대상들 위로 분사하기 위하여 사용될 수 있는 분무기에 의하여 본 발명은 더 개발될 수 있다. 이는 3차원 영상을 더 쉽게 얻을 수 있게 하는 무광의 영상들을 캡쳐하는 것을 감안한 것이다.
본 발명의 또 다른 바람직한 양태는 조정 유닛이 상기 카메라들의 후방에 위치된다는 것인데, 상기 조정 유닛은 서로에 대하여 상기 두 대의 카메라들의 위치와 방위를 결정하고, 정확하게는 공간에서 하나의 위치, 특히 3차원 영상 공간에서 하나의 복셀(voxel)을, 상기 두 대의 카메라들 중 하나의 카메라에 의하여 캡쳐된 영상의 하나의 영상 위치, 특히 하나의 화소에게 그리고 다른 하나의 카메라에 의하여 캡쳐된 영상의 영상 위치, 특히 하나의 화소에게 할당하는 변환을 구축하고, 상기 카메라들의 각각에 대한 등극선들의 군을 결정하는데, 하나의 카메라의 하나의 등극선은 나머지 카메라의 하나의 등극선에게 정확하게 할당되고; 평가 유닛이 상기 카메라들 뒤에 위치되는데, 상기 평가 유닛은, 상기 제 1 카메라의 각 화소에 대하여, 예를 들어, 3×3 화소들 또는 5×5 화소들로 구성되는 제 1 이웃을 결정하고, 상기 제 1 카메라에 대하여 결정된, 상기 각 화소를 포함하는 제 1 등극선을 결정하고, 상기 결정된 제 1 등극선에게 할당된 다른 카메라의 상기 제 2 등극선을 결정하고, 그리고 상기 제 2 등극선 상에 위치된, 상기 제 2 카메라에 의하여 캡쳐된 영상의 모든 화소들에 대하여, 상기 제 1 이웃과 합동인 제 2 이웃이 결정되고, 상기 제 1 이웃과 상기 제 2 이웃의 세기 값들은 비교 유닛에 의하여 비교될 수 있고, 상기 비교 유닛은 상기 두 이웃들과 이들 영상 위치들의 일치도를 결정하고, 일치도가 가장 높은 제 2 등극선 상의 영상 위치, 특히 화소를 결정하고, 상기 변환은 상기 제 1 카메라의 화소의 영상 위치와 상기 제 2 등극선 상의 상기 결정된 영상 위치에 근거하여 공간에서의 위치를 결정하기 위하여 사용되고, 공간에서의 상기 위치는 메모리에 저장될 수 있다.
그러한 조립체는 간단하고 비용 효율적 방법으로 대상들의 3차원 영상들을 캡쳐하는 것을 감안한 것이다.
상기 두 대의 카메라들의 광학 축들이 거의 평행이라는 것이 또한 제공될 수 있다. 이는 변환의 쉬운 결정을 감안한 것이고 상기 캡쳐된 3차원 영상들의 정확성을 향상시킨다.
본 발명의 또 다른 유리한 양태는 상기 두 대의 카메라들과 상기 투사 장치가 동일한 지지체 또는 장치 위에 배열되는 것을 제공한다. 이는 특히 작은 공간만이 이용가능할 때 다루기 쉽게 하는 것을 감안한 것이다.
본 발명의 유리한 형태들 및 추가적인 발달들은 종속항들에서 설명된다.
본 발명은 다음의 도면들을 참조하여 예시적으로 설명된다.
도 1은 치과 거울 및 두 대의 카메라들의 형태와 치수들 그리고 투사 장치를 갖는 기구의 정면도를 보여준다.
도 2는 두 대의 카메라들과 투사 장치를 갖는 기구의 후면도를 보여준다.
도 3은 두 대의 카메라들과 서로에게 할당된 등극선들의 영상들을 보여준다.
도 4는 제 1 등극선, 제 2 등극선, 이들 등극선들 및 그들 각각의 이웃들 상에 위치된 지점들을 보여준다.
도 5는 제 2 등극선들 중 하나의 상에서 일치도의 이산적 영상과 일치도의 보간을 보여준다.
도 6은 몇 개의 개별적인 영상들로 구성되는 조립된 영상으로서 치아의 영상을 보여준다.
도 7은 두 대의 카메라들을 이용하여 생성된 영상들 상에서 두 개의 주어진 영상 위치들의 경우에 조정된 변환 함수의 효과를 보여준다.
도 8은 랜덤 영상을 보여준다.
도 1은 치과 거울의 형상과 치수들을 갖는 기구(10)를 가진 본 발명의 조립체의 기본적 구성의 예를 보여준다. 이 조립체는 기구(10), 두 대의 카메라들(1a, 1b), 및 상기 기구(10)의 단말 장치(11) 상에 마련된 투사 장치(2)를 포함한다. 대안적 실시예들은 내시경, 외과 기구들, 또는 일반적으로 치아와 같이 접근하기 어려운 영상화될 대상들(30)에 도달할 수 있고, 아래에서 설명될 두 대의 카메라들(1a, 1b) 및 투사 장치(2)가 마련될 수 있는 기구 헤드들을 포함할 수 있다.
이들 두 대의 카메라들(1a, 1b)은 부분적으로 중첩된 영상 영역들(3a, 3b)을 가진다. 두 대의 카메라들(1a, 1b)의 영상 영역들은 영상화될 대상들(30)로부터 상기 카메라들(1a, 1b)의 전형적인 거리에 따라서 동일한 크기로 선택되고, 상기 영상 영역들은 상기 대상들(30)의 가능한 큰 부분이 상기 두 대의 카메라들(1a, 1b)의 영상 영역들(3a, 3b)의 중첩 영역들(4) 내에 위치되도록 선택된다.
상기 두 대의 카메라들(1a, 1b) 사이의 영역에, 상기 두 대의 카메라들(1a, 1b)의 중첩 영역들(4)의 적어도 일부 영역으로 랜덤 영상(40)을 투사하는 투사 장치(2)가 위치된다. 상기 랜덤 영상(40)을 상기 두 대의 카메라들(1a, 1b)의 두 개의 영상 영역들(3a, 3b)의 전체 중첩 영역들(4) 위로 투사하는 것이 특히 유리하다. 도 2에 도시된 예에서, 상기 랜덤 영상(40)은 상기 투사 장치(2)에 의하여 상기 두 대의 카메라들(1a, 1b)의 두 영상 영역들(3a, 3b)의 중첩 영역(4)을 포함하는 투사 영역(5) 내로 투사된다.
대상들의 영상들이 캡쳐되기 전에, 상기 두 대의 카메라들(1a, 1b)의 위치들은 조정된다. 상기 투사 장치(2)는 상기 두 대의 카메라들(1a, 1b)을 조정할 필요가 없고 전체 조정 과정 동안 스위치 오프 상태로 유지될 수 있다. 처음에 상기 조정 과정은 서로에 대하여 상기 두 대의 카메라들(1a, 1b)의 위치와 방위를 결정한다. 이 과정을 구현하는 다른 방법들이 있는데, 유리한 방법은 J. Heikkil가"IEEE Transactions on Pattern Analysis and Machine Intelligence 22(10), 1066-1077, 2000"에 게재한 "Geometric camera calibration using circular control points" 또는 Faugeras, Toscani가 "Proc. Int'l Workshop on Industrial Applications of Machine Vision and Machine Intelligence, Tokyo, Japan, pp. 240-247, February 1987"에 게재한 "Camera calibration for 3D computer vision"에 설명되어 있다. 변환은 결과로서 얻어지고, 상기 변환은 상기 두 대의 카메라들(1a, 1b)의 중첩 영상 영역 내에 공간 내 지점(17)을 상기 제 1 카메라(1a)가 캡쳐한 영상의 픽쳐 지점(8a)에게 할당하고 그리고 상기 제 2 카메라(1b)가 캡쳐한 영상의 픽쳐 지점(8b)에게 할당한다.
픽쳐 지점(8a, 8b)은 각 화소에게 1대 1 베이스로 전단사적으로(bijectively) 할당된다. 그러나, 픽쳐 지점들은 또한 개개의 화소들 사이에 위치될 수도 있는데, 이는 아래에서 설명된 방법이 그러한 서브-화소 연산의 응용에 적합하기 때문이다.
물론, 임의 픽쳐 지점(8a, 8b)을 화소에게 할당하는 것이 가능하지는 않지만, 서로에게 할당된 등극선들(9a, 9b) 상에 위치된 이들 픽쳐 지점들(8a, 8b)을 위한 공간 내 지점(17)을 결정하는 것은 가능하다. 이러한 이유로, 조정과 관련하여 상기 두 대의 카메라들(1a, 1b)의 등극선들(9a, 9b)(도 3에 도시)의 군을 결정하고 하나의 카메라의 하나의 등극선(9b)을 나머지 카메라(1a)의 등극선(91)의 각각에게 전단사적으로 할당하는 것이 요구된다. 상기 등극선들(9a, 9b)을 결정하여 서로에게 할당하기 위한 방법들은 이 기술에서 통상의 지식을 가진 자들에게 알려져 있고, 예를 들어, Zhengyou Zhang이 "A Review, International Journal of Computer Vision, Vol. 27, pp. 161-195, 1996"에 게재한 "Determining the Epipolar Geometry and its Uncertainty"에 설명되어 있다.
이미 언급되었듯이, 랜덤 영상(40)은 본 발명의 방법의 과정에서 상기 두 대의 카메라들(1a, 1b)의 중첩 영역(4) 위로 투사된다. 상기 랜덤 영상은, 예를 들어, 소정의 높이와 폭을 갖는 디지털 영상이거나 사각형의 어레이로 배열된 다수의 화소들 또는 영상 영역들일 수 있다. 이들 화소들의 각각은 수많은 기설정 색 및/또는 세기 값들로부터 선택된 색과 세기 값들을 가진다. 아래에서 설명되는 방법을 위하여, 각 화소의 이웃, 예를 들어, 3×3 또는 5×5 화소들로 구성되는 이웃이 상기 전체 랜덤 영상(4) 내의 각각 화소에게 명확하게 할당될 수 있다는 것이 요구되기 때문에, 랜덤 영상(40)이 사용된다. 이웃의 명료한 할당에 근거하여, 공간 내의 지점은 상기 두 대의 카메라들(1a, 1b) 중 하나에 의하여 캡쳐된 두 개의 디지털 영상들에서 다른 위치들에서 발견될 수 있다. 흑색과 백색과 같은 두 개의 다른 광 세기 값들이 하나의 화소에 대하여 가능한 랜덤 값들로서 선택되면, 5×5 화소들로 구성되는 이웃들을 이용할 때, 약 32,000,000개의 다른 이웃들이 가능하고, 그 결과 32,000,000개까지의 화소들로 이루어진 영상들이 어떠한 제한 없이 캡쳐될 수 있고 뚜렷한 이웃이 상기 캡쳐된 화소들의 각각에게 명료하게 할당된다.
상기 랜덤 영상은 간단한 수단에 의하여 생성될 수 있고, 예를 들어, 슬라이드의 형태로 이용가능하다. 상기 화소들의 각각에게 할당된 개별적인 불규칙 값들은 본 발명의 분야에서 알려진 메르센 트위스터(Mersenne Twister) 알고리즘과 같이 알려진 알고리즘을 이용하여 계산될 수 있고, M. Matsumoto와 T. Nishimura가 "ACM Trans. on Modeling and Computer Simulations, 1998"에 게재한 "Mersenne Twister: A 623-dimensionally equidistributed uniform pseudorandom number generator"에 설명되어 있다.
대안적으로, 상기 조립체를 위한 공간을 감소시키기 위하여, 상기 투사 유닛(2)은 회절 격자를 갖고서 형성될 수 있고, 디지털 영상의 정보를 위한 상기 회절 격자는 슬라이드들이 사용될 때보다 상당히 더 작은 치수들을 가진다. 디지털 영상들의 표시를 위한 상기 회절 격자들의 구성은 이 기술에서 통상의 지식을 가진 자들에게 알려져 있고, 예를 들어, JR Leger, MG Moharam, 및 TK Gaylord가 "Applied Optics, 34 (14), p. 2399-2400, 1995"에 게재한 "Diffractive Optics An Introduction to the Feature Issue"에 설명되어 있다. 슬라이드 또는 회절 격자의 영역에서, 레이저 다이오드와 같은 광원은 상기 슬라이드 또는 회전 격자를 통하여 그의 광을 상기 대상물들(30) 상으로 투사하기 위하여 위치된다.
상기 대상(30)의 3차원 영상을 얻기 위하여, 아래에서는 제 1 카메라(1a)로 언급될, 상기 두 대의 카메라들 중 하나에 의하여 캡쳐된 영상들의 각 화소(8a)에 대하여 다음 단계가 개별적으로 수행된다. 상기 제 1 카메라(1a)에 의하여 캡쳐된 이들 화소들(8a)은 아래에서 제 1 화소들(8a)로 언급될 것이다. 이들 화소들(8a)의 수는 아래에서 제 2 카메라(1b)로서 언급될 나머지 카메라의 영상 영역의 일부가 아닌 영상 영역들의 화소들의 수에 의하여 임의로 감소될 것이다. 상기 제 2 카메라(1b)에 의하여 캡쳐된 이들 화소들(8b)은 아래에서 제 2 화소들(8b)로 언급될 것이다.
처음에, 제 1 이웃(13a)이 상기 제 1 화소들(8a)의 각각에 대하여 결정된다. 상기 이웃(13)은, 예를 들어, 5×5 화소들로 구성되는 이웃일 수 있고, 상기 각 화소(8a)는 바람직하게는 상기 제 1 이웃(13a)의 중앙 부분에 위치될 수 있다.
상기 제 1 카메라(1a)의 상기 제 1 화소들(8a)의 각각에 대하여, 도 4에 도시된 것처럼, 상기 제 1 카메라(1a)의 등극선(9a)과 상기 제 1 등극선(9a)에게 할당된 상기 제 2 카메라(1b)의 등극선(9b)이 사용된다. 이미 언급되었듯이, 이들 등극선들(9a, 9b)은 상기 카메라들(1a, 1b)의 조정 과정에서 이미 결정되었다. 그 후, 5×5 화소들로 구성되는 제 2 이웃(13b)이 상기 제 2 등극선(9b) 상에 위치된, 상기 제 2 카메라(1b)에 의하여 캡쳐된 영상의 상기 제 2 화소들(8b)에 대하여 결정되고, 상기 제 2 이웃(13b)은 그 후 상기 제 1 이웃(13a)과 비교된다. 상기 비교 과정에서, 일치도가 결정되는데, 이 일치도는 상기 두 이웃들(13a, 13b)의 세기 값들이 일치하는 지를 보여준다.
상기 두 이웃들(13a, 13b)에게 할당된 세기 값들이 일치하면, 일치도-얼마나 정형화되는 지에 따르는-는 가장 높거나 가장 낮을 것이고, 전체 일치의 경우 특히 0일 것이다. 예를 들어, 두 이웃들의 일치도의 척도로서 유클리디안(Euclidian) 공간을 이용하는 것이 가능한데, 이 경우, 상기 이웃들의 모든 세기 값들은 화소마다 비교될 것이다. 일치도를 얻기 위한 다른 방법들은 Reinhard Klette, Andreas Koschan, Karsten Schl가 저술한 "Computer Vision RInformation aus digitalen Bildern, 1st edition, Friedr. Vieweg & Sohn Verlag, 1996"에서 찾을 수 있다.
일치도는 두 개의 화소들의 각각의 이웃들(13a, 13b)에 대하여 결정되는데, 첫 번째는 상기 제 1 카메라(1a)에 의하여 캡쳐된 영상 내에 위치되고 나머지 하나는 상기 제 1 화소(8a)가 상기 제 1 카메라(1a)에 의하여 캡쳐된 영상 내에 위치되는 상기 제 1 등극선(9a)에게 할당된 제 2 등극선(9b) 상에 위치된다. 상기 제 2 등극선들(9b)의 각각의 위에는 전형적으로 100 내지 1,000개의 화소들이 있기 때문에, 상기 제 2 등극선(9b) 상의 모든 지점들에 대한 일치도가 결정된다. 이들 일치도들은 각 화소의 영상 위치와 함께 이산적으로 정의된 함수들에 대입되고, 상기 함수들의 정의 영역은 보간 함수(20)에 의하여 제 2 등극선(9b) 전체에게 연장된다. 일치도의 이 이산적으로 정의된 함수와 그의 할당된 보간 함수(20)가 도 5에 나타나 있다. 상기 보간 함수(20)의 최대값이 결정되고, 상기 최대값이 발견되는 영상 위치(14)는 상기 제 1 카메라에 의하여 캡쳐된 영상으로부터 상기 화소(8a)에 대응하는 영상 위치로서 간주된다. 이 영상 위치(14)와 상기 제 1 카메라(1a)에 의하여 캡쳐된 영상으로부터 상기 화소(8a)의 영상 위치는 그들의 이웃들이 매우 유사하고 영상 영역들이 명확하기 때문에, 상기 대상의 동일한 부분을 보여준다고 가정한다.
그리하여, 상기 제 1 카메라(1a)에 의하여 캡쳐된 영상의 화소로서 대상의 동일 부분을 보여주는 상기 제 2 카메라(1b)에 의하여 캡쳐된 영상의 영상 위치들은 상기 제 2 등극선(9b) 상에서만 검색된다. 이는 이웃의 모호함의 엄격한 기준이 더 이상 랜덤 영상 전체에 적용되지 않고, 대신 모호하게 될 상기 두 대의 카메라들(1a, 1b)에 의하여 캡쳐된 영상들에서 동일 등극선들(9a, 9b) 상에 놓인 화소의 이웃만을 요구한다는 것을 의미한다. 허용가능한 랜덤 영상의 영역의 연장으로 인하여, 대부분의 경우들에서, 3×3 화소들의 이웃을 결정하는 것은 충분하다. 보다 높은 신뢰성과 정확도를 위하여, 수치적으로 더욱 복잡한 5×5 화소들의 이웃이 사용될 수 있다.
상기 두 개의 결정된 영상 위치들은 공간에서 위치(17)를 산출하는 조정 과정 동안 변환된다. 공간 내의 이 위치(17)는 상기 두 대의 카메라들에 의하여 캡쳐된 영상들에서 결정된 양 영상 위치들에서 캡쳐링 과정 동안 캡쳐되었던 공간 내의 위치에 해당한다.
이 과정이 상기 제 1 카메라(1a)에 의하여 캡쳐된 영상의 수많은 영상 지점들(8a)에 적용되면, 동시에 상기 제 2 카메라에 의하여 캡쳐된 영상에서 똑같은 수의 영상 위치들(14)과 상기 캡쳐된 대상(30)의 표면 상의 공간 내 똑같은 수의 지점들(17)이 얻어진다.
본 발명의 조립체의 추가적인 발전은 도 1에 나타나 있고, 상기 조립체는 상기 두 대의 카메라들의 영상 영역들(3a, 3b)의 중첩 영역(4)에서 영상화될 상기 대상들(30)을 조명하는 스위칭 가능한 광원(6)을 추가로 구비한다. 이 광원(6)은 상기 투사 유닛(2)을 켜기 전에 가능한 짧은 시간 켜질 수 있다. 그 후, 상기 두 대의 카메라들(1a, 1b) 중 하나 또는 둘 모두는 영상을 캡쳐하고, 하나 또는 몇 개의 색 채널들에 대한 세기 값들이 캡쳐된다. 그 후, 상기 광원(6)은 꺼지고, 상기 투사 유닛(6)은 켜지며, 공간 내에서 상기 위치들(17)을 결정하기 위한 위에서 설명된 과정이 시행된다. 상기 조립체의 위치는 상기 광원(6)의 광을 이용한 영상의 캡쳐링과 공간 내의 상기 위치들(17)의 후속 캡쳐링 사이에서 변하지 않고 유지된다고 가정한다. 공간 내의 상기 영상 위치들(14)과 상기 각각의 지점들(17)을 결정한 후, 공간 내의 각 지점(17)은 변환을 통하여 결정한 화소(8a)의 세기 값 및/또는 상기 제 2 등극선(9b) 상의 상기 제 2 각 화소(8b)를 할당받을 수 있다.
본 발명의 과정은 상기 지점들을 결정한 후 공간 내에서 상기 결정된 지점들(17)의 결정된 지점 클라우드에게 메슁 단계를 적용함으로써 추가로 개선될 수 있다. 공간 내에서 상기 결정된 지점들(17)은 4면체로 표시되는 3차원 대상의 표면 상 지점들로서 간주된다. 상기 대상은 프리즘들 또는 정육면체들과 같은 다른 요소들로도 표시될 수 있고, 표면 만이 삼각형들 또는 직사각형들로 표시될 수 있다. 메슁 알고리즘의 포괄적인 설명은, 예를 들어, Joe, Simpson이 "International Journal for Numerical Methods in Engineering, Wiley, Vol. 23, pp. 751-778, 1986"에 게재한 "Triangular Meshes for Regions of Complicated Shape"이나, Borouchaki, Lo가 "Computer methods in applied mechanics and engineering, Elsevier, Vol. 128, pp. 153-167, 1995"에 게재한 "Fast Delaunay triangulation in three dimensions"에서 발견될 수 있다.
세기 값들이 앞서 공간 내 개별적인 지점들(17)에게 이미 할당되었다면, 그 세기 값들은 표면 상에서 연속적인 천연색을 생성하는 보간에 의하여 상기 표면 요소들에게 이동될 수 있다.
도면들에 도시된 조립체는 영상화될 대상(30)의 초당 약 10 내지 20개의 영상들을 캡쳐한다. 상기 조립체가 영상화될 대상들(여기서는 치아)에 대하여 천천히 움직여서, 도 6에 도시된 것처럼, 상기 대상들의 중첩 영역들이 두 후속 시간 단계들에서 캡쳐될 예정이면, 상기 중첩 영상 영역들을 등거리 변환에 의하여 서로 변환하는 것이 가능하고, 그 결과 상기 중첩 영상 영역들은 공간 내의 동일 영역 내에 위치된다. 그러한 과정들은, 예를 들어, TimothJost, Heinz H가 "Proceedings of the 24th DAGM Symposium on Pattern Recognition, pp. 91-99, 2002"에 게재한 "Fast ICP algorithms for shape registration"에 설명되어 있다. 다른 시간 지점들에서 몇 개의 영상들을 취함으로써, 더 큰 3차원 영상이 몇몇 더 작은 영상들을 사용하여 조립될 수 있다. 이러한 식으로, 도 6에 도시된 치아의 전체 행의 3차원 영상이 얻어질 수 있다. 캡쳐링 처리 과정 동안, 현재 캡쳐된 3차원 전체 영상이 모니터 상에 표시된다. 측정 과정은 측정 동안 최적의 포지셔닝(가상 수평선)에 의하여 추가로 지원되고, 측정 헤드의 현재 위치는 각각의 3차원 영상으로 표시된다.
아래에서 설명된 본 발명의 조립체의 개선은 상기 카메라들에 의하여 캡쳐된 영상들의 향상된 대비(contrast)로 귀결된다. 영상화될 대상들의 표면이 매우 반사적이면, 상기 영상들은 올바르게 표시되지 않거나 영상들의 품질에 크게 영향을 미치는 일부 원치않는 반사들을 나타낼 수 있다. 이 때문에, 알긴산 염과 같은 광택 방지 액체가 치아 위로 분사될 수 있는데, 이는 설명된 과정을 적용하여 3차원 영상들을 캡쳐하는 것을 상당히 더 쉽게 할 수 있다. 이 때문에, 상기 조립체는 광택 방지 유체를 영상화될 대상들 위로 분사하기 위하여 사용될 수 있는 분무기(7)를 장착한다.
상기 조립체를 지지하는 기구(10)의 손잡이는 그 뒤쪽에 케이블을 가지는데, 상기 케이블은 상기 조립체를 처리 장치에 연결한다. 이 처리 장치는 상기 카메라들(1a, 1b), 상기 투사 유닛(2), 및 상기 광원(6)에게 공급 전압을 공급하고 상기 카메라들(1a, 1b)로부터 모여진 데이터를 수신한다. 더욱이, 상기 액체는 상기 기구(10)의 손잡이를 통하여 액체 도관을 경유하여 분무기(7)에게 공급될 수 있다.
대안적으로, WLAN 인터페이스가 상기 데이터를 상기 처리 유닛으로 전달하기 위하여 사용될 수 있다. WLAN 인터페이스는 어떤 케이블들을 더 이상 요구하지 않는 장점을 제공한다. 이 실시예에서, 상기 기구(10)는 상기 카메라들, 상기 투사 유닛, 및 상기 광원에게 전압을 공급하기 위한 배터리와, 상기 광택 방지 액체를 유지하는 탱크를 장착한다.
유리하게는, 상기 랜덤 영상(40)은 두 대의 카메라들(1a, 1b)에 의하여 캡쳐된 영상들에서 동일 등극선(9a, 9b) 상에 위치된 화소들이 뚜렷한 이웃들(13a, 13b)을 가지는 그러한 식으로 선택되는 것이 제공될 수 있다.
상기 개별적인 화소들의 이웃들(13a, 13b)이 서로 다르고, 특히 등극선(9a, 9b) 상에서 독특하다는 점에서 그러한 랜덤 영상(40)은 알려진 구조를 가진 광 패턴과는 다르다. 구조화된 광 패턴들은 동일한 이웃들(13a, 13b)을 가지는 다수의 화소들을 포함한다. 구조화된 광 패턴들과는 반대로, 단일 캡쳐링 단계로 상기 카메라들에 의하여 캡쳐된 영상들에서 공간 내 동일 지점들을 인식하기 위하여 인식 과정을 수행하는 것이 가능하다. 몇몇 구조화된 광 패턴들을 이용하여 몇몇 후속 영상들이 캡쳐되면 생성되는 운동 인위물들이 회피될 때, 이는 특히 유리하다. 그러므로, 더 빠르고 더 간단한 3차원 영상들의 검출이 가능하게 된다.

Claims (14)

  1. 두 대의 카메라들(1a, 1b)의 배치가 사전에 조정되고,
    상기 두 대의 카메라들(1a, 1b)의 서로에 대한 위치들과 방위들이 결정되고 그리고 변환이 구축되되, 상기 변환은 3차원 영상 공간 내에서 정확히 하나의 공간 내 위치(17)를 상기 두 대의 카메라들 중 제 1 카메라(1a)를 이용하여 캡쳐된 영상의 화소의 위치인 제 1 영상 위치(8a) 및 상기 두 대의 카메라들 중 제 2 카메라(1b)를 이용하여 캡쳐된 영상의 화소의 위치인 제 2 영상 위치(8b)에 할당하고,
    조정 과정 동안, 제1 등극선(9a) 및 제 2 등극선(9b)의 군이 상기 두 대의 카메라들(1a, 1b)의 각각에 대하여 결정되고, 제 2 카메라 (1b)의 제 2 등극선(9b) 중 정확히 하나가 제 1 카메라(1a)의 제 1 등극선(9a)의 각각에게 할당되는,
    중첩 영상 영역들을 가진 두 대의 카메라들(1a, 1b)을 사용하여 대상들의 3차원 영상들을 캡쳐하기 위한 방법에 있어서,
    - 미리결정된의 랜덤 영상(40)이 영상화될 대상(30) 위로 투사되고, 상기 랜덤 영상(40)의 개별적인 화소들은 두 개 이상의 다른 색 값들 및 세기 값들 중 하나 이상을 갖고, 그 후 상기 제 1 카메라(1a)의 각 화소에 대하여:
    - 제 1 이웃(13a)이 결정되고;
    - 제 1 카메라(1a)에 대하여 결정된, 각 화소(8a)를 포함하는 제 1 등극선(9a)이 결정되고;
    - 상기 결정된 제 1 등극선(9a)에게 할당된 제 2 카메라(1b)의 상기 제 2 등극선(9b)이 결정되고;
    그리고 상기 제 2 등극선(9b) 상에 위치된, 상기 제 2 카메라(1b)에 의하여 캡쳐된 영상의 각 화소(8b)에 대하여,
    - 상기 제 1 이웃(13a)에 부합하는 제 2 이웃(13b)이 결정되고;
    - 상기 제 1 이웃(13a)과 상기 제 2 이웃(13b)의 세기 값들이 비교되고;
    - 상기 제 1 이웃 및 제 2 이웃에 대한 일치도가 결정되고; 그리고
    - 가장 높은 일치도를 갖는 상기 제 2 등극선(9b) 상의 화소의 위치인 영상 위치(14)가 결정되고,
    - 공간 내 위치(17)는, 상기 제 1 카메라(1a)를 이용하여 캡쳐된 영상의 화소의 제 1 영상 위치(8a) 및 상기 제 2 등극선(8b) 상에서 결정된 영상 위치(14)에 따른 변환에 의하여 결정되고,
    상기 공간 내 위치(17)는 저장되고,
    대상(30)의 영상은 결정된 공간 내 위치(17)의 집합에 의하여 결정되고, 추가적인 처리를 위하여 이용가능하게 되는 것을 특징으로 하는,
    3차원 영상 캡쳐 방법.
  2. 제 1 항에 있어서,
    상기 랜덤 영상의 투사는 상기 공간 내 위치(17)의 집합을 캡쳐링하기 전 또는 후에 즉시 비활성화되고, 영상화될 대상들(30)은 선택적으로 추가로 조명되고, 적어도 하나의 카메라(1a, 1b)가 영상화될 대상(30)의 영상을 캡쳐링하며,
    공간 내 위치들(17)에 의하여 화소(8a, 8b)의 영상 위치인 영상 위치(14)의 선택적으로 보간된 세기 값 또는 선택적으로 보간된 세기 값들은, 상기 변환이 결정된 공간 내 위치들(17)의 각각에게 할당되는 것에 따라 결정되는 것을 특징으로 하는,
    3차원 영상 캡쳐 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    표면 또는 상기 공간은 복수의 공간 또는 표면 요소들에 따라 상기 캡쳐된 위치의 집합에 근거한 메슁 방법에 의하여 분할되는 것을 특징으로 하는,
    3차원 영상 캡쳐 방법.
  4. 제 2 항에 있어서,
    위치의 집합의 공간 내 위치의 세기 값들에 따라 결정된 세기 분포는 분할된 표면의 표면 요소들에게 할당되고 선택적으로 표시되는 것을 특징으로 하는,
    3차원 영상 캡쳐 방법.
  5. 제 1 항 또는 제 2 항에 있어서,
    대상들(30)의 3차원 영상들이 계속해서 캡쳐되고,
    상기 대상들은 상기 카메라들(1a, 1b)에 상대적으로 이동되고, 상대적인 이동은 시간적으로 뒤에 오는 두 영상들의 공간의 캡쳐된 영역이 중첩되도록 충분히 느리며, 그리고
    결정된 위치들의 집합, 분할된 표면들 또는 분할된 공간들은 등거리 변환에 의하여 정렬되고, 그리하여 조립된 영상이 복수의 영상들로부터 얻어지는 것을 특징으로 하는,
    3차원 영상 캡쳐 방법.
  6. 제 1 항 또는 제 2 항에 있어서,
    상기 제 1 이웃(13a)과 상기 제 2 카메라(1b)에 의하여 캡쳐된 영상의 등극선(9b) 상의 제 2 화소(8b)의 제 2 이웃(13b) 사이의 일치도가 부족한 경우, 영상화될 대상(30)의 표면을 무광택으로 하는 유체가 상기 영상화될 대상들(30) 상으로 분사되고, 일치하는 이웃들을 결정하는 과정이 상기 유체의 분사 후에 계속되는 것을 특징으로 하는,
    3차원 영상 캡쳐 방법.
  7. 제 1 항 또는 제 2 항에 있어서,
    상기 랜덤 영상(40)은, 상기 두 대의 카메라들(1a, 1b)에 의하여 캡쳐된 영상들 내에서 동일한 등극선(9a, 9b) 상에 위치된 화소들이 다른 이웃들(13a, 13b)을 가지는 방식으로 선택되는 것을 특징으로 하는,
    3차원 영상 캡쳐 방법.
  8. 중첩 영상 영역들을 가진 두 대의 카메라들(1a, 1b)을 사용하여 대상들의 3차원 영상들을 캡쳐하기 위한 조립체로서,
    랜덤 영상(40)을 투사하기 위한 투사 유닛(2)을 포함하고, 상기 랜덤 영상(40)의 개별적 화소들은 두 개 이상의 다른 색 값들 및 세기 값들 중 하나 이상을 가지고, 그리고
    상기 랜덤 영상(40)은 상기 투사 유닛(2)에 의하여 상기 두 대의 카메라들(1a, 1b)의 상기 중첩 영상 영역들로 투사될 수 있는, 3차원 영상들을 캡쳐하기 위한 조립체에 있어서,
    a) 조정 유닛이 상기 두 대의 카메라들(1a, 1b) 뒤에 위치됨으로써,
    상기 두 대의 카메라들(1a, 1b)의 서로에 대한 위치들과 방위들 그리고 변환이 결정될 수 있고, 상기 변환은 3차원 영상 공간 내의 정확히 하나의 공간 내 위치(17)를 상기 두 대의 카메라들 중 제 1 카메라(1a)를 이용하여 캡쳐된 영상의 화소의 위치인 영상 위치와, 상기 두 대의 카메라들 중 제 2 카메라(1b)를 이용하여 캡쳐된 영상의 화소의 위치인 영상 위치에 할당하고,
    제 1 등극선(9a) 및 제 2 등극선(9b)의 군이 상기 두 대의 카메라들(1a, 1b)의 각각에 대하여 결정되고, 제 2 카메라(1b)의 제 2 등극선(9b) 중 정확히 하나가 제 1 카메라(1a)의 제 1 등극선 (9a)의 각각에게 할당되고,
    b) 평가 유닛이 상기 두 대의 카메라들 뒤에 위치되고,
    상기 제 1 카메라(1a) 에 의하여 캡쳐된 영상의 각 화소에 대하여:
    - 제 1 이웃(13a)이 결정될 수 있고;
    - 상기 제 1 카메라(1a)에 대하여 결정된, 개별 화소(1a)를 포함하는 제 1 등극선(9a)이 결정될 수 있고;
    -상기 결정된 제 1 등극선(9a)에 할당된 제 2 카메라(1b)의 제2 등극선(9b)이 결정될 수 있고; 그리고
    상기 제 2 등극선(9b) 상에 위치된, 제 2 카메라(1b)에 의하여 캡쳐된 영상의 각 화소(8b)에 대하여:
    - 상기 제 1 이웃(13a)에 부합하는 제 2 이웃(13b)이 결정될 수 있으며,
    c) 상기 제 1 이웃(13a)과 상기 제 2 이웃(13b)의 세기 값들을 비교하는 비교 유닛이 제공되되,
    - 제 1 이웃과 제 2 이웃에 대한 일치도 및 가장 높은 일치도를 갖는 상기 제 2 등극선(9b) 상의 화소의 위치인 영상 위치가 상기 비교 유닛에 의하여 결정될 수 있고;
    상기 제 1 카메라(1a)를 사용하여 캡쳐된 영상의 화소(8a)의 영상 위치 및 상기 제 2 등극선(9b) 상의 상기 결정된 영상 위치(14)를 근거로 상기 비교 유닛에 의하여 변환이 결정될 수 있고, 공간 내 위치(17)가 메모리에 저장될 수 있는 것을 특징으로 하는.
    3차원 영상들을 캡쳐하기 위한 조립체.
  9. 제 8 항에 있어서,
    광원(6)이 상기 두 대의 카메라들의 상기 중첩 영상 영역들을 조명하는 것을 특징으로 하는,
    3차원 영상들을 캡쳐하기 위한 조립체.
  10. 제 8 항 또는 제 9 항에 있어서,
    광택 방지 유체를 상기 영상화될 대상들 위로 적용하기 위한 분무기를 특징으로 하는,
    3차원 영상들을 캡쳐하기 위한 조립체.
  11. 제 8 항 또는 제 9 항에 있어서,
    상기 두 대의 카메라들(1a, 1b)의 광학 축들은 평행한 것을 특징으로 하는,
    3차원 영상들을 캡쳐하기 위한 조립체.
  12. 제 8 항 또는 제 9 항에 있어서,
    상기 두 대의 카메라들(1a, 1b)과 상기 투사 유닛(2)은 동일 지지체 또는 기구(10) 위에 배치되는 것을 특징으로 하는,
    3차원 영상들을 캡쳐하기 위한 조립체.
  13. 제 8 항 또는 제 9 항에 있어서,
    상기 랜덤 영상(40)은, 상기 두 대의 카메라들(1a, 1b)에 의하여 캡쳐된 영상 내에서 동일한 등극선(9a, 9b) 상에 위치된 화소들이 다른 이웃들(13a, 13b)을 가지도록 선택되는 것을 특징으로 하는,
    3차원 영상들을 캡쳐하기 위한 조립체.
  14. 삭제
KR1020127011692A 2009-10-07 2010-10-06 삼차원 영상 캡쳐 방법 KR101395234B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ATA1585/2009 2009-10-07
AT0158509A AT508563B1 (de) 2009-10-07 2009-10-07 Verfahren zur aufnahme dreidimensionaler abbilder
PCT/AT2010/000372 WO2011041812A1 (de) 2009-10-07 2010-10-06 Verfahren zur aufnahme dreidimensionaler abbilder

Publications (2)

Publication Number Publication Date
KR20120081185A KR20120081185A (ko) 2012-07-18
KR101395234B1 true KR101395234B1 (ko) 2014-05-15

Family

ID=43430905

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127011692A KR101395234B1 (ko) 2009-10-07 2010-10-06 삼차원 영상 캡쳐 방법

Country Status (7)

Country Link
US (1) US9050158B2 (ko)
EP (1) EP2486542B1 (ko)
JP (1) JP5328985B2 (ko)
KR (1) KR101395234B1 (ko)
AT (1) AT508563B1 (ko)
BR (1) BR112012008009A2 (ko)
WO (1) WO2011041812A1 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT511251B1 (de) 2011-03-18 2013-01-15 A Tron3D Gmbh Vorrichtung zum aufnehmen von bildern von dreidimensionalen objekten
AT510554B1 (de) 2011-03-18 2012-05-15 A Tron3D Gmbh Vorrichtung zum aufnehmen von bildern von dreidimensionalen objekten
AT511223B1 (de) 2011-03-18 2013-01-15 A Tron3D Gmbh Vorrichtung zum aufnehmen von bildern von dreidimensionalen objekten
DE102012100953B4 (de) 2012-02-06 2020-01-09 A.Tron3D Gmbh Vorrichtung zum Erfassen der dreidimensionalen Geometrie von Objekten und Verfahren zum Betreiben derselben
DE102012100959A1 (de) 2012-02-06 2013-08-08 A.Tron3D Gmbh Verfahren zum Darstellen optisch ermittelter Oberflächengeometrien
DE102012100955A1 (de) 2012-02-06 2013-08-08 A.Tron3D Gmbh Vorrichtung zum Erfassen der dreidimensionalen Geometrie von Objekten
JP6015501B2 (ja) * 2012-06-01 2016-10-26 ソニー株式会社 歯用装置及び医療用装置
EP2672461A1 (de) 2012-06-05 2013-12-11 a.tron3d GmbH Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
US9080856B2 (en) * 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US20150260830A1 (en) 2013-07-12 2015-09-17 Princeton Optronics Inc. 2-D Planar VCSEL Source for 3-D Imaging
US9268012B2 (en) 2013-07-12 2016-02-23 Princeton Optronics Inc. 2-D planar VCSEL source for 3-D imaging
EP2886043A1 (de) 2013-12-23 2015-06-24 a.tron3d GmbH Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
IL235952A0 (en) 2014-11-27 2015-02-26 Imaging Solutions Ltd Ab Intraoral 3D scanner
KR102042024B1 (ko) 2017-12-14 2019-11-07 주식회사 바텍 구강 스캐너
KR102033426B1 (ko) 2018-03-20 2019-10-17 주식회사 바텍 구강 스캐너
US11096765B2 (en) 2018-06-22 2021-08-24 Align Technology, Inc. Light field intraoral 3D scanner with structured light illumination
US10849723B1 (en) 2019-05-07 2020-12-01 Sdc U.S. Smilepay Spv Scanning device
KR102385076B1 (ko) * 2020-07-10 2022-04-11 주식회사 메디트 데이터 잠금 시스템 및 데이터 잠금 방법
CN219538555U (zh) * 2023-04-06 2023-08-18 杭州朝厚信息科技有限公司 牙科摄影装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256865A (ja) 2002-03-01 2003-09-12 Celsys:Kk 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム
KR20040065525A (ko) * 2001-12-07 2004-07-22 소니 가부시끼 가이샤 화상 처리 장치 및 화상 처리 방법, 기억 매체, 및 컴퓨터프로그램
KR20060100376A (ko) * 2003-10-17 2006-09-20 코닌클리케 필립스 일렉트로닉스 엔.브이. 물체 윤곽 이미지를 분석하기 위한 방법 및 이미지 처리장치, 물체를 검출하기 위한 방법 및 이미지 처리 장치,산업용 비전 장치, 스마트 카메라, 이미지 디스플레이,보안 시스템, 및 컴퓨터 프로그램 제품

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194114A (ja) * 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
JP2001194126A (ja) * 2000-01-14 2001-07-19 Sony Corp 三次元形状計測装置および三次元形状計測方法、並びにプログラム提供媒体
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
JP2002013918A (ja) 2000-06-29 2002-01-18 Fuji Xerox Co Ltd 3次元画像生成装置および3次元画像生成方法
EP1506745A1 (de) * 2003-08-15 2005-02-16 Jeanette Mörmann Rohling und Verfahren zur Herstellung einer Zahnrestauration
KR100764419B1 (ko) * 2004-02-09 2007-10-05 강철권 불규칙패턴을 이용한 3차원형상 측정장치 및 측정방법
EP1971820B1 (de) * 2006-01-08 2012-10-17 Hermann Tropf Erstellung eines abstandsbildes
US7986321B2 (en) * 2008-01-02 2011-07-26 Spatial Integrated Systems, Inc. System and method for generating structured light for 3-dimensional image rendering
WO2009089129A1 (en) * 2008-01-04 2009-07-16 3M Innovative Properties Company Global camera path optimization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040065525A (ko) * 2001-12-07 2004-07-22 소니 가부시끼 가이샤 화상 처리 장치 및 화상 처리 방법, 기억 매체, 및 컴퓨터프로그램
JP2003256865A (ja) 2002-03-01 2003-09-12 Celsys:Kk 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム
KR20060100376A (ko) * 2003-10-17 2006-09-20 코닌클리케 필립스 일렉트로닉스 엔.브이. 물체 윤곽 이미지를 분석하기 위한 방법 및 이미지 처리장치, 물체를 검출하기 위한 방법 및 이미지 처리 장치,산업용 비전 장치, 스마트 카메라, 이미지 디스플레이,보안 시스템, 및 컴퓨터 프로그램 제품

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SEALES W B ET AL: "Real-time depth warping for 3-D scene reconstruction", AEROSPACE CONFERENCE, 1999. *

Also Published As

Publication number Publication date
KR20120081185A (ko) 2012-07-18
JP2013507601A (ja) 2013-03-04
AT508563A4 (de) 2011-02-15
US20120218389A1 (en) 2012-08-30
AT508563B1 (de) 2011-02-15
BR112012008009A2 (pt) 2019-09-24
US9050158B2 (en) 2015-06-09
EP2486542B1 (de) 2018-07-04
EP2486542A1 (de) 2012-08-15
JP5328985B2 (ja) 2013-10-30
WO2011041812A1 (de) 2011-04-14

Similar Documents

Publication Publication Date Title
KR101395234B1 (ko) 삼차원 영상 캡쳐 방법
CN105358092B (zh) 用于牙齿表面成像设备的基于视频的自动获取
US8134719B2 (en) 3-D imaging using telecentric defocus
US7986321B2 (en) System and method for generating structured light for 3-dimensional image rendering
DK2438397T3 (en) Method and device for three-dimensional surface detection with a dynamic frame of reference
US20100046005A1 (en) Electrostatice chuck with anti-reflective coating, measuring method and use of said chuck
JP5132832B1 (ja) 計測装置および情報処理装置
JP5757950B2 (ja) 非接触物体測定
CA2299426A1 (en) Scanning apparatus and methods
EP2719160A2 (en) Dual-resolution 3d scanner
JP2003130621A (ja) 3次元形状計測方法およびその装置
CN118105060A (zh) 根据阴影提供形状的测量系统
US20230408253A1 (en) Three-dimensional scanner having sensors with overlapping fields of view
JP6061631B2 (ja) 計測装置、情報処理装置、計測方法、情報処理方法、および、プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee