KR100407436B1 - 이미지 센서를 이용하여 입체 이미지를 포착하기 위한방법 및 장치 - Google Patents

이미지 센서를 이용하여 입체 이미지를 포착하기 위한방법 및 장치 Download PDF

Info

Publication number
KR100407436B1
KR100407436B1 KR10-2000-7015123A KR20007015123A KR100407436B1 KR 100407436 B1 KR100407436 B1 KR 100407436B1 KR 20007015123 A KR20007015123 A KR 20007015123A KR 100407436 B1 KR100407436 B1 KR 100407436B1
Authority
KR
South Korea
Prior art keywords
light
image
target object
structural
structural light
Prior art date
Application number
KR10-2000-7015123A
Other languages
English (en)
Other versions
KR20010053347A (ko
Inventor
맥월터제이.
코르타진-찰스
Original Assignee
인텔 코오퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코오퍼레이션 filed Critical 인텔 코오퍼레이션
Publication of KR20010053347A publication Critical patent/KR20010053347A/ko
Application granted granted Critical
Publication of KR100407436B1 publication Critical patent/KR100407436B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

타깃 객체 위로 구조적 광(51)을 투영하기 위한 회절 장치를 구비한 광원을 이용하여 입체 이미지를 포착하는 방법 및 장치가 기술되어 있다. 이 시스템은 상기 타깃 객체(52)의 이미지를 포착하기 위해 다수의 이미징 장치를 사용한다. 또한, 이 시스템은 3D 데이터(53)에 추가로 텍스처 데이터를 획득한다.

Description

이미지 센서를 이용하여 입체 이미지를 포착하기 위한 방법 및 장치{METHOD AND APPARATUS FOR CAPTURING STEREOSCOPIC IMAGES USING IMAGE SENSORS}
객체의 3-D 모델을 생성하는 것은 단지 하나의 각도에서 바라볼 수 있는 2차원(2-D) 모델과는 달리, 상이한 여러 각도에서 모델을 볼 수 있도록 한다. 3-D 모델을 생성하는 하나의 방법은 실제 객체(real object)의 다수의 이미지를 상이한 위치에서 획득하여, 이 객체의 투영(projection)에서의 차(difference)를 표현하는 것이다. 3-D 모델이 생성되면, 이 3-D 모델은 사진 또는 TV와 같은 가상 세계에 놓이게 되어, 다른 사람들과 공유할 수 있게 된다. 특히, 3-D의 상업적 생존 능력(viability)은 엔터테인먼트(entertainment), 광고(advertisement) 및 시뮬레이션 산업(simulation industry)에서 두드러지게 나타난다.
객체의 3-D 모델 생성의 당위성 및 장점은 쉽게 이해될 것이고, 3-D 모델을생성하기 위한 많은 툴(tool)들이 개발되고 있다. 예를 들어, Kinetix(SanFrancisco, CA)의 3D Studio MAX와 같은 3-D 소프트웨어는, 예술가가 점토 덩어리를 이용하여 어떠한 객체를 조각하는 것과 같이, 유저가 단지 디지털적으로 3-D 모델을 생성할 수 있게 한다. 일례로, 유도 파라미터(influence parameter)로 할당된 구형의 "metaballs"와 같은 툴은 요구된 객체를 형성하기 위해 함께 결합된다. 보다 상세한 객체를 위해, 생성될 객체의 작은 섹션을 정의한 삼각형 또는 사각형과 같은 "다각형(polygon)"이 사용될 수 있다. 다른 예로 생성될 객체의 표면 영역을 정의한 곡선인 "스플라인(spline)"이 있다. 소프트웨어에 의한 3-D 생성의 세부 사항은 George Maestri의 "Digital Character Animation"(New Riders Publishing, 1996)에서 찾을 수 있다. 그러나, 소프트웨어에 의한 3-D 생성의 복잡성 및 곤란성으로 인해, 이 분야에서 특별한 기술을 가진 자를 제외한 많은 사람들이 이를 사용하지 못하고 있다. 예를 들어, 유저가 기술적인 마인드뿐만 아니라 예술적인 것도 필요할 것이다. 또한, 3-D 모델링 기술을 마스터하려면 다년간의 경험이 필요할 것이다. 이러한 장애로 인해, 일반적으로 보통의 소비자들은 3-D 모델을 생성하는데 3-D 소프트웨어를 사용할 수가 없었다.
상술한 바와 같이, 3-D 데이터의 생성은 상대적으로 느려서, 보통의 소비자에게는 시간의 소비 및 어려움이 있다. 3-D 데이터를 생성하기 위해 실제 사용되는 객체의 이미지를 포착할 수 있는 3-D 이미징 장치 시스템을 사용함으로써, 소비자가 특별한 전문적 지식 없이 빠르고 쉽게 실제 객체의 3-D 모델을 생성할 수 있을 것이다. 따라서, 본 발명은 타깃 객체(target object)의 3-D 모델을 생성하기 위해사용되는 3-D 데이터를 생성하는데 실제로 사용될 수 있는 이미징 장치로 입체적인 이미지를 포착할 수 있는 방법 및 장치를 제시한다.
본 발명은 일반적으로 3차원(3-D) 모델에 관한 것으로, 특히 객체(object)의 3-D 모델로 처리될 입체 이미지(stereoscopic image)를 포착하기 위한 방법 및 장치에 관한 것이다.
도1은 3-D 이미징 장치 시스템의 일례를 도시한 도면.
도2는 3-D 이미징 장치 시스템의 다른 예를 도시한 도면.
도3a는 입체적으로 이미징된 타깃 객체를 도시한 도면.
도3b는 타깃 객체의 입체 이미지를 도시한 도면.
도3c는 추출된 3-D 데이터를 도시한 도면.
도3d는 3-D 데이터로 형성된 표면 구조를 도시한 도면.
도4는 가시 광원 및 텍스처 데이터를 이용하여 타깃 객체의 구조적 광 데이터를 포착하는 예시적 방법을 도시한 도면.
도5는 비가시 광원 및 텍스처 데이터를 이용하여 타깃 객체의 구조적 광 데이터를 포착하는 예시적 방법을 도시한 도면.
도6은 예시적 보정(calibration) 절차를 도시한 도면
도7은 선택된 좌표계에 따라 보정되는 이미징 장치를 도시한 도면.
도8a는 예시적인 보정 타깃을 도시한 도면.
도8b 내지 도8d는 이미지 센서가 보정됨에 따라 이미지 센서의 시계(perspective)로부터의 보정 타깃의 전망(view)을 도시한 도면.
도9는 보정될 이미징 장치의 핀 홀 길이를 결정하기 위한 예시적 장치를 도시한 도면.
도10은 보정 타깃의 다른 예시적 실시예를 도시한 도면.
도11은 객체의 입체 이미지로부터 3-D 데이터 추출 절차를 도시한 도면.
도12는 다른 관점의 3-D 데이터 추출 절차를 도시한 도면.
발명의 요약
입체 이미지를 포착하기 위한 방법 및 장치가 기술된다. 타깃 객체 위로 구조된 광(structured light)을 투영하기 위해 회절 장치(diffracting device)를 구비한 광원(light source)이 제공된다. 타깃 객체의 이미지를 포착하기 위한 다수의 이미징 장치가 제공된다.
실제 객체의 3-D 모델을 생성할 때, 실제 객체의 다수의 이미지를 상이한 위치에서 획득하여, 이 객체의 투영(projection)에서의 차(difference)를 표현한다. 상기 다수의 이미지는, 예를 들어, 이미지 센서를 포함하는 캠코더 또는 디지털 카메라와 같은 이미징 장치에 의해 포착될 수 있다. 이 이미지 센서는 일반적으로 광감 픽셀 어레이(photo-sensitive pixel array)를 포함하는데, 여기서 각 픽셀은 그 위로 조명된 입사광(incident light)을 포착한다. 따라서, 픽셀 어레이 내의 픽셀들의 조합은 입사광으로부터 이미지를 포착할 수 있게 한다. 일반적으로, 3-D 모델로 재구성(re-construction)될 객체의 표면은 적어도 2개의 이미지로 나타내어야 하는데, 그 이유는 이 재구성은 2개의 이미지의 표면 교차점(surface intersection)에 기반하기 때문이다. 상기의 특성을 갖는 객체의 둘 또는 그 이상의 이미지(즉, 입체적인 이미지)는 3-D 모델로 다음에 처리되기 위해 적합하다.
객체의 입체 이미지를 획득할 때, 몇몇 문제점이 고려되어야 한다. 첫째, 이 객체는 이미지를 획득하는 동안 위치 또는 모양이 변하지 않아야 한다. 둘째, 이 객체는 그것의 표면상의 형태(feature)가 모든 이미지에 대해 동일하게 위치되어야 한다. 이것은 이미징 장치의 위치가 변경됨에 따라 그 형태가 위치를 변경하는 거울과 같은 반사(specular reflection)에 대해서는 맞지 않는다. 셋째, 본 발명이 바르게 기능을 하기 위해서 상기 광의 경로(path)는 필수적으로 직선이어야 한다. 다시 말해, 이미지의 투영이 그 경로에서의 변경으로 인해 왜곡되지 않아야 한다. 일례로, 유리는 광의 경로를 휘게 하는 경향이 있기 때문에, 투영된 이미지의 경로 안에 있을 수 없다. 그러나, 이 분야에 통상의 지식을 가진 자는, 입체 이미지를 포착하는 동안 상술한 상황이 존재한다면 이미지가 이 불일치에 대해 보상될 수 있음을 알 수 있을 것이다.
도3a 내지 도3c는 타깃 객체로부터 추출된 3-D 데이터의 일례를 도시한 도면이다. 도3a는 타깃 객체로, 이 경우에는 얼굴이다. 이미징 시스템을 이용하여 상이한 위치에서 상기 객체의 이미지를 포착함으로써, 얼굴(33) 및 얼굴(34)은 도3b에 도시된 바와 같이 포착될 수 있는데, 이것은 이 얼굴의 입체적인 이미지가 된다. 이미징 장치의 위치가 변경됨에 따라, 이 이미징 장치에 의해 포착된 상기 얼굴의투영이 예측 가능하게 변경된다는 것을 확인할 수 있다. 각 이미지는 2차원(2-D)인 이미지 센서의 평면에 포함되기 때문에, 상기 이미징 장치에 의해 포착된 이미지는 단지 2-D 데이터를 포함한다는 것을 알 수 있다. 그러나, 2개의 상이한 위치에서의 얼굴 표면의 적어도 2개의 이미지의 교차점이 있는 경우, 양쪽 이미지 센서에 대해 공통인 X,Y,Z 좌표를 갖는 임의의 좌표계에 대하여, 다른 이미지에서 대응하는 점(point)을 갖는 하나의 이미지에서의 각 점에 대한 깊이 Z값을 획득할 수 있다. 또한, 이미지 평면에서 X', Y'좌표로 표현된 두 이미지 센서에서의 대응하는 두 점의 위치는 3-D 점(즉, X,Y,Z 값)을 생성하도록 결합될 수 있는데, 이것은 3-D 데이터 내의 점 중의 하나일 수 있다. 따라서, 3-D 데이터는 타깃 객체의 3-D 점 이미지를 형성하기 위해 좌표계 내에서 식별된 3-D 공간(space)에서의 다수의 점들인데, 이 예가 도3c에 도시되어 있다. 상기 타깃 객체에서 점의 X,Y,Z 값을 획득하는 단계는 아래에서 다시 기술될 것이다. 객체의 입체 이미지를 포착하는 3-D 이미징 장치 시스템의 예들이 이제 기술될 것이다.
도1은 3-D 이미징 장치 시스템의 일실시예를 도시한 도면이다. 도시된 3-D 이미징 장치 시스템은, 본 발명의 이해를 돕기 위해, 좌측 이미징 장치(12) 및 우측 이미징 장치(13)로 지정된 2개의 이미징 장치로 나타나 있다. 이 지정은 상세한 설명 전체에서 기술되는데, 이 분야의 통상의 지식을 가진 자는 이것이 교체될 수 있으며, 또한 본 발명은 2개 이상의 이미징 장치가 사용되거나 또는 하나의 이미징 장치가 사용될 수 있는 적당한 조건하에서 적용될 수 있다는 것을 알 수 있을 것이다. 각 이미징 장치(12, 13)는 타깃 객체의 이미지를 포착할 수 있는 이미지센서(14, 15)를 포함한다. 3-D 이미징 장치 시스템(10)은 이미징 장치(12, 13)에 의해 포착된 입체 이미지를 3-D 데이터로 처리하는 컴퓨팅 장치(19)를 포함할 수 있다. 이 컴퓨팅 장치는 마이크로 프로세서, ALU(Arithmetic Logic Unit) 또는 데이터 정보를 처리할 수 있는 그 밖의 장치일 수 있다. 일실시예에서, 상기 컴퓨팅 장치(19)는 3-D 데이터를 기저의 소프트웨어에 따라 3-D 모델로 처리할 것이다. 일례로, 3-D 데이터는 Delaunay의 알고리즘과 같은 종래의 알고리즘을 이용한 "삼각형태"(즉, 3-D 데이터의 각 3개의 점으로 삼각형을 형성함으로써 객체의 표면을 형성함)가 될 수 있다. 이 분야의 통상의 지식을 가진 자는 알맞은 기하학적 구조를 포함하는 다른 알고리즘이 사용될 수 있음을 이해할 것이다. 삼각 구조의 일례가 도3d에 도시되어 있다. 텍스처 데이터는, 예를 들어, Caligary(Mountain View, California)로부터 상업적으로 이용 가능한 소프트웨어인 True Space를 이용함으로써 삼각 구조에 대해 적용될 수 있다. 일반적으로, 텍스처 데이터는 객체의 물리적 표면 특성과 같은 물질 정보를 포함하고, 또한 객체의 컬러 정보를 포함할 수도 있다. 선택적으로, 상기 이미지는 이후의 처리를 위해 이미징 장치(12, 13) 내에 저장되어, 3-D 이미징 장치 시스템 내의 컴퓨팅 장치의 필요성을 없앨 수 있다. 일반적으로, 아래에서 기술되는 3-D 이미징 장치 시스템(10)과 관련된 "보정(calibration)" 정보는 컴퓨팅 장치(19)에 연결되거나 또는 그 일부가 될 수 있는 메모리 장치 안에 저장된다. 그러나, 컴퓨팅 장치(19)가 사용되지 않는 3-D 이미징 시스템(10)에서, 이 시스템(10)은 보정 정보를 저장하는 메모리 장치를 포함하거나, 또는 상기 보정 정보는 시스템으로부터 분리되어, 입체 이미지가 3-D 데이터로 변환될 때 인가될 수도 있다.
또한, 3-D 이미징 장치 시스템(10)은 발생된 광빔(light beam)을 투영하는 광 장치(light device)(16) 및 이 빔을 알맞은 패턴의 선(line), 그리드(grid), 점(dot) 또는 그 밖의 기하학적인 패턴으로 분리하는 회절 장치(diffracting device)(17)를 포함할 수 있다. 일례로, 상기 회절 장치는 Digital Optics Corporation(Charlotte, North Carolina) 또는 Rochester Photonics(Rochester, New York)으로부터 상업적으로 이용 가능한 것일 수 있다. "구조적 광(structured light)"이라는 용어는 광원으로부터 생성된 선, 줄무늬(strip), 분할된 선(segmented line), 그리드, 점 등을 포함하는 구조를 의미하는 것으로 이해될 수 있다. 이 구조적 광의 이유는 컴퓨팅 장치에 의해 쉽게 인식할 수 있는 타깃 객체에 대해 구조를 제공하는 것이다. 다시 말해, 컴퓨팅 장치가 하나의 이미지 내의 하나의 점과 다른 이미지 내의 대응하는 점을 타깃 객체의 속성으로부터 획득된 정보만으로 매칭하는 것은 어렵다. 일례로, 인간의 얼굴이 3-D 모델링되는 객체이고, 그 눈이 매칭되야할 형태라면, 컴퓨팅 장치는 다른 대응 이미지 또는 다른 특징에서의 두 눈 사이를 구별할 수 없기 때문에 오류가 발생할 수 있다. 그러나, 구조적 광을 이용함으로써, 상기 객체의 윤곽이, 예를 들어, 수직선의 위치의 관점에서 컴퓨팅 장치에 의해 쉽게 참조될 수 있다. 일실시예에서, 구조적 광의 각 수직선(vertical line)은 다른 것으로부터의 하나의 수직선을 구별하도록 코딩될 수 있다. 예를 들어, 타깃 객체의 윤곽에 의해 상기 수직선들이 병합되도록 하는 코딩이 바람직하다. 이 예에서, 상기 컴퓨팅 장치는 하나의 수직선에서 다른 것으로 점프함으로써 오류가 발생할 수 있다. 각 선에 대한 코드를 제공함으로써, 상기 수직선의 코드를 알고 있는 컴퓨팅 장치는 추적될 선의 코드가 변경될 때 에러를 검출할 수 있고, 이 에러를 수정하도록 다시 재추적할 수 있다. 이 선은, 예를 들어, 회절 장치(17)의 한쪽 끝에 연결된 적당한 필터(18)를 이용하여 코딩될 수 있다. 예를 들어, 이 코드는 수직선의 분할이 가까이 근접한 다른 수직선과는 다른 패턴으로 되는 것일 수 있다. 필터(18)는 수직선 구조적 광을 방사할 수 있도록 잘라내고, 수직선의 요구된 분할 패턴에 대응하는 슬릿(slit)으로 봉쇄할 수 있다.
광원(16)의 일실시예는 레이저 이미터(laser emitter)일 수 있다. 상기 광원(16) 및 회절 장치(17)는 타깃 객체 위로 수직선, 예로 레이저광을 투영할 수 있다. 상기 수직선의 기술은 본 발명의 범위를 제한하는 것으로 해석될 수 없다. 예를 들어, 카메라의 방위(orientation)에 따라 수평선이 사용될 수도 있다. 또한, 이것은 점들의 그리드 또는 분할된 선 등이 될 수 있다. 도4는 가시 광원을 이용하여 타깃 객체의 입체 이미지 및 텍스처 데이터를 포착하는 단계의 일례를 도시한 도면이다. 블록(41)은 구조적 광이 광원(16)에 의해 타깃 객체 위로 투영되는 단계를 도시하고 있다. 이 투영된 구조적 광을 이용하여, 블록(42)은 3-D 이미징 장치 시스템(10)의 좌측(12) 및 우측 이미징 장치(13)에 의해 객체의 입체 이미지를 포착하는 단계를 도시하고 있다. 구조적 광(즉, 구조적 광 데이터)으로 객체의 입체 이미지를 포착하고 나서, 블록(43)은 광원(16)을 스위치 오프(switch off)하는 단계를 나타낸다. 블록(44)은 텍스처 데이터를 얻기 위해 좌측 이미징 장치(12) 및 우측 이미징 장치(13) 중 하나에 의해 이미지를 동시에 또는 가능한 한 동시와 가깝게 포착하는 단계를 도시하고 있다. 텍스처 데이터를 획득하기 위해 좌측(12) 및 우측 이미징 장치(13)에 의해 다수의 이미지가 포착될 수 있지만, 일반적으로 하나의 이미징 장치로부터의 단일 이미지가 충분할 것이다. 동시성의 이유는 구조적 광 데이터를 이용한 입체 이미지를 텍스처 데이터의 이미지와 가능한 한 가깝게 매칭하기 위한 것이다. 그러나, 3-D 이미징 장치 시스템(10) 및 타깃 객체가 비교적 고정되어 있는 경우에는 이 동시성은 더 이상 중요하지 않음을 알 수 있다. 또한, 일실시예에서, 텍스처 데이터는 입체 이미지에 대해 독립적일 수 있고, 예를 들어, 여기서 상기 텍스처 데이터는 텍스처 이미지가 필요하지 않은 종래 방법을 이용하여 생성된 컴퓨터일 수 있다.
다른 실시예에서, 광원(16)은 적외선 영역 안의 광(일반적으로 780nm보다 긴 파장을 갖는 광으로 간주됨)을 방사할 수 있다. 이 예에서, 이미징 장치(12, 13)의 이미지 센서(14, 15)는 가시 광선 텍스처 데이터와 적외선 구조적 광 데이터를 동시에 포착할 수 있도록 설계될 수 있다. 이 이미지 센서(14, 15)는 컬러 필터의 적절한 사용을 통해 가시광선 및 적외선을 동시에 포착하도록 장착될 수 있다. 일례로, RGB(red, green, blue) 및 적외선(IR) 픽셀의 2 ×2 정방형 패턴을 포함하는 이미지 센서는 현재의 상업적 CFA(Color Filter Array) 물질을 이용하여 생성될 수 있는데, 이것은 이들 물질이 IR 방사선에 대해 투과된다는 사실을 이용한 것이다. 스펙트럼의 가시(visible)부분에서 겹치는 투과(transmittance)를 갖지 않는 2개의 CFA 컬러(예로, R,B)를 간단히 올려놓음으로써, 가시 광선을 차단하고 적외선만을 전달하는 합성 필터 소자를 생성하는 것이 가능해 진다. 만일, 두 필터가 합성 필터를 형성하는데 사용된다면, 두 필터의 조합으로부터 형성된 결과적인 합성 필터를 통해 실질적으로 가시 광선의 투과가 없도록 하기 위해, 두 필터의 각각은 다른 것으로부터 분리된 가시 방사선 통과 스펙트럼을 갖는다, 만일, 둘 이상의 필터가 사용되면, 그 결과의 합성 필터가 실질적으로 가시 광선에 대해 불투명하도록 하기 위해 각 필터는 가시 방사선 통과 스펙트럼을 갖는다. 따라서, 합성 필터를 형성하는데 사용된 각각의 합성 필터가 실질적으로 IR에 대해 투명하기 때문에, 이 합성 필터 소자는 IR 통과 필터이다. CFA들의 합성은 반도체 산업에서 잘 알려진 광 리소그래픽(photo-lithographic) 기술에 의해 달성된다. 또한, RGB 및 IR 이미지 센서 상의 정보는 "Infrared Pixel Sensor and Infrared Signal Correction" 이라는 명칭의 계류중인 출원건에서 찾을 수 있다.
도5는 비가시 광원(non-visible light source)을 이용하여 타깃 객체의 구조적 광 데이터 및 텍스처 데이터를 포착하는 단계의 일례를 도시한 도면이다. 블록(51)은 비가시 광원을 구조적 광으로 타깃 객체 위에 투영하는 단계를 도시하고 있다. 블록(52)은 좌측 이미징 장치(12) 및 우측 이미징 장치(13)에 의해 입체 이미지를 획득하는 단계를 도시하고 있다. 블록(53)은 텍스처 데이터를 위해 적어도 하나의 이미징 장치(12, 13)가 컬러 출력(예로, R,G,B)을 생성하고, 두 이미징 장치(12, 13)가 구조적 광 데이터의 처리를 위한 비가시 광 출력(예로, 적외선)을 생성하는 단계를 도시하고 있다.
다른 실시예에서, 이미징 장치 시스템(10)은 흑백 이미징 장치 및 컬러 이미징 장치와 같은 모노크롬 이미징 장치의 조합을 포함한다. 일반적으로, 컬러 이미징 장치가 타깃 객체의 텍스처 데이터와 구조적 광 데이터를 모두 포착하는데 사용되는 경우, 구조적 광 데이터의 해상도는 절충된다. 이것은 특징 내의 점을 정의하는데 사용되는 3개 또는 그 이상의 픽셀(예로, R,G,B)에 의해 일반적으로 정의되는 컬러로부터 증가하여, 위치 정보가 픽셀의 그룹 위로 확산된다. 형태 안에서 하나의 점 위치를 정의하기 위해 하나의 픽셀을 사용함으로써, 보다 높은 해상도를 얻을 수 있다. 형태의 위치적 정보를 포착하기 위해 모노크롬 이미징 장치를 사용하면, 보다 높은 정확도를 달성할 수 있다.
도2는 상술한 3-D 이미징 장치 시스템의 실시예를 도시한 도면이다. 여기서, 3-D 이미징 장치 시스템(20)은 좌측 모노크롬 이미징 장치(22) 및 우측 모노크롬 이미징 장치(23)로 표시된 한 쌍의 모노크롬 이미징 장치를 포함한다. 이 한 쌍의 모노크롬 이미징 장치(22, 23)는 객체의 구조적 광 데이터를 포함하는 타깃 객체의 입체 이미지를 포착한다. 구조적 광은 앞서 상술한 방식으로 광원(16) 및 회절 장치(17)에 의해 생성된다. 구조적 광의 코딩이 요구되는 경우, 적당한 필터(18)가 회절 장치(17)에 연결될 수 있다. 3-D 이미징 장치 시스템(20)은 또한 타깃 객체의 텍스처 데이터를 포착하는 컬러 이미징 장치(24)를 포함한다. 텍스처 데이터가 획득될 때, 광이 가시 스펙트럼 내에 있다면 광원(16)의 구조적 광의 방사가 금지된다. 그러나, 만일 광이 비가시 스펙트럼 내에 있다면, 모노크롬 이미징 장치(22, 23) 및 컬러 이미징 장치(24)는 타깃 객체의 이미지를 동시에 획득할 수 있다. 이 경우에, 상기 모노크롬 이미징 장치는 비가시 스펙트럼 내의 광에 의해 생성된 구조적 광 데이터를 포착하도록 적용되어야 한다. 일례로, 앞서 기술한 바와 같이 비가시 광원이 적외선 이미터인 경우, 모노크롬 이미징 장치는 적외선 이미징 장치일 수 있다. 상기 모노크롬 이미징 장치(22, 23)에 의해 획득된 포착 위치 정보가 고해상도의 3-D 모델을 형성하도록 컬러 이미징 장치(24)의 텍스처 데이터와 결합되도록 하기 위해, 3개의 모든 이미징 장치(22, 23, 24)는 선택된 좌표계에 대해 보정되어야 한다는 것을 주목해야 한다. 어떠한 입체 이미지가 획득되기 전에, 3-D 이미징 장치 시스템 내의 모든 이미징 장치가 보정되어야 하고, 이것은 아래의 설명을 통해 명확해질 것이다.
일례로서 도1을 참조하면, 입체 이미지가 포착되기 전에 이미징 장치의 각 위치 및 방위를 결정하기 위해, 이미징 장치(12, 13) 상에서 보정이 수행된다. 보정을 수행함으로써, 이미징 장치는 컴퓨팅 장치가 3-D 데이터를 생성하는데 사용될 수 있도록 선택된 좌표계 내에 위치하여, 상기 선택된 좌표계 내의 이미징 장치의 상대적 위치를 알게 된다. 주지된 이미징 장치의 위치를 이용하여 포착된 입체 이미지의 형태가 3-D 모델링을 위한 3-D 데이터를 형성하기 위해 결합된 입력을 형성하도록 함께 상관될 수 있다. 이 점을 나타내기 위해, 객체의 입체적 이미지인 좌측 이미지 및 우측 이미지를 형성하기 위해, 동일한 객체의 이미지를 획득하는 3-D 공간 안의 두 이미징 장치를 상상하자. 이 두 이미지의 차이값에 의해, 입체적인 매칭이 일어날 수 있다. 입체적인 매칭은 하나의 이미지 안의 점 형태가 다른 이미지 안의 대응하는 점 형태와 매칭되는 프로세스이다. 인간의 시각 시스템이 좌측 이미지 및 우측 이미지의 여러 형태를 쉽게 검출하여, 이 두 이미지를 함께 상관시키는 반면, 유사한 기능을 수행하는 컴퓨팅 장치는 좌표계 내의 좌표 관점으로 여러 형태를 정의할 필요가 있다. 이 동작으로부터 관련 정보는 이미지 내의 형태의 위치를 결정하는 각 이미지에 대한 좌표의 집합이다. 모든 이미지 내의 이 형태의 좌표 집합은 각 이미지가 획득된 이미징 장치의 위치에서 함께, 식별된 형태의 3-D 공간 내의 원래 위치를 결정하는데 사용될 수 있다.
도6은 보정 수행의 일실시예를 도시한 도면이다. 보정을 위해, 총 적어도 6개의 위치값이 선택된 좌표계에 대한 이미징 장치의 위치 및 방위의 완전한 기술을 위해 필요할 수 있다. 3-D 이미징 장치 시스템 안의 각 이미징 장치에 대해 위치값이 결정된다는 것을 주목해야 한다. 일실시예에서, 이미징 장치는, 도7에 도시된 바와 같이, 소정 길이(즉, 후술될 핀 홀 길이)에서의 이미지 센서(15)에 대한 중심 및 법선(normal)에서 투영되는 핀 홀(pin hole)(P)을 갖는 이미지 센서(15)로 정의될 수 있다. 이미지에 대응하는 모든 입사광이 이미지를 이미지 센서 위에 투영하기 위해 이미징 장치로 입력되는 경우, 이미징 장치의 핀 홀은 이 이미지 센서의 법선부터 중심까지의 고정된 거리에 위치한 공간에서의 허구의 점이다. 이미징 장치의 위치는 선택된 좌표계 내의 핀 홀의 위치에 의해 결정될 수 있다. 일실시예에서, 선택된 좌표계는 원점(origin) 및 임의로 지정된 X,Y,Z 축을 갖는 데카르트 좌표계(cartesian coordinate system)일 수 있고, 이에 따라 3개의 위치값은 선택된 좌표계 내의 핀 홀의 위치에 대응하는 X,Y,Z가 된다. 다른 실시예에서는, 유사하게 원점 및 임의로 지정되는 반경(radius), 위도(latitude angle), 경도(longitude) 기준을 갖는 극좌표계(polar coordinate system)가 사용될 수 있고, 이에 따라, 핀 홀의 위치는 선택된 좌표계에서의 반경, 위도 및 경도로 정의될 수 있다.
이미징 장치의 방위(orientation)는 선택된 좌표계에 대한 이미지 센서의 방위에 의해 결정될 수 있다. 이미지 센서의 방위를 결정할 때, 각 이미징 장치는 이미징 장치 좌표계를 나타낼 수 있다. 예를 들어, 이미징 장치 좌표계의 원점은 이 이미징 장치의 핀 홀일 수 있다. 이미징 장치 좌표계의 Z'축은 이미지 센서의 핀 홀부터 중심을 관통하는 축이 된다. 이미징 장치 좌표계의 X'축 및 Y'축은 이미지 센서의 수평 및 수직면에 각각 평행이 된다. 이 분야의 통상의 지식을 가진 자는 이미징 장치 좌표계를 위해 다른 원점 및 축의 방위가 사용될 수 있다는 것을 이해할 것이다. 일실시예에서, 극좌표계가 사용되는 경우, 먼저 보정될 이미징 장치가 선택된 좌표계 안의 방위로 위치되는데, 여기서, 핀 홀은 선택된 좌표계의 원점에 놓여지고, 이미지 센서의 중심은 선택된 좌표계의 Z축에 놓이며, 이 이미지 센서는 핀 홀 길이의 거리에서 Z축에 교차한다. 이미지 센서의 X'축 및 Y'축은 선택된 좌표계의 X축 및 Y축과 각각 평행하게 된다. 핀 홀이 선택된 좌표계 내의 실제 위치에 대해 반경, 위도, 경도가 움직이면, 이미지 센서도 역시 초기의 방위에서 선택된 좌표계 내의 기준 방위로 표시된 주지된 방위로 이동할 것이다. 이미지 센서의 실제 방위는 기준 방위로부터의 편차(deviation)로 측정될 수 있다. 일실시예에서, 이 편차는 CX, CY및 롤(roll)에 대응하는 나머지 3개의 위치값을 통해 결정될 수 있으며, 아래에서 보다 상세히 기술될 것이다. 이 방위는 이미지 평면의 중심이 선택된 좌표계의 원점 및 상술한 핀 홀의 위치에 의해 형성된 축 상에 있도록 하는 것임을 주목하자.
일실시예에서, 선택된 좌표계에서의 이미징 장치의 위치 및 방위를 결정하기 위해 보정 타깃이 사용될 수 있다. 설명을 위해, 극좌표계가 사용된다. 각 코너(76) 및 중심(77)의 점, 즉, 도8a에 도시된 바와 같이 총 5개의 점에 의해 나타난 다이아몬드를 포함하는 예시적인 보정 타깃(75)이 사용될 수 있다. 그러나, 이 분야의 통상의 지식을 가진 자에게는 요구된 결과를 달성하기 위하여 다른 구성 및 형태가 사용될 수 있다는 것이 이해될 것이다. 보정 타깃은 한장의 종이 위의 도면 또는 점의 집합이거나, 또는 이것이 실제 객체일 수 있다. 실제 객체가 사용된다면, 이 객체는 기준점으로 사용될 수 있는 형태를 가져야 한다. 일례로, 입방체의 면은, 기준점과 면의 두 코너를 연결하는 각 선인 2개의 대각선의 교차점에 의해 중심에서 정의된 다른 기준점과 함께 이용하여, 보정 객체로 이용될 수 있다.
도7을 다시 참조하면, 이미징 장치(13)의 핀 홀(P)의 좌표는, 예를 들어, 그 원점이 보정 타깃(75)의 중심이고, 보정 타깃에 대해 수평인 X축, 보정 타깃에 대해 수직인 Y축, 및 도시된 바와 같이 보정 타깃에 대한 법선인 Z축을 갖는 선택 좌표계에 따라 정의될 수 있다. 각 이미징 장치가 공통의 선택된 좌표계를 갖도록 하기 위해, 이 선택 좌표계는 3-D 이미징 장치 시스템에서 보정될 모든 이미징 장치에 대해 동일해야 한다는 것을 주의해야 한다. 핀 홀(P)의 좌표는 보정 타깃(75)의 중심점(77)에 대해 3개의 위치값에 대응하는 반경, 위도, 경도로 정의될 수 있다. 반경, 위도 및 경도는 종래의 X,Y,Z에 의해 정의된 데카르타 좌표계에서의 위치의 기술로부터 쉽게 생성될 수 있다.
이미지 센서(15)의 방위는 보정 타깃(75)의 중심점(77) 및 핀 홀(P)의 좌표에 의해 정의된 M에 대하여 그 중심(72)에 의해 정의될 수 있다. M축 상에 놓인 보정 타깃(75)의 중심점(77)은 M축에 대한 이미지 센서(15)의 중심(72)으로부터의 편차(74)로 표현되는 이미지 센서(15)에서 이미징될 것이다. 편차(74)로부터, 이미지 센서(15)의 중심(72)은, 중심(72)이 편차(74)의 위치에 대응할 때까지, 이미지 센서를 상술한 이미징 장치 좌표계에서의 핀 홀(P)에 대해 X'축(CX) 및 Y'축(CY)에 대해 회전함으로써, M축에 대해 정렬될 수 있다. CX, CY의 각도값은 나머지 2개의 위치값에 대응된다. 이미지 센서(15)의 롤은 이미징 장치 좌표계 내의 Z'축에서의 이미지 센서(15)의 회전 방위를 정의한다. 예를 들어, 좌표의 Y축이 이미지 센서의 관점으로부터 이미지 센서의 Y'축에 평행이 될 때까지 이미지 센서(15)를 Z'축을 따라 회전시킴으로써, 롤이 보상된다. 이 롤의 각도값은 최후로 남은 위치값에 대응한다.
예시적인 6개의 위치값은 그 값이 적용되는 순서에 따라 지정된다는 것을 주의해야 한다. 다시 말해, 하나의 순서에 대한 위치값은 다른 순서에 대한 위치값으로 교체될 수 없다. 예를 들어, 이 시퀀스에 대해 획득된 위치값, CX,CY, 롤, 위도, 경도, 반경은 이 시퀀스에 대해 획득된 위치값, 롤, CX,CY, 경도, 위도, 반경과는 다를 수 있다. 따라서, 위치값은 획득된 위치값의 순서로 식별된다.
도6을 다시 참조하면, 도시된 순서는 한정적으로 간주되어서는 안되고, 이 분야의 통상의 지식을 가진 자는 다른 순서가 사용될 수 있음을 알 수 있을 것이다. 블록(61)은 이미지 센서에 대한 핀 홀 수선(perpendicular)과 중심의 길이 간격인 핀 홀 길이를 결정하는 단계를 도시하고 있다. 3-D 이미징 장치 시스템에서의 각 이미징 장치에 대한 핀 홀 길이가 결정되어야 한다. 이 핀 홀 길이(때로 촛점 거리로 알려진)는 일반적으로 이미지 장치의 제조자의 주문으로 주어진다. 개별적인 이미징 장치에 대한 보다 정확한 핀 홀 길이를 얻기 위해, 도9에 도시된 바와 같은 다음의 장치가 사용될 수 있다.
핀 홀 길이(PL)의 정확성은 핀 홀 길이로부터 타깃 객체의 샘플된 점들이 이미지 센서 상의 좌표로 변환되어야 하므로 중요하다. 설명을 위해, 우측 이미징 장치(13)가 사용된다. 이미징 장치(13)의 핀 홀 길이(PL)는 레일(91)의 축을 따라 앞뒤로 움직이는 두 사각형(rectangle)(93, 95)을 갖는 이미징 장치(13)를 레일(91) 상에 배치함으로써 결정될 수 있다. 두 사각형(93, 95)을 제1 사각형(93) 및 제2 사각형(95)으로 나타내자. 또한, 사각형의 정의된 길이 중 적어도 하나(수평 또는 수직 길이로 일반적으로 나타냄)는 각 사각형에 대해 주지되어야 한다. 이 예에서, 제2 사각형(95)의 수평의 1/2 길이가 A이고, 제1 사각형(93)의 수평의 1/2 길이가 B로 주지되었다. 그리고, 비율(R)은 수평 1/2 길이(A)에 대한 수평 1/2 길이(B)의 비율이다. 두 사각형은 레일(91)의 중심선이 두 사각형에 대한 법선이 되도록 위치된다. 또한, 사각형(93, 95)의 중심은 레일(91)의 중심에 일치해야 한다. 제1 사각형(93) 및 제2 사각형(95)은 또한 서로에 대해 평행해야 한다. 또한, 제1 사각형(93)은 움직일 수 있어야 하고, 항상 상술된 요구에 응해야 한다. 이미징 장치(13)의 방향으로 제1 사각형(93)이 이동하고, 제2 사각형(95)은 정지된 상태로 남아 있는 경우, 길이를 정의하는 사각형의 투영이 이미지 센서 상에서 일치할 것이다. 이 점에서, 제1 사각형(93)의 수평 길이(B)의 이미지와 제2 사각형(95)의 수평 길이(A)의 이미지는 핀 홀(P)을 통과하여, 도6에 도시된 바와 같이, 이미지 센서(15)의 동일한 위치 상에 동일한 길이(X)를 투영한다. 제1 사각형(93)과 제2 사각형(95) 사이의 거리, 즉 레일(91) 상에서 측정된 C, 및 X로 측정된 이미지 센서 상의 투영의 길이를 알게 되면, 핀 홀 길이(PL)는 다음의 수식에 의해 정의될 수 있다.
PL=X*C/(A*(1-R))
일반적으로, 이미징 장치 내에서의 측정은 픽셀 단위로 결정된다. 핀 홀 길이(PL)는 투영(X)으로부터 그 치수를 얻을 수 있다. 투영(X)이 픽셀 단위로 측정되기 때문에, 핀 홀 길이(PL) 또한 실제 알맞은 픽셀 단위로 측정된다.
도6을 다시 참조하면, 블록(62)은 이미지 센서의 CX, CY를 결정하는 단계를 나타낸다. 도8b는 이미지 센서(15)에 의해 획득된 보정 타깃(75)의 이미지를 도시하고 있다. 포착된 이미지로부터, 이미지 센서(15)는 계산적으로 이동하여, 이미지 센서의 중심(72)이 보정 타깃(75)의 이미징된 중심(77)과 일치하게 된다. 픽셀 단위로 이미징 장치 좌표에 대한 X'축 및 Y'축으로의 이동은 CX, CY에 각각 대응된다. 선택적으로, 핀 홀 길이가 상술한 바와 같이 주지되기 때문에, CX, CY는 또한 핀 홀(P)에 대해 X'축 및 Y'축으로의 각도 회전의 관점으로 정의될 수 있다. 타깃 중심(77)이 이미지 센서(15)의 중심(72)과 일치하는 경우, 이미지의 중심은 핀 홀 및 선택된 좌표계의 원점을 관통하는 M축(도7 참조)에 대해 정렬된다. CX, CY를 통해, 이미지 센서(15)의 방위가 M축 및 핀 홀(P)에 대해 결정될 수 있다. 보정 타깃(77)이 이미지 센서의 관점으로부터 이미지 센서(15)의 중심(72)에 재위치됨에 따라, 보정 타깃을 표현하는 코너점(76)은 또한 새로운 위치에서의 이미지 센서로부터의 시계를 나타내도록 이동된다. 재위치된 보정 타깃은 도8c에 도시되어 있다.
다음은 상기의 상세한 설명을 비주얼 베이직(Visual Basic)으로 나타낸 단편적인 프로그램의 예이다.
이 예를 위해, 다음의 정의가 필요하다.
VERTEX2D는 이미지의 한 점을 나타낸다. 이와 관련된 멤버(member)는 x, y 좌표(즉, dx, dy)이다.
VTXLIST2D는 하우스키핑 기억장치(housekeeping storage)(즉, 멤버(0)는 중심점, 멤버(1)는 상부점, 멤버(2)는 하부점, 멤버(3)는 좌측점, 멤버(4)는 우측점인 보정 타깃)에 관련된 VERTEX2D 객체의 리스트이다.
VERTEX3D는 3D 공간에서의 하나의 점을 나타낸다. 이와 관련된 멤버는 x, y, z 좌표(dx, dy, dz)이다.
VTXLIST3D는 VERTEX3D 객체의 리스트이다.
도6의 블록(63)은 이미지 센서의 롤을 결정하는 단계를 도시하고 있다. 상기 롤은 이미징 장치 좌표계의 Z'축 주위의 이미지 센서의 회전인데, 이 경우, 상기 Z'축은 핀 홀(P) 및 이미지 센서(15)의 중심(72)을 관통하는 M축에 대응한다. 도8c를 참조하면, 이미지 센서 중심(72)을 타깃 중심(77)과 일치시키기 위해, 이미지 센서가 재위치되고 나서, 이미지 센서로의 이 타깃(75)의 Y축의 투영은, 중심을 관통하고 이미지 센서의 관점으로부터 이미지 센서(15)의 수직면에 평행하는 Y'축과 비교된다. 이 Y축과 Y'축 사이의 각도 편차가 이미지 센서의 롤이 된다. 이 롤은 보정 타깃의 Y축이 이미지 센서의 Y'축에 평행해질 때까지 이미지 센서를 M축을 따라 계산적으로 회전시킴으로써 보상된다. 이 롤이 보상됨에 따라, 보정 타깃을 표현한 코너점은 또한 이 롤 보상에 기인한 이미지 센서의 관점으로부터의 장면을 표현하도록 계산적으로 이동된다. 상기 롤 보상된 보정 타깃(75)은 도8에 도시되어 있다.
다음은 상기의 설명을 비주얼 베이직으로 나타낸 예시적 프로그램이다.
도6의 블록(64)은 핀 홀의 위도 위치를 결정하는 단계를 도시하고 있다. 위도는 보정 타깃에 대한 핀 홀의 수직 위치를 결정한다. 이 핀 홀의 위도는 상부(top)와 중심점 사이의 길이 및 하부(bottom)와 보정 타깃의 중심점 사이의 길이에 의해 결정된다. 이미지 센서는 Y축 및 핀 홀 위치에 의해 정의된 평면에서의 보정 타깃의 중심점 주위를 방사형으로 움직인다. 이 이미징 장치의 방위는 이미지 센서의 중심이 보정 타깃의 중심 및 재위치한 핀 홀에 의해 정의된 축 상에 남아있는 상태로 유지된다. 이미지 센서는 상부와 중심점 사이의 길이와, 하부와 중심점 사이의 길이가 이미지 센서에 의해 동일하게 보여질 때까지 이동된다. 이 점에서, 핀 홀은 X-Z 평면으로 이동하고, 이미지 센서의 이동된 각도는 상기 위도가 된다. 보정 타깃을 표현하는 코너점은 이미지 센서의 위치 변동에 기인한 이미지 센서의 관점으로부터의 장면을 표현하도록 변환된다.
다음은 상기의 설명을 비주얼 베이직으로 나타낸 예시적 프로그램이다.
도6의 블록(65)은 핀 홀의 경도 위치를 결정하는 단계를 도시하고 있다. 위도는 선택된 좌표계에 대한 X축에서의 핀 홀의 위치를 결정한다. 상기 경도는 이미지 센서에서 이미징된 보정 타깃의 좌측점과 중심점 사이의 길이 및 우측점과 보정 타깃의 중심점 사이의 길이에 의해 결정된다. 이미지 센서는 X-Z 평면에서의 보정에서 보정 타깃의 주위를 방사형으로 움직인다. 이 이미징 장치의 방위는, 이미지 센서의 중심이 보정 타깃의 중심 및 재위치한 핀 홀에 의해 정의된 축 상에 남아있도록 하기 위해 변경된다. 이미지 센서는 좌측점과 중심점 사이의 길이와, 우측점과 중심점 사이의 길이가 이미지 센서에 의해 동일하게 보여질 때까지 이동된다. 이 점에서, 핀 홀이 이동한 각도는 상기 경도이다. 보정 타깃을 표현하는 코너점은 이미지 센서의 위치 변동에 기인한 이미지 센서의 시계로부터의 장면을 표현하도록 변환된다.
다음은 상기의 설명을 비주얼 베이직으로 나타낸 예시적 프로그램이다.
도6의 블록(66)은 핀 홀의 반경을 결정하는 단계를 도시하고 있다. 반경은 핀 홀과 선택된 좌표계의 원점 사이의 거리이다. 반경은, 예를 들어 다음의 방식으로 결정될 수 있다. 보정 타깃으로부터, 보정 타깃의 코너점과 중심점 사이의 거리를 알 수 있다. 이미지 센서로부터, 이 이미징된 보정 타깃의 코너점과 중심점은 픽셀 내에서 측정될 수 있다. 핀 홀 길이를 알고 있기 때문에, 이 반경은 다음의 수식에 의해 정의될 수 있다.
Radius = PL*(A'/X')
여기서, A'는 보정 타깃의 코너점과 중심점 사이의 거리이고, X'는 이미지 센서에서 이미징된 코너점과 중심점의 거리이다.
다음은 상기의 설명을 비주얼 베이직으로 나타낸 예시적 프로그램이다.
보정 타깃(75)에서의 각 점에 대응하는 길이에서의 변화가 상대적으로 작은 경우에는, 보정 타깃(75)이 나머지 타깃 점(76, 77)에 대한 이미지 센서에 가깝게 위치하는 평면으로부터 돌출되는 추가 보정점을 인스톨(install)하는 것이 바람직하다. 추가의 점이 이미지 센서에 대해 가깝기 때문에, 이 점은 보정 타깃(75) 상의 점(76, 77)보다 이미지 센서 방향으로 변화에 보다 민감하다. 도10은 보정 타깃(101)의 평면으로부터 규칙적으로 돌출된 점(108)을 갖는 다이아몬드 형태의 보정 타깃(10)을 예시적으로 도시하고 있다. 이것은, 보정 타깃(101)이 도시된 것과 같이 위치한 경우의 평면으로부터 돌출된 삼각 평면을 구비함으로써 달성된다.이 돌출 각도는 45°일 수 있다. 보정점(108)은 보정 타깃(101)의 좌측점(102) 및 우측점(104)으로 정렬된다.
도6의 블록(64)의 위도 결정 단계를 다시 참조하면, 보정 타깃(101)에 대해 위도를 갖는 이미지 센서는 보정 타깃(101)의 좌측점(102) 및 우측점(104)을 관통하는 X축의 위 또는 아래에 돌출된 점(108)을 검출하게 된다. 이미지 센서는, 이 점(108)이 좌측점(102) 및 우측점(104)으로 정렬될 때까지 수직으로 이동된다. 이 점에서, 핀 홀의 각 거리는 상기 위도에 대응하여 이동된다. 도6 블록(65)의 경도 결정에 대한 튜닝하는 경우, 보정 타깃(101)에 대해 경도를 갖는 이미지 센서는 보정 타깃(101)으로부터 원거리에 있는 돌출점(108)을 검출할 것이다. 일례로, 보정 타깃(101)이 위치하는 평면에서의 돌출점(108) 및 우측점(104) 사이의 거리, 및 우측점(104) 및 좌측점(102) 사이에 대응하는 비율은 미리 결정될 수 있고, 이에 따라, 상기 소정의 비율에 도달할 때까지 이미지 센서가 수평으로 이동함에 따라, 이 비율이 계산된다. 이 점에서, 이동된 핀 홀의 각거리는 상기 경도에 대응한다.
3-D 이미징 장치 시스템 내의 이미징 장치의 각 이미지 센서에 대한 6개의 위치값을 알면, 이 보정이 완결된다. 3-D 데이터를 생성하는데 사용된 컴퓨팅 장치는, 획득된 위치값을 역 순으로 함으로써, 선택된 좌표계에서의 이미지 센서의 상대적인 위치를 알 수 있다. 예를 들어, 그 시퀀스가 CX, CY, 롤, 위도, 경도, 반경으로 얻어진다면, 컴퓨팅 장치는, 역 순서, 즉, 반경, 경도, 위도, 롤, CY, CX의 순서로 계산함으로써, 이미지 센서의 위치를 알게 된다.
3-D 이미징 장치 시스템 내의 각 이미징 장치 상에서 수행되는 보정에 따라, 도1에 도시된 바와 같이 이미징 장치(12, 13)에 의해 입체 이미지를 획득하기 전에, 예를 들어, 먼저 마커(marker)가 타깃 객체(20)위에 놓여야 하는데, 이것은 도3a에 도시된 바와 같이 외형 또는 객체의 형태를 윤곽 잡는 것이다. 예를 들면, 수직선(21)이 상기 객체(20) 위에 고르게 배치될 수 있다. 그러나, 예를 들어, 눈이나 코와 같은 세밀한 형태가 있는 부분에서는 더 많은 선(21)이 객체(20)에 추가될 수 있음을 주목해야 한다. 구조적 데이터가 어둠 속에서 획득될 수 있도록 하기 위해, 이 수직선(21)은 어둠 속에서만 볼 수 있는 형광 페인트를 이용하여 객체(21) 위에 칠해진다. 선택적으로, 사용된 페인트는 가시 스펙트럼에서는 볼 수 없고, 적외선 또는 자외선과 같은 가시 스펙트럼 밖의 방사선에서는 볼 수 있다. 선택적으로, 상기 수직선(21)은 적외선 레이저 또는 가시 레이저와 같은 광원(16)을 이용하여 객체(20) 위로 투영될 수도 있다. 이 수직선에 대한 기술은 본 발명의 범위를 제한하는 것으로 해석되어서는 안 된다는 것을 이해할 것이다. 예를 들어, 이미징 장치(12, 13)의 방위에 따라 수평선이 사용될 수도 있다. 또한 회절 장치(17)의 정교함(sophistication)에 따라, 일정한 점의 그리드가 객체 위로 투영될 수 있다.
본 발명의 이해를 돕기 위해 일례로서 구조적 광을 이용하여, 회절 장치(17)를 갖는 광원(16)은 구조적 광, 이 예에서는, 수직선을 타깃 객체위로 투영한다. 투영된 구조적 광을 이용하여, 3-D 이미징 장치 시스템(10)의 좌측 이미징 장치(12) 및 우측 이미징 장치(13)에 의해 상기 객체의 입체 이미지가 포착된다.도11은 좌측 이미지 및 우측 이미지를 포함하는 객체의 입체 이미지로부터 3-D 데이터의 추출을 설명하기 위한 실시예의 순서도이다. 블록(112)은 구조적 광을 이용하여 타깃 객체 위로 투영된 수직선에 대응하는 우측 이미지 센서에 의해 검출된 수직선의 수를 결정하는 단계를 도시하고 있다. 블록(114)은 타깃 객체 위로 투영된 수직선에 역시 대응하는 좌측 이미지 센서에 의해 검출된 수직선의 수를 결정하는 단계를 도시하고 있다. 블록(116)은 상기 우측 이미지 센서에 의해 검출된 수직선과 좌측 이미지 센서에 의해 검출된 수직선의 수를 상관 방식으로 매칭하는 단계를 도시하고 있다. 블록(118)은 우측 이미지 센서에서 검출된 제1 상관 수직선을 반영하도록 제1 카운터를 1로 설정하는 단계를 도시하고 있다. 블록(120)은 상기 상관 수직선을 다수의 점으로 변환하는 단계를 나타낸다. 통상적으로, 점 사이의 거리는 픽셀 단위로 측정되는데, 예를 들어, 상기 수직선으로부터의 하나의 점은 5개의 픽셀마다 형성될 수 있다. 상관 수직선의 수 및 각 수직선으로부터 변환되는 점의 수를 제어함으로써, 3-D 데이터 내에서 요구된 수의 점을 획득할 수 있다. 블록(122)은 상기 수직선으로부터 변환된 점의 수를 결정하고, 지정된 점을 제1 점으로 반영하도록 제2 카운터를 1로 설정하는 단계를 도시하고 있다. 블록(124)은 3-D 공간 안의 선을 투영하기 위해, 지정된 점에서 시작하여 우측 이미징 장치의 핀 홀을 관통하는 "시선(line of sight)"을 계산하는 단계를 도시하고 있다. 이 시선 상의 좌표를 모르는 임의의 점에서, 이 점은 타깃 객체에서의 수직선과 교차되고, 이로부터 지정된 점이 시작된다. 상기 타깃 객체에서의 교차점은 또한 우측 이미지 센서 내의 지정된 점의 위치에 대응할 것이다. 일실시예에서, 우측 이미지 센서에대한 시선은 다음의 방식으로 생성될 수 있다.
도7을 참조하면, 우측 이미징 장치(15)의 핀 홀(P)의 위치는 우측 이미징 장치의 보정으로부터 선택된 좌표계에서 주지된다. 핀 홀(P)은 이미지 센서의 중심부터 법선까지의 고정된 거리(PL)에 위치된다는 것을 주목하자. 이 예에서, 이미지 센서(15)는 640 ×480 픽셀 어레이를 포함한다. 그러나, 이 분야의 통상의 지식을 가진 자는 다른 어레이 사이즈가 사용될 수도 있다는 것을 이해할 것이다. 이미징 장치 좌표계의 원점으로 핀 홀(P)을 이용하여, 이미지 센서(15) 내의 각 점을 핀 홀(P)로부터 픽셀 값(△X', △Y', PL)으로 나타낼 수 있는데, 여기서, △X'는 이미지 센서(15)의 중심으로부터 지정된 점 위치의 X'축에서의 편차이고, △Y'는 이미지 센서(15)의 중심으로부터 지정된 점 위치의 Y'축에서의 편차이고, PL은 주지된 고정값으로, Z'축에서의 일정한 거리이며, 3개의 값 모두는 픽셀 단위로 측정된다. 핀 홀 좌표는 지정된 점에 대응하는 좌표와 값(△X', △Y', PL)을 이용하여 선택된 좌표계에서 주지되기 때문에, 이 지정된 점에 대한 시선에 대응하는 방정식이 생성될 수 있다. 도12는 우측 이미지 센서(15)의 지정된 점을 나타내는 시선(L1)을 도시하고 있다.
블록(126)은 우측 이미지 센서(15)의 지정된 점에 대응하는 좌측 이미지 센서(14)의 상관 수직선에서의 점을 결정하는 단계를 나타낸다. 대응 점이 결정되면, 좌측 핀 홀의 좌표는 보정을 통해 선택된 좌표계에서 주지되고, 이 점의 위치 값은 상술한 방식으로 결정되기 때문에, 대응 점의 시선을 표현하는 방정식이 획득될 수 있다. 도12는 좌측 이미지 센서(14)의 대응하는 점을 나타내는 시선(L2)을 도시하고 있다. 일실시예에서, 좌측 이미지(14)에서의 대응 점은 우측 이미지 센서(15)의 시선(L1)을 좌측 이미지 센서(14) 상으로 추적함으로써 결정될 수 있다. 좌측 및 우측 이미지 센서에서의 상관 수직선이 타깃 객체에서의 동일한 수직선에 대응하기 때문에, 우측 이미지 센서로부터의 시선과 좌측 이미지 센서에서 본 타깃 객체에서의 수직선의 교차점은 우측 이미지 센서에 대한 지정된 점의 대응 점이 될 것이다. 이 절차의 이해를 돕기 위해 블록(126)을 설명하는데 유추(analogy)가 사용될 수 있다.
우측 이미지 센서(15)에서 이미징된 수직선 내의 지정된 점(D1)이 이미징 장치(13)의 우측 핀 홀(PR)을 관통하여 공간을 통과하는 광빔(L1)을 방사할 수 있다고 가정하자. 좌측 이미징 장치(12)는 이것의 시야로부터 이미지 센서(14) 상의 상기 광빔(L1)을 검출할 수 있을 것이다. 검출된 광빔(L1) 및 지정된 점이 시작된 우측 이미지 센서(15) 에서의 수직선과 상관되는 좌측 이미지 센서(14)에서의 수직선의 교차점이 결정될 수 있다. 이 교차 점(D2)은 좌측 이미지 센서 내에서 지정된 점(D1)의 대응 점이 될 것이다. 상기 교차 점(D2)으로부터, 광빔(L2)은 좌측 이미징 센서의 좌측 핀 홀(PL)을 관통하여 투영되는데, 이것은 광빔(L1)과 교차해야 한다. 2개의 광빔(L1, L2)의 교차점은 우측 이미지 센서 내의 지정된 점에 대응하는 타깃 객체 내의 점의 선택된 좌표계에서의 X,Y,Z 좌표가 되고, 이것은 타깃 객체의 3-D 데이터의 하나의 점이 된다. 물론, 실제로는, 상기의 설명은 수학적으로 수행된다.
다음은 상기의 설명을 수행하는 수학적인 절차를 설명하기 위해 사용될 수있는 비주얼 베이직으로 쓰여진 예시적 프로그램이다.
'상기 제1 절차는 우측 시선의 좌표가 보정으로부터 선택된 좌표계에 대응하는 경우에 우측 이미지 센서로부터의 우측 시선을 생성하는 단계를 나타냄'
'상기 제2 절차는 상기 우측 시선을 선택된 좌표계에서의 우측 이미지 센서로부터 좌측 이미징 장치 좌표계로 변환하는 단계를 나타냄. 상기 우측 시선은 좌측 이미지 센서 상에서 추적됨'
'상기 제3 절차는 좌측 이미지 센서 상에서 추적된 우측 시선과, 우측 시선이 시작된 우측 이미지 센서 상의 수직 라인에 상관되는 좌측 이미지 센서에서 이미징된 수직 라인의 교차점을 찾는 단계를 나타냄'
'상기 제4 절차는 상기 교차점으로부터 좌측 이미지 센서의 좌측 라인 및 선택된 좌표계 내의 좌측 이미징 장치의 좌측 핀 홀의 좌표를 생성하는 단계를 나타냄'
'상기 제5 절차는 우측 및 좌측 시선의 교차점을 찾는 단계로, 여기서, 만일 교차점이 발생하지 않으면, 우측 시선이 좌측 시선에 대해 가까운 곳에서의 점을 교차점으로 지정함'
이하의 서브루틴은 보다 상세한 제1 절차를 나타내고 있다.
'이미지 센서의 X'축을 결정'
'이미지 센서의 Y'축을 결정'
'상기 2줄은 우측 이미지 센서의 중심을 결정하고, 우측 이미징 장치 좌표계에서의 좌표(0,0)로 지정하는 단계를 나타냄'
'상기 3줄은 우측 시선에 대한 시점을 우측 이미징 장치 좌표계에서 정의된 좌표로 지정하는 단계를 나타냄'
'상기 3줄은 우측 시선에 대한 종점을 우측 이미징 장치 좌표계에서 정의된좌표로 지정하는 단계를 나타냄'
'상기 시점 및 종점은 그 사이의 거리가 타깃 객체를 교차하는데 충분하도록 정의됨. 일례로, 타깃 객체가 우측 이미지 센서에서 4피트라면, 상기 시점은 0.5피트로, 종점은 6피트로 지정될 수 있음'
'상기 시점 및 종점의 좌표를 우측 이미징 장치 좌표계에서의 좌표로부터 선택된 좌표계에서의 좌표로 변환함'
'이하의 서브루틴은 이미징 장치 좌표계에서의 점을 선택된 좌표계에서의 좌표로 변환하는 단계를 나타냄'
'상기 호출 루틴은 우측 이미징 장치 좌표계를 선택된 좌표계로 변환하기 위해, 이미지 센서의 방위 Cx, Cy 값을 보상함. X'축으로의 각도 회전에 의해 획득되는 Cy값의 보상은 Y'-Z'평면의 위치를 변화시킴. 우측 시선의 시점 및 종점은 Y'-Z'평면에서의 변화에 대한 각도 회전에 의해 보상됨. Y'축으로의 각도 회전에 의해 획득되는 Cx값의 보상은 X'-Z'평면의 위치를 변화시킴. 우측 시선의 시점 및 종점은 Y'-Z'평면에서의 변화에 대한 각도 회전에 의해 보상됨. 상기 방위 Cx, Cy가 우측 이미징 장치에 대해 보상되면, 우측 이미징 센서의 중심은 우측 이미징 장치의 핀 홀 및 선택된 좌표계의 원점으로 정렬됨. 우측 시선의 시점 및 종점의 새로운 위치는 우측 이미지 센서의 변화된 위치에서의 점의 인지를 반사함'
'상기 호출 루틴은 선택된 좌표계에 대한 우측 이미지 센서의 롤을 보상함. Z'축으로의 각도 회전에 의해 획득되는 롤 값의 보상은 X'-Y'평면의 위치를 변경시킴. 우측 시선의 시점 및 종점은 X'-Y'평면에서의 변화에 대한 각도 회전량에 의해 보상됨. 우측 시선의 시점 및 종점의 새로운 위치는 우측 이미지 센서의 변경된 위치에서의 점의 인지를 반사함'
'우리를 세계의 중심으로 이동시키기 위해 Z축을 따라 f만큼 이동시킴'
'상기 3줄은 변환된 우측 이미징 장치 좌표계의 반경을 보상하는 단계를 나타냄. Cx, Cy 및 롤이 보상되면, 우측 이미징 장치 좌표계는 우측 이미징 장치의 핀홀에서 원점을 갖는 선택된 좌표계에 따라 정렬됨. 핀홀에서의 원점을 선택된 좌표계의 원점으로 이동시킴으로써, 우측 시선의 시점 및 종점의 위치를 원점에서의 우측 이미지 센서에 따른 점의 인지를 반사함. 이것은 우측 이미징 장치 좌표계의 반경, 위도 및 경도를 선택된 좌표계로의 좌표계에 대해 보상함으로써 수행됨.'
'다음은 우측 이미징 장치 좌표계를 선택된 좌표계로 변환하기 위해, 이미지 센서의 방위 Cx, Cy값을 보상하는 서브루틴 호출을 위한 예시적 코드임'
'상기의 호출 루틴은 선택된 좌표계에서의 우측 시선의 시점을 좌측 이미징 장치 좌표계에서의 좌측 이미지 센서 평면애의 좌표로 변환함'
'상기 호출 루틴은 선택된 좌표계에서의 우측 시선의 종점을 좌측 이미징 장치 좌표계에서의 좌측 이미지 센서 평면 내의 좌표로 변환함'
'다음은 선택된 좌표계 내의 점을 이미징 장치 좌표계 내의 점으로 변환하는 예시적인 호출 루틴임. 다음의 루틴은 우측 시선의 시점 및 종점에 대해 적용됨'
'상기 호출 루틴은 좌측 이미징 장치의 핀 홀의 경도를 선택된 좌표계 내의점에 대해 적용함'
'상기 호출 루틴은 좌측 이미징 장치의 핀 홀의 위도를 선택된 좌표계 내의 점에 대해 적용함'
'상기 호출 루틴은 좌측 이미징 장치의 핀 홀의 반경을 선택된 좌표계내의 점에 대해 적용함'
'상기 호출 루틴은 좌측 이미지 센서의 롤을 선택된 좌표계 내의 점에 대해 적용함'
'상기 호출 루틴은 이미지 센서의 Cx, Cy를 선택된 좌표계 내의 점에 대해 적용함'
우측 이미징 장치 좌표계에서의 시점(starting point) 및 종점(ending point)의 좌표가 좌측 이미징 장치 좌표계에서의 좌표로 변환되고 나면, 좌측 이미징 장치 좌표계의 원점인, 좌측 이미징 장치의 핀 홀은 상기 변환된 시점 및 종점을 좌측 이미지 센서로 투영하는데 사용될 수 있다. 다르게 말하면, 좌측 이미징 장치 좌표계에서의 시점 및 종점의 주지된 좌표, 좌측 핀 홀의 주지된 좌표로부터, 상기 핀 홀 및 이미지 센서를 관통하는 2개의 방정식이 결정될 수 있는데, 이 두 방정식은 상기 시점 및 종점의 시선에 대응된다. 좌측 이미징 장치의 주지된 핀 홀 길이로부터, 좌측 이미지 센서 위치 상의 두 점이 결정될 수 있다. 상기 위치된 두 점으로부터, 선이 좌측 이미지 센서에 의해 인지된 제1 이미징 장치의 시선에 대응하는 좌측 이미지 센서 상에서 추적될 수 있다.
블록(126)에서, 상기 컴퓨팅 장치는 좌측 이미지 센서(14)에서의 대응점(D2)(도12 참조)의 X,Y,Z 좌표를 결정하고, 보정을 통해 결정된 좌측 핀 홀(PL)의 주지된 X,Y,Z 좌표를 이용하여, 대응점(D2) 및 좌측 핀 홀(PL)을 관통하는 선(L2)을 나타내는 방정식이 구해진다. 블록(128)은 컴퓨팅 장치가 블록(124) 및 블록(126)으로부터 얻어진 방정식을 이용하여, 우측 이미지 센서에서의 지정된 점에 대응하는 객체 위의 점의 X,Y,Z 좌표를 계산하는 단계를 나타낸다. 상기 방정식은 선택된 좌표계에서의 좌표 관점으로 정의된 핀 홀 좌표의 관점에서 변수를 갖는다는 것을 알 수 있다. 이에 따라, 상기 객체 위 점의 X,Y,Z 좌표가 선택된 좌표계에서의 좌표가 될 수 있다. 블록(130)은 처리될 수직선상의 다른 점들이 더 있는지를 판단하는 단계를 나타내는데, 만일 있다면, 상기 카운터를 증가시켜, 이 단계는 블록(120~130)을 수행하게 된다. 블록(132)은 처리될 다른 수직선이 더 있는지를 판단하는 단계를 나타낸다. 만일, 처리될 수직선이 더 있다면, 카운터를 증가시켜 블록(120~132)의 프로세스가 반복된다. 그렇지 않다면, 3-D 데이터의 추출이 완료되고, 이 프로세스는 정지한다.
이상의 명세서에서, 본 발명의 바람직한 실시예가 설명되었으나, 첨부된 청구항에서 설명된 바와 같이, 본 발명의 보다 넓은 사상 및 범위에서 벗어나지 않는 한, 다양한 수정 및 변경이 가능하다는 것은 명백한 사실이다. 따라서, 본 명세서 및 도면은 제한적 관점이라기 보다는 하나의 예시로서 간주되어진다. 이에 따라, 본 발명의 범위는 첨부한 청구항에 의해서만 제한되어야 한다.

Claims (61)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 타깃 객체 상으로 구조적 광을 투영하기 위해 회절 장치를 구비한 광원;
    상기 회절 장치와 결합되어, 상기 타깃 객체 상으로 투영되는 상기 구조적 광을 인코딩하기 위한 필터 - 여기서, 상기 구조적 광의 인코딩은 상기 구조적 광의 제1 성분이 상기 구조적 광의 제2 성분으로부터 구별될 수 있도록 허용함 - ; 및
    상기 타깃 객체의 이미지들을 포착하기 위한 다수의 이미징 장치
    를 포함하고,
    여기서, 상기 다수의 이미징 장치는, 상기 타깃 객체 표면의 적어도 일부분의 제1 이미지, 상기 타깃 객체 표면의 적어도 일부분의 제2 이미지, 및 상기 타깃 객체와 관련된 텍스처 데이터를 획득하고,
    상기 다수의 이미징 장치는 상기 제1 이미지 및 제2 이미지를 획득하기 위해 적어도 2개의 흑백 이미징 장치와 상기 텍스처 데이터를 획득하기 위해 적어도 하나의 컬러 이미징 장치를 포함하는
    장치.
  21. 제20항에 있어서,
    상기 타깃 객체의 적어도 일부분의 입체 이미지를 형성하기 위해 상기 제1 이미지 및 제2 이미지를 이용하는
    장치.
  22. 제20항에 있어서,
    상기 제1 이미지, 제2 이미지 및 텍스처 데이터를 처리하고, 상기 타깃 객체의 적어도 일부분의 3차원 모델을 생성하기 위한 컴퓨팅 장치
    를 더 포함하는 장치.
  23. 제22항에 있어서,
    상기 타깃 객체의 적어도 일부분의 3차원 모델의 생성과정은,
    상기 제1 및 제2 이미지로부터의 3차원 데이터에 대응하는 다수의 점(poionts)을 추출하는 과정; 및
    상기 타깃 객체의 일부분의 표면 구조를 형성하기 위해 소정의 알고리즘에 따라 상기 다수의 점들 사이에 선을 형성하는 과정을 포함하는
    장치.
  24. 제20항에 있어서,
    상기 구조적 광을 발생하는 광원은 비-가시 스펙트럼 내의 광을 방사하는
    장치.
  25. 제24항에 있어서,
    상기 제1 및 제2 이미지와 상기 텍스처 데이터는 동시에 포착되는
    장치.
  26. 제25항에 있어서,
    상기 제1 이미지 및 제2 이미지를 포착하는 이미징 장치들은 상기 광원에 의해 방사된 비-가시 반사광을 포착하기 적합하게 되어 있는
    장치.
  27. 제20항에 있어서,
    상기 구조적 광을 발생하는 광원은 가시 스펙트럼 내의 광을 발생하는
    장치.
  28. 제27항에 있어서,
    상기 구조적 광은 상기 텍스처 데이터가 포착되기 전에 중단되는
    장치.
  29. 제20항에 있어서,
    상기 구조적 광은 선, 그리드, 점 또는 분할된 선 중에서 적어도 하나를 포함하는
    장치.
  30. 제20항에 있어서,
    상기 구조적 광은 광선들로 이루어지고, 상기 구조적 광의 인코딩 과정은 하나의 분할된 광선 및 그 다음 연속되는 분할된 광선이 상이한 분할 구조를 갖도록 상기 광선들을 분할된 광선들로 인코딩하는 과정을 포함하는
    장치.
  31. 제20항에 있어서,
    상기 다수의 이미징 장치는 각각 캠코더 또는 디지털 카메라인
    장치.
  32. 제20항에 있어서,
    상기 다수의 이미징 장치에 의해 발생되는 데이터를 저장하기 위한 메모리 장치
    를 더 포함하는 장치.
  33. 타켓 객체 상으로 구조적 광을 투영하기 위해 회절 장치를 구비한 광원;
    상기 회절 장치와 결합되어, 상기 타깃 객체 상으로 투영되는 상기 구조적 광을 인코딩하기 위한 필터 - 여기서, 상기 구조적 광의 인코딩은 상기 구조적 광의 제1 성분이 상기 구조적 광의 제2 성분으로부터 구별될 수 있도록 허용하고, 상기 광원은 비-가시 스펙트럼 내의 광을 방사하는 구조적 광을 발생함 - ; 및
    상기 타깃 객체의 이미지들을 포착하기 위한 다수의 이미징 장치
    를 포함하고,
    여기서, 상기 다수의 이미징 장치는, 상기 타깃 객체 표면의 적어도 일부분의 제1 이미지, 상기 타깃 객체 표면의 적어도 일부분의 제2 이미지, 및 상기 타깃 객체와 관련된 텍스처 데이터를 획득하고, 상기 제1 및 제2 이미지와 상기 텍스터 데이터는 동시에 포착되는
    장치.
  34. 제33항에 있어서,
    상기 타깃 객체의 적어도 일부분의 입체 이미지를 형성하기 위해 상기 제1 이미지 및 제2 이미지를 이용하는
    장치.
  35. 제33항에 있어서,
    상기 제1 이미지, 제2 이미지 및 텍스처 데이터를 처리하고, 상기 타깃 객체의 적어도 일부분의 3차원 모델을 생성하기 위한 컴퓨팅 장치
    를 더 포함하는 장치.
  36. 제35항에 있어서,
    상기 타깃 객체의 적어도 일부분의 3차원 모델의 생성과정은,
    상기 제1 및 제2 이미지로부터의 3차원 데이터에 대응하는 다수의 점을 추출하는 과정; 및
    상기 타깃 객체의 일부분의 표면 구조를 형성하기 위해 소정의 알고리즘에 따라 상기 다수의 점들 사이에 선을 형성하는 과정을 포함하는
    장치.
  37. 제33항에 있어서,
    상기 제1 이미지 및 제2 이미지를 포착하는 이미징 장치들은 상기 광원에 의해 방사된 비-가시 반사광을 포착하기 적합하게 되어 있는
    장치.
  38. 제33항에 있어서,
    상기 구조적 광은 선, 그리드, 점 또는 분할된 선 중에서 적어도 하나를 포함하는
    장치.
  39. 제33항에 있어서,
    상기 구조적 광은 광선들로 이루어지고, 상기 구조적 광의 인코딩 과정은 하나의 분할된 광선 및 그 다음 연속되는 분할된 광선이 상이한 분할 구조를 갖도록 상기 광선들을 분할된 광선들로 인코딩하는 과정을 포함하는
    장치.
  40. 제33항에 있어서,
    상기 다수의 이미징 장치는 각각 캠코더 또는 디지털 카메라인
    장치.
  41. 제33항에 있어서,
    상기 다수의 이미징 장치에 의해 발생되는 데이터를 저장하기 위한 메모리 장치
    를 더 포함하는 장치.
  42. 타깃 객체 상으로 인코딩된 구조적 광을 투영하는 단계 - 여기서, 상기 구조적 광의 인코딩은 상기 구조적 광의 제1 성분이 상기 구조적 광의 제2 성분으로부터 구별될 수 있도록 허용함 - ;
    상기 타깃 객체의 제1 이미지 및 제2 이미지를 포착함으로써 상기 타깃 객체의 적어도 일부분의 입체 이미지를 생성하는 단계 - 여기서, 상기 제1 이미지 및 제2 이미지는 적어도 2개의 흑백 이미징 장치에 의해 포착됨 - ; 및
    상기 타깃 객체와 관련된 텍스처 데이터를 포착하는 단계 - 여기서, 상기 텍스처 데이터는 적어도 하나의 컬러 이미징 장치에 의해 포착됨 -
    를 포함하는 방법.
  43. 제42항에 있어서,
    상기 제1 이미지와 제2 이미지는 오버랩되는
    방법.
  44. 제42항에 있어서,
    상기 입체 이미지 및 텍스처 데이터를 처리하고 상기 타깃 객체의 적어도 일부분의 3차원 모델을 생성하기 위해 컴퓨팅 장치를 이용하는 단계
    를 더 포함하는 방법.
  45. 제44항에 있어서,
    상기 타깃 객체의 일부분의 3차원 모델을 생성하는 과정은,
    상기 제1 이미지 및 제2 이미지로부터 3차원 데이터에 대응하는 다수의 점을 추출하는 과정; 및
    상기 타깃 객체의 일부분의 표면 구조를 형성하기 위해 소정의 알고리즘에 따라 상기 다수의 점들 사이에 선을 형성하는 과정을 포함하는
    방법.
  46. 제42항에 있어서,
    상기 구조적 광은 비-가시 스펙트럼에서 방사되는
    방법.
  47. 제46항에 있어서,
    상기 제1 및 제2 이미지와 상기 텍스처 데이터는 동시에 포착되는
    방법.
  48. 제46항에 있어서,
    상기 제1 이미지 및 제2 이미지는 다수의 이미징 장치에 의해 포착되고, 상기 다수의 이미징 장치는 광원에 의해 방사된 비-가시 반사광을 포착하기 적합하게 되어 있는
    방법.
  49. 제42항에 있어서,
    상기 구조적 광은 가시 스펙트럼에서 방사되는
    방법.
  50. 제49항에 있어서,
    상기 구조적 광은 상기 텍스처 데이터가 포착되기 전에 중단되는
    방법.
  51. 제42항에 있어서,
    상기 구조적 광은 선, 그리드, 점 또는 분할된 선 중에서 적어도 하나를 포함하는
    방법.
  52. 제42항에 있어서,
    상기 구조적 광은 광선들로 이루어지고, 상기 구조적 광의 인코딩 과정은 하나의 분할된 광선 및 그 다음 연속되는 분할된 광선이 상이한 분할 구조를 갖도록 상기 광선들을 분할된 광선들로 인코딩하는 과정을 포함하는
    방법.
  53. 제42항에 있어서,
    상기 제1 및 제2 이미지와 상기 텍스처 데이터는 다수의 이미징 장치에 의해 포착되고, 상기 다수의 이미징 장치는 각각 캠코더 또는 디지털 카메라인
    방법.
  54. 타깃 객체 상으로 인코딩된 구조적 광을 투영하는 단계 - 여기서, 상기 구조적 광의 인코딩은 상기 구조적 광의 제1 성분이 상기 구조적 광의 제2 성분으로부터 구별될 수 있도록 허용하고, 상기 구조적 광은 비-가시 스펙트럼에서 방사됨 - ;
    상기 타깃 객체의 제1 이미지 및 제2 이미지를 포착함으로써 상기 타깃 객체의 적어도 일부분의 입체 이미지를 생성하는 단계; 및
    상기 타깃 객체와 관련된 텍스처 데이터를 포착하는 단계 - 여기서, 상기 제1 및 제2 이미지와 상기 텍스처 데이터는 동시에 포착됨 -
    를 포함하는 방법.
  55. 제54항에 있어서,
    상기 제1 이미지와 제2 이미지는 오버랩되는
    방법.
  56. 제54항에 있어서,
    상기 입체 이미지 및 텍스처 데이터를 처리하고 상기 타깃 객체의 적어도 일부분의 3차원 모델을 생성하기 위해 컴퓨팅 장치를 이용하는 단계
    를 더 포함하는 방법.
  57. 제56항에 있어서,
    상기 타깃 객체의 일부분의 3차원 모델을 생성하는 과정은,
    상기 제1 이미지 및 제2 이미지로부터 3차원 데이터에 대응하는 다수의 점을 추출하는 과정; 및
    상기 타깃 객체의 일부분의 표면 구조를 형성하기 위해 소정의 알고리즘에 따라 상기 다수의 점들 사이에 선을 형성하는 과정을 포함하는
    방법.
  58. 제54항에 있어서,
    상기 제1 이미지 및 제2 이미지는 다수의 이미징 장치에 의해 포착되고, 상기 다수의 이미징 장치는 광원에 의해 방사된 비-가시 반사광을 포착하기 적합하게 되어 있는
    방법.
  59. 제54항에 있어서,
    상기 구조적 광은 선, 그리드, 점 또는 분할된 선 중에서 적어도 하나를 포함하는
    방법.
  60. 제54항에 있어서,
    상기 구조적 광은 광선들로 이루어지고, 상기 구조적 광의 인코딩 과정은 하나의 분할된 광선 및 그 다음 연속되는 분할된 광선이 상이한 분할 구조를 갖도록 상기 광선들을 분할된 광선들로 인코딩하는 과정을 포함하는
    방법.
  61. 제54항에 있어서,
    상기 제1 및 제2 이미지와 상기 텍스처 데이터는 다수의 이미징 장치에 의해 포착되고, 상기 다수의 이미징 장치는 각각 캠코더 또는 디지털 카메라인
    방법.
KR10-2000-7015123A 1998-06-30 1999-05-20 이미지 센서를 이용하여 입체 이미지를 포착하기 위한방법 및 장치 KR100407436B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/108,907 US6377700B1 (en) 1998-06-30 1998-06-30 Method and apparatus for capturing stereoscopic images using image sensors
US09/108,907 1998-06-30

Publications (2)

Publication Number Publication Date
KR20010053347A KR20010053347A (ko) 2001-06-25
KR100407436B1 true KR100407436B1 (ko) 2003-11-28

Family

ID=22324751

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-7015123A KR100407436B1 (ko) 1998-06-30 1999-05-20 이미지 센서를 이용하여 입체 이미지를 포착하기 위한방법 및 장치

Country Status (8)

Country Link
US (1) US6377700B1 (ko)
JP (1) JP2002519791A (ko)
KR (1) KR100407436B1 (ko)
AU (1) AU4093499A (ko)
DE (1) DE19983341B4 (ko)
GB (1) GB2354661B (ko)
TW (1) TW533355B (ko)
WO (1) WO2000000926A1 (ko)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
JP2001165638A (ja) * 1999-02-19 2001-06-22 Sanyo Electric Co Ltd 三次元モデル提供装置及びその方法
US6751344B1 (en) * 1999-05-28 2004-06-15 Champion Orthotic Investments, Inc. Enhanced projector system for machine vision
JP4658787B2 (ja) * 2000-02-21 2011-03-23 シャープ株式会社 画像合成装置
US6775397B1 (en) * 2000-02-24 2004-08-10 Nokia Corporation Method and apparatus for user recognition using CCD cameras
US7660444B2 (en) * 2000-02-24 2010-02-09 Nokia Corporation Method and apparatus for user recognition using CCD cameras
JP3867512B2 (ja) * 2000-06-29 2007-01-10 富士ゼロックス株式会社 画像処理装置および画像処理方法、並びにプログラム
US6795200B1 (en) * 2000-11-13 2004-09-21 Point Grey Research Inc. Method and system for dimensioning boxes or other cuboid objects
US6997387B1 (en) * 2001-03-28 2006-02-14 The Code Corporation Apparatus and method for calibration of projected target point within an image
JP2003294416A (ja) * 2002-04-03 2003-10-15 Eng Kk ステレオ画像処理装置
US20030202124A1 (en) * 2002-04-26 2003-10-30 Alden Ray M. Ingrained field video advertising process
US7174033B2 (en) 2002-05-22 2007-02-06 A4Vision Methods and systems for detecting and recognizing an object based on 3D image data
US7257236B2 (en) 2002-05-22 2007-08-14 A4Vision Methods and systems for detecting and recognizing objects in a controlled wide area
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
US7680299B2 (en) * 2003-02-13 2010-03-16 Nec Corporation Unauthorized person detection device and unauthorized person detection method
DE10315923A1 (de) * 2003-04-08 2004-10-28 Tbs Holding Ag Verfahren und Anordnung zur berührungslosen Detektion von Daten unebener Flächen
US7557966B2 (en) * 2004-08-11 2009-07-07 Acushnet Company Apparatus and method for scanning an object
US7646896B2 (en) * 2005-08-02 2010-01-12 A4Vision Apparatus and method for performing enrollment of user biometric information
AU2011253652B2 (en) * 2004-08-12 2013-08-01 Bioscrypt, Inc. Apparatus and method for performing enrollment of user biometric information
AU2005285554B8 (en) * 2004-08-12 2011-11-10 A4 Vision S.A. Device for contactlessly controlling the surface profile of objects
AU2013251233B2 (en) * 2004-08-12 2014-09-04 Bioscrypt, Inc. Apparatus and method for performing enrollment of user biometric information
EP1788348A4 (en) * 2004-08-12 2008-10-22 A4 Vision S A DEVICE FOR BIOMETRICALLY CONTROLLING THE SURFACE OF A FACE
DE112004003011A5 (de) * 2004-08-25 2007-08-09 Tbs Holding Ag Verfahren und Anordnung zur optischen Aufnahme biometrischer Daten
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
EP1851749B1 (en) * 2005-01-21 2012-03-28 Qualcomm Incorporated Motion-based tracking
DE102005013044B4 (de) * 2005-03-18 2007-08-09 Siemens Ag Fluoreszenz-Scanner
DE102005013043A1 (de) * 2005-03-18 2006-09-28 Siemens Ag Mobiler Fluoreszenz-Scanner für molekulare Signaturen
DE102005013042A1 (de) * 2005-03-18 2006-09-28 Siemens Ag Einrichtung zur Erzeugung von 3D-Fluoreszenz-oder Lumineszenz-Scans
DE102005013045B4 (de) * 2005-03-18 2013-03-14 Siemens Aktiengesellschaft Fluoreszenz-Scanner für molekulare Signaturen
KR101403172B1 (ko) * 2005-05-17 2014-06-03 퀄컴 인코포레이티드 방위-감응 신호 출력
GB0515915D0 (en) * 2005-08-02 2005-09-07 Isis Innovation Method and system for three-dimensional data capture
US20070047774A1 (en) * 2005-08-31 2007-03-01 Artiom Yukhin Method and apparatus for performing enrollment of 2D and 3D face biometrics
WO2007041690A2 (en) * 2005-10-04 2007-04-12 Alexander Eugene J Device for generating three dimensional surface models of moving objects
EP1934945A4 (en) 2005-10-11 2016-01-20 Apple Inc METHOD AND SYSTEM FOR RECONSTRUCTING AN OBJECT
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
WO2007058900A2 (en) 2005-11-10 2007-05-24 Alexander Eugene J Calibrating an imaging device for generating three dimensional suface models of moving objects
JP5174684B2 (ja) 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出
US20070229850A1 (en) * 2006-04-04 2007-10-04 Boxternal Logics, Llc System and method for three-dimensional image capture
KR100801087B1 (ko) * 2006-07-05 2008-02-11 삼성전자주식회사 스트럭처드 라이트를 이용한 이동체 감지 시스템 및 방법,상기 시스템을 포함하는 이동 로봇
US8559676B2 (en) * 2006-12-29 2013-10-15 Qualcomm Incorporated Manipulation of virtual objects using enhanced interactive system
TWI433052B (zh) 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
US20090103783A1 (en) * 2007-10-19 2009-04-23 Artec Ventures System and Method for Biometric Behavior Context-Based Human Recognition
WO2009061423A2 (en) * 2007-11-05 2009-05-14 Doubleshot, Inc. Methods and systems for navigation and terrain change detection
US8050468B2 (en) * 2008-03-05 2011-11-01 Honeywell International Inc. Fingerprint acquisition system
US8643641B2 (en) * 2008-05-12 2014-02-04 Charles G. Passmore System and method for periodic body scan differencing
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
DE102008047413A1 (de) * 2008-09-16 2010-04-15 Hella Kgaa Hueck & Co. Vorrichtung und Verfahren zur Detektion von Objekten
US8786682B2 (en) * 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) * 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8830227B2 (en) * 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8982182B2 (en) * 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
CN103053167B (zh) 2010-08-11 2016-01-20 苹果公司 扫描投影机及用于3d映射的图像捕获模块
EP2643659B1 (en) 2010-11-19 2019-12-25 Apple Inc. Depth mapping using time-coded illumination
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
US20120242795A1 (en) 2011-03-24 2012-09-27 Paul James Kane Digital 3d camera using periodic illumination
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
KR101188357B1 (ko) * 2011-04-21 2012-10-08 정제교 기설정 배율각을 가진 다중투사광의 2차원 영상획득을 통한 3차원 인식 방법
TWI477885B (zh) * 2011-07-05 2015-03-21 Danic Ind Co Ltd 三維成像系統及方法
TWI510056B (zh) * 2011-12-27 2015-11-21 Hon Hai Prec Ind Co Ltd 3d成像模組及3d成像方法
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
JP6112807B2 (ja) * 2012-09-11 2017-04-12 株式会社キーエンス 形状測定装置、形状測定方法および形状測定プログラム
DK2909807T3 (da) * 2012-10-17 2020-04-14 Cathx Res Ltd Forbedringer i forhold til undervandsbilleddannelse til undervandsundersøgelser
ES2683364T3 (es) * 2012-11-07 2018-09-26 Artec Europe S.A.R.L. Método para monitorizar dimensiones lineales de objetos tridimensionales
US11509880B2 (en) 2012-11-14 2022-11-22 Qualcomm Incorporated Dynamic adjustment of light source power in structured light active depth sensing systems
CN103278141B (zh) * 2013-03-06 2016-05-18 北京工业大学 婴幼儿睡眠监控系统及方法
WO2015152829A1 (en) 2014-04-03 2015-10-08 Heptagon Micro Optics Pte. Ltd. Structured-stereo imaging assembly including separate imagers for different wavelengths
CN105222724B (zh) * 2015-09-10 2018-09-18 北京天远三维科技股份有限公司 多线阵列激光三维扫描系统及多线阵列激光三维扫描方法
US10542245B2 (en) * 2017-05-24 2020-01-21 Lg Electronics Inc. Mobile terminal and method for controlling the same
US10614292B2 (en) 2018-02-06 2020-04-07 Kneron Inc. Low-power face identification method capable of controlling power adaptively
CN108961195B (zh) * 2018-06-06 2021-03-23 Oppo广东移动通信有限公司 图像处理方法及装置、图像采集装置、可读存储介质和计算机设备
US11282231B2 (en) * 2018-12-21 2022-03-22 Sony Group Corporation Camera rig with multiple sensors
US11051001B2 (en) 2019-05-29 2021-06-29 Avigilon Corporation Method and system for generating a two-dimensional and a three-dimensional image stream
US11836940B2 (en) * 2020-06-15 2023-12-05 Zebra Technologies Corporation Three-dimensional sensor acuity recovery assistance
WO2023139254A1 (en) * 2022-01-24 2023-07-27 Trinamix Gmbh Enhanced material detection by stereo beam profile analysis

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4525858A (en) * 1983-01-03 1985-06-25 General Electric Company Method and apparatus for reconstruction of three-dimensional surfaces from interference fringes
US4639878A (en) * 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
DE8808293U1 (ko) * 1988-06-28 1989-07-27 Siemens Ag, 1000 Berlin Und 8000 Muenchen, De
DE4115401C2 (de) * 1991-05-10 1994-04-14 Rainer Dr Uhl Fluoreszenz-Meßvorrichtung zum Bestimmen der Ionenkonzentration eines Untersuchungsobjekts, das mit einem Fluoreszenzfarbstoff eingefärbt ist, dessen Anregungsmaximum sich in Abhängigkeit von der zu bestimmenden Ionenkonzentration ändert
DE4240940A1 (de) * 1992-12-06 1994-06-09 Robert Prof Dr Ing Massen Automatisierte Kreation von individualisierten Puppen und Masken
US5548418A (en) * 1994-01-14 1996-08-20 Dcs Corporation Holographic structured light generator
AU1742895A (en) * 1994-06-09 1996-01-04 Kollmorgen Instrument Corporation Stereoscopic electro-optical system for automated inspection and/or alignment of imaging devices on a production assembly line
US6028672A (en) * 1996-09-30 2000-02-22 Zheng J. Geng High speed three dimensional imaging method
US5615003A (en) * 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner
DE19516656A1 (de) * 1995-05-05 1996-11-14 Fraunhofer Ges Forschung Verfahren zum Erfassen der dreidimensionalen Form von Objekten
US5771310A (en) * 1996-12-30 1998-06-23 Shriners Hospitals For Children Method and apparatus for recording three-dimensional topographies
JPH1062154A (ja) * 1996-08-15 1998-03-06 Oki Electric Ind Co Ltd 測定値処理方法、形状の再構成方法および形状の再構成装置
US5832107A (en) * 1996-09-19 1998-11-03 Optical Gaging Products, Inc. Optical system for stereoscopically measuring feature heights based on lateral image offsets
US5864640A (en) * 1996-10-25 1999-01-26 Wavework, Inc. Method and apparatus for optically scanning three dimensional objects using color information in trackable patches
US5838428A (en) * 1997-02-28 1998-11-17 United States Of America As Represented By The Secretary Of The Navy System and method for high resolution range imaging with split light source and pattern mask
JP2002516443A (ja) * 1998-05-15 2002-06-04 トリコーダー テクノロジー ピーエルシー 3次元表示のための方法および装置

Also Published As

Publication number Publication date
GB2354661B (en) 2002-12-04
GB2354661A (en) 2001-03-28
DE19983341T1 (de) 2002-07-11
WO2000000926A1 (en) 2000-01-06
US6377700B1 (en) 2002-04-23
DE19983341B4 (de) 2007-07-05
KR20010053347A (ko) 2001-06-25
TW533355B (en) 2003-05-21
AU4093499A (en) 2000-01-17
JP2002519791A (ja) 2002-07-02
GB0031147D0 (en) 2001-01-31

Similar Documents

Publication Publication Date Title
KR100407436B1 (ko) 이미지 센서를 이용하여 입체 이미지를 포착하기 위한방법 및 장치
US6125197A (en) Method and apparatus for the processing of stereoscopic electronic images into three-dimensional computer models of real-life objects
US7271377B2 (en) Calibration ring for developing and aligning view dependent image maps with 3-D surface data
US6195455B1 (en) Imaging device orientation information through analysis of test images
US7098435B2 (en) Method and apparatus for scanning three-dimensional objects
EP1009969B1 (en) Method and system for acquiring a three-dimensional shape description
CN104335005B (zh) 3d扫描以及定位系统
US9501833B2 (en) Method and system for providing three-dimensional and range inter-planar estimation
CN101828092B (zh) 非接触探头
EP1277026B1 (en) Combined stereovision, color 3d digitizing and motion capture system
US8432435B2 (en) Ray image modeling for fast catadioptric light field rendering
US7522163B2 (en) Method and apparatus for determining offsets of a part from a digital image
US20100328308A1 (en) Three Dimensional Mesh Modeling
US20120176380A1 (en) Forming 3d models using periodic illumination patterns
KR100411527B1 (ko) 3-d 공간에서의 두 표면의 컴퓨터 모델을 결합시키기위한 방법
JPH04102178A (ja) 物体モデル入力装置
El-Hakim et al. Two 3D Sensors for Environment Modeling and Virtual Reality: Calibration and Multi-View Registration
US6154564A (en) Method for supplementing laser scanned data
WO2008044096A1 (en) Method for three-dimensionally structured light scanning of shiny or specular objects
CA2405048C (en) Combined stereovision, color 3d digitizing and motion capture system
EP4224430A1 (en) Scan color restoration
Seres Robot navigation in indoor environment
El-Hakim et al. ISPRS Congress, Vienna, 1996, Intl. Archives of Photogrammetry, Commission V, pp 140-146. TWO 3-D SENSORS FOR ENVIRONMENT MODELING AND VIRTUAL REALITY: CALIBRATION AND MULTI-VIEW REGISTRATION
Satzinger Optical 3D measurement using calibrated projector-camera-systems
Haala et al. Virtual Gity Models ftom Laser Altimeter and 2D Map Data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20091118

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee