KR20110112813A - 게이트형 3d 카메라 - Google Patents

게이트형 3d 카메라 Download PDF

Info

Publication number
KR20110112813A
KR20110112813A KR1020117015411A KR20117015411A KR20110112813A KR 20110112813 A KR20110112813 A KR 20110112813A KR 1020117015411 A KR1020117015411 A KR 1020117015411A KR 20117015411 A KR20117015411 A KR 20117015411A KR 20110112813 A KR20110112813 A KR 20110112813A
Authority
KR
South Korea
Prior art keywords
light
light source
shutter
camera
spectrum
Prior art date
Application number
KR1020117015411A
Other languages
English (en)
Other versions
KR101645054B1 (ko
Inventor
아사프 펠맨
아브너 이샤이 샌더
기오라 야하브
Original Assignee
마이크로소프트 인터내셔널 홀딩스 비.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 인터내셔널 홀딩스 비.브이. filed Critical 마이크로소프트 인터내셔널 홀딩스 비.브이.
Publication of KR20110112813A publication Critical patent/KR20110112813A/ko
Application granted granted Critical
Publication of KR101645054B1 publication Critical patent/KR101645054B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

전경(scene)까지의 거리를 결정하는 카메라는 특유의 스펙트럼을 갖는 광의 일련의 펄스들로 전경을 조명하도록 제어가능한 VCSEL을 포함하는 광원, 감광면(photosurface), 전경에 의해 광 펄스들로부터 반사된 광을 감광면 상에 영상화하는 광학(optics), 및 스펙트럼 내의 광을 위해서 감광면을 선택적으로 게이트 온 및 오프하도록 작동가능한 셔터를 포함한다.

Description

게이트형 3D 카메라{GATED 3D CAMERA}
이 기술은 게이트형 3D 카메라들과, 게이트형 3D 카메라를 이용하여 전경의 3D 영상들을 얻는 방법들 및 장치에 관한 것이다.
3차원(3D) 광학적 영상 시스템들, 이하 "3D 카메라들"이라 함은 이들이 영상화하는 물체들 및 물체들 상의 포인트들까지의 거리 측정을 제공할 수 있으며, 많은 다른 애플리케이션들에서 이용된다. 이들 애플리케이션들 중에는 제조물들, CAD 검증, 로봇 비전(robot vision), 지리적 조사(geographic surveying), 및 거리의 함수로서 선택적인 영상 물체들의 프로파일 검사(profile inspection)들이 있다.
몇몇 3D 카메라들은 그들이 영상화하는 전경 내에 있는 물체들의 거의 모든 포인트들에 대한 동시 측정을 제공한다. 일반적으로, 이들 3D 카메라들은 영상화되는 전경을 조명하는 광의 펄스들을 제공하도록 제어되는 단면 발광 레이저 다이오드(edge emitting laser diode)들의 배열을 통상적으로 포함하는 광원과, 전경 내에 있는 물체들로부터 반사되는 광 펄스들로부터 광을 영상화하는 게이트형 영상 시스템을 포함한다. 게이트형 영상 시스템은 이하 "감광면(photosurface)"이라 불리는 CCD 또는 CMOS 감광면과 같은 감광성(photosensitive) 면을 갖는 카메라 및 광학 셔터(optical shutter) 또는 게이트형 영상 증배관(image intensifier)과 같이 카메라의 열림 및 닫힘을 게이트 제어하는 게이팅 수단을 포함한다. 반사된 광은 카메라가 게이트 열림일 때 카메라에 도달해야만 카메라의 감광면의 화소들 상에 기록된다.
전경을 영상화하고 카메라에서부터 전경 내의 물체들까지의 거리를 결정하기 위해서, 일반적으로 광원은 전경을 조명하기 위해 일련의 광 펄스들을 방출하도록 제어된다. 각각의 방출된 일련의 광 펄스에 있어서, 광 펄스가 방출된 시간으로부터 정확하게 결정된 지연 이후에, 카메라는 이하 "게이트"라 부르는 주기 동안 게이트 열림이 된다. 전경 내에 있는 물체로부터 반사된 광 펄스로부터의 광은 게이트 동안 카메라에 도달한다면 카메라의 감광면 상에 영상화된다. 광 펄스를 방출하고 그 뒤를 잇는 게이트 사이에 경과한 시간이 알려져 있기 때문에, 영상화된 광이 광원에서부터 전경 내의 반사 물체까지 그리고 다시 카메라까지 여행하는 데 걸렸던 시간이 알려진다. 경과 시간은 물체까지의 거리를 결정하는 데 사용된다.
몇몇 "게이트형" 3D 카메라들에 있어서는, 광 펄스들과 게이트들 사이의 타이밍만이 3D 카메라에서부터 카메라 감광면의 화소 상에 영상화된 전경 내의 한 포인트까지의 거리를 결정하는 데 이용된다. 다른 게이트형 3D 카메라들에 있어서는, 카메라가 게이트 열림인 시간 동안 화소에 기록된 광의 양도 거리를 결정하는 데 또한 이용된다. 이들 3D 카메라들로 이뤄진 측정의 정확성은 광 펄스들의 상승 및 하강 횟수들 및 그들의 평탄성(flatness)의 함수이며, 카메라들이 얼마나 빨리 게이트 열림 및 닫힘 제어될 수 있는 지의 함수이다.
게이트형 3D 카메라들 및 그들 사용의 예들은 유럽 특허 EP1214609 및 미국 특허 제6,057,909호, US 제6,091,905호, US 제6,100,517호, US 제6,327,073호, US 제6,331,911호, US 제6,445,884호, 및 제6,794,628호에서 보여지며, 이들의 개시물들은 본 명세서에서는 참조로서 통합된다. 조명의 펄스 소스 및 게이트형 영상 시스템을 이용하는 3D 카메라는 S.Christie, 등에 의한 "Design and Development of a Multi-detecting two Dimensional Ranging Sensor" Measurement Science and Technology 6호(1995년 9월) 1301-1308 페이지 및 Yates 등에 의한 "Range-gated Imaging for Near Field Target Identification", SPIE 제2869권 p374-385에 기술되어 있으며, 본 명세서에 참조로 통합되어 있다. 또 다른 3D 카메라는 Medina에 대한 미국 특허 제5,081,530호에 기술되어 있으며, 본 명세서에 참조로 통합되어 있다. 이 특허에 기술된 3D 카메라는 한 쌍의 게이트들의 각 게이트 동안 카메라의 영상 시스템에 도달하는 타깃들로부터 반사된 광의 펄스 내의 에너지를 기록한다. 타깃까지의 거리는 두 개 게이트들 각각의 게이트 동안 기록된 에너지의 총량에 대한 두 개 게이트들 각각의 게이트 동안 기록된 에너지 량 사이의 차이 비율로부터 결정된다.
3D 카메라들에 의해 제공된 측정들의 정확성을 향상시키기 위한 R&D의 노력들은 전경을 조명하기 위해서 전송된 광 펄스들의 상승 시간들, 하강 시간들, 및 폭들을 줄이고, 전경에 의해 펄스들로부터 반사된 광이 영상화되는 동안 대응하는 게이트들을 줄이기 위한 방법들 및 디바이스들을 개발하는데 일반적으로 투자된다.
<발명의 개요>
이 기술의 몇몇 실시예들에 대한 양상은 향상된 게이트형 3D 카메라를 제공하는 것과 관련된다.
이 기술의 몇몇 실시예들에 대한 양상은 카메라에 의해 영상화된 전경 내의 피처(feature)들이 위치되는 향상된 공간적 정확성을 갖는 게이트형 3D 카메라를 제공하는 것과 관련된다.
이 기술의 몇몇 실시예들에 대한 양상은 카메라에 의해 영상화된 전경들을 조명하는 향상된 광원을 갖는 게이트형 3D 카메라를 제공하는 것과 관련된다.
이 기술의 몇몇 실시예들에 대한 양상은 전경에 의해 반사된 광원으로부터 광이 영상화되는 카메라 감광면을 게이트 제어하는 카메라 셔터를 구비한 카메라에 의해서 영상화된 전경을 조명하는데 이용되는 광원의 향상된 매칭을 갖는 게이트형 3D 카메라를 제공하는 것과 관련된다.
이 기술의 몇몇 실시예들의 양상에 따르면, 광원은 전형적인 VCSEL 구조들과 관련되어 변경된 구조를 가지며 상대적으로 넓은 레이저 공동을 특징으로 하는 VCSEL을 포함한다.
발명자들은 게이트형 3D 카메라에 의해 제공된 거리들의 정확성이 카메라 광원 스펙트럼의 콘볼루션(convolution) 및 카메라 셔터의 명암비(CR) 함수에 의존한다고 판단하였다. 명암비(CR)는 광학적 파장 길이에 대한 카메라 셔터의 명암비의 의존도를 정의한다. 주어진 파장에 대해서, CR은 셔터가 닫힘일 때 파장에서 광에 대한 셔터의 상대적으로 낮은 투명암(transparency)에 대한 셔터가 열림일 때 파장에서 셔터의 상대적으로 높은 투명암 사이의 비율이다. 셔터가 실제로 광을 닫는데 이용될 수 있는 파장들은 그의 CR 함수가 1보다 크고, 일반적으로, 실질적으로 1보다 큰 파장들이다. CR이 1보다 큰 셔터에 대한 파장들의 대역은 셔터의 "작동 대역"이라 한다.
광 펄스들의 주어진 상승 시간들, 하강 시간들 및 폭들과, 게이트들에 대하여, 3D 게이트형 카메라에 의해 제공된 거리 측정들의 정확성은 CR 함수 및 스펙트럼의 콘볼루션을 최대화하기 위해서 셔터 CR 함수와 광원 스펙트럼을 매칭시킴으로써 유리하게 향상될 수 있다. 일반적으로, 광원 스펙트럼 대 셔터의 매칭은 셔터의 작동 대역에서 스펙트럼을 실질적으로 중앙에 둔다. 표현의 편의상, 셔터 CR과 광원 스펨트럼 사이의 콘볼루션을 명암 강도(contrast intensity; CI)라 한다. 정규화된 명암 강도(CIN), 광원에 의해 제공된 광의 펄스 내에 광학적 에너지 전체에 대해 정규화된 CI는, 광원과 셔터 사이 매칭의 측정으로서 편리하게 이용된다.
일반적으로, 게이트형 3D 카메라 광원의 주기적인 단기 온도 변화는 광원이 카메라에 의해 영상화된 전경을 조명하도록 작동되는 기간 동안 카메라의 주위 작동 온도와 관련되어 생성된다. 통상적으로 단면 발광 레이저 다이오드를 포함하는 종래의 게이트형 3D 카메라 광원들에 있어서, 온도 변화들은 카메라 셔터의 CR 함수와 관련된 광원 스펙트럼에서의 파장 시프트들에 기인한다. 셔터의 CR 작동 대역과 관련된 스펙트럼의 폭은 일반적으로 파장 시프트들이 스펙트럼과 CR 함수를 실질적인 어긋나게 정렬(misalign)하고, 카메라의 정규화 명암 강도(CIN)를 감소시키고, 그에 의해 거리 측정에서의 바이어스 오류(bias error)를 증가시킨다는 것이다.
상대적으로 좁은 스펙트럼들을 특징으로 하는 VCSEL(vertical cavity surface emitting light emitting laser)들과 같은 종래의 광원들이 알려져 있는 반면, 이러한 광원들은 대체로 통신 시스템들과 같은 저 전력 애플리케이션들에 사용된다. 이들은 일반적으로 3D 게이트형 카메라들에서 사용하기에 유리한 충분한 광량을 생성하지 않는다.
그러나 발명자들은 VCSEL이 그의 레이저 공동을 확장함으로써 그의 광학적 출력을 증가시키도록 변경될 수 있다고 판단하였다. VCSEL 레이저 공동을 확장하는 것은 VCSEL 스펙트럼의 폭을 증가시키는 반면, 스펙트럼은 종래의 단면 발광 레이저 다이오드들에 의해 일반적으로 제공된 것 보다 훨씬, 일반적으로, 실질적으로 더 좁다. 더욱이, 온도에서의 도 변화당 VCSEL의 출력 스펙트럼에서의 파장 시프트들은 실질적으로 종래의 단면 발광 레이저 다이오드의 것보다 작다. 결과적으로, 이 기술의 실시예에 따른 변경된 VCSEL을 포함하는 광원은, 게이트형 3D 카메라에서 사용될 때 광원 및 카메라 셔터의 상대적으로 향상된 매칭을 제공한다. 변경된 VCSEL 광원은 상대적으로 크고 광원의 온도 변화에 상대적으로 둔감한(insensitive) 카메라용 CIN이 된다. 이 기술의 일 실시예에서, 광원은 변경된 VCSEL들의 배열을 포함한다.
그러므로 이 기술의 일 실시예에 따라서, 전경까지의 거리들을 결정하는 카메라가 제공되며, 카메라는 특유의 스펙트럼을 갖는 광의 일련의 펄스들로 전경을 조명하도록 제어가능한 VCSEL을 포함하는 광원, 감광면, 전경에 의해 광 펄스들로부터 반사된 광을 감광면 상에 영상화하는 광학(optics), 및 스펙트럼 내의 광을 위해서 상기 감광면을 선택적으로 게이트 온 및 오프하도록 작동가능한 셔터를 포함한다. 선택적으로, 특유의 스펙트럼은 대략 1.5nm 이상의 FWHM 폭을 갖는다. 선택적으로, 특유의 스펙트럼은 대략 2.0nm 이상의 FWHM 폭을 갖는다. 선택적으로, 상기 특유의 스펙트럼은 대략 2.5nm 이상의 FWHM 폭을 갖는다.
이 기술의 몇몇 실시예들에서, VCSEL은 대략 20 microns 이상의 직경을 특징으로 하는 레이징 공동을 갖는다. 이 기술의 몇몇 실시예들에서, VCSEL은 대략 25 microns 이상의 직경을 특징으로 하는 레이징 공동을 갖는다. 이 기술의 몇몇 실시예들에서, 셔터와 광원 사이의 대략 20℃ 이하 온도 차이에 대해서 셔터 CR 및 특유의 스펙트럼의 정규화된 콘볼루션은 대략 10 이상이다. 이 기술의 몇몇 실시예들에서, 셔터와 광원 사이의 대략 20℃ 이하 온도 차이에 대해서 셔터 CR 및 특유의 스펙트럼의 정규화된 콘볼루션은 대략 12 이상이다.
이 기술의 몇몇 실시예들에 있어서, 광원은 일련의 광 펄스들로 전경을 조명하기 위해서 대략 12 Watts 이상의 전력 레벨에서 작동한다. 선택적으로, 전력 레벨은 대략 15 Watts 이상이다. 선택적으로, 전력 레벨은 대략 18 Watts 이상이다.
이 기술의 실시예들의 제한하지 않은 예들은 본 단락의 다음에 열거되어 첨부된 도면을 참조하여 이하 기술된다. 2개 이상의 도면에 나타나는 동일한 구조들, 구성 요소들 또는 부분들은 일반적으로 그들이 나오는 모든 도면들에서 동일한 번호로 표기된다. 도면들에 나타낸 구성 요소들 및 피처들의 치수는 설명을 편리하고 명확하게 하기 위하여 선택되었고, 일정한 비율로 도시될 필요는 없다.
도 1은 종래 기술에 따라서 전경까지의 거리를 결정하도록 작동하는 3D 게이트형 카메라를 개략적으로 나타낸다.
도 2는 종래 기술에 따라서, 도 1에 도시한 카메라 내에 포함된 셔터 및 레이저 다이오드 광원 각각에 대한 개략 CR 함수 및 스펙트럼의 그래프를 나타낸다.
도 3은 종래 기술에 따라서, 3D 카메라의 게이팅을 예시하는 시간축의 그래프를 나타낸다.
도 4는 종래 기술에 따라서, 광원의 국부 가열(local heating)로 인해 도 1에 도시한 셔터의 CR 함수와 관련된 레이저 다이오드 광원의 스펙트럼의 파장 시프트들을 예시하는 그래프를 나타낸다.
도 5는 종래 기술에 따라서, 도 1에 도시한 카메라에 의해 제공된 전경에 대한 거리 측정의 바이어스 오류의 그래프를 나타낸다.
도 6은 이 기술의 일 실시예에 따라서, VCSEL 광원을 포함하는 3D 게이트형 카메라를 개략적으로 나타낸다.
도 7은 이 기술의 일 실시예에 따라서, 광원의 국부 가열로 인해 도 6에 도시한 카메라의 VCSEL 광원의 스펙트럼의 파장 시프트들을 예시하는 그래프를 나타낸다.
도 8은 이 기술의 일 실시예에 따라서 도 6에 도시한 카메라에 의해 제공된 전경까지의 거리 측정에서 바이어스 오류의 향상을 예시하는 그래프를 나타낸다.
도 1은 물체들(31 및 32)로 개략적으로 표현된 물체들을 갖는 전경(30)의 3D 영상을 얻기 위해서 사용되고 있는 게이트형 3D 카메라(20)를 개략적으로 예시한다.
매우 개략적으로 표현된 카메라(20)는 렌즈(21)와 감광면(22)으로 표현된 렌즈 시스템을 포함하며, 감광면(22)은 렌즈 시스템이 전경을 영상화하는 화소들(23)을 갖는다. 카메라는 감광면(22)을 게이트 온 또는 오프하며, 낮거나 높은 투과율(transmittance)을 선택적으로 갖도록 제어가능한 셔터(25)를 포함한다. 셔터(25)는 작동 대역에서 광에 대한 낮은 투과율을 갖고 감광면(22)을 게이트 오프하는 경우에 "닫힘"이라 하고, 작동 대역에서 광에 대한 높은 투과율을 갖고 감광면을 게이트 온하는 경우에 "열림"이라 한다. "게이트"는 감광면(22)이 셔터(25)에 의해 게이트 온되는 동안의 주기를 말하고, 감광면은 셔터를 통해 전송된 광을 수신한다.
카메라(20)는 선택적으로 광원(26)을 포함하며, 일반적으로 셔터 작동 대역 내의 파장에서 일련의 전송된 광 펄스들로 전경(30)을 조명하도록 제어가능한 단면 발광 레이저 다이오드들(27)의 배열을 포함한다. 광 펄스 열은 일련(40)의 모자 모양(hat) 펄스들(41)로 도 1에 개략적으로 표현되었으며, 각 펄스는 광원(26)을 떠나는 머리위(overhead) 화살표와 결합된다. 선택적으로, 셔터 작동 대역은 광의 IR 대역이다. 컨트롤러(24)는 광원(26)의 펄싱(pulsing)과 감광면(22)을 게이트 제어하는 셔터(25)의 작동을 제어한다. 전경(30)까지의 거리 측정을 위한 데이터를 제공하는 데 있어서 광 펄스 열(40) 및 광 펄스들(41)의 기능은 이하 논의된다.
대체로, 카메라(20)의 작동 중에, 광원(26)은 일련의 광 펄스들(40)로 전경(30)을 반복적으로 조명하도록 제어된다. 광 펄스들의 각 열(40)에서, 광원(26)은 카메라에 열(heat)을 발생시키고 소멸시키며, 광원 온도는 최소 및 최대 온도 사이를 순환한다. 열 발생 및 소멸의 반복된 사이클 때문에, 셔터(25)는 카메라 주변의 대기 온도보다 높고, 최소 및 최대 광원 온도로 괄호 묶여지는 높은(elevated) 작동 온도로 가열된다. 대략 30℃의 대기 온도에 대해서, 셔터 작동 온도는 대략 50℃가 될 것이며, 광원 온도는 광 펄스 열(40)의 생성 동안 대략 20℃ 이하에서 대략 20℃ 이상까지 셔터 작동 온도를 순환할 것이다.
셔터의 작동 대역과 광원의 스펙트럼 모두가 그들이 작동하는 온도 변화와 함께 변화하기 때문에, 광 펄스 열(40) 동안, 광원(26)의 온도가 셔터(25)의 작동 온도와 관련되어 변화함에 따라, 광원으로부터의 광의 스펙트럼은 CR과 관련되어 파장 시프트한다. 결과적으로, 셔터(25) 및 광원(26)의 CIN은 각 광 펄스 열 동안 변화한다. 카메라(20)의 신뢰할 수 있는 작동을 위해서, CIN이 최대화되고, 광원(26) 및 셔터(25)의 작동 온도 차이에 의해 야기된 그의 최대치와 관련된 CIN의 변화가 상대적으로 적은 것이 유리하다. 이를 위해서, 광원 및 셔터는 광원으로부터의 광이 셔터의 작동 대역 내의 파장들에 있고 일반적으로, 광원 가열 사이클의 적어도 중간 온도에서 카메라의 CIN이 최대가 되도록 매칭되어야 한다. 또한, 광원 및 셔터는 일반적으로 그들이 유사한 온도 의존성을 갖도록 동일한 반도체 물질로 형성된다.
도 2는 파장의 함수로서, 셔터(25)에 대해서 점선으로 도시된 개략적 명암비, 즉 CR 함수(70)와, 단면 발광 레이저 다이오드들(27)을 포함하는 광원(26)에 대해서 실선으로 표시된 스펙트럼(80)의 그래프(60)를 나타낸다. 셔터(25) 및 레이저 다이오드들(27) 모두는 GaAs로 만들어진다고 가정하고 대략 50℃의 동일한 온도에서 작동할 때 선택적으로 최대 CIN을 갖도록 매칭된다. 파장은 그래프(60)의 가로축(abscissa)을 따라 표시되며 CR에 대한 값들은 그래프의 왼쪽 세로축(left-hand ordinate; 61)을 따라 표시된다. 스펙트럼(80)은 그의 최대치로 정규화되고 스펙트럼에 대한 상대값들은 그래프의 오른쪽 세로축(62)을 따라 표시된다. 50℃에서의 셔터 CR(70) 및 광원 스펙트럼(80)에 대한 정규화된 명암 강도, CIN은 대략 13.4와 같다. GaAs에 대해서, 대체로, 스펙트럼(80) 및 CR 함수(70)는 대략 0.25nm/℃ 만큼 시프트한다.
도 1에 도시한 카메라(20)로 전경(30)의 3D 영상을 얻기 위해서, 컨트롤러(24)는 펄스들이 펄스폭(τ)을 갖도록 추정되는 광 펄스들(41)의 열(40)로 전경(30)을 조명하도록 광원(26)을 제어한다. 각각의 광 펄스(41)로부터의 광은 전경(30) 내의 피처(feature)들에 의해 반사되고, 반사된 광의 일부분은 카메라(20)에 입사되고 렌즈(21)로 모여진다. 도 1에서 점선들로 도시되고 카메라(22)를 향해 가리키는 머리위 화살표들과 결합된 모자 모양 펄스들(50)은 카메라(20)에 도달하는 전송된 펄스들(41)로부터 반사된 광을 개략적으로 나타낸다. 적어도 하나의 광 펄스(41) 각각의 방출에 따라, 컨트롤러(24)는 렌즈(21)로 모여지는 전송된 광 펄스로부터 반사된 광(50)을 수신하여 감광면 상에 영상화하도록 광 펄스가 방출되는 시간과 관련된 적절한 시간에 감광면(22)을 게이트 온하도록 셔터(25)를 제어한다. 카메라(20)의 게이트 동안 감광면의 화소들(23)에서 영상화되는 광(50)의 양은 화소들에서 영상화되고 그에 의해 전경의 3D 영상을 제공하는 전경(30)의 피처들까지의 거리를 측정하는 데 이용된다.
3D 카메라를 게이트 제어하고 전경(30) 내의 피처들까지의 거리를 얻는 다양한 방법들이 상기 참조된 특허들 및 PCT 특허 출원 PCT/IL2007/001571에 기술되어 있으며, 이 개시물들은 본 명세서에 참조로 통합된다. 도 3은 상대적으로 간단한 게이트 제어 체계(scheme)에 따라서, 전경 내의 피처들까지의 거리를 얻기 위해서 광 펄스들(41)의 열(40)로 전경(30)을 조명하고 셔터(25)에 의해 감광면(22)을 게이트 제어하는 것을 나타내는 타임 라인들(101, 102, 및 103)의 그래프(100)를 나타낸다. 타임 라인들(101, 102, 및 103)은 전경(30)을 조명하기 위해 광원(26)에 의해 방사된 펄스들의 열(40)에서 임의의 광 펄스(41)의 방사 시간 t0와 관련된 셔터(25)의 게이트 타이밍을 그래프로 예시한다. 단일 광 펄스는 타임 라인(101)을 따라 오른쪽을 가리키는 머리위 화살표를 갖는 어둡게된(shaded) 모자 모양 펄스(41)로 표현된다. 타임 라인들(102 및 103)은 셔터(25)의 게이트들을 그래프로 나타낸다. 도 3에 예시된 게이팅 프로파일은 통상적으로 펄스 열(40)에서 각 펄스(41)에 대해서 반복되어 진다.
감광면(22) 내의 대응하는 화소(23)(도 1)에서 영상화된 전경(30) 내의 주어진 피처를 카메라(20)로부터의 거리 Df에 위치시키자. 방사된 광 펄스(41)로부터 주어진 피처에 의해 반사된 광 펄스(50) 내의 광자(photon)들은 먼저 거리 Df에 의존하는 시간 tγ1(Df)에 카메라(20)에 도달한다. 반사된 광 펄스(50)는 방사된 광 펄스(41)와 동일한 폭, τ를 가지며, 반사된 광 펄스(50) 내 마지막 광자는 주어진 피처로부터 시간 tγ2(Df)=tγ1(Df)+τ에 카메라에 도달한다. 반사된 광 펄스(50)는 타임 라인들에 따라 왼쪽을 향하는 머리위 화살표를 갖는 점섬들에 도시된 어둡게된 모자 모양 펄스(50)에 의해 타임 라인들(101, 102, 103)에 따라 표현된다.
타임 라인(102)에 따르는 모자 모양 펄스(110)는 컨트롤러(24)(도 1)가 감광면(22)을 게이트 온하고 카메라(20)에 도달하는 광을 기록하도록 셔터(25)를 제어하는 동안 게이트 이하 "타이밍 게이트(110)"를 개략적으로 나타낸다. 타이밍 게이트(110)는, 선택적으로, 상대적으로 짧고 τ와 동일한 게이트 폭을 가지며, t0 다음의 시간 tgs에서 시작하고 tge=(tgs+τ)에서 끝난다. 반사된 펄스(50)는 반사된 펄스(50)와 타이밍 게이트(110) 사이의 시간적 관계를 명확히 보여주기 위해서 편의상 타임 라인(102)을 따라 표시된다. 반사된 펄스(50)는 게이트의 시간-부분, T 동안 타이밍 게이트(110)와 겹친다. 시간 T 동안, 주어진 피처를 영상화하는 화소(23)(도 1)는 화소에 입사하는 주어진 피처로부터의 광에 즉각 반응하는 전하량 "Q"를 기록한다고 추정하자. 또한 반사된 펄스(50)가 시간적으로 게이트(110)와 일치(congruent)했다면(즉, 반사된 펄스의 제1 광자 및 마지막 광자가 각각 시간 tgs 및 tge에 카메라(20)에 도달했을 것이라 한다면), 주어진 피처를 영상화하는 화소는 광의 총량 "Q0"를 기록할 것이라 가정하자. 그러면, T = τQ/Q0가 되고, c가 광속을 나타낸다면, 카메라(20)로부터 피처까지의 거리 Df는 다음의 수학식들로 주어질 것이다:
Figure pct00001
Figure pct00002
수학식 1 및 2로부터, 시작 및 종료 시간 tgs 및 tge을 각각 갖는 게이트(110)에 대해서 카메라(20)로부터의 거리(c/2)tgs에서 중앙에 오는 폭(cτ)를 갖는 전경의 "영상 조각(imaging slice)"에 위치한 전경(30) 내에 있는 피처들에 대한 거리가 제공된다는 점에 주목한다.
설명의 편의를 위해서, 영상 조각의 중심 거리(c/2)tgs를 "DC"로 표현하고, 피처에 대한 Df를 제공하기 위해서 수학식 1 및 2에서 각각 DC에서 빼지거나 더해지는 거리 (c/2)tgs(1-Q/Q0)를 ΔDf로 표현하기로 하자. 그러면, 수학식 1 및 2는,
Figure pct00003
Figure pct00004
로 씌여질 것이다.
선택적으로, Q0는 타임 라인(103)에 따라 모자 모양 펄스(112)로 표현된, 상대적으로 긴 게이트, 이하 "정규화(normalization) 게이트"를 위해서 카메라(20)를 게이트 온함으로써 결정된다. 게이트(112)는 선택적으로 3τ와 같은 게이트 폭을 가지며, 광 펄스들의 열(40)에서 하나의 펄스(41)의 전송 시간 t0 다음의 시간(tgs-τ)에서 시작한다. 정규화 게이트의 폭 및 타이밍이 결정되어 타이밍 게이트(110) 동안 감광면(22)의 화소에 광이 기록되는 전경(30) 내의 모든 피처에 대해서, 정규화 게이트(112)는 Q0에 대한 값을 제공할 것이다. 카메라(20)로부터 거리 Df에 있는 주어진 피처에 의해 반사된 반사 펄스(50)는 반사 펄스와 정규화 게이트(112)의 상대적 타이밍을 보여주기 위해서 타임 라인(103)을 따라 도시되었다. 반사 펄스는 정규화 게이트(112)의 시간적 경계들 내에 완전하게 들어오고, 반사 펄스 내의 모든 광은 화소에 의해 기록되며 Q0의 양(measure)을 제공한다. 카메라(20)는 다른 광 펄스들(41)이 방사되어 다른 반사된 광 펄스들(50)로부터 광을 기록하는 시간들에 즉각 반응하는 타이밍 및 정규화 게이트들(110 및 112)을 위해서 게이트 온될 수 있음에 주목한다.
주어진 반사 펄스(50)에 수학식 1 또는 2 중 어떤 수학식이 적용될 것인지를 결정하는 다양한 방법들이 있다. 예를 들어, 타이밍 게이트(110)는 선택적으로 두 개의 연속 게이트들, "프런트(front)" 게이트 및 "백(back)" 게이트로 나눠질 수 있고, 각각은 τ/2와 동일한 게이트 폭을 갖는다. 화소가 프런트 게이트 또는 백게이트 동안 더 많은 광량을 기록한다면, 화소에서 영상화된 전경(30)의 피처에 대해서 수학식 1 또는 2가 적용된다.
수학식 1 및 2는 광원(26)에 의해 제공된 광에 대한 CR이 무한하며, 셔터(25)가 닫힌 경우에는 감광면(22)에 도달하기 위해서 광원(26)으로부터의 어떤 광도 셔터를 통해 전송될 수 없다고 가정한다. 그러나, 앞서 논의하고 도 2에 도시한 바와 같이, 셔터(25)에 대한 CR은 유한하며, 예를 들어, 도 2에서, CR은 대략 16의 최대치를 갖는다. 결과적으로, 셔터가 닫힌 경우에 카메라(20)에 도달하는 전경(30) 내의 피처로부터 반사된 광 펄스들(50) 내의 광은 셔터를 통해 새어나오고 피처를 영상화하는 감광면(22) 내의 화소에 의해 기록된 Q의 값들을 "변질시킨다(contaminate)". 변질은 보통 수학식 1 또는 2에 의해 피처에 대해 결정된 거리 Df에서 오류를 발생시키며 CR이 감소함에 따라 오류가 증가한다.
예를 들어, 상기한 바와 같이, (τ)Q/Q0는 전경(30)에 있는 주어진 피처로부터 반사된 펄스(50) 내의 광자가 타이밍 게이트(110) 동안 카메라(20)에 도달하고 셔터(25)가 최대 투명암를 갖는 겹침 시간, T의 기간이다. 그러므로 주기 (τ)(1-Q/Q0)는 셔터(25)가 오프일 때 광자들이 반사된 펄스로부터 카메라에 도달하고 셔터가 팩터 1/CR 만큼 최대치에서 줄어든 투명암를 갖는 시간 기간이다.
타이밍 게이트(110) 동안 펄스(50)로부터의 광을 가지고 주어진 피처를 영상화하는 화소(23)로 모여진 광의 전체량을 Q*로 표현하기로 하자. Q*
Figure pct00005
에 따라서 합리적이며 정확하게 추정될 수 있으며, 여기서 CIN은 셔터(25)의 CR과 반사된 광 펄스(50)의 스펙트럼에 대한 정규화된 명암 강도(CI)이다.
Df*를 주어진 피처를 영상화하는 화소에 의해 기록된 광량 Q*을 이용하여 주어진 피처에 대해 결정된 거리를 나타내게 하자. 그러면, 수학식 1 및 2는
Figure pct00006
Figure pct00007
로 주어진다. 또는
Figure pct00008
Figure pct00009
이다.
수학식 8 및 9는 타이밍 게이트(110)와 관련된 영상 조각에 있는 피처들에 대해서, 피처를 영상화하는 화소(23)에 기록된 전하로부터 결정된 주어진 피처까지의 거리가
Figure pct00010
규모를 갖는 바이어스 오류 "
Figure pct00011
"에 의해 영상 조각의 중심을 향해 잘못 바이어스된다는 것을 나타낸다. 수학식 10에서, Q는 셔터(25)의 CR이 무한대와 같은 피처를 영상화하는 화소에 의해 기록될 전하량이다.
결정된 거리 Df *는 일반적으로 CR에 대해 보정될 수 있으므로 CIN이 유한하다고 해도, 상기한 바와 같이, 광원(26)이 광 펄스들(41)의 열(40)(도 1)을 방사하는 경우에는 광원이 방사하는 각 펄스로 광원이 국부 순환 가열(local cyclical heating)을 받기 때문에 이러한 보정들을 정확하게 하기 어려울 수 있다. 국부 가열은 광원(26)이 작동하는 온도와 셔터(25)가 작동하는 작동 온도 사이에서 순환적 온도 차이들 생성한다. 온도 차이는 20℃ 정도일 수 있다. 결과적으로, 도 2에 도시한 스펙트럼(80)은 전경(30) 내의 피처들까지의 거리들을 결정하기 위해서 카메라(20)의 작동 중에 5nm 정도만큼 시프트할 수 있다. 온도 차이로 인한 시프트는 셔터(25)의 CIN에서의 실질적인 감소와 바이어스 오류
Figure pct00012
에서의 수반되는(concomitant) 증가를 가져올 수 있다.
예로써, 도 4는 50℃의 작동 온도에서 작동하는 카메라(20)에 대한 그래프(60)(도 2)에 도시한 셔터(25)에 대한 CR 함수(70) 및 광원의 스펙트럼(80)과, 광원의 작동으로 인한 국부 가열에 의해 시프트된 광원에 대한 스펙트럼들(81 및 82)의 그래프(120)를 나타낸다. 스펙트럼들(81 및 82)은 각각 30℃ 및 70℃의 온도에서 우세하다고 가정한다. 그래프(120)로부터, 스펙트럼 커브들(81 및 82)이 CR 커브(70)와 겹치는 양들을 주목함으로써 스펙트럼(80)에서 발생하는, 스펙트럼들(81 및 82)에 대한 CIN이 최대 CIN과 관련되어 실질적으로 감소된다는 점을 쉽게 알 수 있다. CIN은 스펙트럼들(80, 81, 및 82)에 대해서 각각 대략 13.4, 6, 및 5와 동일한 값을 갖는다.
도 5는 CIN이 대략 6과 같은, 즉 광원(26)과 셔터(25) 사이의 온도차가 대략 20℃와 같을 때 발생될 수 있는 CIN을 가정하여 생성될 수 있는, 전경(30)의 주어진 피처까지의 거리에서 바이어스 오류
Figure pct00013
의 그래프(130)를 나타낸다. 그래프(130)는 광 펄스(41)(도1 및 도3)에 대한 펄스 폭(τ)이 10ns와 같고, 게이트(110)(도 3)에 대한 게이트 폭이 펄스 폭과 같다고 가정한다. 그러므로 전경(30)의 영상 조각은 대략 2.7 m와 같은 폭을 갖는다. 그래프(130)에서, 커브(131)는 영상 조각의 중심으로부터 변위 ΔDf의 함수로서
Figure pct00014
를 나타낸다. 그래프로부터, 오류 바이어스
Figure pct00015
는 영상 조각의 중심에 있는 피처들에 대해서 실질적으로 제로와 같고, 조각 중심에서부터의 거리에 대해서 선형적으로 증가하며 대략 ΔDf의 17%와 같다는 점을 알려준다.
이 기술의 일 실시예에 따라서, 게이트형 3D 카메라는 카메라 셔터에 대한 광원의 향상된 매칭을 제공하고
Figure pct00016
를 줄이는 VCSEL들의 배열을 갖는 광원을 포함한다. VCSEL들은 레이저 다이오드들의 스펙트럼들보다 온도 변화에 실질적으로 덜 민감한 상대적으로 좁은 스펙트럼들을 갖는다. 전형적인 단면 발광 레이저 다이오드는 대략 4nm(FWHM) 폭인 스펙트럼을 가질 수 있고, 상기한 바와 같이, 대략 0.25nm/℃ 만큼 스펙트럼 시프트를 보일 수 있다. 반면에 전형적인 VCSEL은 일반적으로 폭이 대략 0.5nm에서 1nm 사이이며 대략 0.07nm/℃ 만큼 시프트하는 스펙트럼을 갖는다. 그러나, 상대적으로 낮은 에너지 통신 애플리케이션들에서 통상적으로 사용되는 VCSEL들은 게이트형 3D 카메라의 광원에서 사용하기에 충분한 광학적 에너지를 일반적으로 제공하지 않는다.
광원에서의 VCSEL들은, 이 기술의 일 실시예에 따라서, 그들의 레이저 공동들을 확장함으로써 그들의 광학적 에너지 출력을 증가시키도록 변경된다. VCSEL의 레이저 공동을 확장시키는 것은 VCSEL의 스펙트럼의 폭을 증가시키는 반면, 이 스펙트럼은 종래의 단면 발광 레이저 다이오드에 의해 일반적으로 제공되는 스펙트럼보다 훨씬 일반적으로 실질적으로 더 좁다. 그 결과, 이 기술의 일 실시예에 따라서 광원 내의 변경된 VCSEL들은 게이트형 3D 카메라에서 유리하게 사용하기 위한 충분한 전력과 카메라 셔터에 대한 향상된 매칭 모두를 제공한다.
종래의 VCSEL들은 일반적으로 대략 15 microns 이하 직경의 레이저 공동 단면적(cross sections)을 갖는다. 선택적으로, 이 기술의 일 실시예에 따라서 게이트형 3D 카메라 광원 내의 VCSEL들은 대략 20 microns 이상의 폭, 예를 들어, 직경을 특징으로 하는 단면적을 갖는 상대적으로 큰 레이저 공동을 포함한다. 선택적으로, VCSEL 레이저 공동 폭은 대략 25 microns 이상이다. 선택적으로, 스펙트럼의 폭은 대략 2.5nm 이상이다. 이 기술의 몇몇 실시예들에서, 스펙트럼 폭은 대략 3nm 이상이다.
도 6은 이 기술의 일 실시예에 따라서, VCSEL들(227)을 포함하는 광원(226)을 갖는 게이트형 3D 카메라(220)를 개략적으로 나타낸다. 게이트형 3D 카메라(220)는 레이저 다이오드들(27) 대신에 VCSEL들(227)을 포함하는 광원(226)을 제외하고, 예로써 도 1에 도시한 게이트형 3D 카메라(20)와 유사하다. VCSEL들(227)은 대략 20 microns과 같은 직경의, 선택적인 원형 단면적을 특징으로 하는 상대적으로 큰 레이저 공동들을 갖는다. 선택적으로, VCSEL들은 50℃에서 작동할 때 대략 855nm의 파장에서 대략 2.5nm에서 대략 3nm 사이로 중심 조정된 FWHM을 갖는 스펙트럼을 특징으로 하는 IR 광을 생성하도록 작동가능하다.
광원(226)에서, 예로써, VCSEL들(227)은 적절한 열 발산 패키지(heat dissipating package)(228)에 탑재된 대략 55 microns의 피치(pitch)와 16행 및 16열의 직사각형 배열로 구성된다. 이 분야에서 알려진 다양한 패키지들 중 임의의 패키지는 그들의 작동 중에 VCSEL들(227)에 의해 생성된 열을 발산하는 기술의 실행에 적용되고 이용될 수 있다. 발명자들은 VCSEL들(227) 및 적절한 열 발산 패키지(228)를 포함하는 광원(226)이 전경까지의 거리를 결정하기 위해서 전경을 조명하는데 적합한 광 펄스들의 열을 생성하기 위해서 대략 12 Watts 이상의 전력 레벨에서 작동될 수 있다는 점을 알아냈다. 이 기술의 몇몇 실시예들에서, 카메라는 광원이 대략 15 Watts 이상의 전력 레벨에서 작동될 수 있도록 구성된다. 이 기술의 몇몇 실시예들에서, 전력 레벨은 대략 18 Watts 이상이다.
광 펄스들의 열을 제공하기 위해서 광원의 작동 중에 생성된 광원(226)과 셔터(25) 사이의 온도 차이에 있어서, 광원에 의해 제공된 광의 스펙트럼은 상대적으로 작은 파장 시프트들과 CIN에 대한 상대적으로 큰 값들을 보인다. 결과적으로, 이 기술의 일 실시예에 따라서, 카메라(220)는 카메라(20)(도 1)에 대해 도 4에 도시한 바이어스 오류들보다 실질적으로 더 작은 바이어스 오류들
Figure pct00017
을 갖는 전경에 대한 거리 측정을 제공할 수 있다.
도 7은 온도 30℃, 50℃ 및 70℃에서 GaAs로 형성된 VCSEL들(227)에 대한 스펙트럼들(251, 252 및 253)과, 도 4의 그래프(120)에 도시한 50℃에서 셔터(25)의 CR 커브(70)의 그래프(250)를 나타낸다. 그래프(250)로부터, 광원의 작동 중에 광원(226)과 셔터(25) 사이에서 발생될 수 있는 20℃의 온도 차이들에 대해서, 스펙트럼들은 CR 커브(70)와 관련하여 상대적으로 작은 양들 만큼 시프트한다는 것을 알 수 있다. VCSEL(227)(도 6)의 작동 온도에서 각 섭씨도(degree centigrade)에 대해서, VCSEL 스펙트럼이 0.07nm 만큼 시프트한다고 가정하면, 스펙트럼들(251 및 253)은 CR 커브(70)와 관련하여 대략 1.4nm만큼 시프트된다. CR 커브(70)와 관련하여 광원(226)에 의해 보여지는 스펙트럼들(251 및 253)의 시프트는 도 4에 도시한 광원(26)의 스펙트럼들(81 및 82) 각각에 의한 동일한 온도 차이들에 대해 보여지는 것 보다 실질적으로 더 작다. VCSEL들(227) 및 CR 커브(70)에 대한 시프트된 스펙트럼들(251 및 253)의 CIN 값들은 레이저 다이오드 광원(26)에 대한 대응하는 스펙트럼들(80 및 82)의 CIN 값들보다 실질적으로 더 크다.
광원(226) 및 CR 커브(70)에 대한 스펙트럼들(251, 252 및 253)의 CIN 값들은 각각 대략 12.5, 13.8 및 12.7과 동일하게 추정된다. 셔터(25)가 대략 50℃인 경우에 약 30℃ 또는 약 70℃의 VCSEL 광원(226)에 대한 CIN 값들은, 셔터(25)가 약 50℃일 때 약 30℃ 또는 약 70℃의 온도에서 레이저 다이오드 광원(26)에 대한 CIN 값들보다 약 2 팩터 이상 만큼 더 크다. 레이저 다이오드 광원 스펙트럼들(81 및 82)에 대한 VCSEL 광원 스펙트럼들(251 및 253)의 CIN 값들의 비율은 VCSEL 스펙트럼들이 상대적으로 좁기 때문에 모두 크고, 셔터(25)의 온도와 관련된 동일한 온도 차이에 있어서, 이들은 레이저 다이오드들의 스펙트럼들보다 실질적으로 더 적은 앙만큼 시프트된다.
도 8은 이 기술의 일 실시예에 따라서, VCSEL 광원(226)과 카메라(220)에 의해 제공될 수 있는 바이어스 오류
Figure pct00018
에서 유리한 향상을 예시한다. 도 8은 이 기술의 일 실시예에 따라서, VCSEL 광원(226)을 포함하는 3D 카메라(220)에 대한 ΔDf의 함수로서
Figure pct00019
를 나타내는
Figure pct00020
커브(261)를 추가한 도 5에 도시한 그래프(130)와 동일한 그래프(260)를 나타낸다. 커브(261)는 레이저 다이오드 광원(26)과 셔터(25) 사이에서
Figure pct00021
커브(131)에 대해 가정한 것과 같이, VCSEL 광원(226)과 셔터(25) 사이에서 20℃의 동일한 온도 차이를 가정한다. 그래프(260)는 3D 카메라(220)에 대한
Figure pct00022
는 3D 카메라(20)에 대한
Figure pct00023
보다 실질적으로 더 작고, 3D 카메라(20)에 대한
Figure pct00024
의 대략 절반임을 나타낸다. 바이어스 오류
Figure pct00025
는 레이저 다이오드 광원(26) 및 카메라(20)에 대해서 ΔDf의 약 17%와 같은 반면, 이 기술의 일 실시예에 따라서, VCSEL 광원(226) 및 카메라(220)에 대해서 바이어스 오류는 대략 1/2로 줄어들고 ΔDf의 대략 8%와 같다.
본 출원의 상세한 설명 및 특허청구범위에 있어서, 각각의 단어들, "포함한다(comprise)", "포함한다(include)" 및 "갖는다(have)", 및 그의 형태들은 그 단어들이 연관될 수 있는 리스트에 있는 멤버들에 한정될 필요는 없다.
이 기술은 예로써 제공된 그의 실시예들의 다양한 상세 설명들을 이용하여 기술되었고, 이 기술의 범주를 한정할 의도는 아니다. 기술된 실시예들은 다른 특징들을 포함할 수 있으며, 이 기술의 모든 실시예들에서 이들이 모두 필요한 것은 아니다. 이 기술의 몇몇 실시예들은 몇몇 특징들만을 또는 특징들의 가능한 조합들을 이용한다. 설명된 기술의 실시예들의 변형들 및 설명된 실시예들에 적힌 특징들의 다른 조합들을 포함하는 이 기술의 실시예들이 당업자들에게 이루어질 것이다. 이 기술의 범주는 특허청구범위에 의해서만 한정되고 특허청구범위는 모든 이러한 변형들 및 조합들을 포함하게 해석되도록 의도된다.

Claims (17)

  1. 전경(scene)까지의 거리를 결정하는 카메라로서,
    특유의 스펙트럼을 갖는 광의 일련의 펄스들로 상기 전경을 조명하도록 제어가능한 적어도 하나의 VCSEL(vertical cavity surface emitting light emitting laser)을 포함하는 광원(light source);
    감광면(photosurface);
    상기 전경에 의해 상기 광 펄스들로부터 반사된 광을 상기 감광면 상에 영상화하는 광학(optics); 및
    상기 스펙트럼 내의 광을 위해서 상기 감광면을 선택적으로 게이트 온 및 오프하도록 작동가능한 셔터
    를 포함하는 카메라.
  2. 제1항에 있어서,
    상기 광원은 대략 1.5nm 이상의 FWHM 폭을 갖는 특유의 스펙트럼을 갖는, 카메라.
  3. 제1항에 있어서,
    상기 특유의 스펙트럼은 대략 2.0nm 이상의 FWHM 폭을 갖는, 카메라.
  4. 제1항에 있어서,
    상기 특유의 스펙트럼은 대략 2.5nm 이상의 FWHM 폭을 갖는, 카메라.
  5. 제1항에 있어서,
    상기 VCSEL은 대략 20 microns 이상의 직경을 갖는 것을 특징으로 하는 레이징 공동(lasing cavity)을 갖는, 카메라.
  6. 제1항에 있어서,
    상기 VCSEL은 대략 25 microns 이상의 직경을 갖는 것을 특징으로 하는 레이징 공동을 갖는, 카메라.
  7. 제1항에 있어서,
    셔터 명암비(contrast ratio; CR) 및 특유의 스펙트럼의 정규화된 콘볼루션(convolution)은 상기 셔터와 광원 사이의 대략 20℃ 이하의 온도 차이에 있어서 대략 10 이상인, 카메라.
  8. 제1항에 있어서,
    셔터 명암비(CR) 및 특유의 스펙트럼의 정규화된 콘볼루션은 상기 셔터와 광원 사이의 대략 20℃ 이하 온도 차이에 있어서 대략 12 이상인, 카메라.
  9. 제1항에 있어서,
    상기 광원은 상기 일련의 광 펄스들로 상기 전경을 조명하기 위해서 대략 12 Watts 이상의 전력 레벨에서 작동하는, 카메라.
  10. 제1항에 있어서,
    상기 전력 레벨은 대략 15 Watts 이상인, 카메라.
  11. 제1항에 있어서,
    상기 전력 레벨은 대략 18 Watts 이상인, 카메라.
  12. 전경까지의 거리를 결정하는 장치로서,
    광원의 향상된 매칭(matching)을 바이어스(bias) 오류들이 줄어든 카메라 셔터에 제공하며, 특유의 스펙트럼을 갖는 광의 일련의 펄스들로 상기 전경을 조명하도록 제어가능한 VCSEL들의 어레이를 갖는 광원;
    감광면;
    상기 전경에 의해 상기 광 펄스들로부터 반사된 광을 상기 감광면 상에 영상화하는 렌즈 시스템; 및
    상기 스펙트럼 내의 광을 위해서 상기 감광면을 선택적으로 게이트 온 및 오프하도록 작동가능한 셔터
    를 포함하는 장치.
  13. 제12항에 있어서,
    상기 광원은 대략 1.5nm 이상의 FWHM 폭을 갖는 특유의 스펙트럼을 갖는, 장치.
  14. 제13항에 있어서,
    상기 VCSEL은 대략 20 microns 이상의 직경을 갖는 것을 특징으로 하는 레이징 공동을 갖는, 장치.
  15. 제14항에 있어서,
    셔터 명암비(CR) 및 특유의 스펙트럼의 정규화된 콘볼루션은 상기 셔터와 광원 사이의 대략 20℃ 이하 온도 차이에 있어서 대략 10 이상인, 장치.
  16. 제15항에 있어서,
    상기 광원은 상기 일련의 광 펄스들로 상기 전경을 조명하기 위해서 대략 12 Watts 이상의 전력 레벨에서 작동하는, 장치.
  17. 전경까지의 거리를 결정하는 카메라로서,
    광원의 향상된 매칭을 카메라 셔터에 제공하며, 특유의 스펙트럼을 갖는 광의 일련의 펄스들로 상기 전경을 조명하도록 제어가능한 VCSEL들의 어레이를 갖는 광원 - 상기 광원은 대략 1.5nm 이상의 FWHM 폭을 갖는 특유의 스펙트럼과 대략 20 microns 이상의 직경을 특징으로 하는 레이징 공동을 구비함 -;
    상기 광원에 연결된 컨트롤러;
    CCD 또는 CMOS 감광성(photosensitive) 면을 포함하는 감광면;
    상기 전경에 의해 상기 광 펄스들로부터 반사된 광을 상기 감광면 상에 영상화하는 렌즈 시스템; 및
    상기 스펙트럼 내의 광을 위해서 상기 감광면을 선택적으로 게이트 온 및 오프하도록 작동가능한 셔터
    를 포함하는 카메라.
KR1020117015411A 2009-01-04 2010-01-04 게이트형 3d 카메라 KR101645054B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US14236109P 2009-01-04 2009-01-04
US61/142,361 2009-01-04
US12/651,022 2009-12-31
US12/651,022 US8681321B2 (en) 2009-01-04 2009-12-31 Gated 3D camera

Publications (2)

Publication Number Publication Date
KR20110112813A true KR20110112813A (ko) 2011-10-13
KR101645054B1 KR101645054B1 (ko) 2016-08-02

Family

ID=42310281

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117015411A KR101645054B1 (ko) 2009-01-04 2010-01-04 게이트형 3d 카메라

Country Status (8)

Country Link
US (2) US8681321B2 (ko)
EP (1) EP2374282A4 (ko)
JP (1) JP5555256B2 (ko)
KR (1) KR101645054B1 (ko)
CN (1) CN102273191B (ko)
BR (1) BRPI1006121A2 (ko)
RU (1) RU2534933C2 (ko)
WO (1) WO2010076775A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9097521B2 (en) 2012-05-16 2015-08-04 Samsung Electro-Mechanics Co., Ltd. Distance measurement apparatus and method

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US20120154535A1 (en) * 2010-12-15 2012-06-21 Microsoft Corporation Capturing gated and ungated light in the same frame on the same photosurface
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US20130235160A1 (en) * 2012-03-06 2013-09-12 Microsoft Corporation Optical pulse shaping
JP2014174136A (ja) * 2013-03-13 2014-09-22 Panasonic Corp 受光装置、空間情報検出装置
US20150260830A1 (en) * 2013-07-12 2015-09-17 Princeton Optronics Inc. 2-D Planar VCSEL Source for 3-D Imaging
US9568604B2 (en) * 2014-06-04 2017-02-14 Apple Inc. Optically gated detector arrangement
US9945936B2 (en) * 2015-05-27 2018-04-17 Microsoft Technology Licensing, Llc Reduction in camera to camera interference in depth measurements using spread spectrum
JP6849371B2 (ja) 2015-10-08 2021-03-24 三星電子株式会社Samsung Electronics Co.,Ltd. 側面発光レーザ光源、及びそれを含む三次元映像取得装置
KR102496479B1 (ko) 2015-10-22 2023-02-06 삼성전자주식회사 3차원 카메라와 투과도 측정방법
KR102372087B1 (ko) * 2015-10-28 2022-03-08 삼성전자주식회사 깊이 영상 촬영장치 및 방법
US11300666B2 (en) 2016-04-13 2022-04-12 Oulun Yliopisto Distance measuring device and transmitter, receiver and method thereof
US10386486B2 (en) * 2016-06-21 2019-08-20 Microsoft Technology Licensing, Llc Systems and methods for time of flight laser pulse engineering
US20180100928A1 (en) * 2016-10-09 2018-04-12 Innoviz Technologies Ltd. Methods circuits devices assemblies systems and functionally associated machine executable code for active scene scanning
US10718923B2 (en) * 2016-11-10 2020-07-21 Ams Sensors Singapore Pte. Ltd. Thermally tunable optoelectronic modules
US10542245B2 (en) * 2017-05-24 2020-01-21 Lg Electronics Inc. Mobile terminal and method for controlling the same
US10721393B2 (en) 2017-12-29 2020-07-21 Axis Ab Laser ranging and illumination
EP3608813A4 (en) 2018-05-29 2020-07-22 Guangdong Oppo Mobile Telecommunications Corp., Ltd. VERIFICATION SYSTEM, ELECTRONIC DEVICE, VERIFICATION PROCESS, STORAGE MEDIA READABLE BY COMPUTER AND COMPUTER DEVICE
JP7130544B2 (ja) * 2018-12-20 2022-09-05 三星電子株式会社 3次元情報算出装置、3次元計測装置、3次元情報算出方法及び3次元情報算出プログラム
CN113126105A (zh) * 2019-12-30 2021-07-16 睿镞科技(北京)有限责任公司 三维测距方法和装置
CN114567772A (zh) * 2022-02-23 2022-05-31 西北核技术研究所 一种像增强器光学门控时间特性的测量方法及测量系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040013157A1 (en) * 2002-07-18 2004-01-22 Hongyu Deng High power single mode vertical cavity surface emitting laser
JP2005309019A (ja) * 2004-04-21 2005-11-04 Brother Ind Ltd 画像表示装置
US20060244809A1 (en) * 2005-04-28 2006-11-02 Canon Kabushiki Kaisha Optical scanning apparatus and image-forming apparatus using the same
US20070091175A1 (en) * 1998-09-28 2007-04-26 3Dv Systems Ltd. 3D Vision On A Chip

Family Cites Families (193)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) * 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5081530A (en) 1987-06-26 1992-01-14 Antonio Medina Three dimensional camera and range finder
US5054891A (en) 1988-04-15 1991-10-08 Casio Computer Co., Ltd. Liquid crystal shutter with substrates having an optical anisotropy caused by temperature gradient
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ko) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US6736321B2 (en) 1995-12-18 2004-05-18 Metrologic Instruments, Inc. Planar laser illumination and imaging (PLIIM) system employing wavefront control methods for reducing the power of speckle-pattern noise digital images acquired by said system
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH06508788A (ja) 1991-12-03 1994-10-06 フレンチ スポーテク コーポレイション 対話型ビデオ式検査および訓練システム
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5563710A (en) 1994-10-28 1996-10-08 The Schepens Eye Research Institute, Inc. Imaging system with confocally self-detecting laser
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US6445884B1 (en) 1995-06-22 2002-09-03 3Dv Systems, Ltd. Camera with through-the-lens lighting
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
AU6136096A (en) * 1995-06-22 1997-01-22 3Dv Systems Ltd. Telecentric 3d camera and method
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
AU3283497A (en) 1996-05-08 1997-11-26 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
AU3954997A (en) 1996-08-14 1998-03-06 Nurakhmed Nurislamovich Latypov Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
WO1998039790A1 (en) 1997-03-07 1998-09-11 3Dv Systems Ltd. Optical shutter
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US5877851A (en) * 1997-09-24 1999-03-02 The United States Of America As Represented By The Secretary Of The Army Scannerless ladar architecture employing focal plane detector arrays and FM-CW ranging theory
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
WO1999019840A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. A system and method for generating an animatable character
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
EP1055146B1 (en) 1998-02-08 2003-01-22 3DV Ltd. Large aperture optical image shutter
JP2002516121A (ja) 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法
US6117699A (en) * 1998-04-10 2000-09-12 Hewlett-Packard Company Monolithic multiple wavelength VCSEL array
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6327293B1 (en) * 1998-08-12 2001-12-04 Coherent, Inc. Optically-pumped external-mirror vertical-cavity semiconductor-laser
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
EP2026035A2 (en) 1998-12-16 2009-02-18 3DV Systems Ltd. 3D camera for distance measurements
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
JP4157223B2 (ja) 1999-04-13 2008-10-01 Hoya株式会社 3次元画像入力装置
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
EP1214609B1 (en) 1999-09-08 2004-12-15 3DV Systems Ltd. 3d imaging system
FR2857756B1 (fr) 1999-11-16 2008-07-11 Onera (Off Nat Aerospatiale) Dispositif d'imagerie et/ou de mesure a distance, de type ladar
US6794628B2 (en) 2000-01-03 2004-09-21 3Dv Systems, Ltd. Solid state optical shutter
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
JP3448281B2 (ja) * 2001-02-05 2003-09-22 三菱重工業株式会社 レーザレーダ装置及びこれを用いる撮像方法
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
DE10124160B4 (de) 2001-05-17 2006-04-06 Sick Ag Verfahren zur Erzeugung eines entfernungsauflösenden Bildes und optoelektronischer Sensor
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
JP4339693B2 (ja) 2002-02-14 2009-10-07 ダンマークス テクニスク ユニバーシテット 光学変位センサ
US6628695B1 (en) * 2002-03-07 2003-09-30 The Board Of Trustees Of The Leland Stanford Junior University Monolithically integrated mode-locked vertical cavity surface emitting laser (VCSEL)
EP1499851A4 (en) * 2002-04-15 2008-11-19 Toolz Ltd DISTANCE MEASURING DEVICE
WO2003089277A1 (de) 2002-04-19 2003-10-30 Iee International Electronics & Engineering S.A. Sicherheitsvorrichtung für ein fahrzeug
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
EP3196805A3 (en) 2003-06-12 2017-11-01 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
JP4255763B2 (ja) * 2003-06-30 2009-04-15 株式会社半導体エネルギー研究所 撮像装置
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
EP1622200A1 (en) * 2004-07-26 2006-02-01 CSEM Centre Suisse d'Electronique et de Microtechnique SA Solid-state photodetector pixel and photodetecting method
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
JP5080273B2 (ja) 2005-01-07 2012-11-21 クアルコム,インコーポレイテッド オプティカルフローに基づく傾きセンサー
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US20080246759A1 (en) 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
US7282691B2 (en) * 2005-04-13 2007-10-16 Clifton Labs, Inc. Method for determining wavelengths of light incident on a photodetector
US7560679B1 (en) 2005-05-10 2009-07-14 Siimpel, Inc. 3D camera
RU2007146172A (ru) 2005-05-17 2009-06-27 Гестуретэк, Инк. (Us) Вывод сигнала, чувствительный к ориентации
ATE412882T1 (de) 2005-08-12 2008-11-15 Mesa Imaging Ag Hochempfindliches, schnelles pixel für anwendung in einem bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7511800B2 (en) 2005-11-28 2009-03-31 Robert Bosch Company Limited Distance measurement device with short range optics
US7738795B2 (en) 2006-03-02 2010-06-15 Finisar Corporation VCSEL with integrated optical filter
EP1876469B1 (de) * 2006-07-04 2009-11-25 Pepperl + Fuchs Gmbh Verfahren und Vorrichtung zur optoelektronischen berührungslosen Distanzmessung nach dem Laufzeitprinzip
WO2008005516A2 (en) * 2006-07-06 2008-01-10 Canesta, Inc. Method and system for fast calibration of three-dimensional (3d) sensors
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
CN102099703A (zh) 2007-12-19 2011-06-15 微软国际控股私有有限公司 3d照相机及其选通方法
JP2009204691A (ja) * 2008-02-26 2009-09-10 Toyota Central R&D Labs Inc 光走査装置、レーザレーダ装置、及び光走査方法
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070091175A1 (en) * 1998-09-28 2007-04-26 3Dv Systems Ltd. 3D Vision On A Chip
US20040013157A1 (en) * 2002-07-18 2004-01-22 Hongyu Deng High power single mode vertical cavity surface emitting laser
JP2005309019A (ja) * 2004-04-21 2005-11-04 Brother Ind Ltd 画像表示装置
US20060244809A1 (en) * 2005-04-28 2006-11-02 Canon Kabushiki Kaisha Optical scanning apparatus and image-forming apparatus using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9097521B2 (en) 2012-05-16 2015-08-04 Samsung Electro-Mechanics Co., Ltd. Distance measurement apparatus and method

Also Published As

Publication number Publication date
RU2534933C2 (ru) 2014-12-10
BRPI1006121A2 (pt) 2016-06-28
JP2012514884A (ja) 2012-06-28
WO2010076775A2 (en) 2010-07-08
US20140160254A1 (en) 2014-06-12
CN102273191B (zh) 2014-03-26
JP5555256B2 (ja) 2014-07-23
WO2010076775A3 (en) 2010-09-30
CN102273191A (zh) 2011-12-07
EP2374282A2 (en) 2011-10-12
KR101645054B1 (ko) 2016-08-02
US9641825B2 (en) 2017-05-02
RU2011127188A (ru) 2013-01-10
US20100171813A1 (en) 2010-07-08
US8681321B2 (en) 2014-03-25
EP2374282A4 (en) 2014-04-16

Similar Documents

Publication Publication Date Title
KR101645054B1 (ko) 게이트형 3d 카메라
JP6910010B2 (ja) 距離測定装置
BE1023788B1 (nl) Systeem en methode voor het bepalen van de afstand tot een object
WO2017209206A1 (ja) 光検出装置、及び電子機器
JP2018531374A6 (ja) 物体までの距離を測定するためのシステムおよび方法
KR20190055238A (ko) 물체까지의 거리를 결정하기 위한 시스템 및 방법
WO2017085916A1 (ja) 撮像装置、及びそれに用いられる固体撮像素子
JP2021507218A (ja) 物体までの距離を測定するためのシステムおよび方法
US8558473B2 (en) Light emitting device, light receiving system and image pickup system
US10873740B2 (en) Three-dimensional image sensor, optical radar apparatus, and processing apparatus
US20210141069A1 (en) Photodetector and portable electronic equipment
JP6911825B2 (ja) 光測距装置
TWI617221B (zh) 具有光學切換器之用於返回射束度量的系統與方法
US11754680B2 (en) Optical system that detects and blocks backscatter
JP2021007828A (ja) 光源と、光検出器と、制御回路とを備える撮像装置
EP3789787A1 (en) Solid-state lidar system for determining distances to a scene
US20200408910A1 (en) Distance measuring method and distance measuring device
JP6893797B2 (ja) 電磁波検出装置、プログラム、および電磁波検出システム
JP2007263624A (ja) 内部量子効率測定装置及び方法
CN106454334B (zh) 一种x射线分幅相机曝光时间的测量装置
JP2008085038A (ja) 発光素子駆動方法および装置
CN113454420A (zh) 光测距装置
Steinforth et al. Speckle-Free Imaging Lidar without Motion Blur using Moderate-Coherence, Nanosecond-Pulsed Lasers
US20230324671A1 (en) Optical systems with tiltable filters
KR20220041026A (ko) Lidar 검출기를 사전 블라인딩하기 위한 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant