KR101992511B1 - 3차원 줌 이미저 - Google Patents

3차원 줌 이미저 Download PDF

Info

Publication number
KR101992511B1
KR101992511B1 KR1020147023398A KR20147023398A KR101992511B1 KR 101992511 B1 KR101992511 B1 KR 101992511B1 KR 1020147023398 A KR1020147023398 A KR 1020147023398A KR 20147023398 A KR20147023398 A KR 20147023398A KR 101992511 B1 KR101992511 B1 KR 101992511B1
Authority
KR
South Korea
Prior art keywords
camera
distance
active space
features
dimensional
Prior art date
Application number
KR1020147023398A
Other languages
English (en)
Other versions
KR20140123079A (ko
Inventor
사지 카츠
아비샤이 아들러
지오라 야하브
데이비드 코헨
엘리 래리
쉴로모 펠젠쉬타인
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20140123079A publication Critical patent/KR20140123079A/ko
Application granted granted Critical
Publication of KR101992511B1 publication Critical patent/KR101992511B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

3D 이미저는 이미저를 위해 활성 공간을 제공하도록 중첩되는 고정된 광각(wide-angle) 및 협각 FOV들을 각각 구비한 두 개의 카메라들과, 제어기를 포함하며, 제어기는 카메라들에 의해 제공되는 거리에 응답해서 활성 공간 내의 피처(feature)까지의 거리와, 활성 공간을 근거리, 중거리, 및 원거리 구역으로 분할하는 것을 결정한다.

Description

3차원 줌 이미저{3D ZOOM IMAGER}
물체(object)가 카메라로부터 더 멀리 이동함에 따라, 카메라가 물체를 이미징하는 광센서(photosensor)에 물체가 마주 대하는(subtend) 각도가 감소하고, 카메라가 광센서 상으로 투사하는 물체의 이미지 크기와, 이미지에 의해 덮혀지는 광센서 내의 픽셀들의 개수가 감소한다. 이미지가 투사되는 이미지 크기와, 픽셀 개수의 감소로 인해, 물체의 피처(feature)의 해상도가 감소하고, 물체의 세부사항이 식별할 수 없게 될 수 있다. 줌 기능을 제공하는 카메라의 광학계는 조정가능하여, 물체가 카메라로부터 멀어짐에 따라, 물체가 카메라 광센서를 마주 대하는 각도를 유지하거나 증가시키도록 물체가 줌인(zoomed in)될 수 있다. 물체에 대한 줌인은 카메라가 자신의 광센서 상으로 초점을 맞추는 물체의 이미지를 확대시키고, 물체의 이미징된 피처의 해상도를 향상시킨다.
통상적으로, 카메라를 위한 줌 조절은 카메라의 광학계 내의 하나의 렌즈 또는 렌즈들을 이동시켜 렌즈들의 상대적 위치와, 따라서, 광학계의 초점 길이를 변화시키게 하는 기계적 시스템에 의해 제공된다. 광학계는 렌즈를 이동시켜 비교적 긴 초점 길이 및 시계(field of view; FOV)를 카메라에 제공하며, 물체에 대해 줌인하고, 카메라가 획득하는 물체의 이미지를 확대시키도록 비교적 작은 화각을 갖는 것을 특징으로 한다. 광학계는 렌즈를 이동시켜 비교적 짧은 초점 길이 및 비교적 광각의 시계(Field of View; FOV)를 카메라에 제공하여, 물체를 줌 아웃(zoom out)하고, 카메라가 획득하는 물체의 이미지를 축소시키게 한다.
카메라의 FOV는 카메라의 광학 중심으로부터 연장되는 입체각에 의해 정의되는 공간 영역이고, 이러한 공간 영역을 위해 이러한 공간 영역 내의 점들이 카메라 광센서 상의 카메라의 광학계에 의해 이미징된다. 대부분의 이미징 목적을 위한 FOV의 크기는 수평 및 수직 화각에 의해 편리하게 측정된다. 수평 및 수직 화각들은 카메라의 광학 중심으로부터 연장되는 두 개의 라인들 사이의 가장 큰 각도이고, FOV 내에 포함되며, 지면에 각각 평행하고 수직인 평면에서 카메라 광축에 공면(coplanar)이다.
카메라가 이미징하는 장면 내의 물체의 이미지를 줌인이 확대하는 반면에, 줌인은 또한 카메라의 FOV의 화각을 감소시켜서, 결과적으로, 이미징되는 장면의 크기와, 카메라가 이미징할 수 있는 카메라를 둘러싸는 환경의 일부분을 감소시킨다. 카메라가 이미징하는 장면 내의 물체의 이미지를 줌아웃이 축소시키는 반면에, 줌아웃은 또한 카메라의 FOV의 화각을 증가시켜서, 결과적으로, 이미징되는 장면의 크기와, 카메라가 이미징할 수 있는 카메라를 둘러싸는 환경의 일부분을 증가시킨다.
인간을 컴퓨터와 인터페이스하도록 인간의 제스처를 추적하는 것과 같은, 많은 응용을 위해, 인간을 이미징하는 카메라가, 비교적 큰 분량의 공간(이하, "활성 공간(active space)"이라고 칭함)에 대해 허용가능한 정도의 해상도로 인간을 이미징하는 것이 이롭다. 예를 들면, 인간을 인간의 전신 움직임에 응답하는 컴퓨터 게임 - 이하에서는, 컴퓨터 게임은 권투 게임 또는 운동을 요구하는 게임과 같은 전신(full-body) 3차원(three-dimensional; 3D) 게임이라고 또한 지칭됨 - 과 인터페이스하도록, 카메라가 활성 영역 내의 실질적으로 어느 곳에서든지 허용가능한 해상도로 인간을 이미징하는 것이 이로울 수 있다. 활성 공간은 예를 들면, 약 1 미터인 카메라 근처의 거리로부터 약 3 미터인 카메라로부터의 원거리까지 연장되는 "길이"를 갖는다. 활성 공간의 길이에 걸쳐 이로운 이미지 해상도를 제공하도록, 카메라 광학 장치가 줌 조정을 위해 구성될 수 있다.
3D 게임을 하는 동안 인간의 제스처 또는 움직임을 추적하기 위해 인간을 이미징하는 것은, 인간의 피처(feature) 및, 선택적으로 인간의 환경의 피처까지의 거리를 획득하는, 삼각법 또는 TOF(time of flight) 3D 카메라와 같은, 3D 카메라를 이용해서 이롭게 수행될 수 있다. 실질적으로 동일한 주어진 시간에 개인 및, 선택적으로, 개인의 환경을 위해 3D 카메라에 의해 획득되는 거리는 인간을 포함하는 장면의 "범위 이미지"를 제공한다. 3D 카메라는, 일반적으로 자신이 생성하는 광으로 장면을 이미징하고, 장면 내의 피처까지의 거리를 결정하도록 구성되는 활성 조명 카메라이다.
삼각법형 3D 카메라는, 카메라가 두 개의 일반적으로 약간 상이한 관점들로부터 피처를 이미징하는, 각도로부터 장면 내의 피처까지의 거리를 획득한다. 삼각법 카메라는 "구조화된 광"이라고 지칭되는 공간적으로 변조된 광으로 장면을 조명할 수 있다. TOF 3D 카메라는, 자신이 전송하는 일시적으로 변조된 광이 피처까지 이동하고 카메라로 되돌아오는데 얼마나 걸리는지 시간을 측정함으로써 자신이 이미징하는 장면 내의 피처까지의 거리를 획득한다. 카메라는 일반적으로 매우 짧은 광 펄스에서 광을 전송하고, 광을 위한 왕복 이동, 즉 "앞뒤로"의 이동 시간을 결정하도록 자신이 수집하는, 피처에 의해 반사되는 펄스로부터 광을 이미징한다.
3D 카메라에 줌 광학 장치를 제공하는 것은 일반적으로 기술적으로 그리고 비용적으로 도전이 된다.
본 발명의 실시예는, 이하에서 "3D 이미저(imager)"라고 또한 지칭되는 3D 이미징 시스템을 제공하는 것에 대한 것이고, 3D 이미저는 제2의 3D 카메라의 협각 FOV의 적어도 일부분과 중첩하는 광각 FOV을 갖는 제1의 3D 카메라를 포함한다. 제1 및 제2의 3D 카메라의 FOV들은 3D 이미저의 활성 공간을 한정한다. 3D 이미저는 제1 및 제2의 3D 카메라에 의해 제공되는 거리에 응답하여 활성 공간 내의 피처의 범위 이미지를 제공하는 알고리즘을 구현하기 위한 실행가능한 명령어 세트로 프로그래밍된 프로세서를 포함한다.
본 발명의 실시예에 따라, 알고리즘은 이하에서 또한 "근거리 카메라"라고 지칭되는, 제1의 3D 카메라에 의해 결정되는 거리에 응답해서 3D 이미저에 비교적 근접한 활성 공간의 제1 "근거리 영역" 내의 피처까지의 거리를 결정한다. 알고리즘은, 이하에서 또한 "원거리 카메라"라고 지칭되는, 제2의 3D 카메라에 의해 결정되는 거리에 응답해서 3D 이미저로부터 비교적 멀리 떨어져 있는 활성 공간의 제2 "원거리 영역" 내의 피처까지의 거리를 결정한다. 근거리 및 원거리 3D 카메라의 FOV들이 중첩되는 활성 공간의 제3의 "중첩" 영역 내의 피처까지의 거리는 3D 카메라들 둘다에 의해 제공되는 거리 정보를 이용해서 결정된다.
본 발명의 실시예에서, 근거리 및 원거리 TOF 3D 카메라들은 이하에서 또한, 근거리 및 원거리 TOF 카메라들이라고 지칭되는, 근거리 및 원거리 TOF 3D 카메라들을 각각 포함한다. 근거리 또는 원거리 TOF 카메라 내의 픽셀은, 픽셀 상에 이미징되는 활성 공간 내의 피처의 TOF 카메라로부터의 거리의 측정치를 제공하는, 이하에서 또한 "거리 이미지"라고 지칭되는 이미지를 획득한다. 본 발명의 일 실시예에 따라, 알고리즘은 각각 원거리 또는 근거리 TOF 카메라 내의 픽셀에 의해 이미징되는 활성 공간의 실질적으로 동일한 피처를, 근거리 또는 원거리 TOF 카메라 내의 어느 픽셀이 이미징하는 지를 결정하도록 TOF 카메라 내의 픽셀들을 상관하는 방법을 제공한다. 상관은 픽셀에 의해 획득되는 거리 이미지가 제공하는 거리 정보에 응답해서 수행된다. 선택적으로, 상관은 상이한 TOF 카메라들 내의 픽셀들이 활성 공간 내에서 동일한 피처를 이미징하는 확률 분포를 최대화함으로써 수행된다.
일 실시예에서, 3D 이미저는 3D 이미저에 의해 이미징되는 활성 공간 내의 피처의 거리에 응답해서 활성 공간을 조명하도록, 3D 이미저에 의해 제공되는 광의 강도를 조절하는 제어기를 포함한다.
본 발명의 실시예에 따라 3D 이미저를 구성하여, 광각 및 협각 FOV들을 각각 갖는 근거리 및 원거리 TOF 카메라들을 포함함으로써, 3D 이미저는 비교적 큰 활성 공간을 갖는다. 3D 이미저는 종래의 줌 광학 장치를 이용할 필요 없이 동일한 비교적 높은 공간적 해상도로 공간 내의 실질적으로 임의의 위치에 있는 피처를 이미징한다.
논의에서, 다르게 언급되지 않는다면, 본 발명의 실시예의 피처 또는 피처들의 조건 또는 관계 특징을 수식하는 "실질적으로"와 "약"과 같은 형용사들은, 조건 또는 특징이, 의도되는 응용을 위한 실시예의 동작 동안 허용될 수 있는 공차 내에 한정되다는 것을 의미한다고 이해된다.
이 요약은 이하의 상세한 설명에서 추가적으로 설명되는 간략한 형태의 개념들의 선택을 도입하기 위해 제공된다. 이 요약은 청구 대상의 주요 특징 또는 필수적 특징을 식별하기 위해 의도되지 않으며, 청구 대상의 범위를 제한하기 위해 사용되는 것으로 의도되지도 않는다.
본 발명의 실시예의 비제한적 예시는 이 문단에 후속하여 나열되는 본 명세서에 첨부되는 도면들을 참조해서 이하에서 설명된다. 하나 이상의 도면들에서 등장하는 동일한 구조들, 요소들 또는 부품들은 이것들이 등장하는 모든 도면들 내에서 동일한 숫자로 일반적으로 표기된다. 도면들에 도시된 컴포넌트들과 피처들의 크기는 표현의 편리성과 명료함을 위해 선택된 것이고, 반드시 크기에 맞추어서 도시된 것은 아니다.
도 1은 본 발명의 일 실시예에 따라, 제1 및 제2 TOF 카메라들을 포함하는 3D 이미저와, TOF 카메라들의 FOV들에 의해 제공되는 이미저의 활성 공간의 평면도를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따라, TOF 카메라에 의해 획득되고, 활성 공간 내의 피처까지의 거리를 결정하기 위해 이용되는, 도 1에 도시된 3D 이미저의 활성 공간의 동일 영역 내의 피처들의 거리 이미지들 사이의 기하학적 관계를 개략적으로 도시한다.
도 3a 및 3b는 본 발명의 일 실시예에 따라, 활성 공간 내의 피처까지의 거리를 결정하기 위한 알고리즘의 흐름도를 도시한다.
상세한 설명의 이하의 기재에서, 복수의 선택적으로 두 개의 TOF 카메라들을 포함하는 TOF 3D 이미저의 양상들이 도 1을 참조해서 논의되고, 도 1은 TOF 3차원 이미저의 컴포넌트들과, TOF 카메라들의 FOV들에 의해 제공되는 활성 공간을 도시한다. 도 2는 도 1에 도시된 TOF 3D 이미저의 활성 공간의 동일 영역 내의 피처에 대해 두 개의 TOF 카메라들 내의 픽셀에 의해 획득되는 거리 이미지들 사이의 기하학적 관계들을 개략적으로 도시한다. 이 도면은 편의상 가우시안이라고 가정되는, TOF 카메라 내의 픽셀에 의해 제공되는 거리 측정의 주파수 분포 및 거리 이미지에 의해 제공되는 거리 측정의 불확실성을 개략적으로 보여 준다. 두 개의 TOF 카메라들에 의해 제공되는 정보을 이용해서 활성 공간 내의 피처들까지의 거리를 결정하고, 두 개의 카메라 내의 어느 픽셀이 대응하고, 활성 공간 내에 실질적으로 동일한 피처를 이미징하는지를 결정하도록 픽셀들을 상관시키기 위한 방법이, 도 2와, 그리고 도 3a 및 3b에 도시된 흐름도를 참조해서 논의된다.
도 1은 근거리 TOF 카메라(30), 원거리 TOF 카메라(40)과, 광원(50)을 포함하는 TOF 3D 이미저(20)의 평면도를 개략적으로 도시한다. TOF 카메라의 세부사항은 삽도(90) 내에 도시된다.
근거리 TOF 카메라(30)는 근거리 TOF 카메라에 의해 이미징되는 물체로부터 광을 수집하고, 광센서(32) 상에서 수집된 광을 이미징하는, 렌즈(31)에 의해 표현되는 광학계를 포함한다. 광학계(31)는 광센서(32)와 함께 근거리 TOF 카메라를 위해 광각 FOV를 한정하는 초점 거리(fN)와 광학 중심(33)을 가지며, 라인들(44)에 의해 한정되는 비교적 큰 선택적으로 고정된 수평 화각(θN)을 갖는 것을 특징으로 한다. 근거리 TOF 카메라(30)의 광각 FOV의 화각(θN)을 한정하는 라인들을 지정하는 숫자(44)는, 근거리 TOF 카메라(30)의 FOV - "근거리 FOV"라고 지칭될 수 있음 - 를 지칭하기 위해 또한 이용된다. 광학계(31)는 근거리 TOF 카메라(30)의 개폐를 셔터링(shuttering)하기 위한 셔터(35)를 또한 포함한다.
유사하게, 원거리 TOF 카메라(40)는, 카메라의 FOV 내의 물체로부터 광을 수집하고, 광센서(42) 상에서 수집된 광을 이미징하는 렌즈(41)에 의해 표현되는 광학계를 포함한다. 광학계는 광센서(42)와 함께 원거리 TOF 카메라를 위한 협각 FOV를 한정하는 초점 거리(fF)와 광학 중심(43)을 가지며, 라인들(34)에 의해 한정되는 비교적 큰 선택적으로 고정된 수평 화각(θF)을 갖는 것을 특징으로 한다. 원거리 TOF 카메라(40)의 광각 FOV의 화각(θF)을 한정하는 라인들을 지정하는 숫자(34)는, 원거리 TOF 카메라의 FOV - "원거리 FOV"라고 지칭될 수 있음 - 를 지칭하기 위해 또한 이용된다. 광학계(41)는 원거리 TOF 카메라(30)의 개폐를 셔터링하기 위한 셔터(45)를 또한 포함한다.
광원(50)은 근거리 및 원거리 FOV들(44 및 34)에 있는 물체를 조명하도록 일련의 광펄스들을 방사하기 위해 제어기(60)에 의해 제어가능하다. 광원(50)에 의해 방사되는 광펄스는 숫자(52)로 표시되는 정사각형 "펄스"에 의해 개략적으로 표현된다. 광펄스(52)가 적절한 발광 다이오드(LED)에 의해 제공되는 광 및/또는 스펙트럼의 임의의 부분으로부터의 레이저를 포함할 수 있지만, 보통, 광펄스(52)는 근적외선(near infrared; NIR) 광펄스이다.
근거리 및 원거리 FOV들(44 및 34) 내의 물체를 조명하도록 일련의 광펄스 내의 각각의 광펄스(52)가 광원(50)에 의해 방사되는 시간으로부터 미리결정된 지연(τND)에 후속해서, 제어기(60)는 기간(τN)을 갖는 짧은 노출 기간 동안 근거리 TOF 카메라(30)의 개방을 셔터링하도록 근거리 셔터(35)를 제어한다. 노출 기간 동안, 근거리 TOF 카메라(30)에 도달하는 근거리 FOV(44) 내의 피쳐에 의해 광펄스로부터 반사되는 광은 렌즈(31)에 의해 광센서(32) 상으로 이미징된다. 이미징되는 광은 근거리 TOF 카메라에 의해 등록(register)되고, 광 펄스(52) 내의 광이 광원(50)으로부터 피쳐까지, 그리고 다시 근거리 TOF 카메라(30)까지 왕복 이동하는 데 얼마나 걸리는지를 결정하기 위해 이용된다. 왕복 시간 및 광속은 피쳐가 근거리 TOF 카메라로부터, 그러므로 TOF 3D 이미저(20)로부터 얼마나 떨어져 있는지를 결정하기 위해 이용된다.
유사하게, 각각의 펄스(52)가 광원(50)에 의해 방사된 후에, 제어기(60)는 지연(
Figure 112014079327793-pct00001
)에 후속하는 기간(
Figure 112014079327793-pct00002
)을 갖는 짧은 노출 기간 동안 원거리 TOF 카메라의 개방을 셔터링하도록 원거리 TOF 카메라(40) 내의 셔터(45)를 제어한다. 원거리 TOF 카메라는 노출 기간 동안 원거리 TOF 카메라에 도달하는 광펄스로부터 반사된 광을 이미징하고 등록하며, TOF 3D 이미저(20)로부터 원거리 FOV(34)까지의 거리를 결정하도록 등록된 광을 이용한다.
원거리 TOF 카메라(40)는, 자신의 협각 FOV(34) 때문에, 근거리 TOF 카메라(30)보다 양호한 공간적 해상도를 갖는 TOF 3D 이미저(20)로부터 더 멀리 있는 피쳐를 이미징하지만, TOF 3D 이미저(20)에 근접한 비교적 적은 분량의 공간을 이미징한다. 반면에, 근거리 TOF 카메라(30)는, 자신의 비교적 광각의 FOV(44)때문에, TOF 3D 이미저(20)에 근접한 비교적 큰 분량의 공간을 이미징할 수 있고, 허용될 수 있는 공간적 해상도로 근접한 피쳐를 이미징하도록 구성될 수 있다.
본 발명의 일 실시예에 따라, 근거리 및 원거리 FOV들(44 및 34)를 결합해서 TOF 3D 이미저(20)에 대해 이로운 활성 공간을 제공하고, 근거리 및 원거리 TOF 카메라들(30 및 40)에 의해 제공되는 원거리 정보를 어떻게 이용할 지를 결정하도록, 이미징 범위의 하한 및 상한이 근거리 및 원거리 TOF 카메라들(30 및 40)을 위해 수립된다. 근거리 TOF 카메라(30)와 연관된 하한 및 상한이 각각 NRL 및 NRU에 의해 표현된다고 가정하자. 근거리 TOF 카메라(30)를 위한 하한 및 상한은 NRL 및 NRU로 표시되는 점선에 의해 도 1에 개략적으로 도시된다. 원거리 TOF 카메라(40)와 연관된 하한 및 상한이 각각 FRL 및 FRU에 의해 표현된다고 가정하자. 원거리 카메라(40)를 위한 하한 및 상한은 FRL 및 FRU로 표시되는 점선에 의해 도 1에 개략적으로 도시된다.
화각(θN 및 θF)과, 범위 한계(NRL, NRU, FRL, 및 FRU)는 TOF 3D 이미저(20)를 위해 두꺼운 점선(22)에 의해 개략적으로 윤곽이 그려진 활성 공간을 선택적으로 정의한다. TOF 3D 이미저(20)의 활성 공간의 윤곽을 그리는 점선을 표시하는 숫자(22)가 또한 활성 공간을 지칭하기 위해 이용된다.
본 발명의 일 실시예에서, 근거리 TOF 카메라(30)의 광각 FOV(44)을 위한 화각(θN)은, 활성 공간(22)이 TOF 3D 이미저(20)에 근접한 이로운 두께를 갖도록 결정된다. 원거리 TOF 카메라(40)의 근거리 및 원거리 상한(NRU 및 FRU)과 협각 FOV(34)에 대한 화각(θF)은, 근거리 및 원거리 TOF 카메라(30 및 40)가 실질적으로 동일한 공간적 해상도를 갖고 거리(NRU 및 FRU)에서 각각 물체를 이미징하도록 결정된다. 예증적 예시에 의해, 광센서(32 및 42)가 실질적으로 동일한 픽셀 크기를 갖는다고 가정하면, 근거리 및 원거리 TOF 카메라(30 및 40)는 실질적으로 동일한 공간적 해상도로 거리(NRU and FRU)에 물체를 각각 이미징한다(tan[θF/2] = (NRU/FRU)tan[θN/2]인 조건임).
수치적 예시에 의해, 근거리 및 원거리 TOF 카메라(30 및 40)가 640 x 480 픽셀들의 배열을 포함하는 광센서(32 및 42)를 가진다는 것과, 픽셀들이 5.6 ㎛(마이크로미터)의 대각선 길이를 갖는다고 가정하자. 만약 NRU = 200 cm 이고 FRU = 300 cm이면, 근거리 및 원거리 카메라들(30 및 40)은 거리(200 cm 및 300 cm)에서 각각 약 0.5 cm 만큼 분리되는 피쳐를 해상(resolve)할 것이다 (이 카메라들의 FOV 각도들(θN and θF)이 약 74o 및 약 53o와 각각 동일하다는 조건임).
부드럽게 연속적인 활성 공간(22)을 제공하고, 근거리 및 원거리 TOF 카메라들(30 및 40)에 의해 제공되는 이미지의 공간적 등록을 용이하게 하도록, 원거리 TOF 카메라(40)를 위한 하한 범위(FRL)와 근거리 TOF 카메라(30)를 위한 상한 범위(NRU)가 FRL < NRU 가 되도록 결정된다. 그러므로, 활성 공간(22)은 3개의 구역, 즉, 근거리 구역(23), 중거리 구역(24), 및 원거리 구역(25)을 포함한다.
수치적 예시를 통해, 예를 들면, 전신 3D 컴퓨터 게임을 플레이하기 위한 활성 공간(22)이 이롭게 TOF 3D 이미저(20)로부터 약 0.80 m인 NRL에서 약 3 m인 FRU까지 연장된다고 가정하자. 만약 TOF 3D 이미저(20)로부터 0.80 미터에서, 활성 공간(22)이 약 1 미터의 폭이라면, 근접 TOF 카메라(30)는 약 62.5o인 화각(θN)을 갖는다. 만약 TOF 3D 이미저(20)로부터 거리(NRU)에서, 활성 공간(22)이 이롭게 약 2.5 미터의 폭을 갖는다면, NRU는 약 2미터이고, θF = arctan[θF/2] = arctan((NRU/FRU)tan[θN/2]θF)는 약 42o이다. 만약 근거리 및 원거리 TOF 카메라들이 일 측상에서 5 ㎛인 정사각형 픽셀들을 가지고, 이롭게 거리(NRU and FRU)에서 약 1 cm만큼 이격되어 있는 피쳐들을 해상할 수 있다면, 이 카메라들의 초점 거리들(fN 및 fF)은 이롭게 각각 약 30 mm(밀리미터)와 45 mm이다.
제어기(60)는 TOF 3D 이미저(20)를 제어하고, 근거리 및 원거리 TOF 카메라들(30 및 40)이 정의하는, 하한 및 상한(NRL, NRU, FRL, and FRU)과 구역들(23, 24, 25)에 응답해서 이 카메라들에 의해 획득되는 거리 이미지들에 의해 제공되는 거리 정보를 처리한다. 본 발명의 일 실시예에서, 제어기(60)는 원거리 TOF 카메라(40)를 위한 지연(
Figure 112014079327793-pct00003
) 및 노출 기간(
Figure 112014079327793-pct00004
)과 실질적으로 각각 동일한, 근거리 TOF 카메라(30)를 위한 지연(
Figure 112014079327793-pct00005
) 및 노출 기간(
Figure 112014079327793-pct00006
)을 이용해서 TOF 3D 이미저(20)를 제어한다. 실질적으로 동일한 이러한 조건들 하에서, TOF 카메라들 둘다는 TOF 3D 이미저로부터의 동일한 범위의 거리들 상의 활성 공간(22) 내의 피처를 위한 이미지를 획득한다.
본 발명의 일 실시예에서, 제어기(60)는, 단지 근거리 TOF 카메라로부터 피처의 거리가 FRL 과 FRU 사이에 있을 경우에만, 원거리 TOF 카메라(40)가 광원(50)으로부터의 광으로 원거리 FOV(34) 내에 존재하는 피처를 이미징하도록 결정된,
Figure 112014079327793-pct00007
Figure 112014079327793-pct00008
를 갖는 원거리 TOF 카메라(40)를 셔터링한다. 유사하게, 제어기는, 단지 근거리 TOF 카메라로부터 피처의 거리가 NRL 과 NRU 사이에 있을 경우에만, 근거리 TOF 카메라(30)가 광원(50)으로부터의 광으로 근거리 FOV(44) 내에 존재하는 피처를 이미징하도록 결정된,
Figure 112014079327793-pct00009
Figure 112014079327793-pct00010
를 갖는 근거리 TOF 카메라(30)를 셔터링한다.
일반적으로, 제어기(60)는 단지 근거리 TOF 카메라(30)에 의해서만 제공되는 거리 이미지를 이용해서 구역(23) 내의 피처를 위해 허용될 수 있는 거리 측정을 제공할 수 있다. 일반적으로, 제어기(60)는 단지 원거리 TOF 카메라(40)에 의해서만 제공되는 거리 이미지를 이용해서 구역(25) 내의 피처를 위해 허용될 수 있는 거리 측정을 제공할 수 있다. 중거리 구역(24) 내에 위치한 피처를 위해, 또는 TOF 카메라들 중 하나의 카메라에 의해 제공되는 명백히 무효하거나 미정의 거리를 위해, 제어기는 근거리 및 원거리 TOF 카메라들 둘다에 의해 제공된 데이터를 선택적으로 이용한다. 채워진 원(73, 74, 및 75)은 구역(23, 24, 및 25) 내의 위치에 있는 피처를 개략적으로 표현한다.
근거리 및 원거리 카메라들(30 및 40) 둘다로부터의 거리 이미지로부터 결정되는 피처까지의 거리를 위해, 제어기는 TOF 카메라들 중 하나의 카메라를 "제1차(prime)" TOF 카메라라고 지정한다. 표현의 편이성을 위해, TOF 카메라들로부터의 정보가 본 발명의 일 실시예에 따라 어떻게 사용되는지에 대한 이하의 설명에서, 문자 "C"는 제1차 카메라를 나타낸다. 문자 C*는 "제2차(secondary)" 카메라라고 지칭될 수 있는 다른 카메라를 나타낸다. TOF 3D 이미저(20)로부터의 거리는 제1차 카메라(C)의 픽셀(Pj) 상에 이미징되는 피처를 위해 결정될 것이다. 예를 들면, 도 2를 참조하는 이하의 논의에서, 제1차 카메라는 근거리 TOF 카메라(30)인 것으로 가정되고, 픽셀(Pj) 상에 이미징되는 피처는 중거리 구역(24) 내에 위치한, 도 1 내에 도시된 피처(74)라고 가정된다.
도 2는 근거리 및 원거리 TOF 카메라들(30 및 40), 피처(74)가 위치하는 중거리 구역(24)의 영역(100)과, 제1차 카메라(C)인 근거리 TOF 카메라(30)의 광센서(32)상에 피처(74)가 이미징되는 픽셀(Pj)의 매우 확대된 뷰를 개략적으로 도시한다.
본 발명의 일 실시예에 따라, 피처(74)는, 피처로부터 근거리 TOF 카메라(30)의 광학 중심(33)을 통해 지나가고 픽셀(Pj)을 교차하는, 제1차 이미징 라인(101)이라고 또한 지칭되는 공간 내의 하나의 라인, 즉, 이미징 라인(101)을 따라 놓이도록 제약된다고 가정된다. 피처(74)를 위한 시도 거리는 픽셀(Pj)에 의해 획득되는 피처(74)의 거리 이미지로부터 결정된 거리("dCPj")이다. 제1차 이미징 라인(101)을 따라서의 거리 "d"는, 피처(74)가 확률 분포 함수
Figure 112014079327793-pct00011
에 의해 주어진 확률로 배치되는, 이미징 라인을 따라서의 실제 거리가 되도록 가정되며, 여기서 sj는 시도 거리(dCPj)와 연관된 오류의 측정치이다. 산탄 잡음(shot noise) 및 판독 잡음(read noise)은 통상적으로 시도 거리와 연관된 오류를 발생시킨다. 치수 보조선들(110 및 111) 간의 이미징 라인(101)의 세그먼트는 dCPj와 연관된 오류의 강도를 개략적으로 나타낸다. 도 2에서, 확률 분포
Figure 112014079327793-pct00012
는 거리(dCPj)에서 최대값과 표준편차(σj)를 갖는 이미징 라인(101)을 따라 도시된 곡선(120)에 의해 표현된 정규본포가 되도록 가정된다.
본 발명의 일 실시예에 따라, 치수보조선들(110 및 111) 사이의 거리들(djm)에서 이미징 라인(101)을 따라, M개의 복수 영역들 Rjm, (1≤m≤M) 각각을 위해, 원거리 TOF 카메라(40)의 광센서(42) 내의 픽셀(P*jm)은, 이 픽셀이 이 영역 내에 위치한다면 어느 영역(Rjm) 상에 이미징될지가 결정된다. 도 2에서, M은 임의로 5개라고 도시된다. 영역(Rjm)은 Rj1, Rj2,…Rj5에 각각 대응하는 대응 거리 dj1, dj2, …dj5에 의해 표시되는 다이아몬드 아이콘에 의해 치수 보조선들(110 및 111) 사이의 제1차 이미징 라인(101)의 세그먼트를 따라 개략적으로 표시된다.
djm로부터 제2차 카메라인 원거리 TOF 카메라(40)의 광학 중심을 통해 연장되는 제2 이미징 라인(ILm)이라고 본 명세서에서 또한 지칭되는, 이미징 라인 ILm의 끝에 픽셀(P* jm)이 놓인다. 픽셀(P* jm)에 의해 획득되는 거리 이미지가 픽셀 상에 이미징되는 피처를 위해 연관된 이미징 라인(ILm)을 따라 거리(dC*P* jm)를 제공하고, 거리(dC*P* jm)는 오류(σ* jm)와 연관된다고 가정하자. 거리(dC*P* jm)는 제2차 이미징 라인(ILm)을 따라 거리(dC*P* jm, (1≤m≤5))에 의해 표시된 원형 아이콘에 의해 그래픽하게 표현된다.
픽셀(P* jm) 상에 이미징되는 피처를 위한 이미징 라인(ILm)을 따라서의 거리(d* m)가 피처를 위한 실제 거리일 확률이, 확률 분포 함수(P(d* m; dC*P* jm, σ* jm))에 의해 주어진다고 가정하자. 도 2에서, 예시적인 분포(P (d* jm; dC*P* jm, σ* jm))가 m=5를 위한 정규분포(130)로서 도시된다. 만약 제1차 이미징 라인(101)과 제2차 이미징 라인(ILm)과의 교차점이 원거리 TOF 카메라(40)로부터의 이미징 라인(ILm)을 따라서의 거리(d* jm)에 위치한다면, d* jm가 원거리 카메라(40)로부터 픽셀(P* jm) 상에 이미징되는 피처까지의 실제 거리일 확률은 P(d* jm; dC*P* jm, σ* jm)이다.
본 발명의 일실시예에 따라, 제1차 근거리 TOF 카메라(30)의 픽셀(Pj) 상에 이미징되는 피처(예를 들면 피처(74))를 위한 거리(DCPj)가 P(dm;dCPjj)ㆍP(d* jm;dC*P* jm* jm)를 최대화하는 거리(dm(1≤m≤M))라는 것을 제어기(60)가 결정한다.
위의 논의에서, 근거리 TOF 카메라(30)가 제1차 카메라라고 지정되고, 원거리 TOF 카메라(40)가 제2차 카메라라고 지정되었지만, 거리를 결정하기 위한 절차는 어느 카메라가 제1차 카메라인지와는 일반적으로 무관하다. 카메라들의 역할들은 뒤바뀔 수 있으며, 즉, 원거리 TOF 카메라(40)가 제1차 카메라라고 지정되고, 근거리 TOF 카메라가 제2차 카메라라고 지정되며, 제1차 이미징 라인(101)이 원거리 TOF 카메라와 연관될 수 있다.
도 3a 및 3b는 숫자 200에 의해 또한 지칭되는 알고리즘의 흐름도(200)를 도시하며, 이 알고리즘에 의해 TOF 3D 이미저(20)는 근거리 및 원거리 TOF 카메라들(30 및 40)에 의해 획득되는 활성 공간(22)의 이미지로부터의 정보를 처리하여, 활성 공간(22) 내의 피처까지의 거리를 결정하고, 활성 공간 내의 피처를 위한 범위 이미지를 제공하게 된다.
블록(202)에서, 선택적으로 제어기(60)는 TOF 3D 이미저(20)를 조정하여 줌아웃 모드에서 또는 줌인 모드에서 동작할지를 결정한다. TOF 3D 이미저를 조정하는 것은 근거리 TOF 카메라(30)(광각 FOV, 줌아웃 카메라) 또는 원거리 TOF 카메라(40)(협각 FOV, 줌인 카메라) 중 어느 카메라가, 카메라들에 의해 제공되는 거리 정보를 처리하기 위한 제1차 카메라로서 지정되는지를 결정하는 것을 포함한다. 도 1과 관련한 위의 논의는 활성 공간(22)(도 1) 내의 피처까지의 거리를 결정하는 데 있어서 제1차 카메라의 역할의 예시를 제공한다. 선택적으로, 어느 카메라가 제1차 카메라라고 이롭게 지정될지를 결정하기 위해, 제어기(60)는 근거리 및 원거리 TOF 카메라들(30 및 40)에 의해 제공되는 거리로부터, 활성 공간(22) 내의 근거리, 중첩 및 원거리 구역들(23, 24, 및 25) 내에 존재하는 다수의 해당 피처들을 추정한다. 제어기는 추정된 개수들의 피처들에 응답해서 줌인 또는 줌아웃을 결정한다.
예를 들면, 만약 근거리 또는 원거리 구역(23 또는 25) 내에 피처들의 우세함이 존재한다면, 제어기(60)는 TOF 3D 이미저(20)를 조정하여, 줌인 모드에서 근거리 TOF 카메라(30)로 제1차 카메라를 동작시키거나, 줌아웃 모드에서 원거리 TOF 카메라(40)로 제1차 카메라를 각각 동작시킨다. 선택적으로, 만약 해당 피처의 우세함이 중거리 구역 내에서 존재한다고 알려지면, 제어기(60)는, TOF 3D 이미저를 TOF 3D 이미저가 해당 피처들의 개수를 추정하기 전에 줌 모드에서 동작하고 있던 줌 모드로 이 이미저가 동작하게 내버려 두던가, 미리 결정된 디폴트 절차에 따라 줌 모드를 결정한다.
블록(204)에서, 제어기(60)는 광원(50)에 의해 방사되는 광펄스의 강도를 설정하여 줌 모드의 선택에 매칭되게 한다. 만약 줌 모드가 줌 아웃이면, 제어기는 선택적으로 강도를 중간 레벨로 설정하여, TOF 3D 이미저(20)에 근접한 근거리 구역(23) 내의 피처들이 광 펄스로부터의 광량을 근거리 및 원거리 TOF 카메라들(30 및 40)에 다시 반사시켜, TOF 카메라들 내의 픽셀을 포화(saturate)시킬 확률을 감소시킨다. 만약 줌 모드가 줌 인이라면, 제어기(60)는 선택적으로 줌 아웃 모드를 위해 선택된 중간 강도보다 크게 방사된 펄스의 강도를 설정하여, TOF 3D 이미저(20)로부터 비교적 멀리 있는 원거리 구역(25) 내의 피처들이 허용될 수 있는 이미징을 위해 충분한 광을 TOF 카메라들에 다시 반사시키지 않을 확률을 감소시킨다. 중간 강도는 비교적 많은 수의 해당 피처들이 중거리 구역(24) 내에서 발견되는 상황을 위해 선택적으로 결정된다.
블록(206)에서, 제어기는, 근거리 TOF 카메라(30) 또는 원거리 TOF 카메라(40)일 수 있는, 제1차 카메라(C)에서 픽셀을 지정하는 인덱스 "j"를 영으로 초기화한다. 인덱스 j는 근거리 TOF 카메라(30) 내의 픽셀들의 전체 개수를 나타내는, 최대값 J를 갖는다. 블록(208)에서, 제어기는 인덱스를 1만큼 증가시킨다. 블록(210)에서, 제어기(60)는 활성 공간(22) 내의 피처를 위해 제1차 카메라(C) 내의 픽셀(Pj)에 의해 획득되는 거리 이미지로부터 시도 거리(dCPj)를 결정한다. 결정 블록(212)에서, 픽셀(Pj) 상에 이미징되는 피처가, 제1차 카메라(C)와 연관된 활성 공간(22) 내의, "C-구역"이라고 본 명세서에서 또한 지칭되는, 구역 내에 위치하는지의 여부를 dCPj를 위한 값이 표시하는지의 여부를 제어기(60)가 결정한다. 즉, 만약 근거리 TOF 카메라(30)가 제1차 카메라(C)이면, C-구역이 근거리 구역(23)(도 1)이고, 만약 원거리 TOF 카메라(40)가 제1차 카메라(C)이면, C-구역이 원거리 구역(25)이다. 만약 이미징된 피처가 C-구역 내에 있는 것으로 보이면, 블록(214)에서, 제어기는, 선택적으로 거리(DCPj = dCPj)가 제1차 카메라(C)의 픽셀(Pj) 상에 이미징된 피처를 위한 거리라고 결정한다.
그런 다음, 제어기는 선택적으로 블록(224)으로 진행하고, j=J인지의 여부를 결정하며, 여기서, J는 제1차 카메라(C) 내의 전체 픽셀의 개수이다. 만약 j가 J와 같지 않으면, 제어기(60)는 블록(208)으로 회귀하여, 인덱스 j를 1만큼 증가시키고, 다음 픽셀(P(j+1)) 상에 이미징된 피처를 위한 거리를 결정하기 위해 진행한다. 만약 j=J라면, 제어기(60)는 제1차 카메라(C) 내의 픽셀(Pj)을 위한 거리를 결정하기 위한 처리를 종료하고, 선택적으로 블록(226)에서, 제어기(60)는 거리(
Figure 112014079327793-pct00013
)를 이용해 활성 공간(22)을 위한 범위 이미지를 제공한다. 그런 다음, 제어기는 선택적으로 블록(228)으로 진행하여 처리를 종료한다.
본 발명의 일 실시예에서, 만약 피처가 C-구역 내에 있지 않으면, 픽셀(Pj) 상에 이미징된 피처가 중거리 구역(24) 내에 위치한 것으로 보이는지 여부를, 시도 거리(dCPj)가 표시하는지의 여부를, 결정 블록(216)에서 제어기가 선택적으로 결정한다. 만약 이러한 결정이 참이라면, 선택적으로 블록(218)에서, 제어기(60)는 제1차 카메라(C)와 제2차 카메라(C*) 둘다로부터의 거리 정보를 이용해서, Pj 상에 이미징된 피처를 위한 거리(DCPj)를 결정한다. 선택적으로, 제어기는 근거리 및 원거리 TOF 카메라들(30 및 40)의 기하학적 구조와, TOF 3D 이미저(20) 내에서의 이러한 카메라들의 서로에 대한 위치들로부터, 어느 픽셀(
Figure 112014079327793-pct00014
)이 픽셀(Pj)에 대응하는지를 결정하고, 픽셀(Pj )이 이미징하는 실질적으로 동일한 피처를 이미징한다. 선택적으로, 제어기는, 등식
Figure 112014079327793-pct00015
에 따라, 픽셀
Figure 112014079327793-pct00016
에 의해 획득되는 거리 이미지에 의해 제공되는 시도 거리(
Figure 112014079327793-pct00017
)와 시도 거리(dCPj)의 가중 평균으로 거리(DCPj)를 결정하며, 여기서 wC 및 wC*는 가중화 인자들이다. 가중화 인자들은 예를 들면, 제2차 카메라(C*)로부터의 정보보다 제1 카메라(C)로부터의 정보를 더 높게 가중화시키거나, 시도 거리들을 각각의 오류들의 함수로서 가중화시킬 수 있다. DCPj를 결정한 후에, 제어기(60)는 선택적으로 블록(218)로부터 결정 블록(224)를 경유해 블록(208)까지 진행하여 인덱스 j를 증가시키거나, 블록(226)으로 진행하여 활성 공간(22)을 위한 범위 이미지를 제공하고, 블록(228)으로 진행하여 처리를 종결시킨다.
블록(216)에서, 피처가 중거리 구역(24) 내에 위치한다는 것을 시도 거리(dCPj)가 표시하지 않는다는 것을 제어기(60)가 발견한다면, 피처가, 제2차 카메라 (C*)와 연관된 활성 공간(22) 내의 구역인 C*-구역 내에 위치한다는 것을 시도 거리가 표시하거나, 시도 거리가 무효이고, 제어기는 선택적으로 블록(220)으로 진행한다. 선택적으로, 제어기는 도 2를 참조해서 위에서 설명된 것과 유사한 절차를 수행하고, 수식 DCPj = {dm |MAX[P(dm;dCPjj)ㆍP(d* jm;dC*P* jm* jm)]}에 따라 DCPj를 결정한다.
블록(220)으로부터 제어기는 선택적으로 블록(224)으로 진행하고, 그런 후에, 블록(208)로 회귀하여 제1차 카메라(C) 내의 다음 픽셀을 위해 절차를 반복하거나, 블록(226)으로 회귀하여 범위 이미지를 제공하고, 그런 다음 절차를 종료한다.
물론 TOF 3D 이미저(20)가 예를 들면, 활성 공간(22) 내의 피처들을 반복적으로 이미징하도록 전신 3D 컴퓨터 게임을 지원하는 연속적 동작 중에 있으면, 제어기는 게임 동안 활성 공간을 위해 획득된 각각의 이미지 세트를 위해 알고리즘(200)을 반복적으로 실행하도록 진행할 수 있다.
본 출원의 설명 및 청구항들에서, 동사들, "포함하다" 및 "갖다"와, 이 동사들의 활용형들은, 동사의 목적어 및 목적어들이 반드시 이 동사의 주어 또는 주어들의 컴포넌트, 요소 또는 부분의 완전한 목록인 것은 아니라는 것을 표시하기 위해 이용된다.
본 출원에서 본 발명의 실시예들의 설명은 예시에 의해 제공되고, 본 발명의 범위를 제한하는 것으로 의도되지는 않는다. 설명된 실시예는 상이한 특징들을 포함하지만, 이러한 특징들의 전부가 본 발명의 모든 실시예에서 요구되지는 않는다. 일부 실시예는 특징들 중 단지 일부만을 또는 특징들의 가능한 조합들을 활용한다. 설명되는 본 발명의 실시예들의 변형과, 설명되는 실시예들에서 주목되는 특징들의 상이한 조합을 포함하는 본 발명의 실시예가 당업자에게 발생할 것이다. 본 발명의 범위는 단지 청구항들에 의해서만 제한된다.

Claims (20)

  1. 활성 공간 내의 피처(feature)들을 이미징하고 상기 피처들까지의 거리들을 결정하는 3차원(three-dimensional; 3D) 이미징 시스템에 있어서,
    적어도 하나의 광펄스로 상기 활성 공간을 조명하는 광원;
    광학 중심을 가지며 픽셀들을 갖는 제1 광센서 및 제2 광센서를 각각 포함하는 제1 3차원(3D) 카메라와 제2 3차원(3D) 카메라 - 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 피처들의 거리 이미지들을 획득하도록 상기 적어도 하나의 광펄스로부터 반사되는 광을 상기 픽셀들 상에 이미징하며, 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 활성 공간을 제공하도록 중첩되는, 광각 및 협각 시계(field of view; FOV)를 각각 가지며, 각각의 3D 카메라는 다른 하나의 3D 카메라와는 독립적으로 상기 활성 공간 내의 상기 피처들의 거리 이미지들을 획득하도록 동작가능함 -;
    상기 활성 공간을 구역들로 분할하는 복수의 범위 한계들 - 상기 범위 한계들은 근거리 범위 상한("NRU")과 원거리 범위 하한("FRL")을 포함함 -; 및
    상기 피처들까지의 거리들을 결정하도록 상기 구역들에 응답해서 상기 거리 이미지들을 처리하는 제어기를
    포함하는, 3차원(3D) 이미징 시스템.
  2. 제1항에 있어서, 상기 범위 한계들은 관계식 FRL < NRU를 만족시키고, 상기 활성 공간을 근거리 구역, 중거리 구역, 및 원거리 구역으로 분할하고, 이들 구역들에 대해 상기 활성 공간 내의 피처들까지의 거리들은 각각 FRL 미만, FRL과 NRU 사이, 및 NRU 초과인 것인, 3차원(3D) 이미징 시스템.
  3. 제2항에 있어서, 상기 활성 공간 내의 피처들까지의 거리들을 포함하는 범위 이미지를 제공하도록, 상기 제어기는,
    상기 3D 카메라들 중 하나를 제1차 카메라(prime camera)로 지정하고, 상기 3D 카메라들 중 다른 하나를 제2차 카메라(secondary camera)로 지정하고;
    상기 제1차 카메라 내의 복수의 픽셀들 각각에 대해 상기 픽셀 상에 이미징되는 상기 활성 공간 내의 피처를 위한 시도 거리(trial distance)를 결정하고;
    상기 제1차 카메라가 상기 제1 3D 카메라이고 상기 결정된 거리가 상기 근거리 구역 내에 있거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리가 상기 원거리 구역 내에 있다면, 상기 피처까지의 거리를 상기 시도 거리라고 결정하고;
    상기 제1차 카메라가 상기 제1 3D 카메라이고 상기 결정된 거리가 상기 근거리 구역 내에 있지 않거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리가 상기 원거리 구역 내에 있지 않다면, 상기 제2차 카메라 내의 픽셀에 의해 제공되는 거리 및 상기 시도 거리에 응답한 거리를 결정하며;
    상기 범위 이미지 내의 상기 거리들로서, 상기 제1차 카메라 내의 픽셀들에 대해 결정된 거리들을 이용하는 것인, 3차원(3D) 이미징 시스템.
  4. 제3항에 있어서, 상기 시도 거리는 상기 중거리 구역 내에 놓이는 것인, 3차원(3D) 이미징 시스템.
  5. 제4항에 있어서, 상기 제어기는 상기 제2차 카메라 내의 픽셀에 의해 제공되는 거리와 상기 시도 거리의 평균으로서 상기 피처까지의 거리를 결정하는 것인, 3차원(3D) 이미징 시스템.
  6. 제5항에 있어서, 상기 평균은 가중 평균인 것인, 3차원(3D) 이미징 시스템.
  7. 제3항에 있어서, 상기 제1차 카메라는 상기 제1 3D 카메라이고 상기 시도 거리는 상기 원거리 구역 내에 놓이거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리는 상기 근거리 구역 내에 놓이는 것인, 3차원(3D) 이미징 시스템.
  8. 제7항에 있어서, 상기 제2차 카메라 내의 어느 픽셀들이, 상기 제1차 카메라 내의 픽셀과 상기 제1차 카메라의 광학 중심을 통과하는 라인을 따라 놓여 있는 점들을 이미징하는지를 상기 제어기가 결정하는 것인, 3차원(3D) 이미징 시스템.
  9. 제8항에 있어서, 상기 제어기는, 상기 제2차 카메라 내의 상기 결정된 픽셀들 중의 각각의 픽셀에 대한 거리를, 상기 적어도 하나의 광펄스로부터의 광으로 상기 픽셀에 의해 획득되는 거리 이미지에 응답하여 결정하는 것인, 3차원(3D) 이미징 시스템.
  10. 제9항에 있어서, 상기 제어기는, 상기 제2차 카메라의 광학 중심과 상기 결정된 픽셀을 통과하는 라인을 따라 주어진 거리가, 상기 제2차 카메라로부터 상기 결정된 픽셀 상에 이미징되는 상기 피처의 실제 거리인 확률 분포를 결정하는 것인, 3차원(3D) 이미징 시스템.
  11. 제10항에 있어서, 상기 제어기는, 상기 제1차 카메라 내의 상기 라인을 따라 주어진 거리가, 상기 제1차 카메라로부터 상기 제1차 카메라의 픽셀 상에 이미징되는 상기 피처의 실제 거리인 확률 분포를 결정하는 것인, 3차원(3D) 이미징 시스템.
  12. 제11항에 있어서, 상기 제어기는, 상기 제1차 카메라로부터 상기 제1차 카메라의 픽셀 상에 이미징되는 상기 피처의 거리를 결정하도록, 상기 제1차 카메라와 상기 제2차 카메라로부터의 상기 주어진 거리들에 대해 결정된 상기 확률 분포들을 사용하는 것인, 3차원(3D) 이미징 시스템.
  13. 제1항에 있어서, 상기 제1 3D 카메라와 상기 제2 3D 카메라 중 하나의 3D 카메라는 TOF(time of flight) 3D 카메라인 것인, 3차원(3D) 이미징 시스템.
  14. 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법에 있어서,
    적어도 하나의 광펄스로 상기 활성 공간을 조명하는 단계;
    광학 중심을 가지며 픽셀들을 갖는 제1 광센서 및 제2 광센서를 각각 포함하는 제1 3차원(three-dimensional; 3D) 카메라와 제2 3차원(3D) 카메라를 사용해 상기 활성 공간 내의 피처들을 이미징하는 단계 - 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 피처들의 거리 이미지들을 획득하도록 상기 적어도 하나의 광펄스로부터 반사되는 광을 상기 픽셀들 상에 이미징하며, 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 활성 공간을 제공하도록 중첩되는, 광각 및 협각 시계(field of view; FOV)를 각각 가지며, 각각의 3D 카메라는 다른 하나의 3D 카메라와는 독립적으로 상기 활성 공간 내의 상기 피처들에 대한 거리 측정값들을 획득하도록 동작가능함 -;
    상기 활성 공간을 복수의 범위 한계들 - 상기 범위 한계들은 근거리 범위 상한("NRU")과 원거리 범위 하한("FRL")을 포함함 - 에 의해 한계가 정해진 구역들로 분할하는 단계; 및
    상기 피처들까지의 거리들을 결정하도록 상기 구역들에 응답해서 상기 거리 이미지들을 처리하는 단계
    포함하는, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법.
  15. 제14항에 있어서, 상기 범위 한계들은 관계식 FRL < NRU를 만족시키고, 상기 활성 공간을 근거리 구역, 중거리 구역, 및 원거리 구역으로 분할하고, 이들 구역들에 대해 상기 활성 공간 내의 피처들까지의 거리들은 각각 FRL 미만, FRL과 NRU 사이, 및 NRU 초과인 것인, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법.
  16. 제15항에 있어서, 상기 활성 공간 내의 피처들까지의 거리들을 포함하는 범위 이미지를 제공하도록, 상기 방법은,
    상기 3D 카메라들 중 하나를 제1차 카메라로 지정하고, 다른 하나를 제2차 카메라로 지정하는 단계;
    상기 제1차 카메라 내의 복수의 픽셀들 각각에 대해 상기 픽셀 상에 이미징되는 상기 활성 공간 내의 피처를 위한 시도 거리를 결정하는 단계;
    상기 제1차 카메라가 상기 제1 3D 카메라이고 상기 결정된 거리가 상기 근거리 구역 내에 있거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리가 상기 원거리 구역 내에 있다면, 상기 피처까지의 거리를 상기 시도 거리라고 결정하는 단계;
    상기 제1차 카메라가 상기 제1 3D 카메라이고 상기 결정된 거리가 상기 근거리 구역 내에 있지 않거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리가 상기 원거리 구역 내에 있지 않다면, 상기 제2차 카메라 내의 픽셀에 의해 제공되는 거리 및 상기 시도 거리에 응답한 거리를 결정하는 단계; 및
    상기 범위 이미지 내의 상기 거리들로서, 상기 제1차 카메라 내의 픽셀들에 대해 결정된 거리들을 이용하는 단계
    를 더 포함하는, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법.
  17. 제16항에 있어서, 상기 시도 거리는 상기 중거리 구역 내에 놓이는 것인, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법.
  18. 제17항에 있어서, 상기 제2차 카메라 내의 픽셀에 의해 제공되는 거리와 상기 시도 거리의 평균으로서 상기 피처까지의 거리를 결정하는 단계를 더 포함하는, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법.
  19. 활성 공간 내의 피처들을 이미징하고 상기 피처들까지의 거리들을 결정하는 3차원(three-dimensional; 3D) 이미징 시스템에 있어서,
    적어도 하나의 광펄스로 상기 활성 공간을 조명하는 광원;
    광학 중심을 가지며 픽셀들을 갖는 제1 광센서 및 제2 광센서를 각각 포함하는 제1 3D 카메라와 제2 3D 카메라 - 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 피처들의 거리 이미지들을 획득하도록 상기 적어도 하나의 광펄스로부터 반사되는 광을 상기 픽셀들 상에 이미징하며, 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 활성 공간을 제공하고 상기 활성 공간을 구역들로 분할하도록 중첩되는, 광각 및 협각 시계(field of view; FOV)를 각각 가지며, 중첩 영역은 근거리 구역과 원거리 구역 사이에 위치한 중거리 구역이고, 각각의 3D 카메라는 다른 하나의 3D 카메라와는 독립적으로 상기 활성 공간 내의 상기 피처들의 거리 이미지들을 획득하도록 동작가능함 -; 및
    상기 피처들까지의 거리들을 결정하도록 상기 구역들에 응답해서 상기 거리 이미지들을 처리하는 제어기
    를 포함하는, 3차원(3D) 이미징 시스템.
  20. 제19항에 있어서, 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상이한 유형의 3D 카메라들인 것인, 3차원(3D) 이미징 시스템.
KR1020147023398A 2012-01-23 2013-01-08 3차원 줌 이미저 KR101992511B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/356,618 2012-01-23
US13/356,618 US9720089B2 (en) 2012-01-23 2012-01-23 3D zoom imager
PCT/US2013/020693 WO2013112284A1 (en) 2012-01-23 2013-01-08 3d zoom imager

Publications (2)

Publication Number Publication Date
KR20140123079A KR20140123079A (ko) 2014-10-21
KR101992511B1 true KR101992511B1 (ko) 2019-06-24

Family

ID=48796901

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147023398A KR101992511B1 (ko) 2012-01-23 2013-01-08 3차원 줌 이미저

Country Status (6)

Country Link
US (1) US9720089B2 (ko)
EP (1) EP2807826B1 (ko)
JP (1) JP2015510586A (ko)
KR (1) KR101992511B1 (ko)
CN (1) CN104094594B (ko)
WO (1) WO2013112284A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038264A1 (ko) * 2021-09-13 2023-03-16 삼성전자 주식회사 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988508B2 (en) * 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US10154177B2 (en) * 2012-10-04 2018-12-11 Cognex Corporation Symbology reader with multi-core processor
US9426451B2 (en) * 2013-03-15 2016-08-23 Digimarc Corporation Cooperative photography
US9898670B2 (en) 2013-12-13 2018-02-20 Fts Computertechnik Gmbh Method and device for observing the environment of a vehicle
EP4016981A3 (en) * 2013-12-24 2022-09-21 Sony Depthsensing Solutions A time-of-flight camera system
WO2016025962A1 (en) * 2014-08-15 2016-02-18 The University Of Akron Device and method for three-dimensional video communication
US9854226B2 (en) 2014-12-22 2017-12-26 Google Inc. Illuminator for camera system having three dimensional time-of-flight capture with movable mirror element
US20160182891A1 (en) * 2014-12-22 2016-06-23 Google Inc. Integrated Camera System Having Two Dimensional Image Capture and Three Dimensional Time-of-Flight Capture With A Partitioned Field of View
US9918073B2 (en) 2014-12-22 2018-03-13 Google Llc Integrated camera system having two dimensional image capture and three dimensional time-of-flight capture with movable illuminated region of interest
US9635231B2 (en) 2014-12-22 2017-04-25 Google Inc. Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions
US9674415B2 (en) * 2014-12-22 2017-06-06 Google Inc. Time-of-flight camera system with scanning illuminator
GB2541101A (en) * 2015-06-23 2017-02-08 Bosch Gmbh Robert Method and camera system for determining the distance of objects in relation to a vehicle
EP3396410A4 (en) 2015-12-21 2019-08-21 Koito Manufacturing Co., Ltd. IMAGE ACQUISITION DEVICE FOR VEHICLES, CONTROL DEVICE, VEHICLE HAVING IMAGE ACQUISITION DEVICE FOR VEHICLES AND CONTROL DEVICE, AND IMAGE ACQUISITION METHOD FOR VEHICLES
JP6851985B2 (ja) 2015-12-21 2021-03-31 株式会社小糸製作所 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法
US11040649B2 (en) 2015-12-21 2021-06-22 Koito Manufacturing Co., Ltd. Vehicular sensor and vehicle provided with same
WO2017110414A1 (ja) * 2015-12-21 2017-06-29 株式会社小糸製作所 車両用画像取得装置およびそれを備えた車両
US11187805B2 (en) 2015-12-21 2021-11-30 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
WO2019005622A1 (en) * 2017-06-30 2019-01-03 Pcms Holdings, Inc. METHOD AND APPARATUS FOR GENERATING AND DISPLAYING 360-DEGREE VIDEO BASED ON FOLLOW-UP OF THE LOOK AND PHYSIOLOGICAL MEASUREMENTS
US10785400B2 (en) * 2017-10-09 2020-09-22 Stmicroelectronics (Research & Development) Limited Multiple fields of view time of flight sensor
US10232800B1 (en) 2017-11-10 2019-03-19 Denson Corporation Camera module
US10627606B2 (en) 2017-11-10 2020-04-21 Denso Corporation Camera module
US10534253B2 (en) 2017-11-10 2020-01-14 Denso Corporation Camera module which includes lens units and configured to be mounted on inside of windshiled of vehicle
US10406995B2 (en) * 2017-11-10 2019-09-10 Denso Corporation Camera module
US10661725B2 (en) 2017-11-10 2020-05-26 Denso Corporation Camera module
JP7106855B2 (ja) 2017-11-10 2022-07-27 株式会社デンソー カメラモジュール
US20190146067A1 (en) * 2017-11-14 2019-05-16 Continental Automotive Systems, Inc. Flash lidar sensor assembly
CN107872665A (zh) * 2017-12-07 2018-04-03 深圳市趣创科技有限公司 手机3d摄像功能及系统
JP7150508B2 (ja) * 2018-07-24 2022-10-11 株式会社東芝 鉄道車両用撮像システム
KR102606824B1 (ko) 2018-12-14 2023-11-27 삼성전자주식회사 멀티 카메라를 포함하는 장치 및 이의 이미지 처리방법
JPWO2020184447A1 (ko) * 2019-03-11 2020-09-17
US11172112B2 (en) 2019-09-09 2021-11-09 Embedtek, LLC Imaging system including a non-linear reflector
WO2021066219A1 (ko) * 2019-10-01 2021-04-08 엘지전자 주식회사 이동단말기
CN113163112B (zh) * 2021-03-25 2022-12-13 中国电子科技集团公司第三研究所 一种聚变焦控制方法及系统
CN114112964B (zh) * 2021-11-10 2023-09-12 中国科学院上海技术物理研究所 一种傅里叶红外光谱仪多元视场自动测量系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007155389A (ja) * 2005-12-01 2007-06-21 Hideo Nishigori 野生生物検出センサ装置

Family Cites Families (190)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4402608A (en) 1980-10-02 1983-09-06 Solid Photography Inc. Room scanning system using multiple camera and projector sensors
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
DE58902538D1 (de) 1988-05-19 1992-12-03 Siemens Ag Verfahren zur beobachtung einer szene und einrichtung zur durchfuehrung des verfahrens.
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ko) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH06508788A (ja) 1991-12-03 1994-10-06 フレンチ スポーテク コーポレイション 対話型ビデオ式検査および訓練システム
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
AU3283497A (en) 1996-05-08 1997-11-26 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
AU3954997A (en) 1996-08-14 1998-03-06 Nurakhmed Nurislamovich Latypov Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JPH1139596A (ja) 1997-07-17 1999-02-12 Fuji Heavy Ind Ltd 車外監視装置
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
WO1999019840A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. A system and method for generating an animatable character
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2002516121A (ja) 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
EP2026035A2 (en) 1998-12-16 2009-02-18 3DV Systems Ltd. 3D camera for distance measurements
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
JP2000292538A (ja) 1999-04-07 2000-10-20 Mitsubishi Electric Corp 車両用障害物検出装置
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
JP2003501635A (ja) 1999-05-26 2003-01-14 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 対象検出システム
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
JP4311861B2 (ja) 2000-05-18 2009-08-12 富士通テン株式会社 車両用物体検出装置
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
WO2003089277A1 (de) 2002-04-19 2003-10-30 Iee International Electronics & Engineering S.A. Sicherheitsvorrichtung für ein fahrzeug
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
EP3196805A3 (en) 2003-06-12 2017-11-01 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7079173B2 (en) 2004-02-04 2006-07-18 Hewlett-Packard Development Company, L.P. Displaying a wide field of view video image
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
JP5080273B2 (ja) 2005-01-07 2012-11-21 クアルコム,インコーポレイテッド オプティカルフローに基づく傾きセンサー
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US7663662B2 (en) 2005-02-09 2010-02-16 Flir Systems, Inc. High and low resolution camera systems and methods
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
US7982777B2 (en) 2005-04-07 2011-07-19 Axis Engineering Technologies, Inc. Stereoscopic wide field of view imaging system
RU2007146172A (ru) 2005-05-17 2009-06-27 Гестуретэк, Инк. (Us) Вывод сигнала, чувствительный к ориентации
US7839429B2 (en) 2005-05-26 2010-11-23 Hewlett-Packard Development Company, L.P. In-camera panorama stitching method and apparatus
ATE412882T1 (de) 2005-08-12 2008-11-15 Mesa Imaging Ag Hochempfindliches, schnelles pixel für anwendung in einem bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
DE102005056265A1 (de) 2005-11-14 2007-05-16 Pilz Gmbh & Co Kg Vorrichtung und Verfahren zum Überwachen eines Raumbereichs, insbesondere zum Absichern eines Gefahrenbereichs einer automatisiert arbeitenden Anlage
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP2010500146A (ja) 2006-08-14 2010-01-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 放射線検出器の回転を伴う画像スティッチングのための画像収集
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US8154578B2 (en) 2007-05-31 2012-04-10 Eastman Kodak Company Multi-camera residential communication system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US8643748B2 (en) 2007-11-20 2014-02-04 Motorola Mobility Llc Compact stationary lens optical zoom image capture system
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US7961301B2 (en) 2008-05-09 2011-06-14 Ball Aerospace & Technologies Corp. Flash LADAR system
CA2729712C (en) 2008-06-26 2014-12-30 Lynntech, Inc. Method of searching for a thermal target
KR101483462B1 (ko) * 2008-08-27 2015-01-16 삼성전자주식회사 깊이 영상 획득 장치 및 방법
JP5758805B2 (ja) 2008-09-07 2015-08-05 レイ.フォーカシング・システムズ・リミテッド 動的なカメラ焦点合わせ
JP2010190675A (ja) 2009-02-17 2010-09-02 Toyota Motor Corp 距離画像センサシステムおよび距離画像生成方法
JP2010206643A (ja) 2009-03-04 2010-09-16 Fujifilm Corp 撮像装置、方法およびプログラム
JP2012521673A (ja) 2009-03-19 2012-09-13 フレクストロニクス エイピー エルエルシー デュアルセンサカメラ
US8872910B1 (en) * 2009-06-04 2014-10-28 Masoud Vaziri Method and apparatus for a compact and high resolution eye-view recorder
US8275205B2 (en) 2009-07-23 2012-09-25 Honeywell International Inc. Prioritizer system for target acquisition
DE102009045600B4 (de) 2009-10-12 2021-11-04 pmdtechnologies ag Kamerasystem
DE102009046108B4 (de) 2009-10-28 2022-06-09 pmdtechnologies ag Kamerasystem
CN102122393A (zh) * 2010-01-09 2011-07-13 鸿富锦精密工业(深圳)有限公司 三维模型建立系统、方法及具有该系统的建模装置
WO2011104706A1 (en) 2010-02-23 2011-09-01 Ben-Gurion University Of The Negev Research And Development Authority A system and method for providing 3d imaging
WO2011127274A1 (en) 2010-04-07 2011-10-13 Mesa Imaging Ag Multi-level digital modulation for time of flight method and system
EP2389004B1 (en) 2010-05-20 2013-07-24 Sony Computer Entertainment Europe Ltd. 3D camera and imaging method
TW201323262A (zh) * 2011-12-02 2013-06-16 Hon Hai Prec Ind Co Ltd 車輛輔助系統及車輛輔助方法
DE102012207328A1 (de) 2012-05-03 2013-11-07 Audi Ag System und Verfahren zur Erfassung eines Fahrbahnprofils

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007155389A (ja) * 2005-12-01 2007-06-21 Hideo Nishigori 野生生物検出センサ装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038264A1 (ko) * 2021-09-13 2023-03-16 삼성전자 주식회사 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법

Also Published As

Publication number Publication date
WO2013112284A1 (en) 2013-08-01
US9720089B2 (en) 2017-08-01
JP2015510586A (ja) 2015-04-09
CN104094594A (zh) 2014-10-08
US20130188022A1 (en) 2013-07-25
EP2807826B1 (en) 2016-11-30
CN104094594B (zh) 2017-06-20
EP2807826A1 (en) 2014-12-03
EP2807826A4 (en) 2015-06-03
KR20140123079A (ko) 2014-10-21

Similar Documents

Publication Publication Date Title
KR101992511B1 (ko) 3차원 줌 이미저
US11629955B2 (en) Dual-resolution 3D scanner and method of using
KR102656399B1 (ko) 구조화된 광 조명기가 있는 비행-시간 센서
CN110178156A (zh) 包括可调节焦距成像传感器的距离传感器
CA2714629C (en) Dual mode depth imaging
US10582188B2 (en) System and method for adjusting a baseline of an imaging system with microlens array
EP3089449B1 (en) Method for obtaining light-field data using a non-light-field imaging device, corresponding device, computer program product and non-transitory computer-readable carrier medium
EP3534109B1 (en) Depth measuring method and system
JP7378571B2 (ja) 少なくとも一つのスキャン装置のためのフレームと少なくとも一つのスキャン装置を備える空間検出装置
JP2021532648A (ja) ハイブリッド飛行時間型イメージャモジュール
JP6881917B2 (ja) 距離計測装置、撮像制御装置
JP2019101000A (ja) 測距点群データ測定システム、および制御プログラム
JP2023029441A (ja) 計測装置、計測システムおよび車両
KR102274270B1 (ko) 홍채인식범위 확장을 위한 홍채 영상 획득시스템
EP2948791B1 (en) Improved laser range finding
JP2010190793A (ja) 距離計測装置及び距離計測方法
JP7448029B2 (ja) 処理装置、処理システム、処理方法及びプログラム
CN112534303B (zh) 混合飞行时间和成像器模块
KR20210101928A (ko) 홍채인식범위 확장을 위한 홍채 영상 획득시스템
CN115720619A (zh) 测定装置
JP2003057028A (ja) 距離センサ
Gryaznov et al. Structured laser illumination for technologies of three-dimensional viewing of robotic facilities

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant