KR101992511B1 - 3차원 줌 이미저 - Google Patents
3차원 줌 이미저 Download PDFInfo
- Publication number
- KR101992511B1 KR101992511B1 KR1020147023398A KR20147023398A KR101992511B1 KR 101992511 B1 KR101992511 B1 KR 101992511B1 KR 1020147023398 A KR1020147023398 A KR 1020147023398A KR 20147023398 A KR20147023398 A KR 20147023398A KR 101992511 B1 KR101992511 B1 KR 101992511B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- distance
- active space
- features
- dimensional
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
3D 이미저는 이미저를 위해 활성 공간을 제공하도록 중첩되는 고정된 광각(wide-angle) 및 협각 FOV들을 각각 구비한 두 개의 카메라들과, 제어기를 포함하며, 제어기는 카메라들에 의해 제공되는 거리에 응답해서 활성 공간 내의 피처(feature)까지의 거리와, 활성 공간을 근거리, 중거리, 및 원거리 구역으로 분할하는 것을 결정한다.
Description
물체(object)가 카메라로부터 더 멀리 이동함에 따라, 카메라가 물체를 이미징하는 광센서(photosensor)에 물체가 마주 대하는(subtend) 각도가 감소하고, 카메라가 광센서 상으로 투사하는 물체의 이미지 크기와, 이미지에 의해 덮혀지는 광센서 내의 픽셀들의 개수가 감소한다. 이미지가 투사되는 이미지 크기와, 픽셀 개수의 감소로 인해, 물체의 피처(feature)의 해상도가 감소하고, 물체의 세부사항이 식별할 수 없게 될 수 있다. 줌 기능을 제공하는 카메라의 광학계는 조정가능하여, 물체가 카메라로부터 멀어짐에 따라, 물체가 카메라 광센서를 마주 대하는 각도를 유지하거나 증가시키도록 물체가 줌인(zoomed in)될 수 있다. 물체에 대한 줌인은 카메라가 자신의 광센서 상으로 초점을 맞추는 물체의 이미지를 확대시키고, 물체의 이미징된 피처의 해상도를 향상시킨다.
통상적으로, 카메라를 위한 줌 조절은 카메라의 광학계 내의 하나의 렌즈 또는 렌즈들을 이동시켜 렌즈들의 상대적 위치와, 따라서, 광학계의 초점 길이를 변화시키게 하는 기계적 시스템에 의해 제공된다. 광학계는 렌즈를 이동시켜 비교적 긴 초점 길이 및 시계(field of view; FOV)를 카메라에 제공하며, 물체에 대해 줌인하고, 카메라가 획득하는 물체의 이미지를 확대시키도록 비교적 작은 화각을 갖는 것을 특징으로 한다. 광학계는 렌즈를 이동시켜 비교적 짧은 초점 길이 및 비교적 광각의 시계(Field of View; FOV)를 카메라에 제공하여, 물체를 줌 아웃(zoom out)하고, 카메라가 획득하는 물체의 이미지를 축소시키게 한다.
카메라의 FOV는 카메라의 광학 중심으로부터 연장되는 입체각에 의해 정의되는 공간 영역이고, 이러한 공간 영역을 위해 이러한 공간 영역 내의 점들이 카메라 광센서 상의 카메라의 광학계에 의해 이미징된다. 대부분의 이미징 목적을 위한 FOV의 크기는 수평 및 수직 화각에 의해 편리하게 측정된다. 수평 및 수직 화각들은 카메라의 광학 중심으로부터 연장되는 두 개의 라인들 사이의 가장 큰 각도이고, FOV 내에 포함되며, 지면에 각각 평행하고 수직인 평면에서 카메라 광축에 공면(coplanar)이다.
카메라가 이미징하는 장면 내의 물체의 이미지를 줌인이 확대하는 반면에, 줌인은 또한 카메라의 FOV의 화각을 감소시켜서, 결과적으로, 이미징되는 장면의 크기와, 카메라가 이미징할 수 있는 카메라를 둘러싸는 환경의 일부분을 감소시킨다. 카메라가 이미징하는 장면 내의 물체의 이미지를 줌아웃이 축소시키는 반면에, 줌아웃은 또한 카메라의 FOV의 화각을 증가시켜서, 결과적으로, 이미징되는 장면의 크기와, 카메라가 이미징할 수 있는 카메라를 둘러싸는 환경의 일부분을 증가시킨다.
인간을 컴퓨터와 인터페이스하도록 인간의 제스처를 추적하는 것과 같은, 많은 응용을 위해, 인간을 이미징하는 카메라가, 비교적 큰 분량의 공간(이하, "활성 공간(active space)"이라고 칭함)에 대해 허용가능한 정도의 해상도로 인간을 이미징하는 것이 이롭다. 예를 들면, 인간을 인간의 전신 움직임에 응답하는 컴퓨터 게임 - 이하에서는, 컴퓨터 게임은 권투 게임 또는 운동을 요구하는 게임과 같은 전신(full-body) 3차원(three-dimensional; 3D) 게임이라고 또한 지칭됨 - 과 인터페이스하도록, 카메라가 활성 영역 내의 실질적으로 어느 곳에서든지 허용가능한 해상도로 인간을 이미징하는 것이 이로울 수 있다. 활성 공간은 예를 들면, 약 1 미터인 카메라 근처의 거리로부터 약 3 미터인 카메라로부터의 원거리까지 연장되는 "길이"를 갖는다. 활성 공간의 길이에 걸쳐 이로운 이미지 해상도를 제공하도록, 카메라 광학 장치가 줌 조정을 위해 구성될 수 있다.
3D 게임을 하는 동안 인간의 제스처 또는 움직임을 추적하기 위해 인간을 이미징하는 것은, 인간의 피처(feature) 및, 선택적으로 인간의 환경의 피처까지의 거리를 획득하는, 삼각법 또는 TOF(time of flight) 3D 카메라와 같은, 3D 카메라를 이용해서 이롭게 수행될 수 있다. 실질적으로 동일한 주어진 시간에 개인 및, 선택적으로, 개인의 환경을 위해 3D 카메라에 의해 획득되는 거리는 인간을 포함하는 장면의 "범위 이미지"를 제공한다. 3D 카메라는, 일반적으로 자신이 생성하는 광으로 장면을 이미징하고, 장면 내의 피처까지의 거리를 결정하도록 구성되는 활성 조명 카메라이다.
삼각법형 3D 카메라는, 카메라가 두 개의 일반적으로 약간 상이한 관점들로부터 피처를 이미징하는, 각도로부터 장면 내의 피처까지의 거리를 획득한다. 삼각법 카메라는 "구조화된 광"이라고 지칭되는 공간적으로 변조된 광으로 장면을 조명할 수 있다. TOF 3D 카메라는, 자신이 전송하는 일시적으로 변조된 광이 피처까지 이동하고 카메라로 되돌아오는데 얼마나 걸리는지 시간을 측정함으로써 자신이 이미징하는 장면 내의 피처까지의 거리를 획득한다. 카메라는 일반적으로 매우 짧은 광 펄스에서 광을 전송하고, 광을 위한 왕복 이동, 즉 "앞뒤로"의 이동 시간을 결정하도록 자신이 수집하는, 피처에 의해 반사되는 펄스로부터 광을 이미징한다.
3D 카메라에 줌 광학 장치를 제공하는 것은 일반적으로 기술적으로 그리고 비용적으로 도전이 된다.
본 발명의 실시예는, 이하에서 "3D 이미저(imager)"라고 또한 지칭되는 3D 이미징 시스템을 제공하는 것에 대한 것이고, 3D 이미저는 제2의 3D 카메라의 협각 FOV의 적어도 일부분과 중첩하는 광각 FOV을 갖는 제1의 3D 카메라를 포함한다. 제1 및 제2의 3D 카메라의 FOV들은 3D 이미저의 활성 공간을 한정한다. 3D 이미저는 제1 및 제2의 3D 카메라에 의해 제공되는 거리에 응답하여 활성 공간 내의 피처의 범위 이미지를 제공하는 알고리즘을 구현하기 위한 실행가능한 명령어 세트로 프로그래밍된 프로세서를 포함한다.
본 발명의 실시예에 따라, 알고리즘은 이하에서 또한 "근거리 카메라"라고 지칭되는, 제1의 3D 카메라에 의해 결정되는 거리에 응답해서 3D 이미저에 비교적 근접한 활성 공간의 제1 "근거리 영역" 내의 피처까지의 거리를 결정한다. 알고리즘은, 이하에서 또한 "원거리 카메라"라고 지칭되는, 제2의 3D 카메라에 의해 결정되는 거리에 응답해서 3D 이미저로부터 비교적 멀리 떨어져 있는 활성 공간의 제2 "원거리 영역" 내의 피처까지의 거리를 결정한다. 근거리 및 원거리 3D 카메라의 FOV들이 중첩되는 활성 공간의 제3의 "중첩" 영역 내의 피처까지의 거리는 3D 카메라들 둘다에 의해 제공되는 거리 정보를 이용해서 결정된다.
본 발명의 실시예에서, 근거리 및 원거리 TOF 3D 카메라들은 이하에서 또한, 근거리 및 원거리 TOF 카메라들이라고 지칭되는, 근거리 및 원거리 TOF 3D 카메라들을 각각 포함한다. 근거리 또는 원거리 TOF 카메라 내의 픽셀은, 픽셀 상에 이미징되는 활성 공간 내의 피처의 TOF 카메라로부터의 거리의 측정치를 제공하는, 이하에서 또한 "거리 이미지"라고 지칭되는 이미지를 획득한다. 본 발명의 일 실시예에 따라, 알고리즘은 각각 원거리 또는 근거리 TOF 카메라 내의 픽셀에 의해 이미징되는 활성 공간의 실질적으로 동일한 피처를, 근거리 또는 원거리 TOF 카메라 내의 어느 픽셀이 이미징하는 지를 결정하도록 TOF 카메라 내의 픽셀들을 상관하는 방법을 제공한다. 상관은 픽셀에 의해 획득되는 거리 이미지가 제공하는 거리 정보에 응답해서 수행된다. 선택적으로, 상관은 상이한 TOF 카메라들 내의 픽셀들이 활성 공간 내에서 동일한 피처를 이미징하는 확률 분포를 최대화함으로써 수행된다.
일 실시예에서, 3D 이미저는 3D 이미저에 의해 이미징되는 활성 공간 내의 피처의 거리에 응답해서 활성 공간을 조명하도록, 3D 이미저에 의해 제공되는 광의 강도를 조절하는 제어기를 포함한다.
본 발명의 실시예에 따라 3D 이미저를 구성하여, 광각 및 협각 FOV들을 각각 갖는 근거리 및 원거리 TOF 카메라들을 포함함으로써, 3D 이미저는 비교적 큰 활성 공간을 갖는다. 3D 이미저는 종래의 줌 광학 장치를 이용할 필요 없이 동일한 비교적 높은 공간적 해상도로 공간 내의 실질적으로 임의의 위치에 있는 피처를 이미징한다.
논의에서, 다르게 언급되지 않는다면, 본 발명의 실시예의 피처 또는 피처들의 조건 또는 관계 특징을 수식하는 "실질적으로"와 "약"과 같은 형용사들은, 조건 또는 특징이, 의도되는 응용을 위한 실시예의 동작 동안 허용될 수 있는 공차 내에 한정되다는 것을 의미한다고 이해된다.
이 요약은 이하의 상세한 설명에서 추가적으로 설명되는 간략한 형태의 개념들의 선택을 도입하기 위해 제공된다. 이 요약은 청구 대상의 주요 특징 또는 필수적 특징을 식별하기 위해 의도되지 않으며, 청구 대상의 범위를 제한하기 위해 사용되는 것으로 의도되지도 않는다.
본 발명의 실시예의 비제한적 예시는 이 문단에 후속하여 나열되는 본 명세서에 첨부되는 도면들을 참조해서 이하에서 설명된다. 하나 이상의 도면들에서 등장하는 동일한 구조들, 요소들 또는 부품들은 이것들이 등장하는 모든 도면들 내에서 동일한 숫자로 일반적으로 표기된다. 도면들에 도시된 컴포넌트들과 피처들의 크기는 표현의 편리성과 명료함을 위해 선택된 것이고, 반드시 크기에 맞추어서 도시된 것은 아니다.
도 1은 본 발명의 일 실시예에 따라, 제1 및 제2 TOF 카메라들을 포함하는 3D 이미저와, TOF 카메라들의 FOV들에 의해 제공되는 이미저의 활성 공간의 평면도를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따라, TOF 카메라에 의해 획득되고, 활성 공간 내의 피처까지의 거리를 결정하기 위해 이용되는, 도 1에 도시된 3D 이미저의 활성 공간의 동일 영역 내의 피처들의 거리 이미지들 사이의 기하학적 관계를 개략적으로 도시한다.
도 3a 및 3b는 본 발명의 일 실시예에 따라, 활성 공간 내의 피처까지의 거리를 결정하기 위한 알고리즘의 흐름도를 도시한다.
도 1은 본 발명의 일 실시예에 따라, 제1 및 제2 TOF 카메라들을 포함하는 3D 이미저와, TOF 카메라들의 FOV들에 의해 제공되는 이미저의 활성 공간의 평면도를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따라, TOF 카메라에 의해 획득되고, 활성 공간 내의 피처까지의 거리를 결정하기 위해 이용되는, 도 1에 도시된 3D 이미저의 활성 공간의 동일 영역 내의 피처들의 거리 이미지들 사이의 기하학적 관계를 개략적으로 도시한다.
도 3a 및 3b는 본 발명의 일 실시예에 따라, 활성 공간 내의 피처까지의 거리를 결정하기 위한 알고리즘의 흐름도를 도시한다.
상세한 설명의 이하의 기재에서, 복수의 선택적으로 두 개의 TOF 카메라들을 포함하는 TOF 3D 이미저의 양상들이 도 1을 참조해서 논의되고, 도 1은 TOF 3차원 이미저의 컴포넌트들과, TOF 카메라들의 FOV들에 의해 제공되는 활성 공간을 도시한다. 도 2는 도 1에 도시된 TOF 3D 이미저의 활성 공간의 동일 영역 내의 피처에 대해 두 개의 TOF 카메라들 내의 픽셀에 의해 획득되는 거리 이미지들 사이의 기하학적 관계들을 개략적으로 도시한다. 이 도면은 편의상 가우시안이라고 가정되는, TOF 카메라 내의 픽셀에 의해 제공되는 거리 측정의 주파수 분포 및 거리 이미지에 의해 제공되는 거리 측정의 불확실성을 개략적으로 보여 준다. 두 개의 TOF 카메라들에 의해 제공되는 정보을 이용해서 활성 공간 내의 피처들까지의 거리를 결정하고, 두 개의 카메라 내의 어느 픽셀이 대응하고, 활성 공간 내에 실질적으로 동일한 피처를 이미징하는지를 결정하도록 픽셀들을 상관시키기 위한 방법이, 도 2와, 그리고 도 3a 및 3b에 도시된 흐름도를 참조해서 논의된다.
도 1은 근거리 TOF 카메라(30), 원거리 TOF 카메라(40)과, 광원(50)을 포함하는 TOF 3D 이미저(20)의 평면도를 개략적으로 도시한다. TOF 카메라의 세부사항은 삽도(90) 내에 도시된다.
근거리 TOF 카메라(30)는 근거리 TOF 카메라에 의해 이미징되는 물체로부터 광을 수집하고, 광센서(32) 상에서 수집된 광을 이미징하는, 렌즈(31)에 의해 표현되는 광학계를 포함한다. 광학계(31)는 광센서(32)와 함께 근거리 TOF 카메라를 위해 광각 FOV를 한정하는 초점 거리(fN)와 광학 중심(33)을 가지며, 라인들(44)에 의해 한정되는 비교적 큰 선택적으로 고정된 수평 화각(θN)을 갖는 것을 특징으로 한다. 근거리 TOF 카메라(30)의 광각 FOV의 화각(θN)을 한정하는 라인들을 지정하는 숫자(44)는, 근거리 TOF 카메라(30)의 FOV - "근거리 FOV"라고 지칭될 수 있음 - 를 지칭하기 위해 또한 이용된다. 광학계(31)는 근거리 TOF 카메라(30)의 개폐를 셔터링(shuttering)하기 위한 셔터(35)를 또한 포함한다.
유사하게, 원거리 TOF 카메라(40)는, 카메라의 FOV 내의 물체로부터 광을 수집하고, 광센서(42) 상에서 수집된 광을 이미징하는 렌즈(41)에 의해 표현되는 광학계를 포함한다. 광학계는 광센서(42)와 함께 원거리 TOF 카메라를 위한 협각 FOV를 한정하는 초점 거리(fF)와 광학 중심(43)을 가지며, 라인들(34)에 의해 한정되는 비교적 큰 선택적으로 고정된 수평 화각(θF)을 갖는 것을 특징으로 한다. 원거리 TOF 카메라(40)의 광각 FOV의 화각(θF)을 한정하는 라인들을 지정하는 숫자(34)는, 원거리 TOF 카메라의 FOV - "원거리 FOV"라고 지칭될 수 있음 - 를 지칭하기 위해 또한 이용된다. 광학계(41)는 원거리 TOF 카메라(30)의 개폐를 셔터링하기 위한 셔터(45)를 또한 포함한다.
광원(50)은 근거리 및 원거리 FOV들(44 및 34)에 있는 물체를 조명하도록 일련의 광펄스들을 방사하기 위해 제어기(60)에 의해 제어가능하다. 광원(50)에 의해 방사되는 광펄스는 숫자(52)로 표시되는 정사각형 "펄스"에 의해 개략적으로 표현된다. 광펄스(52)가 적절한 발광 다이오드(LED)에 의해 제공되는 광 및/또는 스펙트럼의 임의의 부분으로부터의 레이저를 포함할 수 있지만, 보통, 광펄스(52)는 근적외선(near infrared; NIR) 광펄스이다.
근거리 및 원거리 FOV들(44 및 34) 내의 물체를 조명하도록 일련의 광펄스 내의 각각의 광펄스(52)가 광원(50)에 의해 방사되는 시간으로부터 미리결정된 지연(τND)에 후속해서, 제어기(60)는 기간(τN)을 갖는 짧은 노출 기간 동안 근거리 TOF 카메라(30)의 개방을 셔터링하도록 근거리 셔터(35)를 제어한다. 노출 기간 동안, 근거리 TOF 카메라(30)에 도달하는 근거리 FOV(44) 내의 피쳐에 의해 광펄스로부터 반사되는 광은 렌즈(31)에 의해 광센서(32) 상으로 이미징된다. 이미징되는 광은 근거리 TOF 카메라에 의해 등록(register)되고, 광 펄스(52) 내의 광이 광원(50)으로부터 피쳐까지, 그리고 다시 근거리 TOF 카메라(30)까지 왕복 이동하는 데 얼마나 걸리는지를 결정하기 위해 이용된다. 왕복 시간 및 광속은 피쳐가 근거리 TOF 카메라로부터, 그러므로 TOF 3D 이미저(20)로부터 얼마나 떨어져 있는지를 결정하기 위해 이용된다.
유사하게, 각각의 펄스(52)가 광원(50)에 의해 방사된 후에, 제어기(60)는 지연()에 후속하는 기간()을 갖는 짧은 노출 기간 동안 원거리 TOF 카메라의 개방을 셔터링하도록 원거리 TOF 카메라(40) 내의 셔터(45)를 제어한다. 원거리 TOF 카메라는 노출 기간 동안 원거리 TOF 카메라에 도달하는 광펄스로부터 반사된 광을 이미징하고 등록하며, TOF 3D 이미저(20)로부터 원거리 FOV(34)까지의 거리를 결정하도록 등록된 광을 이용한다.
원거리 TOF 카메라(40)는, 자신의 협각 FOV(34) 때문에, 근거리 TOF 카메라(30)보다 양호한 공간적 해상도를 갖는 TOF 3D 이미저(20)로부터 더 멀리 있는 피쳐를 이미징하지만, TOF 3D 이미저(20)에 근접한 비교적 적은 분량의 공간을 이미징한다. 반면에, 근거리 TOF 카메라(30)는, 자신의 비교적 광각의 FOV(44)때문에, TOF 3D 이미저(20)에 근접한 비교적 큰 분량의 공간을 이미징할 수 있고, 허용될 수 있는 공간적 해상도로 근접한 피쳐를 이미징하도록 구성될 수 있다.
본 발명의 일 실시예에 따라, 근거리 및 원거리 FOV들(44 및 34)를 결합해서 TOF 3D 이미저(20)에 대해 이로운 활성 공간을 제공하고, 근거리 및 원거리 TOF 카메라들(30 및 40)에 의해 제공되는 원거리 정보를 어떻게 이용할 지를 결정하도록, 이미징 범위의 하한 및 상한이 근거리 및 원거리 TOF 카메라들(30 및 40)을 위해 수립된다. 근거리 TOF 카메라(30)와 연관된 하한 및 상한이 각각 NRL 및 NRU에 의해 표현된다고 가정하자. 근거리 TOF 카메라(30)를 위한 하한 및 상한은 NRL 및 NRU로 표시되는 점선에 의해 도 1에 개략적으로 도시된다. 원거리 TOF 카메라(40)와 연관된 하한 및 상한이 각각 FRL 및 FRU에 의해 표현된다고 가정하자. 원거리 카메라(40)를 위한 하한 및 상한은 FRL 및 FRU로 표시되는 점선에 의해 도 1에 개략적으로 도시된다.
화각(θN 및 θF)과, 범위 한계(NRL, NRU, FRL, 및 FRU)는 TOF 3D 이미저(20)를 위해 두꺼운 점선(22)에 의해 개략적으로 윤곽이 그려진 활성 공간을 선택적으로 정의한다. TOF 3D 이미저(20)의 활성 공간의 윤곽을 그리는 점선을 표시하는 숫자(22)가 또한 활성 공간을 지칭하기 위해 이용된다.
본 발명의 일 실시예에서, 근거리 TOF 카메라(30)의 광각 FOV(44)을 위한 화각(θN)은, 활성 공간(22)이 TOF 3D 이미저(20)에 근접한 이로운 두께를 갖도록 결정된다. 원거리 TOF 카메라(40)의 근거리 및 원거리 상한(NRU 및 FRU)과 협각 FOV(34)에 대한 화각(θF)은, 근거리 및 원거리 TOF 카메라(30 및 40)가 실질적으로 동일한 공간적 해상도를 갖고 거리(NRU 및 FRU)에서 각각 물체를 이미징하도록 결정된다. 예증적 예시에 의해, 광센서(32 및 42)가 실질적으로 동일한 픽셀 크기를 갖는다고 가정하면, 근거리 및 원거리 TOF 카메라(30 및 40)는 실질적으로 동일한 공간적 해상도로 거리(NRU and FRU)에 물체를 각각 이미징한다(tan[θF/2] = (NRU/FRU)tan[θN/2]인 조건임).
수치적 예시에 의해, 근거리 및 원거리 TOF 카메라(30 및 40)가 640 x 480 픽셀들의 배열을 포함하는 광센서(32 및 42)를 가진다는 것과, 픽셀들이 5.6 ㎛(마이크로미터)의 대각선 길이를 갖는다고 가정하자. 만약 NRU = 200 cm 이고 FRU = 300 cm이면, 근거리 및 원거리 카메라들(30 및 40)은 거리(200 cm 및 300 cm)에서 각각 약 0.5 cm 만큼 분리되는 피쳐를 해상(resolve)할 것이다 (이 카메라들의 FOV 각도들(θN and θF)이 약 74o 및 약 53o와 각각 동일하다는 조건임).
부드럽게 연속적인 활성 공간(22)을 제공하고, 근거리 및 원거리 TOF 카메라들(30 및 40)에 의해 제공되는 이미지의 공간적 등록을 용이하게 하도록, 원거리 TOF 카메라(40)를 위한 하한 범위(FRL)와 근거리 TOF 카메라(30)를 위한 상한 범위(NRU)가 FRL < NRU 가 되도록 결정된다. 그러므로, 활성 공간(22)은 3개의 구역, 즉, 근거리 구역(23), 중거리 구역(24), 및 원거리 구역(25)을 포함한다.
수치적 예시를 통해, 예를 들면, 전신 3D 컴퓨터 게임을 플레이하기 위한 활성 공간(22)이 이롭게 TOF 3D 이미저(20)로부터 약 0.80 m인 NRL에서 약 3 m인 FRU까지 연장된다고 가정하자. 만약 TOF 3D 이미저(20)로부터 0.80 미터에서, 활성 공간(22)이 약 1 미터의 폭이라면, 근접 TOF 카메라(30)는 약 62.5o인 화각(θN)을 갖는다. 만약 TOF 3D 이미저(20)로부터 거리(NRU)에서, 활성 공간(22)이 이롭게 약 2.5 미터의 폭을 갖는다면, NRU는 약 2미터이고, θF = arctan[θF/2] = arctan((NRU/FRU)tan[θN/2]θF)는 약 42o이다. 만약 근거리 및 원거리 TOF 카메라들이 일 측상에서 5 ㎛인 정사각형 픽셀들을 가지고, 이롭게 거리(NRU and FRU)에서 약 1 cm만큼 이격되어 있는 피쳐들을 해상할 수 있다면, 이 카메라들의 초점 거리들(fN 및 fF)은 이롭게 각각 약 30 mm(밀리미터)와 45 mm이다.
제어기(60)는 TOF 3D 이미저(20)를 제어하고, 근거리 및 원거리 TOF 카메라들(30 및 40)이 정의하는, 하한 및 상한(NRL, NRU, FRL, and FRU)과 구역들(23, 24, 25)에 응답해서 이 카메라들에 의해 획득되는 거리 이미지들에 의해 제공되는 거리 정보를 처리한다. 본 발명의 일 실시예에서, 제어기(60)는 원거리 TOF 카메라(40)를 위한 지연() 및 노출 기간()과 실질적으로 각각 동일한, 근거리 TOF 카메라(30)를 위한 지연() 및 노출 기간()을 이용해서 TOF 3D 이미저(20)를 제어한다. 실질적으로 동일한 이러한 조건들 하에서, TOF 카메라들 둘다는 TOF 3D 이미저로부터의 동일한 범위의 거리들 상의 활성 공간(22) 내의 피처를 위한 이미지를 획득한다.
본 발명의 일 실시예에서, 제어기(60)는, 단지 근거리 TOF 카메라로부터 피처의 거리가 FRL 과 FRU 사이에 있을 경우에만, 원거리 TOF 카메라(40)가 광원(50)으로부터의 광으로 원거리 FOV(34) 내에 존재하는 피처를 이미징하도록 결정된, 및 를 갖는 원거리 TOF 카메라(40)를 셔터링한다. 유사하게, 제어기는, 단지 근거리 TOF 카메라로부터 피처의 거리가 NRL 과 NRU 사이에 있을 경우에만, 근거리 TOF 카메라(30)가 광원(50)으로부터의 광으로 근거리 FOV(44) 내에 존재하는 피처를 이미징하도록 결정된, 및 를 갖는 근거리 TOF 카메라(30)를 셔터링한다.
일반적으로, 제어기(60)는 단지 근거리 TOF 카메라(30)에 의해서만 제공되는 거리 이미지를 이용해서 구역(23) 내의 피처를 위해 허용될 수 있는 거리 측정을 제공할 수 있다. 일반적으로, 제어기(60)는 단지 원거리 TOF 카메라(40)에 의해서만 제공되는 거리 이미지를 이용해서 구역(25) 내의 피처를 위해 허용될 수 있는 거리 측정을 제공할 수 있다. 중거리 구역(24) 내에 위치한 피처를 위해, 또는 TOF 카메라들 중 하나의 카메라에 의해 제공되는 명백히 무효하거나 미정의 거리를 위해, 제어기는 근거리 및 원거리 TOF 카메라들 둘다에 의해 제공된 데이터를 선택적으로 이용한다. 채워진 원(73, 74, 및 75)은 구역(23, 24, 및 25) 내의 위치에 있는 피처를 개략적으로 표현한다.
근거리 및 원거리 카메라들(30 및 40) 둘다로부터의 거리 이미지로부터 결정되는 피처까지의 거리를 위해, 제어기는 TOF 카메라들 중 하나의 카메라를 "제1차(prime)" TOF 카메라라고 지정한다. 표현의 편이성을 위해, TOF 카메라들로부터의 정보가 본 발명의 일 실시예에 따라 어떻게 사용되는지에 대한 이하의 설명에서, 문자 "C"는 제1차 카메라를 나타낸다. 문자 C*는 "제2차(secondary)" 카메라라고 지칭될 수 있는 다른 카메라를 나타낸다. TOF 3D 이미저(20)로부터의 거리는 제1차 카메라(C)의 픽셀(Pj) 상에 이미징되는 피처를 위해 결정될 것이다. 예를 들면, 도 2를 참조하는 이하의 논의에서, 제1차 카메라는 근거리 TOF 카메라(30)인 것으로 가정되고, 픽셀(Pj) 상에 이미징되는 피처는 중거리 구역(24) 내에 위치한, 도 1 내에 도시된 피처(74)라고 가정된다.
도 2는 근거리 및 원거리 TOF 카메라들(30 및 40), 피처(74)가 위치하는 중거리 구역(24)의 영역(100)과, 제1차 카메라(C)인 근거리 TOF 카메라(30)의 광센서(32)상에 피처(74)가 이미징되는 픽셀(Pj)의 매우 확대된 뷰를 개략적으로 도시한다.
본 발명의 일 실시예에 따라, 피처(74)는, 피처로부터 근거리 TOF 카메라(30)의 광학 중심(33)을 통해 지나가고 픽셀(Pj)을 교차하는, 제1차 이미징 라인(101)이라고 또한 지칭되는 공간 내의 하나의 라인, 즉, 이미징 라인(101)을 따라 놓이도록 제약된다고 가정된다. 피처(74)를 위한 시도 거리는 픽셀(Pj)에 의해 획득되는 피처(74)의 거리 이미지로부터 결정된 거리("dCPj")이다. 제1차 이미징 라인(101)을 따라서의 거리 "d"는, 피처(74)가 확률 분포 함수 에 의해 주어진 확률로 배치되는, 이미징 라인을 따라서의 실제 거리가 되도록 가정되며, 여기서 sj는 시도 거리(dCPj)와 연관된 오류의 측정치이다. 산탄 잡음(shot noise) 및 판독 잡음(read noise)은 통상적으로 시도 거리와 연관된 오류를 발생시킨다. 치수 보조선들(110 및 111) 간의 이미징 라인(101)의 세그먼트는 dCPj와 연관된 오류의 강도를 개략적으로 나타낸다. 도 2에서, 확률 분포 는 거리(dCPj)에서 최대값과 표준편차(σj)를 갖는 이미징 라인(101)을 따라 도시된 곡선(120)에 의해 표현된 정규본포가 되도록 가정된다.
본 발명의 일 실시예에 따라, 치수보조선들(110 및 111) 사이의 거리들(djm)에서 이미징 라인(101)을 따라, M개의 복수 영역들 Rjm, (1≤m≤M) 각각을 위해, 원거리 TOF 카메라(40)의 광센서(42) 내의 픽셀(P*jm)은, 이 픽셀이 이 영역 내에 위치한다면 어느 영역(Rjm) 상에 이미징될지가 결정된다. 도 2에서, M은 임의로 5개라고 도시된다. 영역(Rjm)은 Rj1, Rj2,…Rj5에 각각 대응하는 대응 거리 dj1, dj2, …dj5에 의해 표시되는 다이아몬드 아이콘에 의해 치수 보조선들(110 및 111) 사이의 제1차 이미징 라인(101)의 세그먼트를 따라 개략적으로 표시된다.
djm로부터 제2차 카메라인 원거리 TOF 카메라(40)의 광학 중심을 통해 연장되는 제2 이미징 라인(ILm)이라고 본 명세서에서 또한 지칭되는, 이미징 라인 ILm의 끝에 픽셀(P* jm)이 놓인다. 픽셀(P* jm)에 의해 획득되는 거리 이미지가 픽셀 상에 이미징되는 피처를 위해 연관된 이미징 라인(ILm)을 따라 거리(dC*P* jm)를 제공하고, 거리(dC*P* jm)는 오류(σ* jm)와 연관된다고 가정하자. 거리(dC*P* jm)는 제2차 이미징 라인(ILm)을 따라 거리(dC*P* jm, (1≤m≤5))에 의해 표시된 원형 아이콘에 의해 그래픽하게 표현된다.
픽셀(P* jm) 상에 이미징되는 피처를 위한 이미징 라인(ILm)을 따라서의 거리(d* m)가 피처를 위한 실제 거리일 확률이, 확률 분포 함수(P(d* m; dC*P* jm, σ* jm))에 의해 주어진다고 가정하자. 도 2에서, 예시적인 분포(P (d* jm; dC*P* jm, σ* jm))가 m=5를 위한 정규분포(130)로서 도시된다. 만약 제1차 이미징 라인(101)과 제2차 이미징 라인(ILm)과의 교차점이 원거리 TOF 카메라(40)로부터의 이미징 라인(ILm)을 따라서의 거리(d* jm)에 위치한다면, d* jm가 원거리 카메라(40)로부터 픽셀(P* jm) 상에 이미징되는 피처까지의 실제 거리일 확률은 P(d* jm; dC*P* jm, σ* jm)이다.
본 발명의 일실시예에 따라, 제1차 근거리 TOF 카메라(30)의 픽셀(Pj) 상에 이미징되는 피처(예를 들면 피처(74))를 위한 거리(DCPj)가 P(dm;dCPj,σj)ㆍP(d* jm;dC*P* jm,σ* jm)를 최대화하는 거리(dm(1≤m≤M))라는 것을 제어기(60)가 결정한다.
위의 논의에서, 근거리 TOF 카메라(30)가 제1차 카메라라고 지정되고, 원거리 TOF 카메라(40)가 제2차 카메라라고 지정되었지만, 거리를 결정하기 위한 절차는 어느 카메라가 제1차 카메라인지와는 일반적으로 무관하다. 카메라들의 역할들은 뒤바뀔 수 있으며, 즉, 원거리 TOF 카메라(40)가 제1차 카메라라고 지정되고, 근거리 TOF 카메라가 제2차 카메라라고 지정되며, 제1차 이미징 라인(101)이 원거리 TOF 카메라와 연관될 수 있다.
도 3a 및 3b는 숫자 200에 의해 또한 지칭되는 알고리즘의 흐름도(200)를 도시하며, 이 알고리즘에 의해 TOF 3D 이미저(20)는 근거리 및 원거리 TOF 카메라들(30 및 40)에 의해 획득되는 활성 공간(22)의 이미지로부터의 정보를 처리하여, 활성 공간(22) 내의 피처까지의 거리를 결정하고, 활성 공간 내의 피처를 위한 범위 이미지를 제공하게 된다.
블록(202)에서, 선택적으로 제어기(60)는 TOF 3D 이미저(20)를 조정하여 줌아웃 모드에서 또는 줌인 모드에서 동작할지를 결정한다. TOF 3D 이미저를 조정하는 것은 근거리 TOF 카메라(30)(광각 FOV, 줌아웃 카메라) 또는 원거리 TOF 카메라(40)(협각 FOV, 줌인 카메라) 중 어느 카메라가, 카메라들에 의해 제공되는 거리 정보를 처리하기 위한 제1차 카메라로서 지정되는지를 결정하는 것을 포함한다. 도 1과 관련한 위의 논의는 활성 공간(22)(도 1) 내의 피처까지의 거리를 결정하는 데 있어서 제1차 카메라의 역할의 예시를 제공한다. 선택적으로, 어느 카메라가 제1차 카메라라고 이롭게 지정될지를 결정하기 위해, 제어기(60)는 근거리 및 원거리 TOF 카메라들(30 및 40)에 의해 제공되는 거리로부터, 활성 공간(22) 내의 근거리, 중첩 및 원거리 구역들(23, 24, 및 25) 내에 존재하는 다수의 해당 피처들을 추정한다. 제어기는 추정된 개수들의 피처들에 응답해서 줌인 또는 줌아웃을 결정한다.
예를 들면, 만약 근거리 또는 원거리 구역(23 또는 25) 내에 피처들의 우세함이 존재한다면, 제어기(60)는 TOF 3D 이미저(20)를 조정하여, 줌인 모드에서 근거리 TOF 카메라(30)로 제1차 카메라를 동작시키거나, 줌아웃 모드에서 원거리 TOF 카메라(40)로 제1차 카메라를 각각 동작시킨다. 선택적으로, 만약 해당 피처의 우세함이 중거리 구역 내에서 존재한다고 알려지면, 제어기(60)는, TOF 3D 이미저를 TOF 3D 이미저가 해당 피처들의 개수를 추정하기 전에 줌 모드에서 동작하고 있던 줌 모드로 이 이미저가 동작하게 내버려 두던가, 미리 결정된 디폴트 절차에 따라 줌 모드를 결정한다.
블록(204)에서, 제어기(60)는 광원(50)에 의해 방사되는 광펄스의 강도를 설정하여 줌 모드의 선택에 매칭되게 한다. 만약 줌 모드가 줌 아웃이면, 제어기는 선택적으로 강도를 중간 레벨로 설정하여, TOF 3D 이미저(20)에 근접한 근거리 구역(23) 내의 피처들이 광 펄스로부터의 광량을 근거리 및 원거리 TOF 카메라들(30 및 40)에 다시 반사시켜, TOF 카메라들 내의 픽셀을 포화(saturate)시킬 확률을 감소시킨다. 만약 줌 모드가 줌 인이라면, 제어기(60)는 선택적으로 줌 아웃 모드를 위해 선택된 중간 강도보다 크게 방사된 펄스의 강도를 설정하여, TOF 3D 이미저(20)로부터 비교적 멀리 있는 원거리 구역(25) 내의 피처들이 허용될 수 있는 이미징을 위해 충분한 광을 TOF 카메라들에 다시 반사시키지 않을 확률을 감소시킨다. 중간 강도는 비교적 많은 수의 해당 피처들이 중거리 구역(24) 내에서 발견되는 상황을 위해 선택적으로 결정된다.
블록(206)에서, 제어기는, 근거리 TOF 카메라(30) 또는 원거리 TOF 카메라(40)일 수 있는, 제1차 카메라(C)에서 픽셀을 지정하는 인덱스 "j"를 영으로 초기화한다. 인덱스 j는 근거리 TOF 카메라(30) 내의 픽셀들의 전체 개수를 나타내는, 최대값 J를 갖는다. 블록(208)에서, 제어기는 인덱스를 1만큼 증가시킨다. 블록(210)에서, 제어기(60)는 활성 공간(22) 내의 피처를 위해 제1차 카메라(C) 내의 픽셀(Pj)에 의해 획득되는 거리 이미지로부터 시도 거리(dCPj)를 결정한다. 결정 블록(212)에서, 픽셀(Pj) 상에 이미징되는 피처가, 제1차 카메라(C)와 연관된 활성 공간(22) 내의, "C-구역"이라고 본 명세서에서 또한 지칭되는, 구역 내에 위치하는지의 여부를 dCPj를 위한 값이 표시하는지의 여부를 제어기(60)가 결정한다. 즉, 만약 근거리 TOF 카메라(30)가 제1차 카메라(C)이면, C-구역이 근거리 구역(23)(도 1)이고, 만약 원거리 TOF 카메라(40)가 제1차 카메라(C)이면, C-구역이 원거리 구역(25)이다. 만약 이미징된 피처가 C-구역 내에 있는 것으로 보이면, 블록(214)에서, 제어기는, 선택적으로 거리(DCPj = dCPj)가 제1차 카메라(C)의 픽셀(Pj) 상에 이미징된 피처를 위한 거리라고 결정한다.
그런 다음, 제어기는 선택적으로 블록(224)으로 진행하고, j=J인지의 여부를 결정하며, 여기서, J는 제1차 카메라(C) 내의 전체 픽셀의 개수이다. 만약 j가 J와 같지 않으면, 제어기(60)는 블록(208)으로 회귀하여, 인덱스 j를 1만큼 증가시키고, 다음 픽셀(P(j+1)) 상에 이미징된 피처를 위한 거리를 결정하기 위해 진행한다. 만약 j=J라면, 제어기(60)는 제1차 카메라(C) 내의 픽셀(Pj)을 위한 거리를 결정하기 위한 처리를 종료하고, 선택적으로 블록(226)에서, 제어기(60)는 거리()를 이용해 활성 공간(22)을 위한 범위 이미지를 제공한다. 그런 다음, 제어기는 선택적으로 블록(228)으로 진행하여 처리를 종료한다.
본 발명의 일 실시예에서, 만약 피처가 C-구역 내에 있지 않으면, 픽셀(Pj) 상에 이미징된 피처가 중거리 구역(24) 내에 위치한 것으로 보이는지 여부를, 시도 거리(dCPj)가 표시하는지의 여부를, 결정 블록(216)에서 제어기가 선택적으로 결정한다. 만약 이러한 결정이 참이라면, 선택적으로 블록(218)에서, 제어기(60)는 제1차 카메라(C)와 제2차 카메라(C*) 둘다로부터의 거리 정보를 이용해서, Pj 상에 이미징된 피처를 위한 거리(DCPj)를 결정한다. 선택적으로, 제어기는 근거리 및 원거리 TOF 카메라들(30 및 40)의 기하학적 구조와, TOF 3D 이미저(20) 내에서의 이러한 카메라들의 서로에 대한 위치들로부터, 어느 픽셀()이 픽셀(Pj)에 대응하는지를 결정하고, 픽셀(Pj )이 이미징하는 실질적으로 동일한 피처를 이미징한다. 선택적으로, 제어기는, 등식 에 따라, 픽셀 에 의해 획득되는 거리 이미지에 의해 제공되는 시도 거리()와 시도 거리(dCPj)의 가중 평균으로 거리(DCPj)를 결정하며, 여기서 wC 및 wC*는 가중화 인자들이다. 가중화 인자들은 예를 들면, 제2차 카메라(C*)로부터의 정보보다 제1 카메라(C)로부터의 정보를 더 높게 가중화시키거나, 시도 거리들을 각각의 오류들의 함수로서 가중화시킬 수 있다. DCPj를 결정한 후에, 제어기(60)는 선택적으로 블록(218)로부터 결정 블록(224)를 경유해 블록(208)까지 진행하여 인덱스 j를 증가시키거나, 블록(226)으로 진행하여 활성 공간(22)을 위한 범위 이미지를 제공하고, 블록(228)으로 진행하여 처리를 종결시킨다.
블록(216)에서, 피처가 중거리 구역(24) 내에 위치한다는 것을 시도 거리(dCPj)가 표시하지 않는다는 것을 제어기(60)가 발견한다면, 피처가, 제2차 카메라 (C*)와 연관된 활성 공간(22) 내의 구역인 C*-구역 내에 위치한다는 것을 시도 거리가 표시하거나, 시도 거리가 무효이고, 제어기는 선택적으로 블록(220)으로 진행한다. 선택적으로, 제어기는 도 2를 참조해서 위에서 설명된 것과 유사한 절차를 수행하고, 수식 DCPj = {dm |MAX[P(dm;dCPj,σj)ㆍP(d* jm;dC*P* jm,σ* jm)]}에 따라 DCPj를 결정한다.
블록(220)으로부터 제어기는 선택적으로 블록(224)으로 진행하고, 그런 후에, 블록(208)로 회귀하여 제1차 카메라(C) 내의 다음 픽셀을 위해 절차를 반복하거나, 블록(226)으로 회귀하여 범위 이미지를 제공하고, 그런 다음 절차를 종료한다.
물론 TOF 3D 이미저(20)가 예를 들면, 활성 공간(22) 내의 피처들을 반복적으로 이미징하도록 전신 3D 컴퓨터 게임을 지원하는 연속적 동작 중에 있으면, 제어기는 게임 동안 활성 공간을 위해 획득된 각각의 이미지 세트를 위해 알고리즘(200)을 반복적으로 실행하도록 진행할 수 있다.
본 출원의 설명 및 청구항들에서, 동사들, "포함하다" 및 "갖다"와, 이 동사들의 활용형들은, 동사의 목적어 및 목적어들이 반드시 이 동사의 주어 또는 주어들의 컴포넌트, 요소 또는 부분의 완전한 목록인 것은 아니라는 것을 표시하기 위해 이용된다.
본 출원에서 본 발명의 실시예들의 설명은 예시에 의해 제공되고, 본 발명의 범위를 제한하는 것으로 의도되지는 않는다. 설명된 실시예는 상이한 특징들을 포함하지만, 이러한 특징들의 전부가 본 발명의 모든 실시예에서 요구되지는 않는다. 일부 실시예는 특징들 중 단지 일부만을 또는 특징들의 가능한 조합들을 활용한다. 설명되는 본 발명의 실시예들의 변형과, 설명되는 실시예들에서 주목되는 특징들의 상이한 조합을 포함하는 본 발명의 실시예가 당업자에게 발생할 것이다. 본 발명의 범위는 단지 청구항들에 의해서만 제한된다.
Claims (20)
- 활성 공간 내의 피처(feature)들을 이미징하고 상기 피처들까지의 거리들을 결정하는 3차원(three-dimensional; 3D) 이미징 시스템에 있어서,
적어도 하나의 광펄스로 상기 활성 공간을 조명하는 광원;
광학 중심을 가지며 픽셀들을 갖는 제1 광센서 및 제2 광센서를 각각 포함하는 제1 3차원(3D) 카메라와 제2 3차원(3D) 카메라 - 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 피처들의 거리 이미지들을 획득하도록 상기 적어도 하나의 광펄스로부터 반사되는 광을 상기 픽셀들 상에 이미징하며, 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 활성 공간을 제공하도록 중첩되는, 광각 및 협각 시계(field of view; FOV)를 각각 가지며, 각각의 3D 카메라는 다른 하나의 3D 카메라와는 독립적으로 상기 활성 공간 내의 상기 피처들의 거리 이미지들을 획득하도록 동작가능함 -;
상기 활성 공간을 구역들로 분할하는 복수의 범위 한계들 - 상기 범위 한계들은 근거리 범위 상한("NRU")과 원거리 범위 하한("FRL")을 포함함 -; 및
상기 피처들까지의 거리들을 결정하도록 상기 구역들에 응답해서 상기 거리 이미지들을 처리하는 제어기를
포함하는, 3차원(3D) 이미징 시스템. - 제1항에 있어서, 상기 범위 한계들은 관계식 FRL < NRU를 만족시키고, 상기 활성 공간을 근거리 구역, 중거리 구역, 및 원거리 구역으로 분할하고, 이들 구역들에 대해 상기 활성 공간 내의 피처들까지의 거리들은 각각 FRL 미만, FRL과 NRU 사이, 및 NRU 초과인 것인, 3차원(3D) 이미징 시스템.
- 제2항에 있어서, 상기 활성 공간 내의 피처들까지의 거리들을 포함하는 범위 이미지를 제공하도록, 상기 제어기는,
상기 3D 카메라들 중 하나를 제1차 카메라(prime camera)로 지정하고, 상기 3D 카메라들 중 다른 하나를 제2차 카메라(secondary camera)로 지정하고;
상기 제1차 카메라 내의 복수의 픽셀들 각각에 대해 상기 픽셀 상에 이미징되는 상기 활성 공간 내의 피처를 위한 시도 거리(trial distance)를 결정하고;
상기 제1차 카메라가 상기 제1 3D 카메라이고 상기 결정된 거리가 상기 근거리 구역 내에 있거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리가 상기 원거리 구역 내에 있다면, 상기 피처까지의 거리를 상기 시도 거리라고 결정하고;
상기 제1차 카메라가 상기 제1 3D 카메라이고 상기 결정된 거리가 상기 근거리 구역 내에 있지 않거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리가 상기 원거리 구역 내에 있지 않다면, 상기 제2차 카메라 내의 픽셀에 의해 제공되는 거리 및 상기 시도 거리에 응답한 거리를 결정하며;
상기 범위 이미지 내의 상기 거리들로서, 상기 제1차 카메라 내의 픽셀들에 대해 결정된 거리들을 이용하는 것인, 3차원(3D) 이미징 시스템. - 제3항에 있어서, 상기 시도 거리는 상기 중거리 구역 내에 놓이는 것인, 3차원(3D) 이미징 시스템.
- 제4항에 있어서, 상기 제어기는 상기 제2차 카메라 내의 픽셀에 의해 제공되는 거리와 상기 시도 거리의 평균으로서 상기 피처까지의 거리를 결정하는 것인, 3차원(3D) 이미징 시스템.
- 제5항에 있어서, 상기 평균은 가중 평균인 것인, 3차원(3D) 이미징 시스템.
- 제3항에 있어서, 상기 제1차 카메라는 상기 제1 3D 카메라이고 상기 시도 거리는 상기 원거리 구역 내에 놓이거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리는 상기 근거리 구역 내에 놓이는 것인, 3차원(3D) 이미징 시스템.
- 제7항에 있어서, 상기 제2차 카메라 내의 어느 픽셀들이, 상기 제1차 카메라 내의 픽셀과 상기 제1차 카메라의 광학 중심을 통과하는 라인을 따라 놓여 있는 점들을 이미징하는지를 상기 제어기가 결정하는 것인, 3차원(3D) 이미징 시스템.
- 제8항에 있어서, 상기 제어기는, 상기 제2차 카메라 내의 상기 결정된 픽셀들 중의 각각의 픽셀에 대한 거리를, 상기 적어도 하나의 광펄스로부터의 광으로 상기 픽셀에 의해 획득되는 거리 이미지에 응답하여 결정하는 것인, 3차원(3D) 이미징 시스템.
- 제9항에 있어서, 상기 제어기는, 상기 제2차 카메라의 광학 중심과 상기 결정된 픽셀을 통과하는 라인을 따라 주어진 거리가, 상기 제2차 카메라로부터 상기 결정된 픽셀 상에 이미징되는 상기 피처의 실제 거리인 확률 분포를 결정하는 것인, 3차원(3D) 이미징 시스템.
- 제10항에 있어서, 상기 제어기는, 상기 제1차 카메라 내의 상기 라인을 따라 주어진 거리가, 상기 제1차 카메라로부터 상기 제1차 카메라의 픽셀 상에 이미징되는 상기 피처의 실제 거리인 확률 분포를 결정하는 것인, 3차원(3D) 이미징 시스템.
- 제11항에 있어서, 상기 제어기는, 상기 제1차 카메라로부터 상기 제1차 카메라의 픽셀 상에 이미징되는 상기 피처의 거리를 결정하도록, 상기 제1차 카메라와 상기 제2차 카메라로부터의 상기 주어진 거리들에 대해 결정된 상기 확률 분포들을 사용하는 것인, 3차원(3D) 이미징 시스템.
- 제1항에 있어서, 상기 제1 3D 카메라와 상기 제2 3D 카메라 중 하나의 3D 카메라는 TOF(time of flight) 3D 카메라인 것인, 3차원(3D) 이미징 시스템.
- 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법에 있어서,
적어도 하나의 광펄스로 상기 활성 공간을 조명하는 단계;
광학 중심을 가지며 픽셀들을 갖는 제1 광센서 및 제2 광센서를 각각 포함하는 제1 3차원(three-dimensional; 3D) 카메라와 제2 3차원(3D) 카메라를 사용해 상기 활성 공간 내의 피처들을 이미징하는 단계 - 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 피처들의 거리 이미지들을 획득하도록 상기 적어도 하나의 광펄스로부터 반사되는 광을 상기 픽셀들 상에 이미징하며, 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 활성 공간을 제공하도록 중첩되는, 광각 및 협각 시계(field of view; FOV)를 각각 가지며, 각각의 3D 카메라는 다른 하나의 3D 카메라와는 독립적으로 상기 활성 공간 내의 상기 피처들에 대한 거리 측정값들을 획득하도록 동작가능함 -;
상기 활성 공간을 복수의 범위 한계들 - 상기 범위 한계들은 근거리 범위 상한("NRU")과 원거리 범위 하한("FRL")을 포함함 - 에 의해 한계가 정해진 구역들로 분할하는 단계; 및
상기 피처들까지의 거리들을 결정하도록 상기 구역들에 응답해서 상기 거리 이미지들을 처리하는 단계
포함하는, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법. - 제14항에 있어서, 상기 범위 한계들은 관계식 FRL < NRU를 만족시키고, 상기 활성 공간을 근거리 구역, 중거리 구역, 및 원거리 구역으로 분할하고, 이들 구역들에 대해 상기 활성 공간 내의 피처들까지의 거리들은 각각 FRL 미만, FRL과 NRU 사이, 및 NRU 초과인 것인, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법.
- 제15항에 있어서, 상기 활성 공간 내의 피처들까지의 거리들을 포함하는 범위 이미지를 제공하도록, 상기 방법은,
상기 3D 카메라들 중 하나를 제1차 카메라로 지정하고, 다른 하나를 제2차 카메라로 지정하는 단계;
상기 제1차 카메라 내의 복수의 픽셀들 각각에 대해 상기 픽셀 상에 이미징되는 상기 활성 공간 내의 피처를 위한 시도 거리를 결정하는 단계;
상기 제1차 카메라가 상기 제1 3D 카메라이고 상기 결정된 거리가 상기 근거리 구역 내에 있거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리가 상기 원거리 구역 내에 있다면, 상기 피처까지의 거리를 상기 시도 거리라고 결정하는 단계;
상기 제1차 카메라가 상기 제1 3D 카메라이고 상기 결정된 거리가 상기 근거리 구역 내에 있지 않거나, 상기 제1차 카메라가 상기 제2 3D 카메라이고 상기 시도 거리가 상기 원거리 구역 내에 있지 않다면, 상기 제2차 카메라 내의 픽셀에 의해 제공되는 거리 및 상기 시도 거리에 응답한 거리를 결정하는 단계; 및
상기 범위 이미지 내의 상기 거리들로서, 상기 제1차 카메라 내의 픽셀들에 대해 결정된 거리들을 이용하는 단계
를 더 포함하는, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법. - 제16항에 있어서, 상기 시도 거리는 상기 중거리 구역 내에 놓이는 것인, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법.
- 제17항에 있어서, 상기 제2차 카메라 내의 픽셀에 의해 제공되는 거리와 상기 시도 거리의 평균으로서 상기 피처까지의 거리를 결정하는 단계를 더 포함하는, 활성 공간 내에 위치한 피처들까지의 거리들을 결정하는 방법.
- 활성 공간 내의 피처들을 이미징하고 상기 피처들까지의 거리들을 결정하는 3차원(three-dimensional; 3D) 이미징 시스템에 있어서,
적어도 하나의 광펄스로 상기 활성 공간을 조명하는 광원;
광학 중심을 가지며 픽셀들을 갖는 제1 광센서 및 제2 광센서를 각각 포함하는 제1 3D 카메라와 제2 3D 카메라 - 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 피처들의 거리 이미지들을 획득하도록 상기 적어도 하나의 광펄스로부터 반사되는 광을 상기 픽셀들 상에 이미징하며, 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상기 활성 공간을 제공하고 상기 활성 공간을 구역들로 분할하도록 중첩되는, 광각 및 협각 시계(field of view; FOV)를 각각 가지며, 중첩 영역은 근거리 구역과 원거리 구역 사이에 위치한 중거리 구역이고, 각각의 3D 카메라는 다른 하나의 3D 카메라와는 독립적으로 상기 활성 공간 내의 상기 피처들의 거리 이미지들을 획득하도록 동작가능함 -; 및
상기 피처들까지의 거리들을 결정하도록 상기 구역들에 응답해서 상기 거리 이미지들을 처리하는 제어기
를 포함하는, 3차원(3D) 이미징 시스템. - 제19항에 있어서, 상기 제1 3D 카메라와 상기 제2 3D 카메라는 상이한 유형의 3D 카메라들인 것인, 3차원(3D) 이미징 시스템.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/356,618 | 2012-01-23 | ||
US13/356,618 US9720089B2 (en) | 2012-01-23 | 2012-01-23 | 3D zoom imager |
PCT/US2013/020693 WO2013112284A1 (en) | 2012-01-23 | 2013-01-08 | 3d zoom imager |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140123079A KR20140123079A (ko) | 2014-10-21 |
KR101992511B1 true KR101992511B1 (ko) | 2019-06-24 |
Family
ID=48796901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147023398A KR101992511B1 (ko) | 2012-01-23 | 2013-01-08 | 3차원 줌 이미저 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9720089B2 (ko) |
EP (1) | EP2807826B1 (ko) |
JP (1) | JP2015510586A (ko) |
KR (1) | KR101992511B1 (ko) |
CN (1) | CN104094594B (ko) |
WO (1) | WO2013112284A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023038264A1 (ko) * | 2021-09-13 | 2023-03-16 | 삼성전자 주식회사 | 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법 |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8988508B2 (en) * | 2010-09-24 | 2015-03-24 | Microsoft Technology Licensing, Llc. | Wide angle field of view active illumination imaging system |
US10154177B2 (en) * | 2012-10-04 | 2018-12-11 | Cognex Corporation | Symbology reader with multi-core processor |
US9426451B2 (en) * | 2013-03-15 | 2016-08-23 | Digimarc Corporation | Cooperative photography |
US9898670B2 (en) | 2013-12-13 | 2018-02-20 | Fts Computertechnik Gmbh | Method and device for observing the environment of a vehicle |
EP4016981A3 (en) * | 2013-12-24 | 2022-09-21 | Sony Depthsensing Solutions | A time-of-flight camera system |
WO2016025962A1 (en) * | 2014-08-15 | 2016-02-18 | The University Of Akron | Device and method for three-dimensional video communication |
US9854226B2 (en) | 2014-12-22 | 2017-12-26 | Google Inc. | Illuminator for camera system having three dimensional time-of-flight capture with movable mirror element |
US20160182891A1 (en) * | 2014-12-22 | 2016-06-23 | Google Inc. | Integrated Camera System Having Two Dimensional Image Capture and Three Dimensional Time-of-Flight Capture With A Partitioned Field of View |
US9918073B2 (en) | 2014-12-22 | 2018-03-13 | Google Llc | Integrated camera system having two dimensional image capture and three dimensional time-of-flight capture with movable illuminated region of interest |
US9635231B2 (en) | 2014-12-22 | 2017-04-25 | Google Inc. | Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions |
US9674415B2 (en) * | 2014-12-22 | 2017-06-06 | Google Inc. | Time-of-flight camera system with scanning illuminator |
GB2541101A (en) * | 2015-06-23 | 2017-02-08 | Bosch Gmbh Robert | Method and camera system for determining the distance of objects in relation to a vehicle |
EP3396410A4 (en) | 2015-12-21 | 2019-08-21 | Koito Manufacturing Co., Ltd. | IMAGE ACQUISITION DEVICE FOR VEHICLES, CONTROL DEVICE, VEHICLE HAVING IMAGE ACQUISITION DEVICE FOR VEHICLES AND CONTROL DEVICE, AND IMAGE ACQUISITION METHOD FOR VEHICLES |
JP6851985B2 (ja) | 2015-12-21 | 2021-03-31 | 株式会社小糸製作所 | 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法 |
US11040649B2 (en) | 2015-12-21 | 2021-06-22 | Koito Manufacturing Co., Ltd. | Vehicular sensor and vehicle provided with same |
WO2017110414A1 (ja) * | 2015-12-21 | 2017-06-29 | 株式会社小糸製作所 | 車両用画像取得装置およびそれを備えた車両 |
US11187805B2 (en) | 2015-12-21 | 2021-11-30 | Koito Manufacturing Co., Ltd. | Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle |
WO2019005622A1 (en) * | 2017-06-30 | 2019-01-03 | Pcms Holdings, Inc. | METHOD AND APPARATUS FOR GENERATING AND DISPLAYING 360-DEGREE VIDEO BASED ON FOLLOW-UP OF THE LOOK AND PHYSIOLOGICAL MEASUREMENTS |
US10785400B2 (en) * | 2017-10-09 | 2020-09-22 | Stmicroelectronics (Research & Development) Limited | Multiple fields of view time of flight sensor |
US10232800B1 (en) | 2017-11-10 | 2019-03-19 | Denson Corporation | Camera module |
US10627606B2 (en) | 2017-11-10 | 2020-04-21 | Denso Corporation | Camera module |
US10534253B2 (en) | 2017-11-10 | 2020-01-14 | Denso Corporation | Camera module which includes lens units and configured to be mounted on inside of windshiled of vehicle |
US10406995B2 (en) * | 2017-11-10 | 2019-09-10 | Denso Corporation | Camera module |
US10661725B2 (en) | 2017-11-10 | 2020-05-26 | Denso Corporation | Camera module |
JP7106855B2 (ja) | 2017-11-10 | 2022-07-27 | 株式会社デンソー | カメラモジュール |
US20190146067A1 (en) * | 2017-11-14 | 2019-05-16 | Continental Automotive Systems, Inc. | Flash lidar sensor assembly |
CN107872665A (zh) * | 2017-12-07 | 2018-04-03 | 深圳市趣创科技有限公司 | 手机3d摄像功能及系统 |
JP7150508B2 (ja) * | 2018-07-24 | 2022-10-11 | 株式会社東芝 | 鉄道車両用撮像システム |
KR102606824B1 (ko) | 2018-12-14 | 2023-11-27 | 삼성전자주식회사 | 멀티 카메라를 포함하는 장치 및 이의 이미지 처리방법 |
JPWO2020184447A1 (ko) * | 2019-03-11 | 2020-09-17 | ||
US11172112B2 (en) | 2019-09-09 | 2021-11-09 | Embedtek, LLC | Imaging system including a non-linear reflector |
WO2021066219A1 (ko) * | 2019-10-01 | 2021-04-08 | 엘지전자 주식회사 | 이동단말기 |
CN113163112B (zh) * | 2021-03-25 | 2022-12-13 | 中国电子科技集团公司第三研究所 | 一种聚变焦控制方法及系统 |
CN114112964B (zh) * | 2021-11-10 | 2023-09-12 | 中国科学院上海技术物理研究所 | 一种傅里叶红外光谱仪多元视场自动测量系统及方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007155389A (ja) * | 2005-12-01 | 2007-06-21 | Hideo Nishigori | 野生生物検出センサ装置 |
Family Cites Families (190)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4402608A (en) | 1980-10-02 | 1983-09-06 | Solid Photography Inc. | Room scanning system using multiple camera and projector sensors |
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
DE58902538D1 (de) | 1988-05-19 | 1992-12-03 | Siemens Ag | Verfahren zur beobachtung einer szene und einrichtung zur durchfuehrung des verfahrens. |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
JPH03103822U (ko) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
JPH06508788A (ja) | 1991-12-03 | 1994-10-06 | フレンチ スポーテク コーポレイション | 対話型ビデオ式検査および訓練システム |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
JPH0844490A (ja) | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
WO1996041304A1 (en) | 1995-06-07 | 1996-12-19 | The Trustees Of Columbia University In The City Of New York | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
AU3283497A (en) | 1996-05-08 | 1997-11-26 | Real Vision Corporation | Real time simulation using position sensing |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
AU3954997A (en) | 1996-08-14 | 1998-03-06 | Nurakhmed Nurislamovich Latypov | Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
DE69626208T2 (de) | 1996-12-20 | 2003-11-13 | Hitachi Europ Ltd | Verfahren und System zur Erkennung von Handgesten |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JPH1139596A (ja) | 1997-07-17 | 1999-02-12 | Fuji Heavy Ind Ltd | 車外監視装置 |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
AU1099899A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
WO1999019840A1 (en) | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | A system and method for generating an animatable character |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
JP2002516121A (ja) | 1998-03-03 | 2002-06-04 | アリーナ, インコーポレイテッド | 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法 |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
DE69936620T2 (de) | 1998-09-28 | 2008-05-21 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verfahren und Vorrichtung zum Segmentieren von Handgebärden |
AU1930700A (en) | 1998-12-04 | 2000-06-26 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
EP2026035A2 (en) | 1998-12-16 | 2009-02-18 | 3DV Systems Ltd. | 3D camera for distance measurements |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
JP2000292538A (ja) | 1999-04-07 | 2000-10-20 | Mitsubishi Electric Corp | 車両用障害物検出装置 |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
JP2003501635A (ja) | 1999-05-26 | 2003-01-14 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 対象検出システム |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
JP4311861B2 (ja) | 2000-05-18 | 2009-08-12 | 富士通テン株式会社 | 車両用物体検出装置 |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
WO2003089277A1 (de) | 2002-04-19 | 2003-10-30 | Iee International Electronics & Engineering S.A. | Sicherheitsvorrichtung für ein fahrzeug |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
EP1477924B1 (en) | 2003-03-31 | 2007-05-02 | HONDA MOTOR CO., Ltd. | Gesture recognition apparatus, method and program |
WO2004107266A1 (en) | 2003-05-29 | 2004-12-09 | Honda Motor Co., Ltd. | Visual tracking using depth data |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
EP3196805A3 (en) | 2003-06-12 | 2017-11-01 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
US7536032B2 (en) | 2003-10-24 | 2009-05-19 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
US7079173B2 (en) | 2004-02-04 | 2006-07-18 | Hewlett-Packard Development Company, L.P. | Displaying a wide field of view video image |
US7379563B2 (en) | 2004-04-15 | 2008-05-27 | Gesturetek, Inc. | Tracking bimanual movements |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
JP2008537190A (ja) | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | 赤外線パターンを照射することによる対象物の三次元像の生成 |
US7853041B2 (en) | 2005-01-07 | 2010-12-14 | Gesturetek, Inc. | Detecting and tracking objects in images |
JP5080273B2 (ja) | 2005-01-07 | 2012-11-21 | クアルコム,インコーポレイテッド | オプティカルフローに基づく傾きセンサー |
KR100960577B1 (ko) | 2005-02-08 | 2010-06-03 | 오블롱 인더스트리즈, 인크 | 제스처 기반의 제어 시스템을 위한 시스템 및 방법 |
US7663662B2 (en) | 2005-02-09 | 2010-02-16 | Flir Systems, Inc. | High and low resolution camera systems and methods |
JP4686595B2 (ja) | 2005-03-17 | 2011-05-25 | 本田技研工業株式会社 | クリティカルポイント解析に基づくポーズ推定 |
US7982777B2 (en) | 2005-04-07 | 2011-07-19 | Axis Engineering Technologies, Inc. | Stereoscopic wide field of view imaging system |
RU2007146172A (ru) | 2005-05-17 | 2009-06-27 | Гестуретэк, Инк. (Us) | Вывод сигнала, чувствительный к ориентации |
US7839429B2 (en) | 2005-05-26 | 2010-11-23 | Hewlett-Packard Development Company, L.P. | In-camera panorama stitching method and apparatus |
ATE412882T1 (de) | 2005-08-12 | 2008-11-15 | Mesa Imaging Ag | Hochempfindliches, schnelles pixel für anwendung in einem bildsensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
DE102005056265A1 (de) | 2005-11-14 | 2007-05-16 | Pilz Gmbh & Co Kg | Vorrichtung und Verfahren zum Überwachen eines Raumbereichs, insbesondere zum Absichern eines Gefahrenbereichs einer automatisiert arbeitenden Anlage |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
JP2010500146A (ja) | 2006-08-14 | 2010-01-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 放射線検出器の回転を伴う画像スティッチングのための画像収集 |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
US8154578B2 (en) | 2007-05-31 | 2012-04-10 | Eastman Kodak Company | Multi-camera residential communication system |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
US8643748B2 (en) | 2007-11-20 | 2014-02-04 | Motorola Mobility Llc | Compact stationary lens optical zoom image capture system |
CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
US7961301B2 (en) | 2008-05-09 | 2011-06-14 | Ball Aerospace & Technologies Corp. | Flash LADAR system |
CA2729712C (en) | 2008-06-26 | 2014-12-30 | Lynntech, Inc. | Method of searching for a thermal target |
KR101483462B1 (ko) * | 2008-08-27 | 2015-01-16 | 삼성전자주식회사 | 깊이 영상 획득 장치 및 방법 |
JP5758805B2 (ja) | 2008-09-07 | 2015-08-05 | レイ.フォーカシング・システムズ・リミテッド | 動的なカメラ焦点合わせ |
JP2010190675A (ja) | 2009-02-17 | 2010-09-02 | Toyota Motor Corp | 距離画像センサシステムおよび距離画像生成方法 |
JP2010206643A (ja) | 2009-03-04 | 2010-09-16 | Fujifilm Corp | 撮像装置、方法およびプログラム |
JP2012521673A (ja) | 2009-03-19 | 2012-09-13 | フレクストロニクス エイピー エルエルシー | デュアルセンサカメラ |
US8872910B1 (en) * | 2009-06-04 | 2014-10-28 | Masoud Vaziri | Method and apparatus for a compact and high resolution eye-view recorder |
US8275205B2 (en) | 2009-07-23 | 2012-09-25 | Honeywell International Inc. | Prioritizer system for target acquisition |
DE102009045600B4 (de) | 2009-10-12 | 2021-11-04 | pmdtechnologies ag | Kamerasystem |
DE102009046108B4 (de) | 2009-10-28 | 2022-06-09 | pmdtechnologies ag | Kamerasystem |
CN102122393A (zh) * | 2010-01-09 | 2011-07-13 | 鸿富锦精密工业(深圳)有限公司 | 三维模型建立系统、方法及具有该系统的建模装置 |
WO2011104706A1 (en) | 2010-02-23 | 2011-09-01 | Ben-Gurion University Of The Negev Research And Development Authority | A system and method for providing 3d imaging |
WO2011127274A1 (en) | 2010-04-07 | 2011-10-13 | Mesa Imaging Ag | Multi-level digital modulation for time of flight method and system |
EP2389004B1 (en) | 2010-05-20 | 2013-07-24 | Sony Computer Entertainment Europe Ltd. | 3D camera and imaging method |
TW201323262A (zh) * | 2011-12-02 | 2013-06-16 | Hon Hai Prec Ind Co Ltd | 車輛輔助系統及車輛輔助方法 |
DE102012207328A1 (de) | 2012-05-03 | 2013-11-07 | Audi Ag | System und Verfahren zur Erfassung eines Fahrbahnprofils |
-
2012
- 2012-01-23 US US13/356,618 patent/US9720089B2/en active Active
-
2013
- 2013-01-08 JP JP2014554728A patent/JP2015510586A/ja active Pending
- 2013-01-08 EP EP13740760.7A patent/EP2807826B1/en active Active
- 2013-01-08 WO PCT/US2013/020693 patent/WO2013112284A1/en active Application Filing
- 2013-01-08 KR KR1020147023398A patent/KR101992511B1/ko active IP Right Grant
- 2013-01-08 CN CN201380006368.2A patent/CN104094594B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007155389A (ja) * | 2005-12-01 | 2007-06-21 | Hideo Nishigori | 野生生物検出センサ装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023038264A1 (ko) * | 2021-09-13 | 2023-03-16 | 삼성전자 주식회사 | 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2013112284A1 (en) | 2013-08-01 |
US9720089B2 (en) | 2017-08-01 |
JP2015510586A (ja) | 2015-04-09 |
CN104094594A (zh) | 2014-10-08 |
US20130188022A1 (en) | 2013-07-25 |
EP2807826B1 (en) | 2016-11-30 |
CN104094594B (zh) | 2017-06-20 |
EP2807826A1 (en) | 2014-12-03 |
EP2807826A4 (en) | 2015-06-03 |
KR20140123079A (ko) | 2014-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101992511B1 (ko) | 3차원 줌 이미저 | |
US11629955B2 (en) | Dual-resolution 3D scanner and method of using | |
KR102656399B1 (ko) | 구조화된 광 조명기가 있는 비행-시간 센서 | |
CN110178156A (zh) | 包括可调节焦距成像传感器的距离传感器 | |
CA2714629C (en) | Dual mode depth imaging | |
US10582188B2 (en) | System and method for adjusting a baseline of an imaging system with microlens array | |
EP3089449B1 (en) | Method for obtaining light-field data using a non-light-field imaging device, corresponding device, computer program product and non-transitory computer-readable carrier medium | |
EP3534109B1 (en) | Depth measuring method and system | |
JP7378571B2 (ja) | 少なくとも一つのスキャン装置のためのフレームと少なくとも一つのスキャン装置を備える空間検出装置 | |
JP2021532648A (ja) | ハイブリッド飛行時間型イメージャモジュール | |
JP6881917B2 (ja) | 距離計測装置、撮像制御装置 | |
JP2019101000A (ja) | 測距点群データ測定システム、および制御プログラム | |
JP2023029441A (ja) | 計測装置、計測システムおよび車両 | |
KR102274270B1 (ko) | 홍채인식범위 확장을 위한 홍채 영상 획득시스템 | |
EP2948791B1 (en) | Improved laser range finding | |
JP2010190793A (ja) | 距離計測装置及び距離計測方法 | |
JP7448029B2 (ja) | 処理装置、処理システム、処理方法及びプログラム | |
CN112534303B (zh) | 混合飞行时间和成像器模块 | |
KR20210101928A (ko) | 홍채인식범위 확장을 위한 홍채 영상 획득시스템 | |
CN115720619A (zh) | 测定装置 | |
JP2003057028A (ja) | 距離センサ | |
Gryaznov et al. | Structured laser illumination for technologies of three-dimensional viewing of robotic facilities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |