CN102508391A - 广角视野的活动照明成像系统 - Google Patents

广角视野的活动照明成像系统 Download PDF

Info

Publication number
CN102508391A
CN102508391A CN 201110296188 CN201110296188A CN102508391A CN 102508391 A CN102508391 A CN 102508391A CN 201110296188 CN201110296188 CN 201110296188 CN 201110296188 A CN201110296188 A CN 201110296188A CN 102508391 A CN102508391 A CN 102508391A
Authority
CN
Grant status
Application
Patent type
Prior art keywords
view
angle
optical
system
imaging
Prior art date
Application number
CN 201110296188
Other languages
English (en)
Other versions
CN102508391B (zh )
Inventor
D·科恩
G·叶海弗
Original Assignee
微软公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/2256Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/20Image acquisition
    • G06K9/209Sensor details, e.g. position, configuration, special lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control; Control of cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in, e.g. mobile phones, computers or vehicles
    • H04N5/23238Control of image capture or reproduction to achieve a very large field of view, e.g. panorama
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light

Abstract

本发明公开了一种广角视野的活动照明成像系统。本发明的实施例提供了包括第一相机和第二相机的活动照明成像系统,每个相机具有光轴以及由包括光轴的平面中的视角来表征的视野(FOV),并且其中,相机的光轴以基本上等于它们视角之和的一半的角度相交于它们的FOV共有的相交区域。

Description

广角视野的活动照明成像系统

技术领域

[0001] 本发明的实施例涉及活动照明成像系统,该系统发射光以照亮场景并使用由场景中的要素(feature)从所发射的光反射而来的光对场景进行成像。

背景技术

[0002] 已知通常被称为“活动照明相机”的各种类型的活动照明相机或成像系统,包括它们自己的光源,用于照亮它们使用“人造光”进行成像的场景。在这样的活动照明相机中有普遍存在的闪光相机、姿势识别相机和三维(3D)相机。姿势识别相机照亮人以对其姿势进行成像和识别。3D相机使用其生成的光对场景进行成像以确定到场景中要素的距离。取决于3D相机的运行模式,相机的光源提供的光可以是被称为结构化光的空间上被调制的光, 诸如通常由三角测量3D相机使用的,或者是时间上被调制的光,诸如通常由各种类型的飞行时间(TOF) 3D相机使用的脉冲中发射的光。

[0003] 对于诸如跟踪人的姿势以使其与计算机进行交互的很多应用程序而言,活动照明相机的优选设计规范可能是不相容的,并且适应这样的竞争性设计偏好可能是昂贵的。

[0004] 例如,对于姿势跟踪和/或3D成像以使人与计算机游戏进行交互,通常期望的是活动照明相机具有由广视角来表征的相对大的视野(FOV),人可在其中自由地移动并仍然由相机准确地对其进行成像。相机的FOV是由从相机的光学中心延伸的固定角度定义的空间区域,并且由相机的光学系统在相机包括的以下称为“光电传感器”的光敏传感器上对其中的点进行成像。相机的FOV的视角是位于相机的FOV中并从相机的光学中心延伸的线之间最大可能的角度。可为与相机的光学中心相交的任何平面定义视角。通常为包含相机的光轴的平面定义视角。用于对人的活动进行成像的实际视角通常是,为分别与地面平行和垂直的平面所定义的水平和垂直视角。由广视角来表征FOV可能是有利的,广水平视角通常大至 90°、120° 或 150°。

[0005] 为了提供具有广角FOV和准确成像的相机,相机通常具有光学系统,该光学系统包括具有小的有效焦距“f”的透镜或透镜系统,以及具有大量光敏像素的相对大的光电传感器。光学系统的有效焦距是可用于表示光学系统的功能的光学系统的薄透镜等价物的焦距。

[0006] 但是,使用来自相机光源的光照亮大的FOV通常在技术上和成本级上都是有挑战的。由光源提供的照明强度通常受到成本考虑以及将光源和相机维持在可接受的运行温度的散热要求的限制。因此,由相机FOV中的人和其他要素反射的来自光源的光的量通常有限。

[0007] 为了补偿有限的照明,相机可具有增强的光收集效率和记录能力,从而由相机的光电传感器中的像素所记录的所反射的光的量足以使像素生成的信号具有可接受的信噪比(SNI?)。光收集效率是相机所成像的对象的单位面积上对由相机透镜收集的光的部分在相机光电传感器上成像的光的强度(每单位面积的光能)的度量。光记录能力是相机在像素上成像的每单位光能的对相机光电传感器中的像素产生多少信号的度量,并且具有每单

4位光能的信号幅度单元。相机的光收集效率与光记录能力的乘积是对来自要成像的场景的光的相机敏感度的度量,并被称为相机的光获取敏感度(LAS)。

[0008] 可通过降低相机透镜的f数(f#)并提高相机的光电传感器中像素的大小来增强光收集效率和收集能力。透镜€#等于透镜的焦距f除以其光圈的直径D,即f# = f/D。光圈直径D可由各种光圈中的任一个来控制。最小的f#意为用于最大可能的D的f#,通常是接近透镜的物理直径的直径。

[0009] 在白天和/或使用来自传统闪光灯的光对场景进行成像的传统数码相机具有由在约40°和约60°之间的视角来表征的F0V,包括具有在1.2μ-6μ (微米)之间的边尺寸的正方形像素,并且最小f#在2. 8-3. 5之间。另一方面,对于姿势识别和多玩家视频游戏应用程序,具有广角FOV的活动照明相机具有小于2的f#以及具有大于或等于7. 5微米的边尺寸的大的像素可能是有利的。

[0010] 但是,降低相机的f#并增加其像素大小通常会降低相机分辨率,并且导致在相机获得的图像中的光学失真,除非相机的光学系统被专门设计为对失真进行补偿。配置相机以调制光学失真在技术上可能是困难的,并包括使相机定价超出其预期市场的成本。

发明内容

[0011] 本发明的实施例提供广视角FOV的活动照明成像系统,也被称为“合成活动照明相机”或“合成相机”,该系统组合被称为“组件相机”的多个相机的FOV以提供放大的“合成” FOV。

[0012] 在本发明的实施例中,多个组件相机包括两个组件相机,如此放置这两个组件相机以使得它们的光轴以光轴所定义的平面中的相机的视角之和的一半的角度相交于组件相机的FOV共有的区域,下文称为“相交区域”。组件相机的FOV彼此相交并组合以提供光轴平面中的具有广视角的放大的合成F0V,该广视角等于每个组件相机的FOV的视角的约两倍。任选地,组件相机的FOV的视角是相等的,并且FOV在“镜像”平面中彼此镜像,该平面穿过其光轴的交集、垂直于其平面并且包含平分轴之间的角度的线。

[0013] 在本发明的实施例中,组件相机彼此邻近间隔以便它们的FOV沿着包括镜像平面的窄缝重叠。所得到的合成FOV基本上没有未被合成相机至少之一成像的区域。在本发明的实施例中,配置具有相对小的f#和包含相对大的像素的光电传感器的每个组件相机,从而组件相机具有相对增强的光收集效率和记录能力。

[0014] 鉴于合成活动光相机享有放大的广视角F0V,其光成像由f#、光电传感器和组件相机的图像分辨率来表征。因此,将广角合成FOV与组件相机的较小FOV的增强的光收集效率和记录能力进行组合,而不必花费在适应具有类似的广角FOV的传统相机的对抗和不相容的设计需求上。

[0015] 提供本发明内容以便以简化形式介绍在以下具体实施方式中进一步描述的一些概念。本发明内容并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。

附图说明

[0016] 以下参考本文所附的在本段后列出的各个附图来描述本发明的各实施例的非限制性示例。在不止一个附图中出现的相同的结构、元素或部件通常在它们出现的所有图中用相同的数字来标记。附图中所示的组件的尺寸和特征通常是为了方便和清楚呈现而选择的,并且不一定按比例显示。

[0017] 图IA和IB分别示意性地示出了根据现有技术确定到场景中要素的距离的传统3D 飞行时间(TOF)相机的俯视图和立体图;

[0018] 图2A和2B示意性地示出了根据本发明的实施例作为具有广角FOV的活动照明成像系统的示例的合成3D TOF相机;

[0019] 图3A-3C示意性地示出了根据本发明的实施例的其他活动照明成像系统;

[0020] 图4示意性地示出了根据本发明的实施例的包括三个组件相机的活动照明成像系统;以及

[0021] 图5示意性地示出了根据本发明的实施例的包括四个组件相机的活动照明成像系统。

具体实施方式

[0022] 下面参考作为示例的3D飞行时间(TOF)成像系统的活动照明成像系统的附图来讨论本发明的各实施例的各方面。图IA和IB分别示意性地示出了传统3D TOF相机20和相机的视野(FOV)的立体图和俯视图。图2A至图5示意性地示出了根据本发明的实施例与图IA和IB中所示的类似的相机是如何被组合并被配置以提供具有放大的广角合成FOV 的任选3D TOF合成活动照明相机。将根据本发明的实施例与图2A和2B中所示类似的具有

[0023] 广角合成FOV的合成3D TOF相机与传统上被设计为具有广角FOV的3DT0F相机进行比较。

[0024] 在讨论中,除非另行说明,修改本发明的实施例的特征的条件或关系特征的诸如 “基本上”和“大约”的形容词应被理解为条件或特征被定义在用于本申请的实施例的操作可接受的容差范围以内。

[0025] 图IA和IB中示出的3D TOF相机20包括能够控制以辐射光脉冲串来照亮相机 FOV 30以内的场景(未示出)的光源22。由光源22辐射的光脉冲示意性地由标有标记 24的方形“脉冲”来表示,并且与表示传播方向的上方箭头相关联。在参考光脉冲时,也使用标记M。鉴于光脉冲M可包括由合适的发光二极管(LED)提供的光和/或来自频谱任意部分的激光,光脉冲M通常是近红外(NIR)光脉冲。相机20包括由透镜40表示的光学系统,用于将来自光脉冲M的被场景中的要素反射回到相机的光成像到光电传感器50上。 透镜40具有光学中心42和光轴44,它们也分别是相机20的光学中心和光轴。光电传感器 50包括光敏像素52 (图1A)。光学系统还包括用于遮挡照相机使其挡板打开和关闭的快门 (未示出)。从由光源22辐射光脉冲串中的每个脉冲M以照亮场景时起经过预定的延迟, 快门将相机打开一短的曝光时间段以记录由场景中要素所反射的光,光到达相机并由透镜 40成像到光电传感器50上。相机记录的已成像的光用于确定来自光脉冲M的光从光源 22到要素并回到3D TOF相机20的往返需要多少时间。往返时间和光速用于确定要素到相机的距离。

[0026] 在图IA和IB的立体图和俯视图中,相机20的FOV 30被示意性地示为由边界线32来界定。边界线定义了确定金字塔形固定角度的平面,该角度限定并限制FOV的体积。 相机20仅对FOV 30的固定角度以内以及由此由边界线32定义的平面所限定的体积以内的点进行成像。连接边界线32、虚线35和36、以及圆37的线34被示为辅助可视化FOV 30 的固定角度。线34和圆37的位置不指示对FOV 30从相机20延伸多远的限制。界定边界线32和F0V30通常被理解为延伸到“无穷远”。

[0027] 定义FOV 30的大小和形状的固定角度等于光电传感器50对着透镜40的光学中心42的金字塔形固定角度。固定角度由光电传感器50的大小、形状以及透镜40的焦距 “f” (图1B)来确定。光电传感器通常具有矩形像素阵列,并且光电传感器50被示为具有长度V的垂直边讨和长度H的水平边55的矩形像素阵列。在相机的正常运行下,任意地, 认为使用垂直于地面(未示出)的垂直边M和平行于地面的水平边55来对相机定向。从光电传感器50的角延伸至透镜40的光学中心42的线段58(仅标出其中的某些以减少图中的混乱)定义了光电传感器50对着光学中心的固定角度,以及由此FOV 30的固定角度。 定义FOV 30的边界线32是线段58的延伸。

[0028] FOV 30在由虚线36定义的水平面中具有水平角度范围θ,该水平面与图IA所示的水平边55平行并且包括光轴44。(注意,在图IB的俯视图中,边界线32投影到虚线 36并与虚线36重合。)虚线36穿过透镜40的光学中心42,并与光电传感器50的垂直边 54 (图1Α)任选地相交于其中点。插图57示意性地示出了透镜40和光电传感器50的放大的视图,其中更清楚地示出线58、光电传感器50和透镜40的细节。角θ是线36之间的角度,并满足等式1) tan ( θ /2) = H/2f。

[0029] 图IB中示出FOV 30的“水平”视角θ、Η/2和f之间的几何关系。

[0030] FOV 30在由虚线35定义的包括光轴44并且与光电传感器50的垂直边M平行的平面中类似地具有垂直角度范围Φ。线35穿过透镜40的光学中心42,并与水平边55任选地相交于其中点。FOV 30的垂直视角Φ是线35之间的角度,并满足等式2) tan (Φ/2) =V/2f0

[0031] 场景的要素的图像的每单位面积上由相机20生成的入射到光电传感器50上的每单位时间的光能的量被称为来自要素的光电传感器的辐照度“1广。如果要素位于距离相机 “r”处,并且每单位面积、每单位时间发出通常称为“出射度(exitance)”的光能的量(“光的量”)Ie,则来自要素的光电传感器50的辐照度“I/’可被写为3) Ie = IeVji (D/2r)2[1/(f/ r)]2,其中D是透镜40的直径,并且“V”是渐晕因子。因子π (D/2r)2是透镜对着要素的固定角度。数量(f/r)是用于位于距离r的要素的相机的放大,并且(f/r)2是光电传感器50 上要素图像的面积相对于要素在垂直于光轴44的平面上的投影的面积的比率。记住,f# = f/D, Ie 的表达式变为 4) Ie = IeW (4f#2)。

[0032] 如果要素位于光轴44上且与相机20的距离为r,则渐晕因子V是等于从要素收集并在光电传感器50上成像的光的量除以透镜40可为要素收集并成像的光的最大量的比率。渐晕因子V小于或约等于1。它通常随着要素到光轴44的位移的增加和FOV视角的增加而降低。

[0033] 响应于来自要素的光的相机20的平均辐照度“7R’’通过使用与相机距离为r的 FOV 30中要素的全部可能位置的平均‘卞”代替V来确定,从而7r =IE7^/(4f#2)。比率 5) 7r/Ie = (π/4)(^/ί·#2)可被认为是对于位于相机FOV 30中与相机距离为r的任意处的要素的相机20的平均光收集效率。

[0034] 如果光电传感器50中的像素52具有面积“Apx”,并且来自相机FOV 30中已成像要素的入射到像素52上的光的量为“Ipx”,则平均

Figure CN102508391AD00081

将用于从入射光的给定量提供信号的像素52的“效率”用“k”来表示,并且将由像素52从来自要素的入射到像素的光生成的信号用“”来表示。例如,因子k可表示入射到像素上的每单位光能的由像素52生成的多个电子。则kApx为光电传感器中像素52的记录能力。对于已成像要素,像素 52 平均提供信号,6)

Figure CN102508391AD00082
Figure CN102508391AD00083

[0035] 因子

Figure CN102508391AD00084

是对相机的光获取敏感度(LAQ的度量。假设对于类似于 3D TOF相机20的3D TOF相机的不同配置,k是相同的,并且丢弃常数因子,ApxP/(f#2)可以合理地用作比较不同的3D TOF相机的光获取敏感度的比较性指标。根据其对角线尺寸 “dpx ”来书写面积Apx是方便的,并由此将光获取敏感度LAS定义为8)

Figure CN102508391AD00085

其中dpx以微米为单位。

[0036] 作为数值示例,与相机20类似的传统3D TOF任选地具有由等于62°的中等水平视角θ和等于77°的垂直视角Φ来表征的FOV 30。相机在具有水平尺寸(H)任选地等于3. 6mm和垂直尺寸(V)任选地等于4. 8mm的光电传感器50上对场景进行成像。 (3. 6mmX4. 8mm光电传感器传统上被称为1/3英尺=1/3”格式光电传感器,因为其对角线等于6mm,约为16mm的1/3,并且16mm对角线光电传感器被称为具有1”格式。16mm对角线被称为1”格式传感器是由于在具有等于16mm的有效成像传感器直径的CCD出现之前, 传统视频相机管具有用于成像的1”直径。)使用等式1)及水平视角θ =62°,或者等式 2)及垂直视角Φ =77°,相机透镜40的焦距f被确定为等于3mm,并且它任选地由最小 f#等于1.2来表征。

[0037] 用于使用3D TOF相机20以对场景进行成像并确定到场景中要素的距离的实际成像分辨率标准,任选地要求相机将表面区域在光电传感器50上成像为具有所需图像大小的图像,该表面区域(下文称为“分辨率片”)具有所需大小并且位于离相机所需工作距离之处。选择分辨率片的所需大小以定义用于3D TOF相机20所提供的距离测量的空间采样程度。为了使用3D TOF相机20使人与计算机进行交互,工作距离可以是Im(米),并且分辨率片任选的是边长为Icm的正方形。

[0038] 成像分辨率标准任选地要求光电传感器50上的分辨率片的图像总是完整地覆盖光电传感器中的至少一个像素52。该标准用于确保光电传感器50中的至少一个像素52 (图 2A)对来自要素的分辨率片大小区域的光具有最大可能的曝光,该要素位于工作距离并在光电传感器上成像。期望完整覆盖的像素响应于来自片大小区域的光而生成信号,该信号具有最优的SNR并由此用于提供对区域和要素的满意的距离测量。如果分辨率片的图像的对角线为像素52的对角线长度的两倍,则满足分辨率标准。对于3mm焦距的透镜40,具有边长等于15微米(μ)的像素52满足该标准。对于3. 6mmX4. 8mm尺寸的光电传感器50, 光电传感器包括240水平“行”和320垂直“列”的15 μ Χ15μ像素。

[0039] 对于上面给出的3D TOF相机20的数值规范,相机具有等于0. 81的渐晕因子以及

使用等式8)计算的等于约126的LAS(光获取敏感度)的值。实际上,针对相机规范,对于距相机20的等于约:¾的最大工作距离,光源22提供像素52可接受的辐照度,可控制该光源以辐射具有50%占空比及约2. 5瓦的平均光功率的光脉冲的突发。

[0040] 根据本发明的实施例,组合多个活动照明相机以提供具有广角FOV的合成活动照明相机。

[0041] 根据本发明的实施例,图2A和2B分别示意性地示出了合成广角3D TOF相机100 的立体图和俯视图,该相机包括两个任选地相同的类似于相机20 (图IA和1B)的组件相机 120,以及用于照亮相机所成像的场景(未示出)的光源122。组件相机提供带有合成FOV 130的合成3D TOF相机120,合成F0V130具有两倍于相机20的水平视角θ的水平视角 Θ。

[0042] 组件相机120被装载到支撑框架(未示出),其中它们的光电传感器50的垂直边 54基本上是平行的,并且相对于彼此旋转相机以便其各自的FOV 30 “相交”,并且它们的光轴44以基本等于组件相机的水平视角θ的角度相交于FOV共有的相交区域45。如果它们最接近点之间的距离小于所需的上限距离,则认为轴44相交。相交区域是包括最接近点的最小直径的范围。相交轴44的平面被定义为垂直于且平分连接最接近点的直线的平面。 相交轴44之间的角度是它们在其定义的平面上的投影之间的角度。

[0043] 最接近的所需上限距离是使用合成3D TOF相机100的应用程序可以接受的由组件相机120生成的图像的距离。如果垂直边之间的角度足够小以便使用合成3D TOF相机 100的应用程序可以接受由组件相机120生成的图像,则垂直边M被认为是基本上平行的。 实际上,确定最接近的上限距离和垂直边M相对于平行的最大可接受的偏差角度,以便使响应于由组件相机120提供的图像而生成的并且使用适当的图像处理算法处理的图像中的失真不会阻止对图像的使用。

[0044] 在本发明的实施例中,为了提供对由组件相机120提供的图像的平滑的缝合、对其各自的光电传感器50区域的高效使用并简化图像处理,最接近的上限距离小于像素52 边长的约20倍是有利的。例如,对于15μΧ15μ的像素52,光轴44的最接近距离小于或等于约300μ (0. 3mm)是有利的。任选地,最接近距离小于像素52边长的约15倍。在某些实施例中,最接近距离小于像素52边长的约10倍。

[0045] 类似地,在本发明的实施例中,垂直边M相对于平行的偏差的上限角度等于像素 52边长的约20倍除以光电传感器50的边长。对于15μ的像素52和3. 6mm X 4. 8mm尺寸的光电传感器50,偏差角度的上限任选地约等于5°。任选地,上限偏差角度等于2°。在本发明的某些实施例中,上限偏差角度等于1°。

[0046] 组件FOV 30在包括线101 (图2B)的平面中是彼此的镜像图像,线101平分光轴 44之间的角度并且垂直于它们的平面。组件FOV 30组合构成合成FOV 130,合成FOV具有水平视角© = 2 θ,以及与组件相机的垂直视角相等的垂直视角Φ (图2Α中未示出)。

[0047] 根据本发明的实施例,组件FOV 30的“相交”配置导致对组件FOV的高效缝合以提供大的、广角合成FOV 130,其中任选地,组件FOV仅沿着窄的、平面体积区域102重叠。 重叠体积被称为“缝102”并在图IB中示以阴影。缝102的宽度等于分隔组件相机20的光学中心42的距离Δ。任选地使距离Δ相对小以便缝102不会占据FOV 130的大部分。 例如,Δ可以小于或等于10cm。在某些实施例中,分隔距离Δ小于或等于5cm。

[0048] 注意,通过相机120可被捆扎(pack)在一起多接近来确定Δ的最小距离。最小的“捆扎”距离以及由此最小的△通常由相机120所包括的组件的大小来确定。在本发明的某些实施例中,相机120被安装在常见的外壳中,并且最小的捆扎距离可由透镜42的直径来确定。作为示例,透镜42可具有小至2毫米的直径,导致最小的捆扎距离和约等于或小于5毫米的最小Δ。

[0049] 不会被任一合成相机20成像的死区104在组件相机20的前方延伸。死区的体积及其在组件相机20前方延伸的距离随Δ降低而降低。在某些实施例中,确定分隔距离Δ 以便使死区的范围不会负面影响用于其旨在的应用程序的合成3D TOF相机100的令人满意的运行。例如,对于使用计算机与人交互,死区从连接组件相机120的光学中心42的线延伸约20cm的最大距离可能是有利的。

[0050] 注意到,两个组件相机120对位于缝102中的点进行成像,并且在本发明的实施例中,响应于组件相机为位于缝中的场景的要素所提供的距离,相对于彼此来对齐和/或校准相机。例如,对于位于缝102中离组件相机工作距离的要素,相机应提供基本上相等的距离。(在工作距离“WD”,缝102中同一要素到组件相机的距离之间的分数差小于(1/2) (Δ/ WD)2。该差通常将会非常小。例如,对于WD = IOOcm并且Δ = 5cm,差约为1毫米。)根据本发明的实施例,调整组件相机120相对于彼此的位置,或者补偿相机的未对准,从而使两个组件相机提供到缝102中同一要素的相同的距离。

[0051] 对于组件相机120,作为如上所述示例,响应于跟随每个光脉冲的曝光时间段的延迟时间来确定脉冲M的往返时间,校准相机120任选地包括相对于其他相机120的曝光时间段调整对一个相机120的曝光时间段的计时。在某些实施例中,调整曝光时间段之间的相对计时包括对曝光时间段进行同步。在某些实施例中,调整计时包括相对于其他相机的曝光时间段,延迟一个相机的曝光时间段。

[0052] 鉴于合成3D TOF相机100具有由水平视角θ是组件相机120的水平视角θ的两倍来表征的合成FOV 130,它保留了组件相机的焦距、f#、成像分辨率和LAS值。由于FOV 130具有基本上大至组件FOV 30两倍的体积,因此光源122有利地提供图IA和IB中所示相机20的光源22所提供的两倍的光功率。

[0053] 作为数值示例,假设组件FOV 30具有分别等于62°和77°的水平和垂直视角θ 和Φ,则合成FOV 130具有广水平视角θ =124°以及等于77°的垂直视角,并保持LAS值等于126。如果光源122提供两倍于光源22 (图IA和1Β)的光功率,则合成相机20中用于对放大的合成FOV 130中的要素进行成像的像素52将与用于对图IA和IB所示的“小"F0V 30中的要素进行成像的3D TOF相机20的像素52暴露于相同的发光级别。

[0054] 作为第二个数指示例,假设期望用于特定应用程序的3D TOF相机,该相机具有由约为140°的水平视角和约为90°的垂直视角来表征的广角放大F0V。进一步假设相机提供的图像将被处理以提供距离测量,其中空间采样程度约为0. 7cm及由此分辨率片的边长为 0. 7cm。

[0055] 根据本发明的实施例,与提供所需视角和空间分辨率的合成相机100类似的合成相机可包括,具有由约等于70°的水平视角和约等于90°的垂直视角来表征的FOV 30的组件相机120。任选地,每个组件相机包括具有480水平行和640垂直列的7. 5 μ X 7. 5 μ 的像素,并且所得水平和垂直尺寸H和V分别等于3. 6mm和4. 8_。组件相机可具有等于 2. 5mm的焦距f,f#任选地等于1. 3,以及等于0. 66的渐晕因子f。组件相机和合成3D TOF相机的要素LAS数等于约22。

[0056] 图3A示意性地示出了根据本发明的实施例的另一个合成3D TOF相机150的俯视图。

[0057] 合成3D TOF相机150包括合成3D TOF相机100 (图2A和2B)也包括的相同的组件相机120,并提供具有水平视角θ =2Θ的放大FOV 130。但是,在合成相机100 (图2Α 和2Β)中,相对于彼此旋转组件相机120以旋转其各自的光轴44和FOV 30,而在合成3D TOF相机150中,将组件相机彼此平行对齐。合成相机150包括用于每个组件相机120的棱镜,该棱镜旋转其各自的光轴44和FOV 30等于θ/2的角度以产生放大的FOV 130。

[0058] 根据本发明的实施例,提供具有与表征3D TOF相机的广角FOV类似的广角FOV的 3D TOF相机在技术上可能是困难的,诸如图2Α-图3Α所示的合成相机。

[0059] 例如,考虑与相机20 (图IA和1Β)类似地配置但具有FOV的传统3D TOF相机,该 FOV由与上面图2Α和2Β中所示3D TOF相机100所讨论的第一个数值示例中说明的相同的 124°广水平视角来表征。为了提供水平放大的124°视角F0V,传统广角3D TOF相机可包括光电传感器,该光电传感器具有大于给定用于相机20的示例性数值规范中所称的3. 6mm 的水平尺寸H(图1B)。具体而言,传统广角3D TOF相机中的光电传感器可以具有市场上可买到的1/2”标准格式(8mm对角线尺寸),并具有等于7. 3mm的水平H尺寸(图1B)以及等于3. 3mm的垂直尺寸V。使用将焦距f与水平视角θ相关的等式1)和光电传感器水平尺寸H,透镜40所需要的用于传统广角相机的焦距f等于2. 1mm。透镜将具有等于1. 8的 f#并且渐晕因子V = 0. 21。为了满足上面给出的用于合成相机100的数值示例中满足的相同的成像分辨率标准,光电传感器50中的像素52应具有等于10.4μ的边长。使用用于传统124°水平视角3D TOF相机的组件的上述值,传统相机将具有等于约23的LAS。

[0060] 传统相机的LAS值约为3D TOF相机100和150的LAS值126的1/6。对于相同的工作环境,传统广水平视角3D TOF相机需要对场景进行成像的光源,该光源传递的光功率是根据本发明的实施例的具有相同广水平视角以对场景成像的3D TOF相机所需的六倍。

[0061] 为了与根据本发明的实施例的上面给出的3D TOF相机的第二个数值示例进行比较,提供分别约等于140°和90°的水平和垂直视角的传统相机可以包括具有5 μ X5 μ的像素以及分别等于8. 5mm和3. 2mm的水平和垂直尺寸的光电传感器。透镜可具有约等于 1. 65mm的有效焦距,f#任选地等于2. 4,以及等于0. 15的所得渐晕因子圓。传统相机可具有约等于0. 65的LAS,其约为根据本发明的实施例的第二个数值示例所说明的对应的合成相机的LAS的1/34。

[0062] 在对合成相机100和150(图2A-3A)的以上描述中,合成相机中包括的组件相机 120的光轴44之间的角度等于θ,并且合成相机各自的放大FOV 130具有广视角θ = 2 θ。 但是,根据本发明的实施例,合成相机的广角FOV可以由合成相机的组件相机120的光轴44 之间的不同于组件相机的视角θ的场的角度来提供。

[0063] 图;3Β示意性地示出了根据本发明的实施例的合成相机170的俯视图,合成相机 170包括具有FOV视角θ及其各自光轴44之间的角度(θ+α)的两个组件相机120,作为示例,α大于0。合成相机170具有FOV 171,FOV 171具有视角θ = Q θ + α )。组件相机120的FOV重叠的缝172不再与合成相机100和150中的缝102相同是平面的,而是具有交叉部分,该交叉部分随着与合成相机170的距离而减少并在距离相机“Ζ”处消失。[0064] 而α的正数值提供了 FOV视角的可能有利的增加,图中示为阴影区域173的死区在合成相机的FOV 171中生成,任一组件相机120均不为其提供成像。死区173始于距离合成相机170的Z处,可通过表达式Z= A/2tan(a/2)来估计,其中Δ是组件相机 120的光学中心42之间的距离。对于小角度α,Z约等于Δ/α。

[0065] 通过将距离Z限制为大于合成相机170旨在提供连续的、不间断的成像所需的景深来任选地确定α的上限。例如,如果合成相机170旨在远至相机170达an的景深处提供不间断的成像,并且Δ等于2cm,则α的上限约等于0.6度。

[0066] 如果图3中α小于0,θ = (2 θ + α )自然小于2 θ,并且组件相机120的FOV重叠的缝的宽度将随着与组件相机170间的距离而增加。除非缝的增加的宽度是有利的,例如,用于可能提供组件相机120的增强的校准,否则对相机120的使用通常将是低效的。例如,相机可被替换为具有较小的光电传感器50的可能较便宜的相机。一般而言,α大于或等于0是有利的。任选地确定α的下限从而减轻组件相机120的使用中的低效。

[0067] 在以上描述中,根据本发明实施例的合成相机被示为包括具有相同FOV的相同的组件相机。但是,本发明的实施例不限于包括具有相同FOV的组件相机的合成相机。例如, 根据本发明实施例的合成相机可包括具有不同FOV的组件相机。图3C示意性地示出了合成相机180的俯视图,该合成相机180包括具有水平视角θ的第一组件相机181和具有水平视角β的第二组件相机182。组件相机被放置为它们各自的光轴以等于1/2( θ+β)的角度相交以提供具有广水平视角θ = (θ+β)的FOV 185。

[0068] 虽然在以上描述中合成相机被示为包括两个组件相机,但根据本发明的实施例的合成相机可包括两个以上的组件相机。作为示例,根据本发明的实施例,包括三个任选地相同的组件相机203的合成相机200被示意性地示出在图4的立体图中。每个组件相机203 包括具有垂直边M(图中仅标出其中的某些)的光电传感器50、光轴44和由水平视角θ 来表征的FOV 30。

[0069] 在合成相机200中,组件相机203被配置为它们的光轴44基本上是共面的,并任选地相交于同一相交区域205。如果三个光轴中任意两个的最接近点被包括在具有小于适合上限的直径的同一相交区域内,则认为光轴44相交在同一相交区域中。如果由光轴中的任意两个定义的平面之间的角度小于上限角度,则认为光轴基本上是共面的,对于该上限角度,相机提供的图像中的失真尚未严重到使图像对于合成相机200要适用的应用程序不可用。光电传感器50的垂直边M垂直于光轴44的平面。任意两个相邻光轴44之间的角度等于θ。因此,合成3D TOF相机具有合成FOV 207,该合成FOV具有水平视角θ = 3 θ。

[0070] 根据本发明的实施例,图5示意性地示出了包括四个任选地相同的组件相机221、 222、223和224的3D TOF相机220,组件相机分别具有光轴321、322、323和324以及具有水平视角θ和垂直视角Φ的FOV 30。在本发明的实施例中,全部光轴321、322、323和324 相交于同一相交区域230。相机被定位为光轴321和322之间的角度以及光轴323和3¾ 之间的角度都等于θ。类似地,相机被定位为光轴321和323之间的角度以及光轴322和 3¾之间的角度都等于Φ。因此,合成相机150具有由水平视角θ =2Θ和垂直视角Φ =2Φ来表征的合成FOV。

[0071] 在本申请的说明书和权利要求书中,动词“包括”、“包含”和“具有”及其组合中的每一个是用来指示该动词的一个或多个宾语不一定是该动词的一个或多个主语的组件、元素、或部分的完整列表。

[0072] 在本申请中作为示例提供了对本发明的各实施例的描述,而不旨在限制本发明的范围。所描述的各实施例包括不同特征,并非所有这些特征都是本发明的所有实施例所需的。某些实施例只利用了特征的某一些或特征的可能组合。本领域的技术人员会想到所描述的本发明的各实施例的变型以及本发明的各实施例包括在所描述的各实施例中注明的特征的不同组合。本发明的范围只由权利要求书来限定。

Claims (15)

1. 一种活动照明成像系统(100),包括:光源(122),用于照亮所述成像系统所成像的场景;以及第一和第二相机(120),每个相机包括具有光轴04)和光电传感器(50)的光学系统, 以及由包括所述光轴的平面中的视角θ来表征的视野F0V(30),所述光电传感器具有所述相机在其上对光进行成像的像素(54);其中,所述第一和第二相机(120)的所述光轴00)以基本上等于它们视角之和的一半的角度相交于它们的FOV(30)共有的相交区域05),以向所述成像系统提供放大 FOV(130),所述放大FOV在由所述相交的光轴04)所定义的平面中具有基本上等于所述相机的所述视角之和放大视角©。
2.如权利要求1所述的活动照明成像系统,其特征在于,所述第一和第二相机的所述视角是相等的。
3.如权利要求1所述的活动照明成像系统,其特征在于,所述第一和第二相机的所述视角是不相等的。
4.如权利要求1-3中任一项所述的活动照明成像系统,其特征在于,所述放大视角大于或等于90°。
5.如权利要求4所述的活动照明成像系统,其特征在于,所述放大视角大于或等于 120°。
6.如前述权利要求中任一项所述的活动照明成像系统,其特征在于,包括第三相机,其光轴与所述第二相机的所述光轴相交。
7.如权利要求6所述的活动照明成像系统,其特征在于,所述第二和第三相机的所述光轴定义的平面与所述第一和第二相机的所述光轴定义的平面基本上重合。
8.如权利要求7所述的活动照明成像系统,其特征在于,所述第二和第三相机的所述光轴以基本上等于所述第二和第三相机的视角之和的一半的角度相交。
9.如权利要求8所述的活动照明成像系统,其特征在于,所述第二和第三相机的所述光轴定义的平面与所述第一和第二相机的所述光轴定义的平面基本上垂直。
10.如权利要求9所述的活动照明成像系统,其特征在于,所述第二相机在所述第二和第三相机的所述光轴定义的平面中具有视角,并且所述第二和第三相机的所述光轴以基本上等于所述第二和第三相机的平面中所述第三相机的所述视角与所述第二相机的所述视角之和的一半的角度相交。
11.如前述权利要求中任一项所述的活动照明成像系统,其特征在于,对于所述系统对成像的光的敏感度的度量等于所述成像系统的平均渐晕因子乘以所述成像系统中像素的直径除以所述成像系统最小f#的商的平方的乘积,所述度量具有大于20的值。
12.如权利要求11所述的活动照明成像系统,其特征在于,所述度量具有大于50的值。
13.如权利要求12所述的活动照明成像系统,其特征在于,所述度量具有大于100的值。
14.如权利要求1-13中任一项所述的活动照明成像系统,其特征在于,所述相机是提供到它们所成像的场景中的轮廓的距离的3D相机。
15. 一种成像系统,包括:第一相机和第二相机,每个相机包括光轴以及由包括所述光轴的平面中的视角来表征的视野FOV ;其中,所述相机的所述光轴以基本上等于它们视角之和的一半的角度相交于它们的 FOV共有的相交区域。
CN 201110296188 2010-09-24 2011-09-23 广角视野的活动照明成像系统 CN102508391B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/889,479 2010-09-24
US12889479 US8988508B2 (en) 2010-09-24 2010-09-24 Wide angle field of view active illumination imaging system

Publications (2)

Publication Number Publication Date
CN102508391A true true CN102508391A (zh) 2012-06-20
CN102508391B CN102508391B (zh) 2014-11-19

Family

ID=45870249

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110296188 CN102508391B (zh) 2010-09-24 2011-09-23 广角视野的活动照明成像系统

Country Status (7)

Country Link
US (1) US8988508B2 (zh)
EP (1) EP2619987B1 (zh)
JP (1) JP5845266B2 (zh)
KR (1) KR101833576B1 (zh)
CN (1) CN102508391B (zh)
CA (1) CA2810892C (zh)
WO (1) WO2012040463A3 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106415391A (zh) * 2014-04-01 2017-02-15 高途乐公司 具有相邻视场的多相机阵列

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070127909A1 (en) * 2005-08-25 2007-06-07 Craig Mowry System and apparatus for increasing quality and efficiency of film capture and methods of use thereof
US8988508B2 (en) * 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
WO2013012335A1 (en) 2011-07-21 2013-01-24 Ziv Attar Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
US20150341619A1 (en) * 2013-01-01 2015-11-26 Inuitive Ltd. Method and system for light patterning and imaging
US9516248B2 (en) 2013-03-15 2016-12-06 Microsoft Technology Licensing, Llc Photosensor having enhanced sensitivity
US9733344B2 (en) 2013-11-25 2017-08-15 Electronics And Telecommunications Research Institute Laser radar apparatus and method for operating thereof
KR20160001906A (ko) 2014-06-27 2016-01-07 한국전자통신연구원 능동형 이미징 시스템 구현 방법 및 장치
US9916496B2 (en) 2016-03-25 2018-03-13 Zero Latency PTY LTD Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects
WO2018089266A1 (en) * 2016-11-10 2018-05-17 Magic Leap, Inc. Method and system for multiple f-number lens

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60172888A (en) * 1984-02-17 1985-09-06 Matsushita Electric Ind Co Ltd Wide angle television camera
US5532737A (en) * 1993-05-03 1996-07-02 Bell Communications Research, Inc. Camera arrangement with wide field of view
US5657073A (en) * 1995-06-01 1997-08-12 Panoramic Viewing Systems, Inc. Seamless multi-camera panoramic imaging with distortion correction and selectable field of view
JP2005099572A (ja) * 2003-09-26 2005-04-14 Chuo Electronics Co Ltd 広域撮影方法および表示方法
CN1679337A (zh) * 2002-08-28 2005-10-05 M7视觉智能有限合伙公司 一种视网膜阵列复合照相机系统
CN1727991A (zh) * 2004-07-28 2006-02-01 微软公司 凹形全景照相机系统
WO2009039367A1 (en) * 2007-09-21 2009-03-26 Playdata Systems, Inc. Object location and movement detection system and method

Family Cites Families (185)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
JPS60172888U (zh) 1984-04-20 1985-11-15
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
GB2185360B (en) 1986-01-11 1989-10-25 Pilkington Perkin Elmer Ltd Display system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (en) 1988-10-14 1990-08-07 David G Capper Control interface device
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
DE69229474T2 (de) 1991-12-03 2000-03-02 French Sportech Corp Interaktives videosystem zur beobachtung und zum training der leistungsfähigkeit einer person
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
DE69311364D1 (de) 1992-11-20 1997-07-10 Scuola Superiore Di Studi Universitari E Di Perfezionamento Sant Anna Einrichtung zur überwachung einer distalen physiologischen einheit zur verwendung als hochentwickelte schnittstelle für maschinen und rechner
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
WO1995034044A1 (en) * 1994-06-09 1995-12-14 Kollmorgen Instrument Corporation Stereoscopic electro-optical system for automated inspection and/or alignment of imaging devices on a production assembly line
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US6229913B1 (en) 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
EP1059970A2 (en) 1998-03-03 2000-12-20 Arena, Inc, System and method for tracking and assessing movement skills in multidimensional space
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US6152856A (en) 1996-05-08 2000-11-28 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
CN1168057C (zh) 1996-08-14 2004-09-22 挪拉赫梅特・挪利斯拉莫维奇・拉都包 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
US5937212A (en) * 1996-11-15 1999-08-10 Canon Kabushiki Kaisha Image pickup apparatus
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
WO1999012127A1 (en) 1997-09-02 1999-03-11 Dynamic Digital Depth Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Communications Research Laboratory, Ministry of Posts and Telecommunications Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6384819B1 (en) 1997-10-15 2002-05-07 Electric Planet, Inc. System and method for generating an animatable character
WO1999019828A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6738073B2 (en) 1999-05-12 2004-05-18 Imove, Inc. Camera system with both a wide angle view and a high resolution view
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6304285B1 (en) 1998-06-16 2001-10-16 Zheng Jason Geng Method and apparatus for omnidirectional imaging
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6316934B1 (en) 1998-09-17 2001-11-13 Netmor Ltd. System for three dimensional positioning and tracking
DE69936620D1 (de) 1998-09-28 2007-09-06 Matsushita Electric Ind Co Ltd Verfahren und Vorrichtung zum Segmentieren von Handgebärden
WO2000034919A1 (en) 1998-12-04 2000-06-15 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
DE69840608D1 (de) 1998-12-16 2009-04-09 3Dv Systems Ltd Selbsttastende photoempfindliche oberfläche
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
EP1231780A3 (en) 2001-02-07 2004-01-14 Sony Corporation Image pickup apparatus
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US6744569B2 (en) 2001-06-19 2004-06-01 Genex Technologies, Inc Method and apparatus for omnidirectional three dimensional imaging
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US7607509B2 (en) 2002-04-19 2009-10-27 Iee International Electronics & Engineering S.A. Safety device for a vehicle
US20030222977A1 (en) 2002-06-03 2003-12-04 Kazutora Yoshino Intelligent system and 3D virtual object generator
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7084904B2 (en) * 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
EP1631937B1 (en) 2003-06-12 2018-03-28 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US20050117015A1 (en) * 2003-06-26 2005-06-02 Microsoft Corp. Foveated panoramic camera system
WO2005041579A3 (en) 2003-10-24 2006-10-05 Matthew Bell Method and system for processing captured image information in an interactive video display system
CN100573548C (zh) 2004-04-15 2009-12-23 格斯图尔泰克股份有限公司 跟踪双手运动的方法和设备
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
EP2487624A1 (en) 2005-01-07 2012-08-15 Qualcomm Incorporated(1/3) Detecting and tracking objects in images
WO2006074310A3 (en) 2005-01-07 2008-02-21 Gesturetek Inc Creating 3d images of objects by illuminating with infrared patterns
WO2006074290A3 (en) 2005-01-07 2007-05-18 Gesturetek Inc Optical flow based tilt sensor
US7062006B1 (en) * 2005-01-19 2006-06-13 The Board Of Trustees Of The Leland Stanford Junior University Computed tomography with increased field of view
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
JP4686595B2 (ja) 2005-03-17 2011-05-25 ザ オハイオ ステート ユニバーシティー リサーチ ファウンデーション クリティカルポイント解析に基づくポーズ推定
JP5038296B2 (ja) 2005-05-17 2012-10-03 クアルコム,インコーポレイテッド 方位感受性信号出力
DE602005010696D1 (de) 2005-08-12 2008-12-11 Mesa Imaging Ag Hochempfindliches, schnelles Pixel für Anwendung in einem Bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
KR100693316B1 (ko) 2005-10-24 2007-03-05 (주) 지씨티인터내셔날 서로 다른 영역을 촬영하는 2대의 카메라가 일체화된차량용 후방 감시카메라와 이의 구동 제어를 위한 시스템
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US8059185B2 (en) * 2005-12-28 2011-11-15 Canon Kabushiki Kaisha Photographing apparatus, image display method, computer program and storage medium for acquiring a photographed image in a wide range
DE102006027836A1 (de) * 2006-06-16 2007-12-20 Carl Zeiss Microimaging Gmbh Autofokuseinrichtung für die Mikroskopie
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7749892B2 (en) * 2006-11-29 2010-07-06 International Business Machines Corporation Embedded nano UV blocking and diffusion barrier for improved reliability of copper/ultra low K interlevel dielectric electronic devices
US8224122B2 (en) 2006-12-15 2012-07-17 Microsoft Corporation Dynamic viewing of wide angle images
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US7852461B2 (en) 2007-11-15 2010-12-14 Microsoft International Holdings B.V. Dual mode depth imaging
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US20100110069A1 (en) 2008-10-31 2010-05-06 Sharp Laboratories Of America, Inc. System for rendering virtual see-through scenes
EP2621178A1 (en) * 2009-01-19 2013-07-31 Minoru Inaba Stereoscopic video imaging display system
US8570423B2 (en) * 2009-01-28 2013-10-29 Hewlett-Packard Development Company, L.P. Systems for performing visual collaboration between remotely situated participants
JP2010206643A (ja) 2009-03-04 2010-09-16 Fujifilm Corp 撮像装置、方法およびプログラム
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US8988508B2 (en) * 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US9823339B2 (en) * 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9720089B2 (en) * 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60172888A (en) * 1984-02-17 1985-09-06 Matsushita Electric Ind Co Ltd Wide angle television camera
US5532737A (en) * 1993-05-03 1996-07-02 Bell Communications Research, Inc. Camera arrangement with wide field of view
US5657073A (en) * 1995-06-01 1997-08-12 Panoramic Viewing Systems, Inc. Seamless multi-camera panoramic imaging with distortion correction and selectable field of view
CN1679337A (zh) * 2002-08-28 2005-10-05 M7视觉智能有限合伙公司 一种视网膜阵列复合照相机系统
JP2005099572A (ja) * 2003-09-26 2005-04-14 Chuo Electronics Co Ltd 広域撮影方法および表示方法
CN1727991A (zh) * 2004-07-28 2006-02-01 微软公司 凹形全景照相机系统
WO2009039367A1 (en) * 2007-09-21 2009-03-26 Playdata Systems, Inc. Object location and movement detection system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
丁津津等: "基于TOF技术的3D相机应用研究综述", 《仪器仪表学报》, vol. 31, no. 8, 31 August 2010 (2010-08-31) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106415391A (zh) * 2014-04-01 2017-02-15 高途乐公司 具有相邻视场的多相机阵列

Also Published As

Publication number Publication date Type
KR20130114100A (ko) 2013-10-16 application
JP2013544455A (ja) 2013-12-12 application
CN102508391B (zh) 2014-11-19 grant
KR101833576B1 (ko) 2018-02-28 grant
CA2810892A1 (en) 2012-03-29 application
EP2619987A2 (en) 2013-07-31 application
WO2012040463A2 (en) 2012-03-29 application
EP2619987B1 (en) 2017-09-20 grant
US8988508B2 (en) 2015-03-24 grant
EP2619987A4 (en) 2014-08-27 application
WO2012040463A3 (en) 2012-06-07 application
CA2810892C (en) 2017-11-07 grant
US20120075427A1 (en) 2012-03-29 application
JP5845266B2 (ja) 2016-01-20 grant

Similar Documents

Publication Publication Date Title
US7176960B1 (en) System and methods for generating spherical mosaic images
US7372642B2 (en) Three-channel camera systems with non-collinear apertures
US20100007718A1 (en) Monocular three-dimensional imaging
US20040004727A1 (en) Three-dimensional shape measuring method, and three-dimensional shape measuring apparatus
US20070188769A1 (en) Three-channel camera systems with collinear apertures
US20080013943A1 (en) Monocular three-dimensional imaging
US20100045774A1 (en) Solid-state panoramic image capture apparatus
CN1735789A (zh) 测距设备
JP2012509464A (ja) 六自由度計測装置及び方法
WO2005110186A2 (en) Omnidirectional and forward-looking imaging device
JP2009163179A (ja) 撮影装置及びその制御方法
JPH07174536A (ja) 3次元形状測定装置
JP2009534969A (ja) 光学走査プローブ
US20130188022A1 (en) 3d zoom imager
US20100016662A1 (en) Radial Scanner Imaging System
US20060114966A1 (en) Device for contact-free measurement of temperature
US20060033985A1 (en) Multi-directional viewing and imaging
US20040163266A1 (en) Surveying instrument
US4494868A (en) Rangefinder device with focused elongated light source
JPH11194018A (ja) 被写体情報測定装置
JP2002229138A (ja) 撮像装置
JP2005249723A (ja) 温度分布を含む画像の出力装置およびその制御方法
WO2009102445A2 (en) Radial scanner imaging system
WO2013165689A1 (en) Ophthalmic wavefront sensor operating in parallel sampling and lock-in detection mode
JPH08179223A (ja) 画像観察装置及びこれを用いた両眼画像観察装置

Legal Events

Date Code Title Description
C06 Publication
C10 Entry into substantive examination
C14 Grant of patent or utility model
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150423

C41 Transfer of patent application or patent right or utility model