CN102681293B - 具有折射光学元件的照明器 - Google Patents

具有折射光学元件的照明器 Download PDF

Info

Publication number
CN102681293B
CN102681293B CN201210056397.7A CN201210056397A CN102681293B CN 102681293 B CN102681293 B CN 102681293B CN 201210056397 A CN201210056397 A CN 201210056397A CN 102681293 B CN102681293 B CN 102681293B
Authority
CN
China
Prior art keywords
light
visual field
optical axis
irradiance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210056397.7A
Other languages
English (en)
Other versions
CN102681293A (zh
Inventor
A·佩尔曼
D·科恩
G·叶海弗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN102681293A publication Critical patent/CN102681293A/zh
Application granted granted Critical
Publication of CN102681293B publication Critical patent/CN102681293B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • G03B2215/0589Diffusors, filters or refraction means
    • G03B2215/0592Diffusors, filters or refraction means installed in front of light emitter

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及具有折射光学元件的照明器。提供了一种照明系统,其具有补偿光电传感器所捕捉的物体的图像的辐照度的依赖性的折射光学元件。折射光学元件可以将光结构化,使得该相机的视野内的相同球面处的相似物体在相机光电传感器上具有相同的辐照度。该照明系统可以包括图像传感器、光源以及折射光学元件。该图像传感器具有捕捉视野中的物体的图像的光电传感器。由光电传感器所捕捉的具有给定出射度的物体的图像的辐照度可以依赖于同该图像传感器的光轴的角位移。折射光学元件接结构化来自光源的光以照明视野以补偿辐照度对同光轴的角位移的依赖性。

Description

具有折射光学元件的照明器
技术领域
本发明涉及具有折射光学元件的照明器。
背景技术
相机光电传感器所收集和成像的电磁辐射(例如光)的量可能依赖于物体在相机的视野(FOV)中的位置。简言之,处于相机的光轴上的物体可能在其他因素都相同的情况下在该相机的光电传感器看来比离轴的物体更明亮。术语“辐照度”统指入射到诸如光电传感器之类的表面上的电磁辐射。术语“辐射出射度(exitance)”或“辐射发射度(emittance)”统指从物体射出(例如,反射)的电磁辐射。辐照度以及出射度可以每秒针对每单位面积进行测量。对于相对于相机的光轴具有角位移“θ”的物体而言,辐照度一般而言可以按cos4θ减小。
对于各种应用而言可能有利的是,处于由相机成像的场景中的物体与角位移θ无关地在相机光电传感器上具有基本上相同的辐照度。例如,飞行时间(TOF)三维(3D)相机通过对该相机发射的光传播到该相机所成像的场景中的物体并回到该相机要花费多少时间进行计时来确定与该物体相距的距离。对于一些系统而言,照明系统以非常短的光脉冲将光发射到物体。相机对被物体反射并且被光电传感器收集的光进行成像以确定光的往返传播时间。精确的距离测量依赖于与光电传感器所捕捉的物体的图像相关联的辐照度。此外,精确度可以随着辐照度上升而改善。
发明内容
提供了一种照明系统,其具有补偿光电传感器所捕捉的物体的图像的辐照度的依赖性的折射光学元件。具有给定出射度的物体的图像的辐照度可以依赖于同光轴的角位移。折射光学元件可以用在诸如飞行时间(TOF)相机之类的成像设备中。折射光学元件可以将光结构化,使得该相机的视野内的相同球面中的相似物体在相机光电传感器上具有相同的辐照度。
一个实施例是一种包括图像传感器、光源以及折射光学元件的照明系统。该图像传感器具有捕捉视野中的物体的图像的光电传感器。由光电传感器所捕捉的具有给定出射度的物体的图像的辐照度依赖于同该图像传感器的光轴的角位移。折射光学元件接收来自光源的光,并且将该光结构化以照射视野以补偿辐照度对同光轴的角位移的依赖性。
一个实施例是一种包括图像传感器、光源、准直器以及折射漫射器的深度相机系统。光电传感器捕捉视野中的物体的图像。准直器将来自光源的光准直化。折射漫射器接收来自光源的光并且根据1/cos4θ将视野内的光结构化,其中θ是同该图像传感器的光轴的角位移。该深度相机系统还具有用于基于光电传感器所接收的光来生成深度图像的逻辑。
一个实施例是一种用于生成深度图像的方法,该方法包括以下步骤。使用折射漫射器将光折射到视野中的物体上。在具有光轴的光电传感器处捕捉从该视野中的物体反射的光。由该光电传感器所捕捉的具有给定出射度的物体的图像的辐照度依赖于同该光轴的角位移。折射该光包括:结构化该光以补偿辐照度对同该光轴的角位移的依赖性。基于所捕捉的光生成深度图像。
提供本发明内容以便以简化形式介绍将在以下的具体实施方式中进一步描述的一些概念。本发明内容并不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于限定所要求保护的主题的范围。
附图说明
在附图中,相同编号的元件彼此对应。
图1示出了图像相机组件内的图像传感器的一个实施例。
图2A示出了图像相机组件内的照明器的一个实施例。
图2B示出了由照明器的一个实施例创建的照明强度。
图3A描绘了具有一对透镜阵列的折射漫射器的侧视图。
图3B描绘了图3A的透镜阵列之一的前视图。
图3C描绘了基于微透镜阵列的折射漫射器的侧视图。
图3D示出了透镜的位置与图3A相比具有不同取向的一个实施例。
图3E示出了两个透镜阵列处于单个透镜的相对侧的一个实施例。
图4A描绘了准直器的一个实施例。
图4B描绘了准直器的另一实施例。
图5描绘了运动捕捉系统的示例性实施例。
图6描绘了图5的运动捕捉系统的示例性框图。
图7是用于生成深度图像的过程的一个实施例的流程图。
图8描绘了可以在图5的运动捕捉系统中使用的计算环境的示例框图。
图9描绘了可以在图5的运动捕捉系统中使用的计算环境的另一个示例框图。
具体实施方式
公开了一种具有折射光学元件的照明器。该照明器可以用在相机或具有光电传感器的其他设备中,或者与其结合使用。该折射光学元件可以被配置为以补偿光电传感器所捕捉的图像的辐照度与角位移相关的依赖性方式来照射该相机的视野(FOV)。具体而言,具有相同出射度的物体的图像的辐照度可以依赖于该物体同光轴的角位移。在一些实施例中,折射光学元件是折射漫射器,其将光结构化为随着同相机的光轴的角位移增加而具有增加的强度。增加的强度可以补偿辐照度对角位移的依赖性。
图1示出了图像相机组件22内的图像传感器26的一个实施例。相机传感器26包括光电传感器5和聚焦透镜7。注意,图像相机组件22还可以包括可以照明FOV的照明器。图2A示出了图像相机组件22内的照明器24的一个实施例。注意,照明器24和图像传感器26二者都可以存在于同一图像相机组件22中。然而,不绝对要求照明器24和图像传感器26被容纳在同一设备内。出于讨论的目的,将首先讨论图1的图像传感器26。在一些实施例中,图像相机组件22是深度相机系统的一部分,该深度相机系统的示例将在下面予以描述。然而,图像相机组件22可以使用采用光电传感器5的其他设备。
相对于其他附图,图1不一定是以正确比例示出的。一般而言,从FOV中的物体15a、15b所反射的光由透镜7聚焦到光电传感器5上。为了便于演示,FOV中的与相机组件的光轴9垂直的平面表面3被称为“FOV成像平面”。类似地,相机组件22的FOV中的中心处于相机组件22的光学中心处的球面11被称为“FOV成像球面。”
如所述那样,物体的辐照度可以依赖于其在FOV中的位置。例如,物体15a被描绘为处于光轴9上,而物体15b被描绘为离开光轴大致角度θ。然而,二者都处于球面11上,并且因此与相机组件22相距相同的距离。如果为辩论起见,物体15a和15b的出射度是相同的,则由光电传感器5捕捉的物体15b的图像的辐照度可能显著低于物体15a的图像的辐照度。换言之,对于光电传感器5而言,物体15b的图像将比物体15a的图像的强度更低。辐照度可以随着同光轴9的角位移θ而下降。在一些情况下,该下降可以是大约cos4θ。
在FOV成像球面11的左边示出了表示R(θ)=cos4θ的虚线曲线61。如所述那样,辐照度的下降可以是大约cos4θ,其中θ是相对于光轴9的角位移。标签“下降的辐照度”是为了表示在光电传感器5处捕捉的物体的图像在远离光轴9的情况下具有下降的辐照度。因此,下降的辐照度是参照光电传感器5所捕捉的图像而言的。因此注意,下降的辐照度不是参照FOV中的物体15的出射度而言的。
对于各个应用有利的可能是,实际上具有相同出射度的物体与同光轴9的角位移无关地在相机光电传感器上具有基本上相同的辐照度。例如,飞行时间(TOF)三维(3D)相机通过对该相机发射的光传播到该相机所成像的场景中的特征并回到该相机要花费多少时间进行计时来提供与该特征相距的距离。对于一些技术而言,飞行时间实际上基于光的强度,这将在下面的讨论中予以解释。
为了对光传播进行计时,该照明系统可以将多个非常短的光脉冲发射到FOV中。这些光脉冲从物体15反射离开并且回到图像传感器26,该图像传感器26在某个时间段内捕捉该光。光电传感器5可以包括像素阵列,每个像素都生成光强值。每个像素都表示FOV中的不同位置。然后,光脉冲的飞行时间可以基于每个像素处的光强来确定。由于飞行时间依赖于光强,能够精确地补偿辐照度对同光轴9的角位移的依赖性可以允许精确得多地确定与物体15相距的距离。
因此,精确确定到物体15的距离测量可能依赖于与光电传感器5所捕捉的物体的图像相关联的辐照度。
此外,距离测量的精确确定可能随着辐照度的增加而改善。
此外,能够用较高的光强来照明FOV可以改善距离确定。
如前面所暗示的那样,对于3D TOF相机的应用(比如涉及姿势识别、和/或将计算机与同时在运行在该计算机上的相同计算机游戏中交互的人对接的应用)而言,通常有利的可能是,处于相机的FOV中的相同平面3或球面11中的物体在相机光电传感器上具有相同的辐照度。
为了补偿辐照度与同光轴9的角位移的依赖性,照明系统可以被配置为随着同光轴9的角位移θ增加而增加照明。结果,同光轴9具有更大角位移的物体15可以被用更强的光照明,使得它们具有更大的出射度。作为一个示例,照明器可以用比物体15a更大的光强来照明物体15b以增加物体15a的出射度。在一个实施例中,照明系统用具有与1/cos4θ基本上成比例的强度的光来照明相机的FOV。因此,照明系统可以补偿可能与cos4θ成比例的辐照度的前述依赖性,其中θ是同光轴9的角位移。然而,注意,在FOV之外,光强可能是非常低的,使得能量未被浪费。
图2A示出了具有照明器24的图像相机组件22的一个实施例。在该实施例中,照明器24具有光源24、准直器25、以及折射光学元件40。在一些实施例中,折射光学元件40也可以被称为折射漫射器。折射光学元件40可以接收来自光源23的光,并且将该光结构化以照明FOV以补偿辐照度对同光轴的角位移的依赖性。也就是说,折射光学元件40可以随着对象同光轴(比如图1的光轴9)的角度增加而补偿光电传感器5所捕捉的物体图像的辐照度的依赖性。
在图2A的实施例中,准直器25处于折射光学元件40与光源24之间。然而,折射光学元件40可以位于光源24与准直器25之间。尽管准直器25和折射光学元件40在图2的实施例中被描绘成分开的物理元件,但是在其他实施例中,它们形成一个集成的组件。尽管未在图2A中明确示出,但是图像相机组件22可以具有光电传感器(比如图1的光电传感器5)。
曲线62表示照明器24所提供的光的强度。曲线62旨在示出:照明器24所提供的光的强度随着同照明轴109的角位移增加而增加。例如,FOV内的最低光强可以沿着照明轴109。光强可以在FOV内随着同照明轴109的角位移更大而增加。因此,物体15b可以被用比物体15a更大的强度照明。因此,物体15b可以在其他因素相等的情况下具有比物体15a更大的出射度。然而,注意,在FOV之外,光强可能是非常低的,使得能量未被浪费于照明不必要的地方。作为一个示例,折射光学元件40可以具有约为95%的光效率。
图2B示出了与同光轴的角位移有关的相对照明强度的图形化表示。该强度可以是针对与照明器24相距某个任意距离的球面11而言的。在该示例中,FOV的范围可以是从-30到+30度。在该范围内,光强可以为大致1/cos4θ。然而,在该范围之外,光强可以非常迅速地下降。注意,FOV之外的光下降仅仅是一个示例,并且相对照明强度可以在FOV之外具有显著不同的形状。
再次参考图2A,照明器24被配置为照明FOV以为在FOV中位于FOV成像球面11上的物体的图像补偿辐照度对角位移θ的依赖性。在FOV成像球面11的左边示出了表示R(θ)=cos4θ的虚线曲线61。曲线61还参照图1予以示出和讨论。如所述那样,辐照度的下降可以是大约cos4θ,其中θ是相对于光轴9的角位移。
接着将讨论折射光学元件40的某个示例。在一个实施例中,折射漫射器40包括一对透镜阵列43。图3A描绘了具有一对透镜阵列43的折射漫射器40的侧视图。图3B描绘了图3A的透镜阵列43之一的前视图。每个透镜阵列43都具有透镜42。作为一个示例,透镜42可以直径为大约几百微米,然而,透镜42可以具有更大或更小的直径。透镜42还可以被称为小透镜(lenslet)。
现在参考图3A,折射光学元件40可以包括两个透镜43a、43b,每个透镜都容纳透镜42的一个阵列。经准直化的光束在透镜43a处被接收并且穿过透镜43a中的小透镜42。在该实施例中,小透镜42被描绘为具有凸面,但是诸如凹进之类的其他选项是可能的。在被透镜43a中的小透镜42折射以后,光线在进入透镜43b中的小透镜42以前穿过间隙。该间隙可以是气隙,但是该间隙可以由气体以外的物质形成。然后,光线传入透镜43b上的小透镜42的凸面中。因此,该光线可以再次被折射。然后,该光线从透镜43b中传出。两个示例性光线被示为从透镜43b发散。如上所述,折射光学元件40可以以补偿辐照度对角位移的依赖性的方式来将光结构化。在一些实施例中,折射光学元件40可以将光漫射得使得其强度随着同照明轴的角位移更大而更高。然而,在FOV之外,光强可以显著地降低,使得能量未被浪费。
现在参考图3B,一个透镜43的前视图示出了:在该实施例中,透镜42的阵列可以具有矩形形状。然而,其他形状是可能的。如上所述,透镜42的一个表面可以具有凸出形状。透镜42的相对的表面可以具有多种形状。在一个实施例中,该相对的表面是基本上平坦的。
注意,透镜42不需要全部都为相同的曲率、大小和/或形状。在一些实施例中,阵列中的透镜42具有多种不同的曲率。因此,不同的小透镜42可以以不同的角度折射光。在一些实施例中,阵列中的透镜42具有多种不同的形状。例如,一些小透镜42可能为矩形的,其他为三角形的,等等。在一些实施例中,阵列中的透镜42具有多种不同的大小。图3C描绘了其中透镜42具有不同曲率以及不同大小的折射光学元件40的一个实施例。图3C中的透镜42可以直径为几十微米,然而,透镜42可以具有更大或更小的直径。图3C中的透镜42可以被称为微透镜。在一个实施例中,照明强度是通过选择合适的多个透镜曲率、大小和/或形状来创建的。注意,可以使用这些或其他属性中的一个或多个来生成所期望的照明强度谱。
图3A示出了:一个阵列41的透镜42朝向另一阵列41的透镜42。然而,其他配置是可能的。例如,可能如图3C中那样仅仅存在透镜42的单个阵列。在这种情况下,折射光学元件40可以看上去更像透镜43a或43b任一。而且,可以存在小透镜的两个以上的阵列41。例如,可能存在三个阵列41、四个阵列41、等等。
另一可能的变型方案是颠倒透镜43a、43b的位置。图3D示出了其中透镜43a、43b的位置与图3A相比具有不同取向的一个实施例。图3E示出了其中透镜42的两个阵列41处于单个透镜43的相对侧的一个实施例。
图4A和4B描绘了照明器24的两个其他实施例。每个照明器24都具有光源23、折射光学元件40以及准直器25。在图4A中,在设备的输入处可以存在折射光学元件40,该折射光学元件40折射来自光源23的非准直化的光。准直器25通过内反射将光准直化。该净效应是产生经结构化的光输出,该光输出补偿在此所述的辐照度的依赖性。从准直器25内部的光束可以得知,一些光束被折射光学元件40向准直器25的内壁折射,并且可以从准直器25的内壁反射离开。这些经内反射的光束可以用于将光准直化。其他光束可以被折射光学元件40折射并穿过准直器25,而没有进一步的反射。如果期望对光束进行其它折射以合适地结构化光,则该设备可以在输出侧具有透镜42。
图4B的实施例具有在输出处具有微透镜阵列的准直器25。准直器25可以接收来自光源23的非准直化的光。因此,到光到达折射光学元件40的时间为止,该光可能已经被准直化。在该实施例中,折射元件40中的微透镜不是大小统一的。也就是说,一些微透镜比其他微透镜更大,而另一些更小。而且,这些微透镜具有彼此不同的曲率。因此,微透镜的折射率可以彼此不同。注意,大小和/或曲率的模式可以是规则模式或者可以以某种方式为随机或不规则的。从图4B中可以得知,该模式可以是不规则的。
图3-4的示例性折射光学元件是出于图解说明的目的而呈现的。可以使用大量其他配置。一般而言,折射光学元件40可以被配置为将来自将准直化的射束26的光进行分布,使得来自该射束的非常少的光传播到FOV之外,并且FOV中的光的强度反比于为FOV中的物体实现的辐照度对所述物体的角位移的依赖性。
如上所述,对于3D TOF相机的应用(比如涉及姿势识别、和/或将计算机与同时在运行在该计算机上的相同计算机游戏中交互的人对接的应用)而言,有利的可能是,处于相机的FOV中的相同平面或球面中的物体在相机光电传感器上具有相同的辐照度。
在一些实施例中,折射漫射器40用在运动捕捉系统10中。运动捕捉系统获取关于物理空间中的人体或其他物体的位置及运动的数据,并且可以使用该数据作为计算系统中的应用程序的输入。可以有许多应用,例如用于军事、娱乐、体育和医学目的。例如,可以将人的运动映射到三维(3-D)人骨架模型,并用于创建动画化的人物或化身。运动捕捉系统可包括包含使用可见和不可见(例如,红外)光的系统在内的光学系统,运动捕捉系统使用相机来检测视野中的人的存在。通常,运动捕捉系统包括照明视野的照明器、以及感测来自视野的光以形成图像的图像传感器。
图5描绘了运动捕捉系统10的示例实施例,其中,人8如在用户的家中与应用程序进行交互。运动捕捉系统10包括显示器196、深度相机系统20、以及计算环境或装置12。深度相机系统20可包括图像相机组件22,其具有诸如红外线(IR)发射器之类的照明器24、诸如红外相机之类的图像传感器26、以及红-绿-蓝(RGB)相机28。人8,也被称为用户或玩家,站在深度相机的视野6内。线2和4表示视野6的边界。
照明器24可以将该光结构化,使得光强随着同光轴9的角位移增加而增加。准直器24可以如已经讨论的那样将该光结构化为使得补偿辐照度对角位移的依赖性。注意,光强可以在FOV 30之外非常低。在该示例中,光轴9与图像传感器26对准。照明器24可以具有不一定精确地与光轴9对准的照明轴(图5中未示出)。
在此示例中,深度相机系统20以及计算环境12提供应用程序,其中,显示器196上的化身197追踪人8的移动。例如,当人抬起手臂时,化身可以抬起手臂。化身197站在3-D虚拟世界的公路198上。可以定义笛卡儿世界坐标系,其包括:沿着深度相机系统20的焦距例如水平地延伸的z轴;垂直地延伸的y轴;以及侧向地且水平地延伸的x轴。注意,因为显示器196在y轴方向垂直地延伸,且z轴从深度相机系统垂直于y轴和x轴并平行于用户8所站立的地面地伸出,附图的透视被修改为简化。
一般而言,运动捕捉系统10被用来识别、分析、和/或跟踪一个或多个人目标。计算环境12可包括计算机、游戏系统或控制台等等,以及执行应用的硬件组件和/或软件组件。
深度相机系统20可包括被用来在视觉上监视一个或多个诸如人8之类的人的相机,以便可以捕捉、分析、以及跟踪由人执行的姿势和/或移动,以在应用程序内执行一个或多个控制或动作,如动画化化身或屏幕上人物或选择用户界面(UI)中的一个菜单项。
运动捕捉系统10可以连接到诸如显示器196之类的视听设备,例如,电视机、监视器、高清晰度电视机(HDTV)等等,或者甚至向用户提供视觉和音频输出的墙或其他表面上的投影。还可以经由单独的设备来提供音频输出。为驱动显示器,计算环境12可包括提供与应用相关联的视听信号的诸如图形卡之类的视频适配器和/或诸如声卡之类的音频适配器。显示器196可以通过例如S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等等连接到计算环境12。
可以使用深度相机系统20来跟踪人8,以使得用户的姿势和/或移动被捕捉并用于动画化化身或屏幕上人物,和/或被解释为对正在由计算机环境12执行的应用程序的输入控制。
人8的一些移动可被解释为可对应于除了控制化身之外的动作的控制。例如,在一个实施方式中,玩家可以使用运动来结束、暂停或保存游戏,选择级别,查看高分,与朋友进行交流等等。玩家可以使用移动来从主用户界面中选择游戏或其他应用,或以别的方式导航选项菜单。如此,可以有人8的全套运动可用,可使用它们,并以任何合适的方式分析它们,以与应用程序进行交互。
运动捕捉系统10还可以用于将目标移动解释成处于游戏或旨在娱乐和休闲的其他应用的领域之外的操作系统和/或应用控制。例如,操作系统和/或应用程序的实质上任何可控方面都可以由人8的移动来控制。
图6描绘了图5的运动捕捉系统10的示例性框图。深度相机系统20可以被配置为通过任何合适的技术捕捉带有深度信息(包括可以包括深度值的深度图像)的视频,这些技术包括例如飞行时间、结构化光、立体图像等等。深度相机系统20可将深度信息组织为“Z层”,即可与从深度相机沿其视线延伸的Z轴垂直的层。
深度相机系统20可包括图像相机组件22,该图像相机组件22捕捉物理空间中的场景的深度图像。深度图像可包括所捕捉的场景的二维(2-D)像素区域,其中2-D像素区域中的每一像素都可具有表示与图像相机组件22的直线距离的相关联的深度值,从而提供3-D深度图像。
图像相机组件22可包括诸如红外线(IR)发射器24之类的照明器24、诸如红外相机之类的图像传感器26、以及红-绿-蓝(RGB)相机28,它们可以用于捕捉场景的深度图像或者为其他应用提供附加的相机。照明器24可以被配置为补偿图像传感器26所捕捉的物体的辐照度的依赖性。因此,照明器24可以具有诸如、但不限于此处任何示例的折射光学元件40。
通过红外发射器24和红外像机26的组合来形成3-D深度照像机。例如,在飞行时间分析中,照明器24可以将红外光发射到物理空间上,并且图像传感器26检测从物理空间中的一个或多个目标和物体的表面反向散射的光。在某些实施方式中,可以使用脉冲式红外光,从而可以测量出射光脉冲和相应的入射光脉冲之间的时间差并将其用于确定从深度相机系统20到物理空间中的目标或物体上的特定位置的物理距离。可将入射光波的相位与出射光波的相位进行比较来确定相移。然后可以使用该相移来确定从深度相机系统到目标或物体上的特定位置的物理距离。
也可使用飞行时间分析,通过经由包括例如快门式光脉冲成像的各种技术来分析反射光束随时间的强度变化以间接地确定从深度相机系统20到目标或物体上的特定位置的物理距离。
在另一示例实施方式中,深度相机系统20可使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即,被显示成诸如网格图案或条纹图案等已知图案的光)可以通过例如照明器24被投影到场景上。在落到场景中的一个或多个目标或物体的表面上以后,作为响应,图案可以变为变形的。图案的这种变形可由例如图像传感器26和/或RGB相机28来捕捉,然后可被分析以确定从深度相机系统到目标或物体上的特定位置的物理距离。
深度相机系统20还可以包括话筒30,其包括例如接收声波并将其转换成电信号的换能器或传感器。另外,话筒30可用于接收也可由人提供的诸如声音之类的音频信号,以控制可由计算环境12运行的应用程序。音频信号可包括人的口声,如说的话、口哨声、喊声及其他发声,以及非口声,如掌声或跺脚。
深度相机系统20可包括与3-D深度相机22进行通信的处理器32。处理器32可包括可执行指令的标准化处理器、专用处理器、微处理器等,这些指令可包括例如用于接收深度图像的指令;用于基于深度图像来生成体元网格的指令;用于移除体元网格中所包括的背景以隔离与人类目标相关联的一个或多个体元的指令;用于确定被隔离的人类目标的一个或多个肢端的位置或定位的指令;用于基于一个或多个肢端的位置或定位来调整模型的指令;或任何其他合适的指令,下面将对它们进行更详细的描述。
深度相机系统20还可以包括存储器组件34,该存储器组件34可以存储可以由处理器32执行的指令,以及存储由3-D像机或RGB像机捕捉到的图像或图像的帧,或任何其他合适的信息、图像等等。根据一个示例实施方式,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘或任何其他合适的有形计算机可读存储组件。存储器组件34可以是经由总线21与图像捕捉组件22和处理器32通信的单独的组件。根据另一实施例,存储器组件34可被集成到处理器32和/或图像捕捉组件22中。
深度相机系统20可以通过通信链路36与计算环境12进行通信。通信链路36可以是有线和/或无线连接。根据一个实施方式,计算环境12可以经由通信链路36向深度相机系统20提供时钟信号,该时钟信号指出何时从位于深度相机系统20的视野中的物理空间捕捉图像数据。
另外,深度相机系统20可以通过通信链路36向计算环境12提供深度信息和由例如图像传感器26和/或RGB相机28捕捉到的图像,和/或可以由深度相机系统20所生成的骨架模型。然后,计算环境12可以使用模型、深度信息、以及捕捉到的图像来控制应用程序。例如,如图2所示,计算环境12可包括诸如姿势过滤器的集合之类的姿势库190,每一个过滤器都具有关于可以由骨架模型(随着用户移动)执行的姿势的信息。例如,可以为各种手势(如手的划动或投掷)提供姿势过滤器。通过将检测到的运动与每一个过滤器进行比较,可以标识由人执行的指定的姿势或运动。还可以确定执行动作的程度。
可以将由深度相机系统20以骨架模型的形式捕捉的数据以及与它相关联的移动与姿势库190中的姿势过滤器进行比较,以标识(如由骨架模型所表示的)用户何时执行了一个或多个特定移动。那些移动可以与应用程序的各种控制相关联。
计算环境也可以包括处理器192,其用于执行存储在存储器194中的指令,以向显示设备196提供音频-视频输出信号,并实现如此处所描述的其他功能。
图7是用于生成深度图像的过程700的一个实施例的流程图。该过程可以在诸如图5和6的示例之类的深度相机中执行。在过程700,可以使用具有折射光学元件40的照明器24。因此,可以补偿辐照度对角位移的依赖性。步骤702包括:使用折射漫射器40将光折射到视野中的物体上。步骤702可以包括:结构化该光以补偿辐照度对角位移的依赖性。在一个实施例中,步骤702包括:发射光(例如IR)脉冲序列。
步骤704包括:在光电传感器5处捕捉从该视野中的物体15反射的光。光电传感器5所捕捉的物体的图像的辐照度可以依赖于角位移。如在此所述的那样,如果两个物体具有相同的出射度,则与光轴相距更远的物体的图像的辐照度可能更低。如所述那样,步骤702可以结构化该光以补偿辐照度对角位移的该依赖性。在一些实施例中,步骤704包括:在某个预先确定的时间段内捕捉IR脉冲的反射。例如,光电传感器5可以被开闭快门(shuttered),使得该光电传感器被允许在某个预先确定的时间段内收集光并且在某个预先确定的时间段内被遮挡而不能接收光。
步骤706包括:基于所捕捉的光来生成深度图像。深度图像可以包含深度值(例如与FOV中的物体相距的距离)。深度图像可包括所捕捉的场景的二维(2-D)像素区域,其中该2-D像素区域中的每个像素具有代表距离图像相机组件22的线性距离(径向距离)的或由像素观察的3D位置的Z分量(垂直距离)的相关联的深度值。在一些实施例中,步骤706包括:分析光电传感器5的每个像素的亮度值。由于折射光学元件40补偿辐照度与角位移相关的依赖性,因此深度图像的确定得到改善。
图8描绘了可以在图5的运动捕捉系统中使用的计算环境的示例框图。可以使用计算环境来解释一个或多个姿势或其他移动,并作为响应,更新显示器上的视觉空间。上文所描述的诸如计算环境12等的计算环境可包括诸如游戏控制台等的多媒体控制台100。多媒体控制台100包括具有1级高速缓存102、2级高速缓存104和闪存ROM(只读存储器)106的中央处理单元(CPU)101。一级高速缓存102和二级高速缓存104临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU 101可被提供为具有一个以上的核,并且由此具有附加的一级高速缓存102和二级高速缓存104。诸如闪存ROM之类的存储器106可存储当多媒体控制台100通电时在引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速和高分辨率图形处理的视频处理流水线。经由总线从图形处理单元108向视频编码器/视频编解码器114运送数据。视频处理流水线向A/V(音频/视频)端口140输出数据,用于传输至电视或其他显示器。存储器控制器110连接到GPU 108,以便于处理器对各种类型的存储器112,比如RAM(随机存取存储器)的处理器访问。
多媒体控制台100包括优选地在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口124、第一USB主控制器126、第二USB控制器128以及前面板I/O子部件130。USB控制器126和128用作外围控制器142(1)-142(2)、无线适配器148、以及外置存储器设备146(例如,闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口(NW IF)124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中任何一种。
提供系统存储器143来存储在引导过程期间加载的应用数据。提供了媒体驱动器144,其可以包括DVD/CD驱动器、硬盘驱动器、或其他可移动媒体驱动器。媒体驱动器144可内置或外置于多媒体控制台100。应用数据可经由媒体驱动器144访问,以供多媒体控制台100执行、回放等。媒体驱动器144经由诸如串行ATA总线或其他高速连接等总线连接到I/O控制器120。
系统管理控制器122提供与确保多媒体控制台100的可用性相关的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件130支持暴露在多媒体控制台100的外表面上的电源按钮150和弹出按钮152、以及任何LED(发光二极管)或其他指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。
CPU 101、GPU 108、存储器控制器110、以及多媒体控制台100内的各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。
当多媒体控制台100通电时,应用数据可从系统存储器143加载到存储器112和/或高速缓存102、104中并在CPU 101上执行。应用可在导航到多媒体控制台100上可用的不同媒体类型时呈现提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中所包含的应用和/或其他媒体可从媒体驱动器144启动或播放,以将附加功能提供给多媒体控制台100。
多媒体控制台100可通过简单地将该系统连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口124或无线适配器148可用的宽带连接集成的情况下,多媒体控制台100还可作为更大网络社区中的参与者来操作。
当多媒体控制台100通电时,可以保留指定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源从应用的视角而言是不存在的。
具体而言,存储器保留量优选地足够大,以包含启动内核、并发系统应用程序和驱动程序。CPU保留量优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来调度代码以将弹出窗口呈现为覆盖图,从而显示由系统应用程序生成的轻量消息(例如,弹出窗口)。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率和引起TV重新同步。
在多媒体控制台100引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识出作为系统应用线程或者游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 101上运行,以便提供对应用而言一致的系统资源视图。调度是为了使在控制台上运行的游戏应用的高速缓存分裂最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所描述的)在系统应用活动时控制游戏应用的音频级别(例如,静音、衰减)。
输入设备(例如,控制器142(1)和142(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器较佳地控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。控制台100可以从图6的包括照像机26和28的深度相机系统20接收附加的输入。
图9描绘了可以在图5的运动捕捉系统中使用的计算环境的另一个示例框图。在运动捕捉系统中,可以使用计算环境来确定深度图像以及解释一个或多个姿势或其他移动,并作为响应,更新显示器上的视觉空间。计算环境220包括通常包括各种有形计算机可读存储介质的计算机241。这可以是能由计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)223和随机存取存储器(RAM)260。包含诸如在启动期间帮助在计算机241内的元件之间传输信息的基本例程的基本输入/输出系统224(BIOS)通常储存储在ROM 223中。RAM 260通常包含处理单元259可立即访问和/或当前正在操作的数据和/或程序模块。图形接口231与GPU229进行通信。作为示例而非限制,图4描绘了操作系统225、应用程序226、其他程序模块227,以及程序数据228。
计算机241也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质,例如,读写不可移动、非易失性磁性介质的硬盘驱动器238,读写可移动、非易失性磁盘254的磁盘驱动器239,以及读写诸如CD ROM或其他光学介质之类的可移动、非易失性光盘253的光盘驱动器240。可以在该示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性有形计算机可读存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等等。硬盘驱动器238通常由例如接口234等不可移动存储器接口连接至系统总线221,而磁盘驱动器239和光盘驱动器240通常由例如接口235等可移动存储器接口连接至系统总线221。
上文所讨论的并且在图9中所描绘的驱动器以及其相关联的计算机存储介质为计算机241提供了计算机可读指令、数据结构、程序模块及其他数据的存储。例如,硬盘驱动器238被描绘为存储了操作系统258、应用程序257、其他程序模块256、以及程序数据255。注意,这些组件可与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可与它们不同。在此给操作系统258、应用程序257、其他程序模块256、以及程序数据255提供了不同的编号,以说明至少它们是不同的副本。用户可以通过输入设备,例如键盘251和定点设备252——通常是指鼠标、跟踪球或触摸垫——向计算机241输入命令和信息。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其他输入设备通常通过耦合到系统总线的用户输入接口236连接到处理单元259,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其他接口和总线结构来连接。图6的深度相机系统20,包括像机26和28,可以为控制台100定义附加的输入设备。监视器242或其他类型的显示器也通过接口,诸如视频接口232,连接至系统总线221。除监视器之外,计算机还可以包括可以通过输出外围接口233连接的诸如扬声器244和打印机243之类的其他外围输出设备。
计算机241可使用到一个或多个远程计算机(诸如,远程计算机246)的逻辑连接而在联网环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见的网络节点,通常包括上文相对于计算机241所描述的许多或全部元件,但是图4中只描绘了存储器存储设备247。逻辑连接包括局域网(LAN)245和广域网(WAN)249,但也可以包括其他网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机241通过网络接口或适配器245连接到LAN 237。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于通过诸如因特网等WAN 249建立通信的其他手段。调制解调器250可以是内置的或外置的,可经由用户输入接口236或其他适当的机制连接到系统总线221。在联网环境中,相对于计算机241所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图9描绘了驻留在存储器设备247上的远程应用程序248。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
前面的对本技术的详细描述只是为了说明和描述。它不是为了详尽的解释或将本技术限制在所公开的准确的形式。鉴于上述教导,许多修改和变型都是可能的。所描述的实施例只是为了最好地说明本技术的原理以及其实际应用,从而使精通本技术的其他人在各种实施例中最佳地利用本技术,适合于特定用途的各种修改也是可以的。本技术的范围由所附的权利要求进行定义。

Claims (6)

1.一种照明系统,包括:
图像传感器(26),所述图像传感器(26)具有被配置为捕捉在所述照明系统外部的视野中的物体的图像的光电传感器(5),所述图像传感器具有光轴,其中由所述光电传感器捕捉的具有给定出射度的所述视野中的物体的图像的辐照度依赖于同所述光轴的角位移;
光源(23);以及
折射漫射器(40),所述折射漫射器(40)被配置为接收来自所述光源的光,所述折射漫射器具有凸镜的第一阵列和凸镜的第二阵列,所述第一阵列的凸镜具有面向所述光源的突出面,而所述第二阵列的凸镜具有离开所述光源的突出面,其中所述折射漫射器(40)被配置为折射来自所述光源的光以将所述光结构化以照明所述照明系统外部的视野以补偿辐照度对同所述光轴的角位移的依赖性,其中在同一球形视野成像表面上并具有相同出射度的物体在所述光电传感器上具有独立于所述物体同所述光轴的角位移的基本上相同的辐照度;以及
逻辑,被配置为基于当来自所述光源的所述光正在折射入所述视野时由所述光电传感器接收到的光来生成具有到所述物体的深度值的深度图像。
2.如权利要求1所述的照明系统,其特征在于,还包括准直器,所述准直器接收来自所述光源的光,其中所述折射漫射器被配置为接收经准直化的光并且结构化所述经准直化的光以照明所述视野以补偿辐照度对所述光轴的角位移的依赖性。
3.如权利要求1所述的照明系统,其特征在于,所述折射漫射器被配置为根据1/cos4θ来漫射所述光以照明所述视野内的物体,其中θ是同所述光轴的角位移。
4.一种用于生成深度图像的方法,包括:
使用折射漫射器将来自光源的光折射到深度相机的视野中的物体上(702),所述折射漫射器具有凸镜的第一阵列和凸镜的第二阵列,所述第一阵列的凸镜具有面向所述光源的突出面,而所述第二阵列的凸镜具有离开所述光源的突出面,包括将来自所述光源的光通过所述凸镜的第一阵列并通过所述凸镜的第二阵列进行投射;
在所述深度相机的具有光轴的光电传感器处捕捉从所述视野中的物体返回的折射光的部分,其中由所述光电传感器所捕捉的具有给定出射度的物体的图像的辐照度依赖于同所述光轴的角位移,其中折射所述光包括:通过透镜的所述第一和第二阵列折射所述光以结构化所述光以补偿辐照度对同所述光轴的角位移的依赖性(704),其中在同一球形视野成像表面上并具有相同出射度的物体在所述光电传感器上具有独立于所述物体同所述光轴的角位移的基本上相同的辐照度;以及
基于所捕捉的光生成包括到所述物体的深度值的深度图像(706)。
5.如权利要求4所述的方法,其特征在于,折射所述光包括根据公式1/cos4θ来漫射所述光,其中θ是同所述光轴的角位移。
6.如权利要求4所述的方法,其特征在于,使用折射漫射器将光折射到视野中的物体上包括:结构化所述光以在所述视野之外降低强度。
CN201210056397.7A 2011-03-07 2012-03-06 具有折射光学元件的照明器 Active CN102681293B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/042,028 US9551914B2 (en) 2011-03-07 2011-03-07 Illuminator with refractive optical element
US13/042,028 2011-03-07

Publications (2)

Publication Number Publication Date
CN102681293A CN102681293A (zh) 2012-09-19
CN102681293B true CN102681293B (zh) 2016-08-31

Family

ID=46795199

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210056397.7A Active CN102681293B (zh) 2011-03-07 2012-03-06 具有折射光学元件的照明器

Country Status (3)

Country Link
US (1) US9551914B2 (zh)
CN (1) CN102681293B (zh)
HK (1) HK1173785A1 (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2823462B1 (en) * 2012-03-05 2019-10-16 Microsoft Technology Licensing, LLC Generation of depth images based upon light falloff
US9051127B2 (en) * 2012-04-03 2015-06-09 Scott Conroy Grain auger protection system
EP2728306A1 (en) * 2012-11-05 2014-05-07 Hexagon Technology Center GmbH Method and device for determining three-dimensional coordinates of an object
TWI484223B (zh) * 2013-01-22 2015-05-11 Machvision Inc An optical component for multi-angle illumination of line scanning, and a light source system using the same
KR102163728B1 (ko) * 2013-12-05 2020-10-08 삼성전자주식회사 거리영상 측정용 카메라 및 이를 이용한 거리영상 측정방법
TWI549502B (zh) * 2014-06-13 2016-09-11 立普思股份有限公司 影像相位補正方法
US9805454B2 (en) * 2014-07-15 2017-10-31 Microsoft Technology Licensing, Llc Wide field-of-view depth imaging
US9894257B2 (en) * 2015-05-13 2018-02-13 Apple Inc. Light source module with adjustable diffusion
EP3095710B1 (en) * 2015-05-20 2018-01-03 Goodrich Lighting Systems GmbH Dynamic exterior aircraft light unit and method of operating a dynamic exterior aircraft light unit
US9798126B2 (en) * 2015-08-25 2017-10-24 Rockwell Automation Technologies, Inc. Modular illuminator for extremely wide field of view
US9755740B2 (en) 2015-12-30 2017-09-05 Surefire Llc Receivers for optical narrowcasting
US10241244B2 (en) 2016-07-29 2019-03-26 Lumentum Operations Llc Thin film total internal reflection diffraction grating for single polarization or dual polarization
DE102016117967B4 (de) 2016-09-23 2024-09-12 Carl Zeiss Jena Gmbh Leuchteinrichtung für ein Fahrzeug
DE102016117969B4 (de) 2016-09-23 2022-09-22 Carl Zeiss Jena Gmbh Leuchteinrichtung für Fahrzeuge
US9917652B1 (en) 2017-06-06 2018-03-13 Surefire Llc Adaptive communications focal plane array
US10436953B2 (en) 2017-12-01 2019-10-08 Rockwell Automation Technologies Inc. Arched collimating lens forming a disk-like illumination
US10236986B1 (en) 2018-01-05 2019-03-19 Aron Surefire, Llc Systems and methods for tiling free space optical transmissions
US10250948B1 (en) 2018-01-05 2019-04-02 Aron Surefire, Llc Social media with optical narrowcasting
US10609266B2 (en) 2018-08-21 2020-03-31 Rockwell Automation Technologies, Inc. Camera for wide field of view with an arbitrary aspect ratio
DE102018123789A1 (de) * 2018-09-26 2020-03-26 Carl Zeiss Jena Gmbh Leuchteinrichtung für ein Fahrzeug
JP6768997B1 (ja) * 2019-04-23 2020-10-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、移動体、制御方法、及びプログラム
CN112394527A (zh) * 2019-08-19 2021-02-23 上海鲲游光电科技有限公司 多维摄像装置及其应用终端和方法
FI129663B (en) * 2019-11-20 2022-06-15 Procemex Oy Ltd LED matrix lighting device
CN113495309B (zh) * 2020-03-20 2023-12-01 宁波舜宇车载光学技术有限公司 光扩散系统
CN112234432B (zh) * 2020-12-09 2021-11-23 常州纵慧芯光半导体科技有限公司 一种多芯片可寻址的tof发射模组及激光器

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5818528A (en) * 1994-10-25 1998-10-06 United Parcel Service Of America Automatic electronic camera for label image capture
CN101142806A (zh) * 2005-03-18 2008-03-12 株式会社理光 照明装置、照明方法、图像读取装置、图像读取方法、图像形成装置及图像形成方法

Family Cites Families (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4445774A (en) * 1982-04-30 1984-05-01 Xerox Corporation Document imaging system with improved exposure uniformity at image plane
JPS6029634A (ja) * 1983-07-27 1985-02-15 Nippon Kogaku Kk <Nikon> 光学特性測定装置
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4647144A (en) * 1984-05-02 1987-03-03 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Optical scanner
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
CA2101633A1 (en) 1991-12-03 1993-06-04 Barry J. French Interactive video testing and training system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
JP2000510013A (ja) 1996-05-08 2000-08-08 リアル ヴィジョン コーポレイション 位置検出を用いたリアルタイムシミュレーション
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
EP0959444A4 (en) 1996-08-14 2005-12-07 Nurakhmed Nurislamovic Latypov METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
WO1999019840A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. A system and method for generating an animatable character
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
EP1059970A2 (en) 1998-03-03 2000-12-20 Arena, Inc, System and method for tracking and assessing movement skills in multidimensional space
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2000036372A1 (en) 1998-12-16 2000-06-22 3Dv Systems, Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US20030029917A1 (en) * 1999-10-04 2003-02-13 Hand Held Products, Inc. Optical reader for imaging module
US6785049B1 (en) 2000-01-31 2004-08-31 3M Innovative Properties Company Illumination system for reflective displays
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
KR20020057964A (ko) 2000-07-31 2002-07-12 코닝 로체스터 포토닉스 코포레이션 빛을 제어하여 발산시키기 위한 구조 스크린
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
DE10144244A1 (de) * 2001-09-05 2003-03-20 Zeiss Carl Zoom-System, insbesondere für eine Beleuchtungseinrichtung
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
EP1497160B2 (de) 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS &amp; ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US6859326B2 (en) 2002-09-20 2005-02-22 Corning Incorporated Random microlens array for optical beam shaping and homogenization
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US6963445B2 (en) 2003-02-07 2005-11-08 Hoover Rex A Light diffuser for optical microscopes replacing condenser with opal glass to produce near-koehler illumination
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7372977B2 (en) * 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
US7620202B2 (en) * 2003-06-12 2009-11-17 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7428856B2 (en) * 2004-01-29 2008-09-30 Intier Automotive Closures Inc. Control pedal and assist mechanism
CN100573548C (zh) 2004-04-15 2009-12-23 格斯图尔泰克股份有限公司 跟踪双手运动的方法和设备
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
EP3693889A3 (en) 2005-01-07 2020-10-28 QUALCOMM Incorporated Detecting and tracking objects in images
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
US7767949B2 (en) * 2005-01-18 2010-08-03 Rearden, Llc Apparatus and method for capturing still images and video using coded aperture techniques
US7671321B2 (en) * 2005-01-18 2010-03-02 Rearden, Llc Apparatus and method for capturing still images and video using coded lens imaging techniques
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
US7317836B2 (en) 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
US7812304B2 (en) 2005-05-12 2010-10-12 Nippon Sheet Glass Company, Limited Light guide having light scattering patterns with different light reflected directions
KR101430761B1 (ko) 2005-05-17 2014-08-19 퀄컴 인코포레이티드 방위-감응 신호 출력
US7513668B1 (en) 2005-08-04 2009-04-07 Rockwell Collins, Inc. Illumination system for a head up display
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
JP2009524901A (ja) 2005-10-17 2009-07-02 アイ2アイシー コーポレイション 表面の形をした光源を提供するための装置および方法
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US7918583B2 (en) 2006-08-16 2011-04-05 Rpc Photonics, Inc. Illumination devices
US20080062424A1 (en) 2006-09-07 2008-03-13 Mark Richard Shires Compact Ringlight
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US8174740B2 (en) 2009-03-18 2012-05-08 Xerox Corporation Diffuse surface on lenslet array diffuser
US8063955B2 (en) * 2009-04-07 2011-11-22 Qualcomm Incorporated Camera module testing
US8988507B2 (en) * 2009-11-19 2015-03-24 Sony Corporation User interface for autofocus
US9176263B2 (en) * 2010-04-06 2015-11-03 President And Fellows Of Harvard College Optical micro-sensor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5818528A (en) * 1994-10-25 1998-10-06 United Parcel Service Of America Automatic electronic camera for label image capture
CN101142806A (zh) * 2005-03-18 2008-03-12 株式会社理光 照明装置、照明方法、图像读取装置、图像读取方法、图像形成装置及图像形成方法

Also Published As

Publication number Publication date
US9551914B2 (en) 2017-01-24
HK1173785A1 (zh) 2013-05-24
US20120229611A1 (en) 2012-09-13
CN102681293A (zh) 2012-09-19

Similar Documents

Publication Publication Date Title
CN102681293B (zh) 具有折射光学元件的照明器
CN102520574B (zh) 飞行时间深度成像
CN102163324B (zh) 深度图像的去混叠
US9972137B2 (en) Systems and methods for augmented reality preparation, processing, and application
CN102222329B (zh) 深度检测的光栅扫描
CN102222347B (zh) 使用波阵面编码来创建深度图像
TWI628465B (zh) 發射結構光的照明模組
CN102681657B (zh) 交互式内容创建
CN105264461B (zh) 虚拟对象与表面的交互
CN102129292B (zh) 在运动捕捉系统中识别用户意图
CN102385237B (zh) 基于结构化光和立体视觉的深度相机
CN102414641B (zh) 改变显示环境内的视图视角
EP2887322B1 (en) Mixed reality holographic object development
US20140049559A1 (en) Mixed reality holographic object development
CN105190703A (zh) 使用光度立体来进行3d环境建模
CN102129293A (zh) 在运动捕捉系统中跟踪用户组
CN102207771A (zh) 推断参与运动捕捉系统的用户意图
CN102681811A (zh) 照片表示视图的基于主题的增强
CN105393158A (zh) 共享的和私有的全息物体
CN102129709A (zh) 可视化深度
CN103608844A (zh) 全自动动态关节连接的模型校准
CN102306051A (zh) 复合姿势-语音命令
CN102184009A (zh) 跟踪系统中的手位置后处理精炼
CN109255749A (zh) 自主和非自主平台中的地图构建优化
CN107077730A (zh) 基于剪影的肢寻找器确定

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1173785

Country of ref document: HK

C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150727

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150727

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1173785

Country of ref document: HK