CN102222347B - 使用波阵面编码来创建深度图像 - Google Patents
使用波阵面编码来创建深度图像 Download PDFInfo
- Publication number
- CN102222347B CN102222347B CN201110172788.0A CN201110172788A CN102222347B CN 102222347 B CN102222347 B CN 102222347B CN 201110172788 A CN201110172788 A CN 201110172788A CN 102222347 B CN102222347 B CN 102222347B
- Authority
- CN
- China
- Prior art keywords
- depth
- people
- image
- target
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
诸如在运动捕捉系统中的3-D深度照相机系统使用照明器来跟踪视野中的诸如人之类的目标,其中,视野是使用多个衍射光束来照明的。图像传感组件根据双螺旋点扩散函数,使用相位掩模来获得物体的图像,并基于双螺旋点扩散函数的光点的相对旋转来确定图像的每一部分的深度。在另一方面,使用双重图像传感器来获取参考图像和相位编码的图像。图像中的特征的相对旋转可以与深度相关。可以使用参考图像的点扩散函数的光学传递函数来获取深度信息。
Description
背景
运动捕捉系统获取关于物理空间中的人或其他对象的位置及运动的数据,并且可以使用该数据作为计算系统中的应用程序的输入。可以有许多应用,例如用于军事、娱乐、体育和医学目的。例如,可以将人的运动映射到三维(3-D)人骨架模型,并用于创建动画化的人物或化身。运动捕捉系统可包括光学系统,包括那些使用可见光和不可见光的(例如红外光)系统,它们使用照像机来检测视野中人或其他物体的存在。然而,现有系统在最小物体大小和视野方面是受限制的。
发明内容
提供了用于检测运动捕捉系统中的3-D深度照相机中的运动的处理器实现的方法、运动捕捉系统和有形计算机可读存储。这样的深度照像机用于例如检测用户在视野中的移动,并将该移动转换为对运动捕捉系统中的应用程序的控制输入。例如,用户可以作出手势来导航菜单、在浏览或购物体验中交互、选择要玩的游戏、或访问通信特征,如向朋友发送消息。或者,用户可以使用手、腿或整个身体来控制化身在3-D虚拟世界中的移动。
在一个实施方式中,3-D深度照相机系统包括照明器和成像传感器。照明器创建至少一个准直光束,而衍射光学元件接收该光束,并创建照亮包括人目标的视野的衍射光束。图像传感器使用来自视野的光来提供人目标的检测到的图像,而且还包括相位元件,该相位元件调整图像,以便照亮目标的每一衍射光束的点扩散函数将作为双螺旋来成像。提供了至少一个处理器,该处理器基于检测到的图像的每一个衍射顺序的双螺旋的旋转来确定人目标的深度信息,并响应于该深度信息,区别人目标在视野内的运动。
在另一个实施方式中,用于对视野中的物体进行成像的3-D深度照相机系统包括提供该物体的参考图像的第一传感器,以及使用相位掩模来提供物体的已编码图像的第二传感器,其中,该相位掩模根据双螺旋点扩散函数来对来自物体的光进行编码。该系统还包括至少一个处理器,其至少基于参考图像的强度分布(iref)和已编码图像的强度分布(idh)来确定物体的深度信息。例如,至少一个处理器可以根据下式来确定深度信息:F-1{F(idh)xHref/F(iref)},其中,F表示傅里叶变换,F-1表示傅里叶逆变换,而(Href)表示参考图像的点扩散函数的光学传递函数。
提供本发明内容以便以简化形式介绍将在以下的具体实施方式中进一步描述的一些概念。本发明内容并不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于限定所要求保护的主题的范围。
附图说明
在附图中,相同编号的元件彼此对应。
图1描绘了运动捕捉系统的示例实施例。
图2描绘了图1的运动捕捉系统的示例框图。
图3描绘了可以在图1的运动捕捉系统中使用的计算环境的一个示例框图。
图4描绘了可以在图1的运动捕捉系统中使用的计算环境的另一个示例框图。
图5描绘了用于跟踪运动捕捉系统中的人目标的方法。
图6描绘了如在图5的步骤500中阐述的用于跟踪人目标的移动的示例方法。
图7描绘了如在图6的步骤600中阐述的用于接收深度信息的示例方法。
图8描绘了一个示例情形:其中,如在图6的步骤600中阐述的那样,使用照明器和图像传感器来提供深度信息。
图9描绘了图8的照明器802的更详细的视图。
图10描绘了图8的图像传感器806的更详细的视图。
图11描绘了由图10的图像传感器检测到的光的旋转角对比散焦参数。
图12描绘了由图10的图像传感器检测到的光的旋转角对比深度。
图13描绘了在不同深度的双螺旋点扩散函数和标准点扩散函数的光照图。
图14描绘了在深度z=0时根据图13的双螺旋点扩散函数提供的光束的振幅。
图15描绘了在深度z=z0/2时根据图13的双螺旋点扩散函数提供的光束的振幅。
图16描绘了对于不同的光的波长,根据图13的双螺旋点扩散函数的方位角对比散焦位置。
图17描绘了对应于图16的光点之间的距离对比散焦位置。
图18描绘了在焦点处根据图13的双螺旋点扩散函数提供的光束。
图19描绘了在散焦处根据图13的双螺旋点扩散函数提供的光束。
图20A描绘了根据图13的双螺旋点扩散函数提供的光束的出射光瞳振幅。
图20B描绘了与图20A的振幅相关联的出射光瞳相位。
图21描绘了根据图13的双螺旋点扩散函数提供的光束的方位角对比物距。
图22A、22B、22C、22D、22E和22F描绘了根据图21的分别在物距1、1.5、2、3、4和5m处的非相干点扩散函数。
图23描绘了用于使用双重图像传感器来跟踪运动捕捉系统中的人目标的方法。
图24描绘了另一个示例情形:其中,如在图6的步骤600中阐述的那样,使用双重图像传感器来提供深度信息。
图25描绘了没有相位掩模的图24的第一图像传感器2402。
图26A描绘了图24的示例情形中的参考图像。
图26B、26C和26D分别描绘了图24的示例情形中的分别在物距1、2或4m时的衍射图像。
图27描绘了如在图6的步骤608中阐述的用户的示例模型。
具体实施方式
当前,有两种创建深度图像的主要方法。使用结构化光的一种方法利用图案来照亮,然后测量该图案的几何失真并根据该失真来确定深度。使用飞行时间法(time-of-flight)的第二种方法发送已调制信号,然后测量该已调制信号的相位变化。这两种方法都需要照明系统,并且在最小物体大小和视野方面具有限制。在此提出测量从其中希望深度图像的场景返回的波阵面的属性。这是通过以已知方式通过相位元件来对波阵面进行编码,然后通过知道图像强度和相位信息来对深度信息进行去卷积来完成的。如此,使用相位元件来对波阵面信息进行编码以测量深度图像。可以在图像传感器中提供相位元件。
图1描绘了运动捕捉系统10的示例实施例,其中,人8如在用户的家中与应用程序进行交互。运动捕捉系统10包括显示器196、深度照相机系统20、以及计算环境或装置12。深度照相机系统20可包括图像照像机组件22,其具有诸如红外线(IR)发射器之类的照明器24、诸如红外照像机之类的一个或多个图像传感器26、以及红-绿-蓝(RGB)照像机28。人8,也被称为用户或玩家,站在深度照像机的视野6内。线2和4表示视野6的边界。在此示例中,深度照相机系统20以及计算环境12提供应用程序,其中,显示器196上的化身197追踪人8的移动。例如,当人抬起手臂时,化身也可以抬起手臂。化身197站在3-D虚拟世界的公路198上。可以定义笛卡儿世界坐标系,其包括沿着深度照相机系统20的焦距延伸(例如,水平地)的z轴、垂直地延伸的y轴、以及横向地并且水平地延伸的x轴。注意,随着显示器196在y轴方向垂直地延伸,且z轴从深度照相机系统垂直于y轴和x轴并平行于用户8所站立的地面地伸出,附图的透视被修改为简化。
一般而言,运动捕捉系统10被用来识别、分析,和/或跟踪一个或多个人目标。计算环境12可包括计算机、游戏系统或控制台等等,以及执行应用程序的硬件组件和/或软件组件。
深度照相机系统20可包括被用来在视觉上监视一个或多个诸如人8之类的人的照像机,以便可以捕捉、分析、以及跟踪由人执行的姿势和/或移动,以在应用程序内执行一个或多个控制或动作,如动画化化身或屏幕上人物或选择用户界面(UI)中的一个菜单项。
运动捕捉系统10可以连接到诸如显示器196之类的视听设备,例如,电视机、监视器、高清晰度电视机(HDTV)等等,或者甚至向用户提供视觉和音频输出的墙或其他表面上的投影。还可以经由单独的设备来提供音频输出。为驱动显示器,计算环境12可包括提供与应用程序相关联的视听信号的诸如图形卡之类的视频适配器和/或诸如声卡之类的音频适配器。显示器196可以通过例如S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等等连接到计算环境12。
可以使用深度照相机系统20来跟踪人8,以使得用户的姿势和/或移动被捕捉并用于动画化化身或屏幕上人物,和/或被解释为对正在由计算机环境12执行的应用程序的输入控制。
人8的一些移动可被解释为可对应于除了控制化身之外的动作的控制。例如,在一个实施方式中,玩家可以使用运动来结束、暂停或保存游戏,选择级别,查看高分,与朋友进行交流等等。玩家可以使用移动来从主要用户界面中选择游戏或其他应用程序,或以别的方式导航选项菜单。如此,可以有人8的全套运动可用,可使用它们,并以任何合适的方式分析它们,以与应用程序进行交互。
运动捕捉系统10还可以用于将目标移动解释成处于游戏或意味着娱乐和休闲的其他应用程序的领域之外的操作系统和/或应用程序控制。例如,操作系统和/或应用程序的实质上任何可控方面都可以由人8的移动来控制。
图2描绘了图1的运动捕捉系统的示例框图。深度照相机系统20可以被配置为通过任何合适的技术捕捉带有深度信息(包括可以包括深度值的深度图像)的视频,这些技术包括例如飞行时间、结构化光、立体图像等等。深度照相机系统20可以将深度信息组织为“Z层”,或可垂直于沿着其视线从深度照像机延伸的Z轴的层。
深度照相机系统20可包括图像照像机组件22,该图像照像机组件22捕捉物理空间中的场景的深度图像。深度图像可包括所捕捉的场景的二维(2-D)像素区域,其中2-D像素区域中的每一像素都可具有表示与图像照像机组件22的直线距离的相关联的深度值,从而提供3-D深度图像。
图像照相机组件22可包括诸如红外线(IR)发射器24之类的照明器24、诸如红外照像机之类的一个或多个图像传感器26、以及红-绿-蓝(RGB)照像机28,它们可以用于捕捉场景的深度图像。通过红外发射器24和红外照像机26的组合来形成3-D深度照像机。例如,在飞行时间分析中,照明器24可以将红外光发射到物理空间上,并且图像传感器26检测从物理空间中的一个或多个目标和物体的表面反向散射的光。在某些实施方式中,可以使用脉冲式红外光,从而可以测量出射光脉冲和相应的入射光脉冲之间的时间差并将其用于确定从深度照相机系统20到物理空间中的目标或物体上的特定位置的物理距离。可将入射光波的相位与出射光波的相位进行比较来确定相移。然后可以使用该相移来确定从深度照相机系统到目标或物体上的特定位置的物理距离。
也可使用飞行时间分析,通过经由包括例如快门式光脉冲成像的各种技术来分析反射光束随时间的强度变化以间接地确定从深度照相机系统20到目标或物体上的特定位置的物理距离。
在另一示例实施方式中,深度照相机系统20可使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即,被显示成诸如网格图案或条纹图案等已知图案的光)可以通过例如照明器24被投影到场景上。在撞击到场景中的一个或多个目标或物体的表面时,作为响应,图案可变形。图案的这种变形可由例如图像传感器26和/或RGB照相机28来捕捉,然后可被分析以确定从深度照相机系统到目标或物体上的特定位置的物理距离。
深度照相机系统20可包括可以从不同的角度观察场景的两个或更多在物理上分离的照像机,以获取可以被解析以生成深度信息的视觉立体数据。
深度照相机系统20还可以包括话筒30,其包括例如接收声波并将其转换成电信号的换能器或传感器。另外,话筒30可用于接收也可由人提供的诸如声音之类的音频信号,以控制可由计算环境12运行的应用程序。音频信号可包括人的口声,如说的话、口哨声、喊声及其他发声,以及非口声,如掌声或跺脚。
深度照相机系统20可包括与3-D深度照像机22进行通信的处理器32。处理器32可包括可执行指令的标准化处理器、专用处理器、微处理器等,这些指令可包括例如用于接收深度图像的指令;用于基于深度图像来生成体元网格的指令;用于移除体元网格中所包括的背景以隔离与人目标相关联的一个或多个体元的指令;用于确定被隔离的人目标的一个或多个肢端的位置或定位的指令;用于基于一个或多个肢端的位置或定位来调整模型的指令;或任何其他合适的指令,下面将对它们进行更详细的描述。
深度照相机系统20还可以包括存储器组件34,该存储器组件34可以存储可以由处理器32执行的指令,以及存储由3-D照像机或RGB照像机捕捉到的图像或图像的帧,或任何其他合适的信息、图像等等。根据一个示例实施方式,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘或任何其他合适的有形计算机可读存储组件。存储器组件34可以是经由总线21与图像捕捉组件22和处理器32通信的单独的组件。根据另一实施方式,存储器组件34可以集成到处理器32和/或图像捕捉组件22中。
深度照相机系统20可以通过通信链路36与计算环境12进行通信。通信链路36可以是有线和/或无线连接。根据一个实施方式,计算环境12可以经由通信链路36向深度照相机系统20提供时钟信号,该时钟信号指出何时从位于深度照相机系统20的视野中的物理空间捕捉图像数据。
另外,深度照相机系统20可以通过通信链路36向计算环境12提供深度信息和由例如图像传感器26和/或RGB照相机28捕捉到的图像,和/或可以由深度照相机系统20所生成的骨架模型。然后,计算环境12可以使用模型、深度信息、以及捕捉到的图像来控制应用程序。例如,如图2所示,计算环境12可包括诸如姿势过滤器的集合之类的姿势库190,每一个过滤器都具有关于可以由骨架模型(随着用户移动)执行的姿势的信息。例如,可以为各种手势(如手的猛击或投掷)提供姿势过滤器。通过将检测到的运动与每一个过滤器进行比较,可以标识由人执行的指定的姿势或移动。还可以确定执行移动的程度。
可以将由深度照相机系统20以骨架模型的形式捕捉的数据以及与它相关联的移动与姿势库190中的姿势过滤器进行比较,以标识(如由骨架模型所表示的)用户何时执行了一个或多个特定移动。那些移动可以与应用程序的各种控制相关联。
计算环境也可以包括处理器192,其用于执行存储在存储器194中的指令,以向显示设备196提供音频-视频输出信号,并实现如此处所描述的其他功能。
图3描绘了可以在图1的运动捕捉系统中使用的计算环境的示例框图。可以使用计算环境来解释一个或多个姿势或其他移动,并作为响应,更新显示器上的视觉空间。上文所描述的诸如计算环境12等的计算环境可包括诸如游戏控制台等的多媒体控制台100。多媒体控制台100具有中央处理单元(CPU)101,其具有一级高速缓存102、二级高速缓存104、以及闪速ROM(只读存储器)106。一级高速缓存102和二级高速缓存104临时存储数据并因此减少存储器访问周期数,由此改进处理速度和吞吐量。CPU 101可以设置成具有一个以上的核,以及由此具有附加的一级和二级高速缓存102和104。诸如闪存ROM之类的存储器106可存储当多媒体控制台100通电时在引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速、高分辨率图形处理的视频处理流水线。数据经由总线从图形处理单元108传输到视频编码器/视频编解码器114。视频处理流水线向A/V(音频/视频)端口140输出数据,以便传输到电视机或其他显示器。存储器控制器110连接到GPU 108,以便于处理器对各种类型的存储器112,比如RAM(随机存取存储器)的访问。
多媒体控制台100包括优选地在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口124、第一USB主控制器126、第二USB控制器128以及前面板I/O子部件130。USB控制器126和128用作外围控制器142(1)-142(2)、无线适配器148、和外置存储器设备146(例如闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口(NW IF)124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中任何一种。
提供系统存储器143来存储在引导进程期间加载的应用程序数据。提供了介质驱动器144,其可以包括DVD/CD驱动器、硬盘驱动器、或其他可移动介质驱动器。介质驱动器144可以是多媒体控制台100内部或外部的。应用程序数据可经由媒体驱动器144访问,以由多媒体控制台100执行、回放等。介质驱动器144经由诸如串行ATA总线或其他高速连接等总线连接到I/O控制器120。
系统管理控制器122提供涉及确保多媒体控制台100的可用性的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的对应的音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140以供外置音频播放器或具有音频能力的设备再现。
前板I/O子部件130支持展示在多媒体控制台100的外表面上的电源按钮150和弹出按钮152以及任何LED(发光二极管)或其他指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。
CPU 101、GPU 108、存储器控制器110、和多媒体控制台100内的各个其他组件经由一条或多条总线互连,包括串行和并行总线、存储器总线、外围总线、和使用各种总线架构中任一种的处理器或局部总线。
当多媒体控制台100通电时,应用程序数据可从系统存储器143加载到存储器112和/或高速缓存102、104中并在CPU 101上执行。应用程序可呈现在导航到多媒体控制台100上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中包含的应用程序和/或其他媒体可从媒体驱动器144启动或播放,以向多媒体控制台100提供附加功能。
多媒体控制台100可通过将该系统简单地连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,随着通过网络接口124或无线适配器148可用的宽带连接的集成,多媒体控制台100还可作为较大网络社区中的参与者来操作。
当多媒体控制台100通电时,可以保留指定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括预留存储器(例如,16MB)、CPU和GPU周期(例如,5%)、网络带宽(例如,8kbs)等等。由于这些资源是在系统引导时预留的,因此,从应用程序的观点来看,预留的资源不存在。
具体而言,存储器保留优选地大得足以包含启动内核、并发系统应用程序和驱动程序。CPU保留优选地为恒定的,使得如果所保留的CPU使用量不被系统应用程序使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来显示由系统应用程序生成的轻量消息(例如,弹出窗口),以调度代码来将弹出窗口呈现为覆盖图。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例地缩放。在完整的用户界面被并发系统应用程序使用的情况下,优选地使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率,也就不会引起TV重新同步。
在多媒体控制台100引导且系统资源被保留之后,就执行并发系统应用程序来提供系统功能。系统功能被封装在一组在上述所保留的系统资源中执行的系统应用程序中。操作系统内核标识是系统应用程序线程而非游戏应用程序线程的线程。系统应用程序优选地被调度为在预定时间并以预定时间间隔在CPU101上运行,以便为应用程序提供一致的系统资源视图。进行调度是为了把由在控制台上运行的游戏应用程序所引起的高速缓存分裂最小化。
当并发系统应用程序需要音频时,则由于时间敏感性而异步调度音频处理给游戏应用程序。多媒体控制台应用程序管理器(如下所述)在系统应用程序活动时控制游戏应用的音频水平(例如,静音、衰减)。
输入设备(例如,控制器142(1)和142(2))由游戏应用程序和系统应用程序共享。输入设备不是所保留的资源,但却在系统应用程序和游戏应用程序之间切换以使其各自具有设备的焦点。应用程序管理器优选地控制输入流的切换,无需知道游戏应用程序的知识,且驱动程序维护关于焦点切换的状态信息。控制台100可以从图2的包括照像机26和28的深度照相机系统20接收附加的输入。
图4描绘了可以在图1的运动捕捉系统中使用的计算环境的另一个示例框图。在运动捕捉系统中,可以使用计算环境来解释一个或多个姿势或其他移动,并作为响应,更新显示器上的视觉空间。(不要分段)
计算环境220包括通常包括各种有形计算机可读存储介质的计算机241。这可以是能由计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)223和随机存取存储器(RAM)260。基本输入/输出系统224(BIOS)包括如在启动时帮助在计算机241内的元件之间传输信息的基本例程,它通常储存在ROM 223中。RAM 260通常包含处理单元259可以立即访问和/或目前正在操作的数据和/或程序模块。图形接口231与GPU 229进行通信。作为示例而非限制,图4描绘了操作系统225、应用程序226、其他程序模块227,以及程序数据228。
计算机241也可以包括其它可移动/不可移动、易失性/非易失性计算机存储介质,例如,读写不可移动、非易失性磁性介质的硬盘驱动器238,读写可移动、非易失性磁盘254的磁盘驱动器239,以及读写诸如CD ROM或其他光学介质之类的可移动、非易失性光盘253的光盘驱动器240。可以在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性有形计算机可读存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等等。硬盘驱动器238通常由不可移动存储器接口,诸如接口234连接至系统总线221,磁盘驱动器239和光盘驱动器240通常由可移动存储器接口,诸如接口235连接至系统总线221。
上文所讨论的并且在图4中所描绘的驱动器以及其相关联的计算机存储介质为计算机241提供了计算机可读指令、数据结构、程序模块及其他数据的存储。例如,硬盘驱动器238被描绘为存储了操作系统258、应用程序257、其他程序模块256、以及程序数据255。注意,这些组件可以与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可以与它们不同。在此给操作系统258、应用程序257、其他程序模块256、以及程序数据255提供了不同的编号,以说明至少它们是不同的副本。用户可以通过诸如键盘251和指示设备252(通常被称为鼠标、轨迹球或触摸板)之类的输入设备向计算机241中输入命令和信息。其他输入设备(未示出)可以包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等等。这些和其他输入设备通常通过耦合至系统总线的用户输入接口236连接至处理单元259,但也可以由其他接口和总线结构,诸如并行端口、游戏端口或通用串行总线(USB)来连接。图2的深度照相机系统20,包括照像机26和28,可以为控制台100定义附加的输入设备。监视器242或其他类型的显示器也通过接口,诸如视频接口232,连接至系统总线221。除监视器之外,计算机还可以包括可以通过输出外围接口233连接的诸如扬声器244和打印机243之类的其他外围输出设备。
计算机241可以使用到诸如远程计算机246之类的一个或多个远程计算机的逻辑连接在联网环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见的网络节点,通常包括上文相对于计算机241所描述的许多或全部元件,但是图4中只描绘了存储器设备247。逻辑连接包括局域网(LAN)245和广域网(WAN)249,但是,也可以包括其他网络。这样的联网环境在办公室、企业范围计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机241通过网络接口或适配器237连接至LAN 245。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于通过诸如因特网等WAN 249建立通信的其他装置。调制解调器250可以是内置或外置的,它可以经由用户输入接口236或其他适当的机制连接至系统总线221。在联网环境中,相对于计算机241所描述的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图4描绘了驻留在存储器设备247上的远程应用程序248。可以理解,所示的网络连接是示例性的,且可以使用在计算机之间建立通信链路的其他手段。
计算环境可包括其上包含有计算机可读软件的有形计算机可读存储,计算机可读软件用于对至少一个处理器进行编程以执行用于生成用于如此处所描述的人体跟踪的代理培训数据的方法。有形计算机可读存储可包括,例如,组件222、234、235、230、253和254中的一个或多个。此外,计算环境的一个或多个处理器可以提供用于生成用于人体跟踪的代理培训数据的处理器实现的方法,包括如此处所描述的处理器实现的步骤。处理器可包括,例如,组件229和259中的一个或多个。
图5描绘了用于跟踪运动捕捉系统中的人目标的方法。步骤500包括跟踪深度照相机系统的视野中的人目标或用户。人目标是指,例如,深度照相机系统的视野中的一个或多个人。有关进一步的细节,参见例如图6。步骤502包括基于跟踪向应用程序提供控制输入。例如,表示诸如用户的姿势或姿态之类的运动的控制输入。步骤504包括在应用程序中处理控制输入。例如,这可包括更新显示器上的化身的位置,其中如在图1中所描绘的该化身表示用户,选择用户界面(UI)中的一个菜单项,或者许多其他可能的动作。
图6描绘了如在图5的步骤500中阐述的用于跟踪人目标的示例方法。示例方法可以使用例如深度照相机系统20和/或计算环境12、100或420来实现,如参考图2-4所讨论的。可以扫描一个或多个人目标,以生成诸如骨架模型、网格人模型之类的模型,或人的任何其他合适的表示。在骨架模型中,每一个身体部位都可以被表征为定义骨架模型的关节和骨头的数学矢量。身体部位在关节处可以相对于彼此移动。
然后,可以使用该模型来与由计算环境执行的应用程序进行交互。扫描以生成模型可以在应用程序被启动或运行时发生,或在如被扫描的人通过应用程序控制的其他时候发生。
人可以被扫描以生成骨架模型,该骨架模型可以被跟踪,以便用户的物理移动或运动可以充当调整和/或控制应用程序的参数的实时用户界面。例如,可以使用人的被跟踪的运动来在电子角色扮演游戏中移动化身或其他屏幕上人物;在电子赛车游戏中控制屏幕上车辆;在虚拟环境中控制对象的构建或组织;或对应用程序执行任何其他合适的控制。
根据一个实施方式,在步骤600中,例如,从深度照相机系统接收深度信息。深度照相机系统可以捕捉或观察可包括一个或多个目标的视野。在一个示例性实施方式中,深度照相机系统可以使用诸如飞行时间分析、结构化光分析、立体视觉分析等等之类的任何合适的技术,获取与捕捉区域中的一个或多个目标相关联的深度信息,如所讨论的。深度信息可包括具有多个观察到的像素的深度图像或图,其中,每一个观察到的像素都具有观察到的深度值,如所讨论的。下面进一步提供步骤600的进一步的细节。
可以将深度图像降采样到较低的处理分辨率,以便可以更加轻松地利用较少的计算开销来使用和处理它。另外,可以从深度图像移除和/或平滑掉一个或多个高变度和/或有噪声的深度值;可以填充和/或重构遗漏的和/或被移除的深度信息的某些部分;和/或可以对接收到的深度信息执行任何其他合适的处理,以便可以使用深度信息来生成诸如骨架模型之类的模型(参见图27)。
步骤602判断深度图像是否包括人目标。这可包括对深度图像中的每一个目标或物体进行泛色填充,将每一个目标或物体与图案进行比较以判断深度图像是否包括人目标。例如,可以将深度图像的选定区域或点中的像素的各种深度值进行比较,以确定可以定义目标或物体的边缘,如上文所描述的。可以基于确定的边缘,对Z层的可能的Z值进行泛色填充。例如,与确定的边缘相关联的像素和该边缘内的区域的像素可以彼此相关联,以定义可以与图案相比较的捕捉区域中的目标或物体,下面将更详细地描述。
如果深度图像包括人目标,则在判断步骤604,执行步骤606。如果判断步骤604为假,则在步骤600中接收附加的深度信息。
每一个目标或物体与其比较的图案可包括一个或多个数据结构,这些数据结构具有共同地定义人的典型身体的变量集合。可以将与例如视野内的人目标和非人目标的像素相关联的信息与变量进行比较,以标识人目标。在一个实施方式中,可以基于身体部位,对该集合中的每一个变量赋予权重。例如,图案中的诸如头和/或肩之类的各种身体部位可以具有与其相关联的权重值,这些权重值可以大于诸如腿之类的其他身体部位的权重值。根据一个实施方式,当将目标与变量进行比较以判断目标是否可能是人以及哪些目标可能是人时,可以使用权重值。例如,变量和具有较大的权重值的目标之间的匹配所产生的目标是人的似然性比与带有较小的权重值的目标匹配所产生的目标是人的似然性更大。
步骤606包括扫描人目标以寻找身体部位。可以扫描人目标,以提供与人的一个或多个身体部位相关联的诸如长度、宽度等等之类的测量值,以提供该人的准确模型。在一示例实施方式中,人目标可以是被隔离的,并且可以创建人目标的位掩模来扫描一个或多个身体部位。可以通过例如对人目标进行泛色填充来创建位掩模,以便人目标可以与捕捉区域元素中的其他目标或物体分离。然后,可以对于一个或多个身体部位分析位掩模,以生成人目标的模型,如骨架模型、网格人模型等等。例如,根据一个实施方式,可以使用由扫描的位掩模确定的测量值来定义骨架模型中的一个或多个关节。可以使用一个或多个关节来定义可以对应于人的身体部位的一个或多个骨头。
例如,人目标的位掩模的顶部可以与头的顶部的位置相关联。在确定头的顶部之后,可以向下扫描位掩模,以便随后确定颈的位置、肩的位置等等。可以将例如位于被扫描的位置的位掩模的宽度与和例如颈、肩等等相关联的典型宽度的阈值进行比较。在一替换实施方式中,可以使用与扫描的并与位掩模中的身体部位相关联的先前位置的距离来确定颈、肩等等的位置。可以基于例如其他身体部位的位置来计算诸如腿、脚等等之类的某些身体部位。在确定一个身体部位的值后,创建包括该身体部位的测量值的数据结构。数据结构可包括来自由深度照相机系统在不同的时间点提供的多个深度图像的平均扫描结果。
步骤608包括生成人目标的模型。在一个实施方式中,可以使用由扫描的位掩模确定的测量值来定义骨架模型中的一个或多个关节。一个或多个关节被用来定义对应于人的身体部位的一个或多个骨头。也参见图27。
可以调整一个或多个关节,直到各关节在一个关节和人的一个身体部位之间的典型距离范围之内,以生成更加准确的骨架模型。还可以基于例如与人目标相关联的身高来进一步调整模型。
在步骤610中,通过每秒钟多次更新人的位置,来跟踪模型。随着用户进入物理空间,使用来自深度照相机系统的信息来调整骨架模型,以使该骨架模型表示人。具体而言,可以向骨架模型的一个或多个受力面施加一个或多个力,以将骨架模型调整为更加紧密地对应于物理空间中的人目标的姿势的姿势。
一般而言,可以使用用于跟踪人的移动的任何已知技术。
图7描绘了如在图6的步骤600中阐述的用于接收深度信息的示例方法。步骤700-704可以由照明器执行,而步骤706-716可以由图像传感器执行,图像传感器可包括或以其他方式与一个或多个处理器相关联。在步骤700中,光源向准直仪提供光束。在步骤702中,准直仪接收光束,并提供准直光束。在步骤704中,向衍射光学元件提供准直光束,该衍射光学元件在诸如家庭中的房间之类的视野中提供多个衍射光束。
在步骤706中,从视野反射的光穿过图像传感器中的相位掩模。反射光可以是可见或不可见光,如近红外光。在步骤708中,图像传感器中的感应元件检测穿过相位掩模的光的像素强度值。检测到的光包括许多对光点,在步骤710中,可以确定光点的旋转角。在步骤712中,对于每一对光点,基于相关联的旋转角,确定散焦参数ψ。在步骤714中,对于每一对光点,基于相关联的散焦参数ψ,确定从照明器到物体的距离。在步骤716中,基于距离,提供深度数据。例如,此可以是深度图的形式,其中,每一个像素都与一个深度值相关联。
图8描绘了一个示例情形:其中,如在图6的步骤600中阐述的那样,使用照明器和图像传感器来提供深度信息。深度照像机800包括在视野中输出光的照明器802,以及感应从视野反射的光的图像传感器806。照明器和图像传感器分别具有相应的光轴804和808。照明器朝向诸如人目标812之类的物体输出示例光线或光束810。在此示例中,人目标举起他的或她的右臂。在人目标的特定部分814,光束以光线816反射,光线816由图像传感器感应。光线的连续光谱将由照明器输出,被物体反射,并由图像传感器感应。描绘了沿着光轴与深度照像机的各种深度或距离,包括表示参考聚焦深度或焦距的深度z0,逐渐地远离深度照像机的距离z1、z2和z3,以及逐渐地靠近深度照像机的距离-z1、-z2和-z3。如下面进一步说明的,深度的范围可以被视为物体812在焦点之外的散焦范围。参考聚焦深度可能是最佳聚焦深度,但是,这可以在视野内变化。
图9描绘了图8的照明器802的更详细的视图。在一个可能的实现中,诸如一个或多个LED或激光之类的光源900可以被用来向准直透镜904提供光束902,而准直透镜904又向衍射光学元件908提供准直光束906。衍射光学元件908跨定义视野的图案输出多个衍射光束910。
一般而言,衍射光学元件被用作光束复制器,该光束复制器生成相同几何形状的许多光束,每一个光束都传播到视野内的不同位置。每一个光束都通过衍射级来表示,零级是直线穿过衍射光学元件的光束。衍射光学元件从单一准直光束提供多个较小的光束。较小光束在所希望的预定图案中定义深度照像机的视野。例如,在运动跟踪系统中,希望以允许跟踪站在或坐在房间里的人目标的方式来照亮房间。为跟踪整个人目标,视野应该在足够宽的角度,在高度和宽度方面延伸,以便照亮人的整个高度和宽度以及当与运动跟踪系统的应用程序进行交互时人可以来回移动的区域。可以基于诸如人的预期高度和宽度之类的因素,包括当手臂被抬高到头上或被抬到侧面时手臂的跨度,当与应用程序进行交互时人可以移动的区域的大小,人与照像机的预期的距离,以及照像机的焦距,来设置适当的视野。
例如,视野可以足以照亮站立在距离照像机有3-15英尺或更多的人,其中,带有手臂跨度的人是7英尺高,6英尺宽,且人预期在中心位置的+/-6英尺的区域中移动,例如,在144平方英尺的占地面积中移动。可以基于人可以移动或存在的预期的深度范围,来设置散焦范围。在其他情况下,视野可以被设计成只照亮人的上身区域。当已知用户可能会坐下而不是站起来并来回移动时,缩小的视野是可以接受的。视野可以类似地被设计成照亮除人以外的物体。衍射光学元件908可以从单一准直光束提供许多较小的光束,如成千上万的较小的光束。每一个较小的光束都具有单个准直光束的功率的一小部分。较小的衍射光束可以具有名义上相等的强度。
透镜904和衍射光学元件908具有共同的光轴912。
图10描绘了图8的图像传感器806的更详细的视图。图像传感器1050可包括沿着光轴1010排列的相位掩模1002、透镜1006和传感元件1012。相位掩模是创建双螺旋图案的东西。可以使用诸如光刻之类的已知技术以在玻璃表面上产生不同高度的区域来产生造成双螺旋所需的特定相位,来制作相位掩模。传感元件可包括,例如,具有像素网格的CMOS图像传感器,每一个像素都感应一个光强度级别,以便获取视野内的光强度的分布。从视野反射的光1000穿过相位掩模1002,以提供穿过透镜1006的相位编码的准直光束1004。此光进而到达传感元件1012。图像传感器具有从-z3到z3的范围的散焦。每一个深度是对应于图8中的相同名称的深度的片。相位掩模1002、透镜1006和传感元件1012具有共同的光轴914。
图11描绘了由图9的照明器所提供的光的旋转角比对散焦参数。旋转角是由所两个光点所定义的角度(参见图13)。例如,角度可以被定义为两个光点之间的直线和诸如水平轴之类的参考轴之间的角度。旋转角可以被定义在任何深度,并在某一深度范围内旋转180度。为了跟踪运动捕捉系统中的人目标,通常,深度范围可以是例如至少1米(m)。这与某些应用形成对照,例如用于使用小得多的深度范围(例如,几微米)的组织的显微镜成像,其中,一微米是10-6m。在此预定义的深度范围(这是光学组件的函数)中,可以唯一地将每一个旋转映射到在运动捕捉系统中有意义的深度,例如,如用于跟踪人目标。还可以将给定旋转映射到预定义深度范围以外的深度。
旋转角可以在几乎180度的范围内。描绘了500、550和600nm波长的光的结果。如所示出的,对于不同的波长,有一致的旋转角对比散焦参数的关系。散焦是指沿着光轴远离参考焦点的平面或表面的平移距离(例如,图8中在z=0处)。带有低光圈值的光学系统将具有浅的焦深,而较大的光圈值将提供较大的焦深。可以通过来定义散焦参数ψ,其中,λ是光的波长,r是孔径大小,zobj是参考聚焦深,而zobj′是实际物距或深度。
图12描绘了由图10的图像传感器检测到的光的旋转角对比深度。对于500、550和600nm波长的光,获得一致的结果。如所示出的,有一致的旋转角对比深度参数的关系。可以基于深度照像机的光学装置,来设置深度的范围。
图13描绘了在不同的深度双螺旋点扩散函数和标准点扩散函数的光照图。沿着深度轴或z轴,分别在深度-z3、-z2、-z1、z0、z1、z2、z3提供双螺旋点扩散分布1300、1302、1304、1306、1308、1310和1312。为了进行比较,分别在深度-z3、-z2、-z1、z0、z1、z2、z3提供标准点扩散分布1320、1322、1324、1326、1328、1330和1332。双螺旋旋转点扩散函数(PSF)比标准PSF提供更多散焦信息,因为双螺旋PSF以散焦旋转,并且比标准PSF展开得慢。从而,旋转角信息可以用于以更大的准确性估计散焦(深度)。
实现双螺旋PSF的一种示例方法是通过拉盖尔-高斯光束的重叠。拉盖尔-高斯(LG)光束模式的重叠构成自成像光束(带有旋转和缩放)。使用光束的一个横平面中的复合场来作为目标光学系统的振幅传递函数。那么,光学系统的PSF是双螺旋。根据拉盖尔-高斯模式:
其中
Zn(z)=exp(inψ(z)))
其中是通过高斯光点尺寸缩放的径向坐标,以作为瑞利长度。瑞利长度是沿着光束从光腰到断面的面积翻倍的位置的传播方向的距离,其中,w0是光束腰。是广义拉盖尔多项式,而整数n、m遵守关系:n=|m|,|m|+2,|m|+4,...
例如,LG模式(n,m):(1,1),(5,3),(9,5),(13,7),(17,9)的重叠产生双螺旋旋转光束。通过优化,以上面的光束作为起始点,获得高效率的双螺旋光束,如S.R.P.Pavani和R.Piestun在“High-efficiency rotating point spread functions”(高效率旋转点扩散函数)光学快报,第16卷,第5期,3484-3489页,2008年3月中所讨论的,该文以引用的方式并入本文中。
使用波阵面编码,获得双螺旋PSF。波阵面编码一般是用于使用一个或多个专门设计的相位掩模来创建诸如透镜之类的光学组件的光学传递函数的方法。
图14和15示出了在不同位置的双螺旋光束。具体而言,图14描绘了在深度z=0(表示参考聚焦深度)时根据图13的双螺旋点扩散函数提供的光束的振幅。这里,w0=1mm。描绘了x轴(水平)和y轴(垂直)方向的振幅的变化。照明等级在从较低的照明(黑)到更高的照明(白)范围内变化。可以看出,提供了两个不同的光点,作为白区域。
图15描绘了在深度z=z0/2(表示瑞利长度z0的二分之一)时根据图13的双螺旋点扩散函数提供的光束的振幅。两个光点之间的旋转是明显的。
图16描绘了对于不同的光的波长,即,0.55μm、0.70μm和0.83μm,根据图13的双螺旋点扩散函数,方位角对比散焦位置。关于PSF跨聚焦平面的旋转,可以使用双螺旋光束(在z=0)的复合场作为振幅传递函数,诸如通过将它放在深度照像机的照明期的出射光瞳上。出射光瞳是光学系统中的虚拟光圈。只有穿过此虚拟光圈的光线才可以退出系统。
图17描绘了对应于图16的光点之间的距离对比散焦位置。随着波长变得越短,距离也变得越短。距离的比例取决于具体实现。
图18和19示出了在不同的图像平面的强度PSF函数。具体而言,图18描绘了在焦点处根据图13的双螺旋点扩散函数提供的光束,而图19描绘了在散焦处根据图13的双螺旋点扩散函数提供的光束。基于与深度照像机的距离,可以清楚地看到两个光点以及两个光点的旋转。当聚焦时,两个光点水平地排列,当散焦时,两个光电与水平线成一定角度。较亮的区域具有更高的感应的照明。
图20A描绘了根据图13的双螺旋点扩散函数提供的光束的出射光瞳振幅。图20B描绘了与图20A的振幅相关联的出射光瞳相位。考虑带有F#=3(光圈值,也被称为焦距比或光圈数刻度)的成像系统。向系统的出射光瞳应用双螺旋光束的复合场。由于有限光瞳大小,双螺旋光束的复合场实际被截断,以匹配出射光瞳。如果双螺旋场在光瞳大小内,此截断的效果不显著。这里,使用利用w0=0.8mm的高斯光束光腰大小的LG模式生成的双螺旋光束。在图20A和20B中示出了出射光瞳函数。
图21描绘了根据图13的双螺旋点扩散函数提供的光束的方位角对比物距。在此示例中,角度从1m处的大约-90度变换到大约5m处的+90度。角度在2m处是零度。图像平面位于2米的额定物距的其近轴焦平面上。
图22A、22B、22C、22D、22E和22F描绘了根据图21的分别在物距1、1.5、2、3、4和5m处的非相干点扩散函数。具体地,在图22A中,旋转角大约是-90度,表示1m的距离。在图22B中,旋转角大约是-40度,表示1.5m的距离。在图22C中,旋转角大约是零度,表示2m的距离。在图22D中,旋转角大约是40度,表示3m的距离。在图22E中,旋转角大约是60度,表示4m的距离。在图22F中,旋转角大约是90度,表示5m的距离。如此,1-5m是可以确定人或其他目标的深度的示例深度范围。
图23描绘了用于使用双重图像传感器来跟踪运动捕捉系统中的人目标的方法。在此方法中,使用两个或更多图像传感器来获取场景的图像,如人在其中移动同时与运动捕捉系统进行交互的房间的图像。此方法不依赖于通过深度照相机系统的照明器对场景的任何特定类型的照明,并且可以在根本没有深度照相机系统照明的情况下工作。具有一个没有相位掩模的成像器以及一个带有相位掩模的成像器。然后,可以使用各种技术来对相位去卷积。步骤2300-2302涉及与没有相位掩模的成像器相关联的步骤,如在图25中所描绘的,而步骤2304-2308涉及与带有相位掩模的成像器相关联的步骤,如在图10中所描绘的。步骤2300-2302可以与步骤2304-2308在相同时间发生,以便在相同时间点获取场景的双重图像。在步骤2300中,来自视野内的物体的光穿过第一图像传感器的透镜。视野可以被视为图像传感器的视野,例如,图像传感器可以感应的场景的区域。在步骤2302中,光到达第一图像传感器元件,而形成参考图像,其带有像素强度值iref。图像传感器中的每一个像素都可以检测具有相关联的强度或振幅的光。图像中的iref值的集合表示图像的图像强度分布。在一种方法中,第一图像传感器不使用相位编码掩模。
在步骤2304中,来自视野内的物体的光穿过第二图像传感器的相位编码掩模,以产生相位编码的光。例如,这可以类似于图10的掩模1002。在步骤2306中,相位编码的光穿过第二图像传感器的透镜。在步骤2308中,相位编码的光到达第二图像传感器元件,并形成相位编码的图像,其带有像素强度值idh。下标“dh”表示双螺旋点扩散函数,其被用来对由第二图像传感器接收到的光进行编码。图像中的idh值的集合表示图像的图像强度分布。
步骤2310根据下列关系来确定深度信息:F-1{F(idh)xHref/F(iref)},其中,F表示傅里叶变换,F-1表示傅里叶逆变换,而Href是参考图像的点扩散函数的光学传递函数,如下面进一步描述的。
图24描绘了另一个示例情形:其中,如在图6的步骤600中阐述的那样,使用双重图像传感器来提供深度信息。如上文所提及的,不需要照明器,从而缩小深度照像机2400的大小、成本和功耗。另外,与激光用于照明器中的情况相比,避免了安全问题。深度照像机2400包括第一图像传感器2402和第二图像传感器2406,它们分别具有各自的光轴2404和2408。第一图像传感器2402可以是没有相位掩模的成像器,如在图25中所描绘的,而第二图像传感器2406可以是带有相位掩模的成像器,如在图10中所描绘的。
从人目标2412的特定部分2414以被第一图像传感器感应的光线2410发射光,,并以被第二图像传感器2406感应的光线2416发射光。光线的连续光谱将由人目标从人目标的不同的部分输出,并被图像传感器感应。描绘了沿着光轴与深度照像机的各种深度或距离,包括表示参考焦深或焦距的深度z0,逐渐地远离深度照像机的距离z1、z2和z3,以及逐渐地靠近深度照像机的距离-z1、-z2和-z3,类似于图8。
图25描绘了没有相位掩模的图24的第一图像传感器2402。在图像传感器2550中,来自场景的光2500穿过透镜2502,从那里到诸如CMOS(互补金属氧化物半导体)图像传感器之类的成像元件2504。透镜2502和成像元件2504可以具有共同的光轴2506。
具体而言,图26A描绘了图24的示例情形中的原始参考图像。这是在完美的标准成像系统中在几何学上获得的图像。该图像描绘了各种测试形状。图26B、26C和26D示出了在不同的物距带有双螺旋传输函数的所得的已编码图像。具体而言,图26B、26C和26D分别描绘了图24的示例情形中的在物距1、2或4m时的衍射图像。沿着x轴和y轴的单位是像素。可以看出,已编码图像具有根据旋转角彼此偏离的冗余图像特征。参考图像具有相同图像特征,但是,它们不会冗余地出现。可以基于特征的旋转角来确定成像的目标的深度信息。例如,在图26A的参考图像中描绘了特征2600。此相同特征将表现为图26B的已编码图像中的冗余特征2602和2604。旋转角可以通过水平线和冗余特征的对应部分之间的直线之间的角度来定义。这里,旋转角接近于90度。在每一张图的右侧提供了光强度比例。
关于基于双螺旋PSF的深度提取,提取深度信息的一种方式是通过使用两个帧和去卷积算法来恢复PSF。有关进一步的细节,参见A.Greengard、Y.Y.Schechner和R.Piestun所著的“Depth from diffracted rotation”(来自衍射旋转的深度),光学快报,第31卷,第2期,181-183页,2006年1月15日),该文以引用的方式并入本文中。除由双螺旋PSF系统获取的图像之外,需要对散焦最不敏感而同时在整个所感兴趣的深度范围内相对清晰的参考帧。可以根据下列公式来估计双螺旋PSF:
其中,F表示傅里叶变换,Ψ是散焦参数,Hdh和Href分别是双螺旋PSF和参考PSF的光学传递函数。参考PSF是来自没有相位掩模的图像传感器的PSF。Idh是由双螺旋系统获取的像素(例如,图26B、26C或26D)的图像强度值iref的傅里叶变换,而Iref是参考图像(例如,图26A)的像素的图像强度值idh的傅里叶变换。一旦恢复PSF,就可以通过校准,通过旋转角来估计深度。
另一个方法是直接估计由投影仪/照明器所生成的结构化光点形成的旋转角。如果光点足够小并很好地分离,那么每一光点都在图像上生成可区分的双螺旋,从该双螺旋,可以估计旋转角,因此,也能估计散焦(深度)。然而,光点图像大小(通过理想的透镜和无衍射)应该小于双螺旋PSF光点距离,以便所得的双螺旋图案适用于角度估计。此光点大小极限(两个双螺旋光点之间的距离,并可以小于<9μm)非常接近于点光源的衍射限制的光点尺寸。如果成像系统被适当地优化,包括双螺旋PSF、透镜、结构化光,以及成像传感器,则此方法是可行的。
图27描绘了如在图6的步骤608中阐述的用户的示例模型。模型2700在-z方向面向深度照像机,以致于所示出的截面位于x-y平面。注意垂直y轴和横向x轴。在其他图中提供了类似的符号。该模型包括许多参考点,如头2702的顶部、头的底部或下巴2713、右肩2704、右肘2706、右手腕2708和右手2710,如例如由指尖区域所表示的。从用户面向照像机的角度,定义了左右侧。该模型还包括左肩2714、左肘2716、左手腕2718和左手2720。还描绘了腰部区域2722,以及右臀部2724、右膝2726、右脚2728、左臀部2730、左膝2732和左脚2734。肩线2712是肩2704和2714之间的线,通常是水平的。例如,还描绘了在点2722和2713之间延伸的上躯干中心线2725。
前面的对本技术的详细描述只是为了说明和描述。它不是为了详尽的解释或将本技术限制在所公开的准确的形式。鉴于上述教导,许多修改和变型都是可能的。所描述的实施例只是为了最好地说明本技术的原理以及其实际应用,从而使精通本技术的其他人在各种实施例中最佳地利用本技术,适合于特定用途的各种修改也是可以的。本技术的范围由所附的权利要求进行定义。
Claims (15)
1.一种3-D深度照相机系统,包括:
(a)照明器(24,802),所述照明器包括:
(i)至少一个准直光源(900),所述至少一个准直光源提供准直光束(902);
(ii)衍射光学元件(908),所述衍射光学元件接收所述准直光束,并创建多个衍射光束(910),所述衍射光束(910)照亮包括人目标(8)的视野(6);
(b)图像传感器(1050),所述图像传感器使用来自所述人目标的不同部分的所述多个衍射光束的反射光来提供所述人目标的检测到的图像,所述图像传感器包括相位掩模(1002),所述相位掩模(1002)调整所述检测到的图像,以使来自所述人目标的不同部分的所述多个衍射光束的反射光中的每一个的点扩散函数作为双螺旋来成像;以及
(c)与所述图像传感器相关联的至少一个处理器(32),所述至少一个处理器确定所述人目标的所述不同部分的深度信息,并响应于所述深度信息区别所述人目标在所述视野内的运动。
2.如权利要求1所述的3-D深度照相机系统,其特征在于:
所述至少一个处理器基于所述深度信息来确定所述人目标的3-D模型。
3.如权利要求1或2所述的3-D深度照相机系统,其特征在于:
所述至少一个处理器基于所述深度信息来跟踪所述人目标随时间的移动,并向应用程序提供对应的控制输入,而所述应用程序基于所述控制输入来更新显示器。
4.如权利要求1所述的3-D深度照相机系统,其特征在于:
所述衍射光学元件创建所述多个衍射光束,作为多个衍射级;以及
所述至少一个处理器基于所述检测到的图像的每一衍射级的所述双螺旋的旋转,来确定所述人目标的不同部分的深度信息。
5.如权利要求4所述的3-D深度照相机系统,其特征在于:
所述至少一个处理器基于根据旋转角彼此偏移的两个不同的光点的旋转,来确定所述人目标的不同部分的深度信息。
6.如权利要求5所述的3-D深度照相机系统,其特征在于:
所述旋转角在至少一米的深度范围内变化180度。
7.如权利要求1所述的3-D深度照相机系统,其特征在于:
所述至少一个处理器至少基于所述检测到的图像的强度分布,来确定所述深度信息。
8.一种用于对视野中的物体成像的3-D深度照相机系统,包括:
第一传感器(2402),所述第一传感器提供所述物体的参考图像而不使用相位掩模,其中所述参考图像包括在所述参考图像中不冗余地出现的图像特征;
第二传感器(2406),所述第二传感器使用相位掩模(1002)来提供所述物体的已编码图像,其中所述已编码图像也包括所述图像特征,但所述图像特征在所述已编码图像中表现为根据旋转角彼此偏离的冗余图像特征,所述相位掩模根据双螺旋点扩散函数来对来自所述物体的光进行编码;以及
至少一个处理器(32),所述至少一个处理器至少基于所述参考图像的强度分布iref和所述已编码图像的强度分布idh来确定所述物体的深度信息。
9.如权利要求8所述的3-D深度照相机系统,其特征在于:
所述已编码图像是相位编码的。
10.如权利要求8或9所述的3-D深度照相机系统,其特征在于:
所述至少一个处理器基于所述深度信息来跟踪所述物体的移动,并向应用程序提供对应的控制输入,而所述应用程序基于所述控制输入来更新显示器。
11.如权利要求10所述的3-D深度照相机系统,其特征在于:
所述物体是人目标。
12.如权利要求8所述的3-D深度照相机系统,其特征在于:
所述至少一个处理器响应于所述深度信息来区别所述物体在所述视野内的运动。
13.如权利要求8所述的3-D深度照相机系统,其特征在于:
所述参考图像是未编码的。
14.如权利要求8所述的3-D深度照相机系统,其特征在于:
所述至少一个处理器使用所述参考图像的点扩散函数的光学传递函数Href来确定所述深度信息。
15.如权利要求14所述的3-D深度照相机系统,其特征在于:
所述至少一个处理器根据:F-1{F(idh)×Href/F(iref)},来确定所述深度信息,其中,F表示傅里叶变换,而F-1表示傅里叶逆变换。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/816,985 | 2010-06-16 | ||
US12/816,985 US8558873B2 (en) | 2010-06-16 | 2010-06-16 | Use of wavefront coding to create a depth image |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102222347A CN102222347A (zh) | 2011-10-19 |
CN102222347B true CN102222347B (zh) | 2014-07-09 |
Family
ID=44778891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110172788.0A Active CN102222347B (zh) | 2010-06-16 | 2011-06-16 | 使用波阵面编码来创建深度图像 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8558873B2 (zh) |
CN (1) | CN102222347B (zh) |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007136745A2 (en) | 2006-05-19 | 2007-11-29 | University Of Hawaii | Motion tracking system for real time adaptive imaging and spectroscopy |
US8693742B2 (en) | 2008-12-17 | 2014-04-08 | The Regents Of The University Of Colorado | Three-dimensional single-molecule fluorescence imaging beyond the diffraction limit using a double-helix point spread function |
US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
CN102845052B (zh) * | 2010-04-21 | 2015-06-24 | 富士通株式会社 | 摄像装置以及摄像方法 |
US20120056988A1 (en) * | 2010-09-07 | 2012-03-08 | David Stanhill | 3-d camera |
EP2474950B1 (en) * | 2011-01-05 | 2013-08-21 | Softkinetic Software | Natural gesture based user interface methods and systems |
KR101801355B1 (ko) * | 2011-03-25 | 2017-11-24 | 엘지전자 주식회사 | 회절 소자와 광원을 이용한 대상물의 거리 인식 장치 |
CN102859319A (zh) * | 2011-04-19 | 2013-01-02 | 三洋电机株式会社 | 信息获取装置以及物体检测装置 |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
US9606209B2 (en) | 2011-08-26 | 2017-03-28 | Kineticor, Inc. | Methods, systems, and devices for intra-scan motion correction |
US9693034B2 (en) | 2011-12-13 | 2017-06-27 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for localizing objects for distance and/or in three dimensions using a spiral point spread function |
US9961326B2 (en) * | 2012-01-09 | 2018-05-01 | Kla-Tencor Corporation | Stereo extended depth of focus |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US9207070B2 (en) | 2012-05-24 | 2015-12-08 | Qualcomm Incorporated | Transmission of affine-invariant spatial mask for active depth sensing |
EP2864961A4 (en) | 2012-06-21 | 2016-03-23 | Microsoft Technology Licensing Llc | AVATAR CONSTRUCTION USING A DEPTH CAMERA |
WO2013192619A2 (en) | 2012-06-22 | 2013-12-27 | The Regents Of The University Of Colorado, A Body Corporate | Imaging or measurement methods and systems |
US20140022171A1 (en) * | 2012-07-19 | 2014-01-23 | Omek Interactive, Ltd. | System and method for controlling an external system using a remote device with a depth sensor |
US9696427B2 (en) * | 2012-08-14 | 2017-07-04 | Microsoft Technology Licensing, Llc | Wide angle depth detection |
US20140104394A1 (en) * | 2012-10-15 | 2014-04-17 | Intel Corporation | System and method for combining data from multiple depth cameras |
US9304603B2 (en) * | 2012-11-12 | 2016-04-05 | Microsoft Technology Licensing, Llc | Remote control using depth camera |
CN102980875B (zh) * | 2012-11-19 | 2015-04-22 | 深圳大学 | 大景深三维纳米分辨成像方法、光学组件及成像系统 |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
CN105392423B (zh) | 2013-02-01 | 2018-08-17 | 凯内蒂科尔股份有限公司 | 生物医学成像中的实时适应性运动补偿的运动追踪系统 |
US9858464B2 (en) | 2013-03-15 | 2018-01-02 | The Regents Of The University Of Colorado, A Body Corporate | 3-D localization and imaging of dense arrays of particles |
WO2015031395A1 (en) | 2013-08-26 | 2015-03-05 | The Regents Of The University Of Colorado | Imaging through scattering media with high signal to noise ratio and resolution |
TWI508526B (zh) * | 2013-10-01 | 2015-11-11 | Wistron Corp | 產生視角平移影像之方法及其可攜式電子設備 |
US9443310B2 (en) | 2013-10-09 | 2016-09-13 | Microsoft Technology Licensing, Llc | Illumination modules that emit structured light |
US9228829B2 (en) | 2013-10-31 | 2016-01-05 | Industrial Technology Research Institute | Method and system for measuring distance |
WO2015090611A1 (en) | 2013-12-20 | 2015-06-25 | Sony Corporation | Apparatus and optical system including an optical element |
CN103796001B (zh) * | 2014-01-10 | 2015-07-29 | 深圳奥比中光科技有限公司 | 一种同步获取深度及色彩信息的方法及装置 |
US10004462B2 (en) | 2014-03-24 | 2018-06-26 | Kineticor, Inc. | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
US9810893B2 (en) | 2014-03-27 | 2017-11-07 | The Board Of Trustees Of The Leland Stanford Junior University | Phase mask imaging with characterization of rotational mobility |
US9805454B2 (en) * | 2014-07-15 | 2017-10-31 | Microsoft Technology Licensing, Llc | Wide field-of-view depth imaging |
WO2016014718A1 (en) | 2014-07-23 | 2016-01-28 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN105629255B (zh) * | 2014-11-03 | 2019-02-12 | 信泰光学(深圳)有限公司 | 测距仪 |
US10520792B2 (en) * | 2014-11-03 | 2019-12-31 | Sintai Optical (Shenzhen) Co., Ltd. | Range finder |
US9967541B2 (en) * | 2014-11-05 | 2018-05-08 | The Regents Of The University Of Colorado, A Body Corporate | 3D imaging, ranging, and/or tracking using active illumination and point spread function engineering |
US10187626B2 (en) | 2015-04-10 | 2019-01-22 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatuses and methods for three-dimensional imaging of an object |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
WO2017091479A1 (en) | 2015-11-23 | 2017-06-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
DE102016203671A1 (de) * | 2016-03-07 | 2017-09-07 | Carl Zeiss Microscopy Gmbh | Verfahren zum Bestimmen einer Höheninformationen einer Probe und Scanningmikroskop |
CN107436682A (zh) * | 2016-05-26 | 2017-12-05 | 华硕电脑股份有限公司 | 控制方法、电子装置及非瞬时电脑可读取记录媒体 |
US10241244B2 (en) | 2016-07-29 | 2019-03-26 | Lumentum Operations Llc | Thin film total internal reflection diffraction grating for single polarization or dual polarization |
US10021372B2 (en) | 2016-09-16 | 2018-07-10 | Qualcomm Incorporated | Systems and methods for improved depth sensing |
CN106371281A (zh) * | 2016-11-02 | 2017-02-01 | 辽宁中蓝电子科技有限公司 | 基于结构光多模块360度空间扫描和定位的3d相机 |
US10474468B2 (en) * | 2017-02-22 | 2019-11-12 | Advanced Micro Devices, Inc. | Indicating instruction scheduling mode for processing wavefront portions |
DE112018002670T5 (de) | 2017-05-24 | 2020-03-05 | The Trustees Of Columbia University In The City Of New York | Breitband achromatische flache optische Komponenten durch dispersionstechnische dielektrische Metaoberflächen |
US11182915B2 (en) | 2017-07-12 | 2021-11-23 | Gentex Corporation | Visual, depth and micro-vibration data extraction using a unified imaging device |
JP6932036B2 (ja) * | 2017-07-31 | 2021-09-08 | シスメックス株式会社 | 細胞撮像方法、細胞撮像装置、粒子撮像方法および粒子撮像装置 |
WO2019046827A1 (en) | 2017-08-31 | 2019-03-07 | Metalenz, Inc. | INTEGRATION OF TRANSMISSIVE METASURFACE LENS |
US10962790B2 (en) | 2017-09-05 | 2021-03-30 | Facebook Technologies, Llc | Depth measurement using a pulsed structured light projector |
CN108012136B (zh) * | 2017-12-08 | 2019-06-21 | 北京信息科技大学 | 一种基于模糊函数刻画的聚焦扫描与计算成像方法 |
DE102017223673A1 (de) * | 2017-12-22 | 2019-06-27 | Robert Bosch Gmbh | LIDAR-System zur Erfassung eines Objekts |
FR3078172B1 (fr) * | 2018-02-22 | 2020-06-05 | Office National D'etudes Et De Recherches Aerospatiales | Dispositif d'imagerie et d'information spectroscopique |
KR102472156B1 (ko) * | 2018-04-19 | 2022-11-30 | 삼성전자주식회사 | 전자 장치 및 그 깊이 정보 생성 방법 |
US10922829B2 (en) * | 2018-06-06 | 2021-02-16 | Qualcomm Incorporated | Zero order light removal in active sensing systems |
US10753734B2 (en) * | 2018-06-08 | 2020-08-25 | Dentsply Sirona Inc. | Device, method and system for generating dynamic projection patterns in a confocal camera |
JP7297891B2 (ja) | 2018-07-19 | 2023-06-26 | アクティブ サージカル, インコーポレイテッド | 自動化された外科手術ロボットのためのビジョンシステム内の深度のマルチモード感知のためのシステムおよび方法 |
US10460473B1 (en) * | 2018-12-14 | 2019-10-29 | Zoox, Inc. | Camera calibration system |
CN109521434B (zh) * | 2018-12-27 | 2020-09-08 | 合肥泰禾光电科技股份有限公司 | 一种激光测量方法及控制处理器 |
EP3952720A4 (en) | 2019-04-08 | 2023-04-05 | Activ Surgical, Inc. | SYSTEMS AND METHODS FOR MEDICAL IMAGING |
US11978752B2 (en) | 2019-07-26 | 2024-05-07 | Metalenz, Inc. | Aperture-metasurface and hybrid refractive-metasurface imaging systems |
EP4017340A4 (en) | 2019-08-21 | 2023-12-13 | Activ Surgical, Inc. | MEDICAL IMAGING SYSTEMS AND METHODS |
CN111721233B (zh) * | 2020-06-19 | 2022-05-31 | 广州立景创新科技有限公司 | 三维感测装置、发光模块及其控制方法 |
US11850026B2 (en) | 2020-06-24 | 2023-12-26 | The Governing Council Of The University Of Toronto | Remote portable vital signs monitoring |
EP4374313A2 (en) * | 2021-07-20 | 2024-05-29 | Sony Group Corporation | Camera, method and image processing method |
US11927769B2 (en) | 2022-03-31 | 2024-03-12 | Metalenz, Inc. | Polarization sorting metasurface microlens array device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1888814A (zh) * | 2006-07-25 | 2007-01-03 | 深圳大学 | 三维主动视觉传感器的多视点姿态估计和自标定方法 |
US7349104B2 (en) * | 2003-10-23 | 2008-03-25 | Technest Holdings, Inc. | System and a method for three-dimensional imaging systems |
US7627139B2 (en) * | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
Family Cites Families (168)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
JPH03103822U (zh) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
JPH06508788A (ja) | 1991-12-03 | 1994-10-06 | フレンチ スポーテク コーポレイション | 対話型ビデオ式検査および訓練システム |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
US7218448B1 (en) | 1997-03-17 | 2007-05-15 | The Regents Of The University Of Colorado | Extended depth of field optical systems |
US20020118457A1 (en) | 2000-12-22 | 2002-08-29 | Dowski Edward Raymond | Wavefront coded imaging systems |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
WO1996041304A1 (en) | 1995-06-07 | 1996-12-19 | The Trustees Of Columbia University In The City Of New York | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
AU3283497A (en) | 1996-05-08 | 1997-11-26 | Real Vision Corporation | Real time simulation using position sensing |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
WO1998007129A1 (fr) | 1996-08-14 | 1998-02-19 | Latypov Nurakhmed Nurislamovic | Procede de suivi et de representation de la position et de l'orientation d'un sujet dans l'espace, procede de presentation d'un espace virtuel a ce sujet, et systemes de mise en oeuvre de ces procedes |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
EP0849697B1 (en) | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
US6384819B1 (en) | 1997-10-15 | 2002-05-07 | Electric Planet, Inc. | System and method for generating an animatable character |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
WO1999019828A1 (en) | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
DE69936620T2 (de) | 1998-09-28 | 2008-05-21 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verfahren und Vorrichtung zum Segmentieren von Handgebärden |
WO2000034919A1 (en) | 1998-12-04 | 2000-06-15 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
EP1147370B1 (en) | 1998-12-16 | 2009-02-25 | 3DV Systems Ltd. | Self gating photosurface |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US6525302B2 (en) | 2001-06-06 | 2003-02-25 | The Regents Of The University Of Colorado | Wavefront coding phase contrast imaging systems |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
AU2003212211A1 (en) | 2002-04-19 | 2003-11-03 | Iee International Electronics And Engineering S.A. | Safety device for a vehicle |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
JP4355341B2 (ja) | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
WO2004111687A2 (en) | 2003-06-12 | 2004-12-23 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
WO2005067319A1 (ja) | 2003-12-25 | 2005-07-21 | Brother Kogyo Kabushiki Kaisha | 画像表示装置および信号処理装置 |
WO2005086582A2 (en) | 2004-03-11 | 2005-09-22 | Nano-Or Technologies (Israel) Ltd. | Methods and apparatus for wavefront manipulations and improved 3-d measurements |
EP1743277A4 (en) | 2004-04-15 | 2011-07-06 | Gesturetek Inc | MONITORING OF BI-MANUAL MOVEMENTS |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
JP2008537190A (ja) | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | 赤外線パターンを照射することによる対象物の三次元像の生成 |
JP5160235B2 (ja) | 2005-01-07 | 2013-03-13 | クアルコム,インコーポレイテッド | 画像中の物体の検出及び追跡 |
US7379566B2 (en) | 2005-01-07 | 2008-05-27 | Gesturetek, Inc. | Optical flow based tilt sensor |
EP1851750A4 (en) | 2005-02-08 | 2010-08-25 | Oblong Ind Inc | SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES |
US7317836B2 (en) | 2005-03-17 | 2008-01-08 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
WO2006102201A1 (en) | 2005-03-18 | 2006-09-28 | Cdm Optics, Inc. | Imaging systems with pixelated spatial light modulators |
US7389591B2 (en) | 2005-05-17 | 2008-06-24 | Gesturetek, Inc. | Orientation-sensitive signal output |
EP1752748B1 (en) | 2005-08-12 | 2008-10-29 | MESA Imaging AG | Highly sensitive, fast pixel for use in an image sensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
DE102006007170B4 (de) * | 2006-02-08 | 2009-06-10 | Sirona Dental Systems Gmbh | Verfahren und Anordnung zur schnellen und robusten chromatisch konfokalen 3D-Messtechnik |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
US8369642B2 (en) | 2006-11-21 | 2013-02-05 | Stmicroelectronics (Research & Development) Ltd | Artifact removal from phase encoded images |
WO2008079301A2 (en) | 2006-12-21 | 2008-07-03 | Massachusetts Institute Of Technology | Methods and apparatus for 3d surface imaging using active wave-front sampling |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
US8693742B2 (en) * | 2008-12-17 | 2014-04-08 | The Regents Of The University Of Colorado | Three-dimensional single-molecule fluorescence imaging beyond the diffraction limit using a double-helix point spread function |
-
2010
- 2010-06-16 US US12/816,985 patent/US8558873B2/en active Active
-
2011
- 2011-06-16 CN CN201110172788.0A patent/CN102222347B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7627139B2 (en) * | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
US7349104B2 (en) * | 2003-10-23 | 2008-03-25 | Technest Holdings, Inc. | System and a method for three-dimensional imaging systems |
CN1888814A (zh) * | 2006-07-25 | 2007-01-03 | 深圳大学 | 三维主动视觉传感器的多视点姿态估计和自标定方法 |
Non-Patent Citations (2)
Title |
---|
Sri Rama Prasanna Pavani, et al.Three-dimensional, single-molecule fluorescence imaging beyond the diffraction limit by using a double-helix point spread function.《PNAS》.2009,第106卷(第9期),摘要、第2995页右栏第2段-第2996页右栏第1段,第2996页"Fundamentals of Imaging by Using the DH-PSF",第2998页左栏第1段、附图1. |
Three-dimensional, single-molecule fluorescence imaging beyond the diffraction limit by using a double-helix point spread function;Sri Rama Prasanna Pavani, et al;《PNAS》;20090303;第106卷(第9期);摘要、第2995页右栏第2段-第2996页右栏第1段,第2996页"Fundamentals of Imaging by Using the DH-PSF",第2998页左栏第1段、附图1 * |
Also Published As
Publication number | Publication date |
---|---|
US8558873B2 (en) | 2013-10-15 |
US20110310226A1 (en) | 2011-12-22 |
CN102222347A (zh) | 2011-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102222347B (zh) | 使用波阵面编码来创建深度图像 | |
CN102332090B (zh) | 划分在视野内的焦点区域 | |
CN102385237B (zh) | 基于结构化光和立体视觉的深度相机 | |
CN102549619B (zh) | 人类跟踪系统 | |
CN102665838B (zh) | 用于确定和跟踪目标的肢端的方法和系统 | |
US8213680B2 (en) | Proxy training data for human body tracking | |
CN102222431B (zh) | 用于翻译手语的计算机实现的方法 | |
TWI628465B (zh) | 發射結構光的照明模組 | |
CN103608844B (zh) | 全自动动态关节连接的模型校准 | |
CN102184009B (zh) | 跟踪系统中的手位置后处理精炼 | |
US8320621B2 (en) | Depth projector system with integrated VCSEL array | |
TWI469813B (zh) | 在動作擷取系統中追踪使用者群組 | |
CN102222329B (zh) | 深度检测的光栅扫描 | |
CN102622774B (zh) | 起居室电影创建 | |
CN102542566B (zh) | 对传感器的位置进行定向 | |
CN102289815B (zh) | 检测多功能传感器设备的运动 | |
CN102314595A (zh) | 用于改善话音识别的rgb/深度相机 | |
CN102576466A (zh) | 用于跟踪模型的系统和方法 | |
US20050206610A1 (en) | Computer-"reflected" (avatar) mirror | |
CN102681293A (zh) | 具有折射光学元件的照明器 | |
CN102163324A (zh) | 深度图像的去混叠 | |
CN102193624A (zh) | 用于基于姿势的用户界面的物理交互区 | |
CN103597515A (zh) | 用于识别张开的或闭合的手的系统 | |
CN102207771A (zh) | 推断参与运动捕捉系统的用户意图 | |
TW201246088A (en) | Theme-based augmentation of photorepresentative view |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |