CN102572505B - 用于校准深度图像传感器的方法和系统 - Google Patents
用于校准深度图像传感器的方法和系统 Download PDFInfo
- Publication number
- CN102572505B CN102572505B CN201110364401.1A CN201110364401A CN102572505B CN 102572505 B CN102572505 B CN 102572505B CN 201110364401 A CN201110364401 A CN 201110364401A CN 102572505 B CN102572505 B CN 102572505B
- Authority
- CN
- China
- Prior art keywords
- depth
- error
- depth image
- image transducer
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/22—Setup operations, e.g. calibration, key configuration or button assignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明涉及家中深度相机校准。公开了用于在自然用户接口中校准深度相机的系统和方法。该系统大体而言获取捕捉设备和场景中的一个或多个对象之间的真实距离的客观测量。然后该系统在一个或多个点处将该真实深度测量与由深度相机提供的深度测量进行比较,并确定描述深度相机测量中的误差的误差函数。然后该深度相机可被重新校准以纠正该误差。场景中的一个或多个对象的距离的客观测量可以通过各种系统和方法实现。
Description
技术领域
本发明涉及深度相机,尤其涉及家中深度相机校准。
背景技术
在过去,诸如计算机游戏和多媒体应用等计算应用使用控制器、遥控器、键盘、鼠标等来允许用户操纵游戏人物或应用的其他方面。近来,计算机游戏和多媒体应用已开始使用相机和软件姿势识别引擎来提供自然用户接口(“NUI”)。使用NUI,检测、解释用户姿势和语音并将其用于控制游戏人物或应用的其他方面。
NUI系统使用三维(3-D)深度相机来捕捉场景的三维数据。深度相机要求若干组件被精确对准以正确地测量深度。即便微小的未对准也可能导致显著的深度测量误差。未对准可能由于各种状况而发生,包括例如不恰当的制造、极端温度或其他环境因素、掉落相机或其他物理损坏等。一旦对准被改变,深度可能以多种方式被不正确地报告。这种失真的结果可能导致相机的深度范围的漂移、对象尺寸的变形,或者多种其他失真可能发生。因此期望提供一种用于校准深度相机以捕捉精确的深度图像的系统,优选地对用户体验带来最小的影响。
发明内容
粗略言之,本技术涉及对NUI系统中使用的深度传感器进行重新校准。NUI系统一般包括捕捉设备,捕捉设备包括深度传感器和RGB传感器。深度投影仪可将光发射到场景上,所述光被反射回来并被深度传感器和RGB传感器感测。深度传感器使用反射的光来确定场景内的对象的深度。本技术涉及用于重新校准深度传感器以纠正深度传感器的工厂校准之后可能出现的任何深度测量误差。
大体而言,本系统获取对视野中的对象的真实深度测量。然后该系统将真实深度测量与由深度传感器提供的深度测量进行比较,以定义偏差的误差模型。本系统提供用于确定场景中的一个或多个对象的真实深度测量的各种方法,而独立于从深度传感器获得的深度测量。在直接的实施例中,可简单地将深度传感器调整到真实深度。在进一步的实施例中,可开发更复杂的数学模式来对深度误差进行建模。然后可通过最小化深度误差来补偿该深度误差。
本技术的一个示例涉及对自然用户接口的深度传感器进行重新校准的方法,该深度传感器从三维空间捕捉图像数据。该方法包括以下步骤:(a)使用深度传感器测量该三维空间中至少一个样本点的深度值;(b)独立于所述步骤(a)的测量,确定该至少一个样本点的真实深度值;(c)对在所述步骤(b)中确定的真实深度和在所述步骤(a)中测量的深度中的偏差导致的深度误差进行建模;以及(d)使用在所述步骤(c)中建模的深度误差纠正深度传感器做出的深度测量。
本技术的进一步示例涉及包括用于对处理器编程以执行对自然用户接口的深度传感器进行重新校准的方法的指令的计算机可读存储介质,该深度传感器捕捉来自三维空间的图像数据。该方法包括以下步骤:(a)使用深度传感器测量该三维空间内的校准对象上的两个或更多个点的深度;(b)独立于深度传感器,确定该校准对象上的该两个或更多个点的真实深度;(c)对在所述步骤(b)中确定的真实深度和在所述步骤(a)中测量的深度中的偏差导致的深度误差进行建模;以及(d)使用在所述步骤(c)中建模的深度误差补偿深度传感器所做的深度测量。
在另一示例中,本技术涉及对自然用户接口的深度传感器进行重新校准的系统,该深度传感器捕捉来自三维空间的图像数据,该系统包括:位于该三维空间内的校准对象;以及与深度传感器相关联的计算设备,该计算设备包括用于将该三维空间中该校准对象上的点的真实深度值与该深度传感器测量的深度值进行比较、以及推导出描述真实深度值和由深度传感器测量的深度值之间的偏差的误差模型的重新校准引擎。
提供本发明内容以便以简化的形式介绍将在以下具体实施方式中进一步描述的一些概念。本发明内容并非旨在标识所要求保护的主题的关键特征或必 要特征,也不旨在用于帮助确定所要求保护的主题的范围。此外,所要求保护的主题不限于解决在本公开的任何部分中提及的任何或所有缺点的实现。
附图说明
图1示出了目标识别、分析和跟踪系统的示例实施例。
图2示出了目标识别、分析和跟踪系统的进一步的示例实施例。
图3示出了可以在目标识别、分析和跟踪系统中使用的捕捉设备的示例实施例。
图4是根据本技术的第一实施例校准深度传感器的流程图。
图5是捕捉设备的视野中的用户的图示。
图6是图5的用户的深度图像。
图7是根据本技术的第二实施例校准深度传感器的高级流程图。
图8是由深度传感器测量的样本点和相同样本点的真实确定深度的图。
图9是位于捕捉设备的视野中用户拿着校准对象的图示。
图10是校准对象的放大视图。
图11是校准对象的放大视图,示出了可由捕捉设备标识的参考点。
图12是显示给用户的校准对象的视图,具有用于在离该捕捉设备的特定深度处定位校准对象的目标。
图13是用于检测校准对象中的点的流程图。
图14是校准对象相对于深度相机的坐标系并相对于RGB相机的坐标系的平面的图示。
图15是用于将校准对象的平面中的点转换到RGB相机的参考帧,然后基于RGB相机测量的样本点来确定误差函数的流程图。
图16是从投影仪投影的光线的俯视图,该光线从样本点反射并入射到深度传感器上。
图17是如图16的俯视图,示出了深度光学器件中的误差和用于根据本技术的第三实施例确定该误差的方法。
图18是误差角度E的范围上的深度误差的图。
图19是跨视野的深度误差的图。
图20是由用于确定对象的点的真实深度的操作所测量的点,以及由深度传感器测量且以深度误差失真的相同点的图。
图21是示出图20的图中的失真的程度和位置的图。
图22示出包括从深度相机空间到世界空间的一般转换的视野,其中对未对准角度E进行了纠正。
图23示出根据本技术的第四实施例在两个不同位置处测量的刚性体上的两组点。
图24A示出了可用于在目标识别、分析和跟踪系统中解释一个或多个姿势的计算设备的示例实施例。
图24B示出了可用于在目标识别、分析和跟踪系统中解释一个或多个姿势的计算设备的另一示例实施例。
具体实施方式
现在将参考附图1-24B来描述本发明的技术的一般涉及用于校准深度相机的系统的各实施例。该系统一般获取深度相机和场景中的一个或多个对象之间的距离的客观测量,在本文中称为真实深度。然后该系统在一个或多个点处将真实深度测量与由深度相机提供的深度测量进行比较,并确定描述深度相机测量中的误差的误差函数。然后重新校准该深度相机以纠正该误差。到场景中的一个或多个对象的距离的客观测量可以通过各种系统和方法实现。下面描述这些系统和方法。
首先参考图1-3,用于实现本技术的硬件包括目标识别、分析,及跟踪系统10,该系统10可以被用来识别、分析和/或跟踪诸如用户18之类的人类目标。目标识别、分析和跟踪系统10的实施例包括用于执行游戏应用或其他应用的计算环境12。计算环境12可以包括硬件组件和/或软件组件,使得计算系统12可以用于执行诸如游戏应用和非游戏应用之类的应用。在一个实施例中,计算环境12可以包括诸如标准化处理器、专用处理器、微处理器等之类的处理器,该处理器可以执行存储在处理器可读存储设备上的用于执行在此所述的过程的指令。
系统10还包括捕捉设备20,该捕捉设备20用于捕捉与由捕捉设备所感测 到的一个或多个用户和/或对象有关的图像和音频数据。在实施例中,捕捉设备20可以用于捕获与一个或多个用户的移动、姿势和话音相关的信息,所述信息被计算环境接收并且被用于呈现游戏应用或其他应用的各方面、与所述方面交互和/或控制所述方面。下面更详细地解释计算环境12和捕捉设备20的示例。
目标识别、分析和跟踪系统10的实施例可以连接到具有显示器14的音频/视觉设备16。设备16例如可以是可以向用户提供游戏或应用视觉和/或音频的电视机、监视器、高清晰度电视机(HDTV)等。例如,计算环境12可以包括诸如图形卡之类的视频适配器和/或诸如声卡之类的音频适配器,适配器可提供与游戏或其他应用相关联的音频/视觉信号。音频/视觉设备16可以从计算环境12接收音频/视觉信号,并且然后可以向用户18输出与该音频/视觉信号相关联的游戏或应用视觉和/或音频。根据一个实施例,音频/视觉设备16可以通过例如S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆、分量视频电缆等等连接到计算环境12。
在各实施例中,计算环境12、A/V设备16和捕捉设备20可以协作以在显示器14上呈现化身或屏幕上人物19。在各实施例中,化身19模仿用户18在现实世界空间中的移动,以使得用户18可以执行控制化身19在显示器14上的移动和动作的移动和姿势。
如图1和2所示,在一示例实施例中,在计算环境12上执行的应用可以是用户18可能正在玩的足球游戏。例如,计算环境12可以使用视听显示器14来提供采用由该用户控制的足球运动员形式的化身19的视觉表示。图1的实施例是根据本技术的可以在计算环境12上运行的许多不同应用中的一个。运行在计算环境12上的应用可以是各种其他游戏应用和非游戏应用。此外,系统10还可以用于将用户18移动解释成处于运行在计算环境12上的游戏或特定应用的领域之外的操作系统和/或应用控制。作为图2中示出的一个示例,用户可以滚动通过并且控制与呈现在显示器14上的各种菜单选项的交互。事实上,操作系统和/或应用的任何可控方面都可以由用户18的移动来控制。
系统10及其组件的适合的示例在以下共同待决的专利申请中找到,所有这些专利申请都特此通过引用并入本申请:于2009年5月29日提交的名称为“Environment And/Or Target Segmentation(环境和/或目标分割)”的美国专 利申请序列号12/475,094;于2009年7月29日提交的名称为“Auto Generating a Visual Representation(自动生成视觉表示)”的美国专利申请序列号12/511,850;于2009年5月29日提交的名称为“Gesture Tool(姿势工具)”的美国专利申请序列号12/474,655;于2009年10月21日提交的名称为“Pose Tracking Pipeline(姿态跟踪流水线)”的美国专利申请序列号12/603,437;于2009年5月29日提交的名称为“Device for Identifying and Tracking Multiple Humans Over Time(用于随时间标识和跟踪多个人类的设备)”的美国专利申请序列号12/475,308;于2009年10月7日提交的名称为“Human Tracking System(人类跟踪系统)”的美国专利申请序列号12/575,388;于2009年4月13日提交的名称为“Gesture Recognizer System Architecture(姿势识别器系统架构)”的美国专利申请序列号12/422,661;于2009年2月23日提交的名称为“Standard Gestures(标准姿势)”的美国专利申请序列号12/391,150;以及于2009年5月29日提交的名称为“Gesture Tool(姿势工具)”的美国专利申请序列号12/474,655。
图3示出了可以在目标识别、分析和跟踪系统10中使用的捕捉设备20的示例实施例。在一个示例性实施例中,捕捉设备20可以被配置为经由任何合适的技术来捕捉具有可以包括深度值的深度图像的视频,这些技术包括例如飞行时间、结构化光、立体图像等等。根据一个实施例,捕捉设备20可将所计算的深度信息组织为“Z层”,即与从深度相机沿其视线延伸的Z轴垂直的层。
如图3所示,捕捉设备20可以包括图像相机组件22。根据一个示例实施例,图像相机组件22可以是可捕捉场景的深度图像的深度相机。深度图像可包括所捕捉的场景的二维(2-D)像素区域,其中2-D像素区域中的每一像素可表示深度值,诸如例如以厘米、毫米等计的、所捕捉的场景中的对象距相机的长度或距离。
如图3所示,根据一示例实施例,图像相机组件22可包括可用于捕捉场景的深度图像的IR光组件24、三维深度相机26、和RGB相机28。例如,在飞行时间分析中,捕捉设备20的IR光组件24可以将红外光发射到场景上,然后,可以使用传感器(未示出),用例如三维相机26和/或RGB相机28,来检测从场景中的一个或多个目标和物体的表面反向散射的光。
在某些实施例中,可以使用脉冲红外光,使得可以测量出射光脉冲和相应的入射光脉冲之间的时间差并将其用于确定从捕捉设备20到场景中的目标或物体上的特定位置的物理距离。附加地,在其他示例性实施例中,可将出射光波的相位与入射光波的相位进行比较来确定相移。然后可以使用该相移来确定从捕捉设备20到目标或物体上特定位置的物理距离。
根据另一示例实施例,可使用飞行时间分析,通过经由包括例如快门式光脉冲成像在内的各种技术来随时间分析反射光束的强度以间接地确定从捕捉设备20到目标或物体上的特定位置的物理距离。
在另一示例实施例中,捕捉设备20可使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即被显示成诸如网格图案或条纹图案的已知图案的光)可以通过例如IR光组件24被投影到场景上。在落到场景中的一个或多个目标或物体的表面上时,作为响应,图案可变形。图案的这样的变形可以被例如三维相机26和/或RGB相机28捕捉,然后可以被分析以确定从捕捉设备20到目标或物体上的特定位置的物理距离。
根据另一实施例,捕捉设备20可包括可以从不同的角度观察场景的两个或更多个在物理上分开的相机,以获取可以被解析以生成深度信息的视觉立体数据。在另一示例实施例中,捕捉设备20可使用点云数据(point cloud data)和目标数字化技术来检测用户的特征。
捕捉设备20还可包括话筒30。话筒30可包括可接收声音并将其转换成电信号的换能器或传感器。根据一个实施例,话筒30可以被用来减少目标识别、分析及跟踪系统10中的捕捉设备20和计算环境12之间的反馈。另外,话筒30可用于接收也可由用户提供的音频信号,以控制可由计算环境12执行的诸如游戏应用、非游戏应用等应用。
在一示例实施例中,捕捉设备20还可以包括可与图像相机组件22进行可操作的通信的处理器32。处理器32可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令可包括用于接收深度图像的指令、用于确定合适的目标是否可被包括在深度图像中的指令、用于将合适的目标转换成该目标的骨架表示或模型的指令、或任何其他合适的指令。
捕捉设备20还可以包括存储器组件34,该存储器组件34可以存储可以由 处理器32执行的指令,由三维相机或RGB相机捕捉到的图像或图像的帧,或任何其他合适的信息、图像等等。根据一个示例实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘或任何其他合适的存储组件。如图3所示,在一个实施例中,存储器组件34可以是与图像相机组件22和处理器32通信的单独的组件。根据另一实施例,存储器组件34可以集成到处理器32和/或图像相机组件22中。
如图3所示,捕捉设备20可以经由通信链路36与计算环境12通信。通信链路36可以是包括例如USB连接、火线连接、以太网线缆连接之类的有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接之类的无线连接。根据一个实施例,计算环境12可以经由通信链路36向捕捉设备20提供时钟,可以使用该时钟来确定何时捕捉例如场景。
另外,捕捉设备20可以通过通信链路36向计算环境12提供深度信息和由例如三维相机26和/或RGB相机28捕捉到的图像,以及可以由捕捉设备20生成的骨架模型。存在用于判断由捕捉设备20检测到的目标或对象是否与人类目标相对应的各种已知技术。骨架映射技术因而可用于确定该用户的骨架上的各个点,手、腕、肘、膝、鼻、踝、肩的关节,以及骨盆与脊椎相交之处。其他技术包括将图像转换为人的人体模型表示以及将图像转换为人的网格模型表示。
然后,可以将骨架模型提供给计算环境12,使得计算环境可以执行各种动作。计算环境还可基于例如从骨架模型中识别出的用户的姿势来确定在计算机环境上执行的应用中要执行哪些控制。例如,如图3所示,计算环境12可包括用于确定用户何时执行了预定义姿势的姿势识别引擎190。在上面并入的申请中描述了姿势识别引擎190的各种实施例。依照本系统,计算设备12还可包括深度重新校准引擎194,用于独立于深度相机26提供的深度值来确定视野(FOV)中的一个或多个对象的深度的真实度量,然后重新校准深度相机26以补偿任何偏差。下面描述深度重新校准引擎194的各种实施例。
如在背景技术部分提到的,三维深度相机26可能失去其校准从而该相机所进行的深度测量不精确的情况可能发生。不精确的深度测量可能有几种影响。在用于游戏系统的深度相机的情况中,这样的误差可能使得用户看上去比 他真正所在的更近或更远。或者,用户可看上去比他的实际高度更矮或更高。或者,该深度可使用户在任一轴上变宽,以及使用户在任一轴上倾斜和变形。类似这种的情况可能很容易使软件达到其极限。例如,如果软件限于支持至少特定高度的用户,则被不恰当地确定为比该高度更矮的用户将不会被软件识别出。同样的情况可能在软件能力的相反极限处对高用户发生。深度相机26的不恰当的校准可能导致各种其他误差、失真和复杂化。
大体而言,本系统因此包括用于为FOV中的一个或多个对象确定真实深度测量的深度重新校准引擎194。然后深度重新校准引擎194可重新校准深度相机26(也称为深度传感器)以补偿任何深度失真。在直接的实施例中,可简单地将深度传感器调整到由深度重新校准引擎194确定的真实深度。在进一步的实施例中,可开发更复杂的数学模式来对深度误差进行建模。然后由重新校准引擎194执行的重新校准可通过最小化深度误差来纠正所测量的深度。下面阐述深度重新校准引擎194的操作的各种实施例。
在参考图4-6描述的第一实施例中,深度重新校准引擎通过用户输入他或她的高度,然后确定所测量的像素高度(或臂展)是否与这个高度相关来操作。首先参考图4的流程图,在步骤200中,重新校准引擎194检测不正确的深度数据可能导致的问题。如果引擎194没有检测到这样的问题,则该系统接下来在步骤204中检查用户是否指示执行重新校准操作的愿望。如果在步骤200中检测到问题,或者如果在步骤204中用户请求进入重新校准模式,则重新校准引擎194执行深度相机26的重新校准操作。
在步骤208中,重新校准引擎194基于深度相机26的深度测量和所测量的深度图像中的像素数来计算用户的高度。具体而言,提示用户站到捕捉设备20的前面,如例如图5中所示。然后可通过阈值处理来从11位灰度级VGA深度图确定沿y轴的像素数。然后在多个帧上取该数据,并将其平均以确定在沿y轴的用户高度中的正确的像素数。在一些实施例中,还可提示用户向外伸开他们的手臂,如图5所示并如下面所解释的。
在从相机26测量的每个距离处,在深度图像(在图6中示出)中沿着y轴中的像素数和用户的高度之间存在已知相关。例如,在2.5m处,该系统预计175cm的人沿着y轴占据411个像素。因此,步骤208基于所测量的深度和 用户的深度图像中沿y轴的像素数来计算用户的预计高度。如同下面所解释的,该系统可替代地或附加地测量用户的“臂展”,即在用户伸展开的两臂的指尖之间沿x轴的所测量的距离。
在步骤210中,然后重新校准引擎194可提示用户输入他或她的高度。在进一步实施例中,提示用户输入高度的步骤可在步骤208之前进行。该系统可经由NUI系统10通过各种方法提示用户输入他的高度。例如,显示器14可具有带有高度显示范围的虚拟轮或其他虚拟指示器。用户可挥动他或她的手或执行姿势识别引擎190识别出的某种其他预定姿势,直到适当的高度被显示。然后用户可经由另一姿势选择那个高度。或者,用户可口头输入他们的高度。
在步骤214中,重新校准引擎确定在步骤208中测量的传感器高度与用户在步骤210中输入的真实高度相匹配。如果高度在一定容差内相匹配,则不需要重新校准(步骤218),且重新校准引擎194结束。另一方面,如果存在高于某个预定容差的差别,则重新校准引擎基于所输入的高度以及深度图像中沿y轴的像素数来确定用户会站立的距离。然后可在步骤224中将像素和高度之间的已知关系纠正为新的关系以重新校准相机26的深度测量。在实施例中,可以使用单个样本来执行步骤208到220。或者,可提示用户站立在多种不同距离处,以便该系统可具有更多用来调整y轴像素和高度之间的关系的数据。
可能发生捕捉设备难以确定图像中用户的脚的位置(这是确定图像中的最低像素和沿y轴的总像素数所必需的)。即便在沿y轴的像素数清楚时,可能期望提供对所测量的值的确认。相应地,附加于或替代于使用图6的深度图像中沿y轴的像素数,重新校准引擎194可使用在用户伸展开的两臂的指尖之间的沿x轴的像素数。使用所测量的臂展,以及臂展和在每个深度距离处对臂展所测量的像素数之间的已知相关,该系统可确定深度距离,如上面步骤208中所描述的。在步骤210中可以通过用户提供其高度来确定真实臂展。使用高度和臂展之间的已知相关,然后可确定用户的臂展。例如,一个已知相关可以是:臂展=0.95(高度)。然后如上所述在步骤214中该系统可将所测量的距离与确定的距离进行比较。
在上面描述的实施例中,用于校准深度相机26的对象是用户自己的身体。在进一步的实施例中,为了重新校准的目的,可以使用除了用户的身体之外的 对象来执行步骤208到224。只要该对象是固定尺度(该尺度对于计算设备12是已知的)的,该系统就能确定在每个距离处在对象尺度和该对象在深度图中沿x轴和/或y轴应当占据的像素数之间的已知关系。该对象可以例如是一张81/2×11的纸。或者,该对象可以是装备有系统10的特定校准对象。下面描述这样的校准对象的示例。
如所指出的,重新校准引擎194可以通过各种不同方法工作。在一组实施例中,重新校准引擎194依赖对深度相机误差进行建模,然后使用对象来推断由深度相机测量的深度特性和由各种方法和系统中之一测量的真实深度特性之间的关系。本文所使用的“传感器深度”是指由深度相机(该深度相机可能需要校准)测量的深度特性,而“真实深度”是指由客观标准测量和/或计算的正确深度。取决于深度相机误差的性质和复杂度,以及实现给定技术的可行性,存在各种可用于解决该问题并对深度误差建模的技术。
一组技术利用获得固定大小对象的多个传感器深度读数,其中通过某种方法,在查询该传感器深度的同时,能够获得该对象的真实深度测量。然后通过将这些点拟合到对该相机已知的误差模型来将该传感器深度与真实深度相关,由重新校准引擎194实现校准。本技术不限制此模型的复杂度;它仅要求获取足够多的样本来通过所收集的点拟合该模型。存在多种计算真实深度的方式。下面解释的一些示例使用固定大小对象用于校准,其中该对象的大小是已知的。下面解释的另一示例使用固定大小对象用于校准,其中该固定对象的大小不是已知的。
重新校准引擎194的一种用于建模和补偿相机误差的技术使用已知大小的固定对象和RGB单应性。参考图7的流程图,一般而言,本技术开始于在步骤230中对深度相机的误差进行数学建模。在步骤234中,然后本技术检测已知大小的固定校准对象上的特征点,该对象可以例如是在本文中被称为“校准卡”的卡。然后本技术在步骤236中使用单应性计算该校准卡的真实深度。然后在步骤238中将该真实深度与由该深度相机获取的传感器深度读数相关。下面提供这些步骤的进一步的细节。
在本示例中,该过程开始于在步骤230中对误差进行数学建模。对于给定捕捉设备20,使用用两个变量alpha(α)和beta(β)来描述误差的线性模型 来估算该误差是可能的,其中:
Z传感器深度=α(Z真实深度)-β。 (1)
图8展示了线性误差读数,其中在各种距离处测量该传感器深度并将其与真实深度相比较。β分量表示传感器深度和真实深度相等处的深度(相交点),而α表示线的斜率。通过计算这两个值,通过逆转该误差,传入的传感器深度可被转换成真实深度。
所示示例使用线性误差函数,因为线性误差函数减少了用户获取不同点处的深度测量所需的工作量,并将深度相机26校准到可接受的水平。然而,要理解,可替代地使用更复杂的且非线性的误差函数。
关于在步骤234中对校准卡中的特征点的检测,RGB单应性方法需要一组图像特征点,其中可对所述图像特征点获取真实世界测量。在图9中示出用户18拿着校准卡150形式的校准对象的示例,而在图10中示出了校准对象150的放大视图。如图11中所示,校准卡150具有16个特征点152,每个特征点在卡150中不同着色的区域的边界的交叉点处。校准卡150也可具有用户引导图像154,在所示示例中图像154是脸的形状。下面解释用户引导图像154的用途。这些图中示出的校准卡150仅仅是可使用的校准对象的一个示例。在进一步的实施例中,校准对象可以是具有用于下面描述的用途的各种其他特征点的卡或其他对象。卡的大小和特征点之间的距离可以是已知的。用户引导图像156可以是其他图像对象,或者可以被省略。
尽管存在用于使用捕捉设备20寻找特征点152的已知技术,可以使用样本特征点算法来标识在不同深度测量处的特征点。参考图13的流程图描述了样本特征点算法的操作的示例。样本特征点算法的一个好处是使用户很容易提供样本,以及它的稳健性。在步骤250中,提示用户在离捕捉设备20给定距离处拿着校准卡150。在一个示例中,计算设备12可在显示器14上显示一副眼镜156,如图12中所示。眼镜156可包括一对间隔开给定距离的圆形目标158。
在屏幕上显示了包括用户引导图像154的校准卡150的图像。用户引导图像154的大小将取决于卡150被放置得离捕捉设备20有多远。在用户离得远的情况下,所显示的卡将相对较小,而用户引导图像154的双眼将相对更靠近。 相反,在用户离得近的情况下,所显示的卡将相对较大,而用户引导图像154的双眼将相对更远离。用户被要求将来自用户引导图像154的双眼粗略地适合于两个目标158中,如图12中所示。基于对给定样本该卡离该捕捉设备的所需距离,对于不同样本,显示器14上显示的眼镜156的大小将变化。因此,目标158之间的间隔将大体指定将卡150拿得离捕捉设备20多近或多远。
通过调整该目标的大小,迫使用户在不同“距离桶”处拿着该卡。用户被要求在若干大致距离处拿着该卡,例如,在1.4m、1.7m、2.1m和2.5m处(如果用户有那么大的房间的话)。具有更多的桶产生更准确的校准,但不是强制性的。用户引导图像154和目标158仅仅是用于简单地提示用户将该校准卡放置在离捕捉设备20大致的距离处的方法的一个示例。应当理解,可以使用各种各样的提示用户18将校准卡150放置在离捕捉设备20的不同距离处的其他方法。不严格要求距离是精确的。该方法仅提供不同距离测量。
对于一采样,一旦校准卡被放置在给定距离处,在步骤254中,由RGB相机28捕捉的校准卡的图像被转换成亮度图像以进行处理。然后在步骤258中可对该亮度图像进行取阈处理以在步骤258中将白色与黑色分离。在Nobuyuki Otsu的名称为“A threshold selection method from gray-level histograms(从灰度级直方图的阈值选择方法)”IEEE Trans.Sys.,Man.,Cyber.(IEEE系统、人、控制论会刊)9:62-66.(1979)的出版物中公开了一种对黑色和白色进行阈值处理的方法,该公开物通过被引用而整体上合并于此。本技术允许该算法更独立于光照,具体而言是边缘检测的行为,但是也可以使用其他算法将转换后的RGB亮度图像中的白色与黑色分开。
在来自用户引导图像154的眼睛在目标158内对准的情况下,在步骤262中在该眼镜内部的区域上运行圆形寻找算法以确定目标158内眼睛的位置。可以使用圆形寻找算法,诸如Hough变换,诸如在Hough的名称为“Method And Means For Recognizing Complex Patterns(识别复杂图案的方法和手段)”的美国专利3,069,654中所描述的,该专利通过被引用而整体上结合于此。可使用其他圆形寻找算法。当在用户引导图像154中使用其他图像时,可以类似地用已知算法标识出这些形状。眼睛在亮度图空间中的位置提供了对校准卡150的位置和距离的估算。这允许对特征检测的引导,使其更稳健。具体而言,给定 了眼睛方案,在亮度图像空间中估算该卡的大小和位置。
对于每个校准卡边界边缘,在步骤264中可以检测线,例如通过在预计这些边缘所在的窗口中运行线检测器算法。在本示例的校准卡150中,这一步骤生成8条线。该算法确认所找到的8条线包含4条水平线和4条竖直线。接下来在步骤268中该算法使4条水平线和4条竖直线彼此相交以生成16个点。
对这16个点的标识生成该卡所在位置的估算。在步骤270中该算法可使用模板匹配来复核以寻找假肯定。通过卡的位置/大小的估算,执行检查以确认这些像素在它们预计所在的地方是黑色/白色的。如果这超过了阈值,这些特征点被认为有效并被传递到单应性算法,从该单应性算法可以计算出该卡的中心的真实深度值,以及误差值。下面描述单应性算法。
使用上述技术以及单应性算法,可以计算出alpha和beta以执行深度纠正。图13的步骤250到270提供一定数量的深度桶,每个深度桶包含一小组真实/传感器深度对。如下面所解释的,可使这些点集合通过最小平方线拟合(least square line fit)以生成对误差的线性估算。从此线中提取alpha和beta分量,并使用该alpha和beta分量来将传感器深度转换为真实深度,从而校准该相机。
一般而言,单应性算法执行从校准卡150的点所在的参考平面到深度相机26和RGB相机28的参考系的变换。图14中示出了这些不同的几何关系。假定该平面坐标系的z平面与校准卡150的平面重合。用M=[X;Y;0]T表示该平面上的点,其中z分量等于0。该平面坐标系通过旋转R和平移t而与RGB相机坐标系相关,而RGB相机坐标系中的点M由下式给出:
点M被投影到m=[u;v]T处的图像平面。RGB相机28坐标系通过旋转RD和平移tD与深度相机26坐标系相关,而RGB相机坐标系中的点M由下式给出:
这里,RD和tD是在捕捉设备20的制造时确定的,并假定它们不变。
给出了这些定义,就可以遵循图15中所示的各步骤来执行深度相机26的重新校准。具体而言,给定校准卡150的平面上的一组已知点{Mi}(至少4个),以及由深度相机26提供的它们的所测量的深度值 其中“ˇ”用于表示测量传感器深度值,通过检测校准卡150的图像平面中的相应点(用{mi}表示) 的步骤276可以执行重新校准。在步骤280中,该单应性算法确定{Mi}和{mi}之间的单应性矩阵H。在步骤282中,该单应性算法从H确定旋转和平移(R,t)。在步骤286中,该算法使用等式(3)计算深度相机28坐标系中的坐标{Mi}(用{MDi}表示)。并且在步骤288中,从{ZDi}和 确定α和β以用于等式(1)的误差函数({ZDi}是MDi的z分量)。下面阐述这些校准步骤的数学支持。
可以关于单个平面(例如,校准卡150的平面)检验对深度相机的固有参数的约束。该平面上的2D点由m=[u;v]T表示。该平面上的3D点由M=[X;Y;Z]T表示。通过添加1作为最后一个元素,可使用 来表示扩充的向量: 以及 通过常见的针孔对相机建模:3D点M和它的图像投影m之间的关系由下式给出:
其中s是任意缩放因子;(R,t)(称为非固有参数)是使世界坐标系与相机坐标系相关的旋转和平移;而A(称为相机固有矩阵)由下式给出:
其中(u0;v0)是主点(principal point)的坐标,αu和αv是图像u和v轴的缩放因子,而θ是描述这两个图像轴的角度的参数(通常非常接近90)。用缩写A-T表示(A-1)T或(AT)-1。
至于模型平面及其图像之间的单应性,可以假定该模型平面在世界坐标系的Z=0上。旋转矩阵R的第i列可以由r1表示。因此从(4)得出:
M仍被用于表示该模型平面上的点,而M=[X,Y]T,因为Z总是等于0。进而, 因此,单应性H使模型点M和它的图像m相关:
该3×3矩阵H被定义为相当于一缩放因子。
使用以上方法,可以以各种方式估算模型平面和它的图像之间的单应性。一种技术可以基于最大似然性标准。令Mi和mi分别为模型点和图像点。理想情况下,它们应当满足(5)。在实践中,由于所提取的图像点中的噪声,它们可能不满足(5)。如果假定mi被具有平均值0和协方差矩阵Λmi的高斯噪声破坏。那么,通过最小化以下函数来获得H的最大似然性估算
其中
在实践中,假定对于所有的i,Λmi=σ2l。如果用相同的过程独立地提取点,那么这是合理的。在此情况下,上面的问题变成非线性最小二乘问题,即 用如在Minpack中实现的Levenberg-Marquardt算法进行非线性最小化。例如,参考J.More的出版物“The Levenberg-Marquardt Algorithm,Implementation and Theory(Levenberg-Marquardt算法,实现和理论)”,Numerical Analysis(数字分析),数学讲稿第630页,Springer-Verlag(1977),该出版物通过被引用而被完全合并于此。
这种非线性最小化需要初始猜测,可以以如下方式获得该初始猜测。令 则等式(5)可被重写成:
在存在n个点的情况下,存在n个上述等式,它们可以以矩阵等式写成Lx=0,其中L是2n×9的矩阵。因为x被定义为相当于一缩放因子,众所周知,解是与最小奇异值相关联的L的右奇异向量(或相等地,与最小本征值相关联的LTL的本征向量)。
在L中,某些元素是常数1,某些是按像素计算的,某些是按世界坐标计算的,而某些是两者的相乘。这使得L在数字上状况不好。通过执行简单的数据规格化,可以获得替代结果,例如,可将图像坐标规格化到范围(-1,1),而使用与平面大小可比的适当单位,该平面上的点的坐标也可以在范围(-1,1)中。
上述方法可用来从单应性确定旋转和平移。一旦获得H,因为相机A的固有参数是已知的,所以从(5)得到的结果为:
r1=λA-1h1 (6)
r2=λA-1h2 (7)
r3=r1×r2 (8)
t=λA-1h3 (9)
其中λ=1/||A-1h1||=1/||A-1h2||。由于该数据中的噪声,如此计算出的矩阵Q=[r1,r2,r3]一般而言不满足旋转矩阵的特性。
下面考虑的问题是求解最佳旋转矩阵R来近似给定的3×3矩阵Q。这里,“最佳”是在差R-Q的最小Frobenius范数的意义上的。即,解决的是以下问题:
因为
问题(10)等于最大化trace(RTQ)的问题。
令Q的奇异值分解为USVT,其中S=diag(σ1,σ2,σ3)。如果Z=VTRTU的正交矩阵Z被定义,则
通过设定R=UVT实现最大值,因为那时Z=I。这给出了(10)的解。
在以上各段中,通过对单应性矩阵的估算对旋转和平移进行了估算。通过最大似然性推断可以精炼这种估算。假定图像点mi被具有平均值0和协方差矩阵Λmi的高斯噪声破坏。那么,通过最小化以下函数能够获得(R,t)的最大似然性估算
其中根据等式(5), 是点Mi在该图像平面上的投影。旋转R是由3个参数的向量(用r表示)来参数化的,其中r平行于旋转轴且其大小等于旋转角。通过Rodrigues形式(Rodrigues formal)使R和r相关。例如,参考Z.Zhang等人的出版物“3D Dynamic Scene Analysis:A Stereo Based Approach(3D动态场景分析:基于立体的方法)”Springer,Berlin,Heidelberg(1992)”。最小化(11)是非线性最小化问题,用如在Minpack中实现的Levenberg-Marquardt算法解决,如同上面所描述的。
由重新校准引擎194所执行的另一种为重新校准目的而确定误差模型的方法被称为“屏幕空间测量”,现在参考图16-22对其进行描述。一般而言,屏幕空间测量观看对象(诸如上面讨论的校准对象150)上的点,并确定所测量的深度值从真实深度值偏差的程度。然后本技术试图定义解释该偏差的误差模型。这种技术将测量误差的两种影响纳入考量:缩放,其等同地影响所有维度并且与空间中的位置无关,以及空间失真,其是描绘对空间坐标中的一个或多个坐标的依赖性的缩放。理想的系统的缩放因子为1且没有空间失真。在实践中,深度测量误差导致该系统不同于理想系统。
图16是示出投影仪和成像设备的俯视图,该投影仪可以例如是IR光组件24,该成像设备可以例如是深度相机26。像素(P)的深度(Z)由投影仪24和成像设备26之间的距离S以及角度A和B确定。图16是从相机视野上方的平面视图。来自该投影仪的光在点P被对象反射,然后入射到该成像设备上。基于图案识别和该视野中像素的位置,角度A和B可以与所投影的图像和该成像设备相关。对于该深度成像设备,距离S是常数。从图16可以得出以下三角关系:
如所指出的,在从上到下的平面视图中,相对于系统被校准时它的位置,可能由于该投影仪的角度漂移将深度误差引入系统。这种漂移会导致该投影仪和该成像设备的光学轴相对于它们的校准后的位置的未对准。在图16中,校准后的深度成像设备将点P处的对象的深度报告为传感器深度。
如果在校准之后,该投影仪偏移角度E,则入射到点P’上的所投影的图案的同一光线会沿着与之前校准的情况相同的路径返回,导致所报告的深度等于校准的情况中的点P。因此,在校准后漂移之后,位于真实深度等于Zactual且水平方向上在维度Xactual处的点P’的深度被报告为Zreported和Xreported。P和P’之间的差是所得到的报告误差。
使用两个角度(B和A-E)之间的之前的关系以及深度Z,可以证明下式:
为两个角度的差的正切和代数应用三角恒等式,则此公式简化为:
对Zreported求解并将tan(B)因子移到每一项的分母:
从成像设备上的像素位置得出角度B,其是真实世界坐标系中的X和Z的函数。在捕捉设备20的一个示例中,S是75mm的常数,而E是校准后该成像设备和投影仪之间的相对角度偏移。正的E值对应于该投影仪朝着该成像设备“前束(toe-in)”,负的E值对应于“后束(toe-out)”。
当针对各种状况检查深度误差测量的行为时,报告深度中的误差按相同比例影响从深度图空间到世界空间的X和Y变换。可以观察到,深度中的误差跨 越范围(Zactual)或FOV(B)不是恒定的,而实际上是一种非线性关系。然而,对于非常小的角度偏移,即,一度的几分之一,所得到的误差作为范围的函数是非常接近线性的。图18的图表描绘了对于从0.02°到0.12°的角度E的各种值,在捕捉设备20的指定范围内的中心片范围误差(center-tile range error)中的变化。
图19展示了在固定距离为3.5m、误差角度E=0.12°处,深度误差跨该成像设备的FOV的变化。该误差在该FOV的中心最小,并且在极端边缘处增大近50%。还要注意的是由于该投影仪位于该成像设备的一侧的偏置而导致的跨该FOV的不对称性,这在数学中表现为角度A的不对称范围。
深度为Z的成像设备像素(Px,Py)到世界坐标(X,Y,Z)的一般化变换是如下形式的:
在这些变换式中Nx是定义横跨该FOV的像素数的常数,而FOVx是Z-X平面中的角度视野;类似的定义适用于Ny和FOVy。如果深度测量误差独立于真实世界空间坐标,则X、Y和Z的灵敏度将都相等,且因此在该变换中没有空间失真,只有缩放。如同早先示出的,对于测量误差是由于光学元件的未对准而导致的情况,该深度误差是Z和X坐标两者的函数,且因此可以预计因而会有一定量的空间失真。
使用未对准对深度测量的影响的一般化表示,可对所得到的空间失真进行建模。图20将在Z-X平面旋转后的对象的实际位置和所报告的位置进行了比较,该图表是Z轴(深度)和X轴(水平维度)的图。实际路径是围绕离深度传感器26的距离为2m的点的500mm半径;传感器26具有建模后的误差角度E=0.12°。在此情况下在3.5m处的深度误差大约为10.8%。该圆看上去略微更宽,并且更远离传感器,略呈椭圆形而非圆形,而且还在一定程度上不对称。
在本示例中该圆的平均的报告的半径是545mm,所报告的圆的不圆度 (out-of-roundness)范围是+4.5%到-2.6%,然而,值得注意,更大的失真位于该圆的最后部范围。如果只对该圆的朝前的部分进行评估,则失真的范围被减少到+1.4%和-2.6%。这可以在下面的图21的图中看到。应当理解,图16-21的图示、图和图表仅仅作为示例,且在进一步的实施例中可以变化。
如果能够在工厂处将传感器校准到最小失真水平,而且如果能够假定现场中失真的主要原因是来自环境和使用因素(诸如温度、掉落产生的震动、以及老化)的光学未对准,那么有可能通过注记贯穿整个游戏空间对象的所测量的大小如何变化来实现现场(in-field)补偿。
在图20中示出的前一空间失真示例中,在更大深度处与在更近深度处相比圆的大小显得更大。在对固定对象的长度执行骨架跟踪的过程中,如果观察到例如前臂在近距离处缩短而在较远距离处变长,则可向该深度信息添加补偿计算步骤以抵消前束(toe-in)状况的影响。如果这一步骤是用对E具有全局参数值的一般化形式实现的,该算法可响应于对象在前景中是显得相对较大还是较小来依次地尝试E的更大或更小的值。可限制可能的E值的范围以表示在该现场中可预计的。例如,步进为0.02°、从-0.12°到+0.12°的范围将足以覆盖正常情况下我们会与在3.5m处的、±10%误差的相机相关联的误差范围。
以此方式,现场内补偿可以被实时执行并针对可能影响绝对准确度以及相对失真的各种状况进行修改。如果成功,相对失真和绝对准确度都改善。
参考图22和上面描述的图17,下文阐述了从深度相机空间到世界空间的一般化变换,其中对未对准角度E进行了纠正,基于如下定义:
·点(Px,Py,Zr)表示由该深度相机报告的深度像素
·像素空间的原点是对齐的(justified)左下角
·点(Xw,Yw,Zw)表示世界空间坐标中的深度像素
·E表示要补偿的未对准角度,是相对于光学轴测量的
·FOVx和FOVy是分别在ZX和ZY平面中的角度视野,其中Px和Py被投影在ZX和ZY平面中
·Nx和Ny分别是X和Y像素空间中的像素数
·S是将投影仪光学轴和成像设备光学轴分开的间距,在深度相机20的一个示例中该间距可以例如是75mm。
对于所报告的像素(Px,Py,Zr),从像素空间到对象空间的变换是基于图22的几何形状的。对称性允许通过代入适当的常数来针对Yw推导出相同的表达式。
为了将该变换表述为输入向量(Px,Py和Z)的函数,并注意到X轴的方向与用于得出三角函数中的角度B的方向相反,可以首先使用以下恒等式来重新表述角度B:
从Zreported代入Zactual的一般变换:
表1是在图22的示例中可用于捕捉设备20的参数的非限制性示例。
像素源 | Nx | Ny | FOVx | FOVy |
IR | 1280 | 960 | 57.796 | 45.053 |
IR | 640 | 480 | 57.796 | 45.053 |
IR | 320 | 240 | 57.796 | 45.053 |
RGB | 1280 | 1024 | 61.033 | 50.593 |
表1
在上面描述的实施例中,假定FOV中校准对象的大小是已知的。然而,在由重新校准引擎194执行的进一步的实施例中,该对象只需要是固定大小的,但是它的大小不需要是已知的。现在将参考图23描述一个这样的示例。此示例最小化真实世界距离变化,并通过观察相机深度中刚性物体的所报告的测量来操作。本方法仅依赖于深度测量,而不需要匹配已知的、校准后的图像(诸如RGB图像)中的测量。此对象可以是用户必须拿着的物品,诸如球、书等。或者,它可以是身体部位,诸如用户的肩、臂等。
大体而言,本方法基于如下事实:x,y,z空间中的刚性物体上的一对点之间的距离将是相同的,不管在视野内的什么地方测量这一对点。因此,可以在第一位置处测量固定对象上的一对点之间的距离,而可以在第二位置处测量该对象上的同一对点之间的距离。就距离在在第一位置处测量的点以及在第二位置处测量的相同的点之间变化而言,偏差可用于定义误差模型。
在本技术中,该对象必需具有可被测量的刚性特性(例如,球的半径、对象的长度等),而样本是仅在物体移动穿过FOV时从深度图获取的。在不同深度和定向获取刚性对象的真实深度样本和传感器深度屏幕空间(x,y)样本对,以计算深度误差偏移。为了稳健性,可使用多对样本。而且当误差函数未知时,可以通过用如上所述的这种技术来确定视截锥体中的多个区域中的深度误差偏移来近似它。
使用这种技术,深度误差函数可被表征为:
Zcam=Zreal+a
其中a是在zcam(Z相机)采样深度处的深度误差偏移。现在参考图23,示出了 两组样本(x1,y1,z1)/(x2,y1,z2)和(x3,y3,z3)/(x4,y4,z4),其中(x,y)是深度图中的屏幕空间坐标而z是在(x,y)处的采样深度。如所指出的,每个样本可表示诸如球或身体部位的刚性对象上的两个点。这些样本可描述深度误差等式:
其中f是该深度图的以像素为单位的焦距,而a是误差系数。
上述二次等式的两个解是:
(2z1x12-2x2z1x1-2x2z2x1+
2y12z1-2y1y2z1+2x22z2+2y22z2-
2y1y2z2-2x32z3-2y32z3+2x3x4z3+
2y3y4z3-2x42z4-2y42z4+2x3x4z4+
2y3y4z4-√((-2z1x12+2x2z1x1+
2x2z2x1-2y12z1+2y1y2z1-
2x22z2-2y22z2+2y1y2z2+
2x32z3+2y32z3-2x3x4z3-
2y3y4z3+2x42z4+2y42z4-
2x3x4z4-2y3y4z4)2-
4(x12-2x2x1+x22-x32-x42+
a=y12+y22-y32-y42+
2x3x4-2y1y2+2y3y4)
(z12f2+z22f2-z32f2-z42f2-
2z1z2f2+2z3z4f2+x12z12+
y12z12+x22z22+y22z22-
x32z32-y32z32-x42z42-y42
z42-2x1x2z1z2-2y1y2z1z2+
2x3x4z3z4+2y3y4z3z4)))/
(2(x12-2x2x1+x22-x32-x42+
y12+y22-y32-
y42+2x3x4-
2y1y2+2y3y4))
(2z1x12-2x2z1x1-2x2z2x1+
2y12z1-2y1y2z1+2x22z2+2y22z2-
2y1y2z2-2x32z3-2y32z3+2x3x4z3+
2y3y4z3-2x42z4-2y42z4+2x3x4z4+
2y3y4z4+√((--2z1x12+2x2z1x1+
2x2z2x1-2y12z1+2y1y2z1-
2x22z2-2y22z2+2y1y2z2+
2x32z3+2y32z3-2x3x4z3-
2y3y4z3+2x42z4+2y42z4-
2x3x4z4-2y3y4z4)2-
4(x12-2x2x1+x22-x32-x42+
a=y12+y22-y32-y42+
2x3x4-2y1y2+2y3y4)
(z12f2+z22f2-z32f2-z42f2-
2z1z2f2+2z3z4f2+x12z12+
y12z12+x22z22+y22z22-
x32z32-y32z32-x42z42-y42
z42-2x1x2z1z2-2y1y2z1z2+
2x3x4z3z4+2y3y4z3z4)))/
(2(x12-2x2x1+x22-x32-x42+
y12+y22-y32-
y42+2x3x4-
2y1y2+2y3y4))
这些解中只有一个解,即第一个解,是有效的。在其中假定在FOV上误差是线性的的实施例中,可使用两条线,然后得出的误差系数a可以用于跨整个FOV对误差建模。在进一步实施例中,在跨越该视野的不同位置处使用刚性对象上的相同的两个点可定义任何数量的线。一旦获取了足够多的样本,通过搜索误差模型的系数的最优值来执行校准。被最小化的是某种可测量的刚性特性,诸如最小化所有这些样本的计算出的长度/半径和所有样本的平均长度/半径之间的方差。因为方差的最小化正比于深度失真,那么找到的值就被用于误差纠正函数以对深度进行去失真(un-distort)。
在其中误差函数太复杂而无法测量的情况下,使用上面参考图23所描述的技术可能不足够可行/准确。一种近似未定义的误差函数的方式是使用一组紧密邻近的样本对,并用具有单个项的函数来近似该误差。在本方法中,以与上面相同的方式对对象进行采样,并且对于彼此靠近的每对样本,执行对误差的简单近似。当从相机读取深度点时,选择并应用空间上最接近的纠正。
现在解释使用固定但是大小未知的校准对象来确定误差模型的一种进一步的方法。为了一般化,给定3D点,假定它的真实坐标x=[x,y,z]T和它的所测量的坐标x’=[x’,y’,z’]T通过具有参数p的函数g()而相关,即
x=g(x’,p)
例如,如果我们使用简化模型z’=α(z-β),则p=[α,β]T,而上述向量等式变成:
而且,可以假定点x’的不确定性(或不精确度)由3×3协方差矩阵Λ建模。现在,考虑由深度相机观察到的一对点,用(x′1,x′2)表示,具有协方差矩阵(Λ1,Λ2)。平方距离由下式给出:
的方差可以由下式计算:
其中
通过深度相机在另一时间观察同一对点,用(x′3,x′4)表示,具有协方差矩阵(Λ3,Λ4)。 和 可以用与上面相同的方式计算。因为这是对同一对点的两个观察:
在实践中,e不等于0,所以可以通过最小化e2来估算它的参数p。注意,一对点只提供一个约束,且只可估算一个参数。
对于运动之前和之后的N对点,通过最小化下述目标函数可以估算参数向量p:
其中 vi是ei的方差,由 给出。这是非线性优化,可以使用例如Levenberg-Marquardt算法来完成。如果失真不大的化,初始猜测准备好可用了。使用简化模型z’=α(z-β),初始猜测将是α=1和β=0。
在上面的实施例中,真实深度和传感器深度之间的偏差是在若干个点处获取的,以定义模型,然后该模型可用于提供在由该捕捉设备捕捉的三维世界空间内的所有位置处的误差的度量。在实施例中,用于确定真实深度和传感器深度之间的偏差的样本点越多,该深度模型就可以越准确,即便对于高度非线性的误差模型也是如此。
而且,上面的实施例关注不使用附加装备或使用最少的附加装备来确定真实深度和传感器深度之间的偏差的解决方案。这简化了解决方案并且降低了商业实施例的成本。然而,应当理解,可使用各种装备来确定真实深度,诸如激光器、附加的深度相机和其他深度寻找设备等。
图24A示出了可用于执行上面描述的各种技术的计算环境(诸如例如计算系统12)的示例实施例。计算设备12可以是诸如游戏控制台的多媒体控制台300。如图24A所示,多媒体控制台300具有中央处理单元(CPU)301,所述CPU具有一级高速缓存302、二级高速缓存304,以及闪存ROM 306。一级高速缓存302和二级高速缓存304临时存储数据并因此减少存储器访问周期数,由此改进处理速度和吞吐量。CPU 301可以设置成具有一个以上的内核,以及由此的附加的一级高速缓存302和二级高速缓存304。闪存ROM 306可存储在多媒体控制台300通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)308和视频编码器/视频编解码器(编码器/解码器)314形成用于高速、高分辨率图形处理的视频处理流水线。经由总线从GPU 308向视频编码器/视频编解码器314运送数据。视频处理流水线向A/V(音频/视 频)端口340输出数据,用于传输至电视机或其他显示器。存储器控制器310连接到GPU 308,以便于处理器对各种类型的存储器312,诸如但不限于RAM,的访问。
多媒体控制台300包括优选地在模块318上实现的I/O控制器320、系统管理控制器322、音频处理单元323、网络接口控制器324、第一USB主控制器326、第二USB主控制器328以及前面板I/O子部件330。USB控制器326和328用作外围控制器342(1)-342(2)、无线适配器348、和外置存储器设备346(例如闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口324和/或无线适配器348提供对网络(例如,因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中任何一种。
提供系统存储器343来存储在引导过程期间加载的应用数据。提供介质驱动器344,该介质驱动器可以包括DVD/CD驱动器、硬盘驱动器,或其他可移动介质驱动器等。介质驱动器344可以内置或外置于多媒体控制台300。应用数据可经由介质驱动器344访问,以由多媒体控制台300执行、回放等。介质驱动器344经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器320。
系统管理控制器322提供涉及确保多媒体控制台300的可用性的各种服务功能。音频处理单元323和音频编解码器332形成具有高保真度和立体声处理的对应的音频处理流水线。音频数据经由通信链路在音频处理单元323与音频编解码器332之间传输。音频处理流水线将数据输出到A/V端口340以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件330支持暴露在多媒体控制台300的外表面上的电源按钮350和弹出按钮352以及任何LED(发光二极管)或其他指示器的功能。系统供电模块336向多媒体控制台300的组件供电。风扇338冷却多媒体控制台300内的电路。
CPU 301、GPU 308、存储器控制器310、和多媒体控制台300内的各种其他组件经由一条或多条总线互连,总线包括串行和并行总线、存储器总线、外围总线、和使用各种总线架构中任一种的处理器或局部总线。作为示例,这些 架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台300通电时,应用数据可从系统存储器343加载到存储器312和/或高速缓存302、304中并在CPU 301上执行。应用可呈现在导航到多媒体控制台300上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,介质驱动器344中包含的应用和/或其他媒体可从介质驱动器344启动或播放,以向多媒体控制台300提供附加功能。
多媒体控制台300可通过将该系统简单地连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台300允许一个或多个用户与该系统交互、看电影、或听音乐。然而,随着通过网络接口324或无线适配器348可用的宽带连接的集成,多媒体控制台300还可作为更大网络社区中的参与者来操作。
当多媒体控制台300通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源对于应用视角而言是不存在的。
具体而言,存储器保留优选地足够大,以包含启动内核、并发系统应用和驱动程序。CPU保留优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来调度代码来将弹出窗口呈现为覆盖图以显示由系统应用生成的轻量消息(例如,弹出窗口)。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在完整的用户界面被并发系统应用使用的情况下,优选地使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率并引起TV重新同步。
在多媒体控制台300引导且系统资源被保留之后,就执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源中执行的一组系统应用中。操作系统内核标识是系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 301上运行,以便为应用提供一致的系统资源视图。进行调度是为了把由在控制台上运行的游戏应用所 引起的高速缓存分裂最小化。
当并发系统应用需要音频时,则由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所述)在系统应用活动时控制游戏应用的音频水平(例如,静音、衰减)。
输入设备(例如,控制器342(1)和342(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器优选地控制输入流的切换,而无需知道游戏应用的知识,并且驱动程序维护关于焦点切换的状态信息。相机26、28和捕捉设备20可为控制台300定义额外的输入设备。
图24B示出了计算环境420的另一示例实施例,它可以是用来在目标识别、分析和跟踪系统中解释一个或多个位置和运动的图1A-2中示出的计算环境12。计算系统环境420只是合适的计算环境的一个示例,并且不旨在对所公开的主题的使用范围或功能提出任何限制。也不应该将计算环境420解释为对示例性操作环境420中示出的任一组件或其组合有任何依赖性或要求。在某些实施例中,各个所描绘的计算元素可包括被配置成实例化本公开的具体方面的电路。例如,本公开中使用的术语电路可包括被配置成通过固件或开关来执行功能的专用硬件组件。在其他示例实施例中,术语“电路”可包括通过体现可操作以执行功能的逻辑的软件指令配置的通用处理单元、存储器等等。在电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。因此,对于硬件实现还是软件实现的选择是设计选择并留给实现者。
在图24B中,计算环境420包括通常包括各种计算机可读介质的计算机441。计算机可读介质可以是能由计算机441访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器422包括诸如ROM 423和RAM 460等易失性和/或非易失性存储器形式的计算机存储介质。 包含诸如在启动期间帮助在计算机441内的元件之间传输信息的基本例程的基本输入/输出系统424(BIOS)通常储存储在ROM 423中。RAM 460通常包含处理单元459可立即访问和/或目前正在操作的数据和/或程序模块。作为示例而非限制,图24B示出了操作系统425、应用程序426、其他程序模块427,以及程序数据428。图24B还包括具有用于高速和高分辨率的图形处理和存储的相关联的视频存储器430的图形处理器单元(GPU)429。GPU 429可通过图形接口431连接到系统总线421。
计算机441也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。只作为示例,图24B示出了读写不可移动非易失性磁性介质的硬盘驱动器438、读写可移动非易失性磁盘454的磁盘驱动器439、以及读写诸如CD ROM或其他光学介质之类的可移动的非易失性光盘453的光盘驱动器440。可在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器438通常由诸如接口434等不可移动存储器接口连接至系统总线421,并且磁盘驱动器439和光盘驱动器440通常由诸如接口435等可移动存储器接口连接至系统总线421。
上面所讨论的并且在图24B中所示出的驱动器以及它们的相关联的计算机存储介质,为计算机441提供了计算机可读的指令、数据结构、程序模块及其他数据的存储。例如,在图24B中,硬盘驱动器438被示为存储了操作系统458、应用程序457,其他程序模块456,以及程序数据455。注意,这些组件可以与操作系统425、应用程序426、其他程序模块427和程序数据428相同或不同。在此操作系统458、应用程序457、其他程序模块456以及程序数据455被给予了不同的编号,以说明至少它们是不同的副本。用户可以通过输入设备,如键盘451和定点设备452(通常指鼠标、跟踪球或触摸垫)向计算机441输入命令和信息。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些和其他输入设备通常通过耦合至系统总线的用户输入接口436连接至处理单元459,但也可以由其他接口和总线结构,例如并行端口、游戏端口或通用串行总线(USB)来连接。相机26、28和捕捉设备20可为控制台400定义额外的输入设备。监视器442或其他类型的显示 设备也通过诸如视频接口432之类的接口连接至系统总线421。除监视器之外,计算机也可包括诸如扬声器444和打印机443之类的其他外围输出设备,它们可以通过输出外围接口433来连接。
计算机441可以使用到一个或多个远程计算机(如远程计算机446)的逻辑连接,以在联网环境中操作。远程计算机446可以是个人计算机、服务器、路由器、网络PC、对等设备或其他公共网络节点,通常包括上文参考计算机441所描述的许多或全部元件,但是图24B中只示出了存储器存储设备447。图24B中所描绘的逻辑连接包括局域网(LAN)445和广域网(WAN)449,但是也可以包括其他网络。这些联网环境在办公室、企业范围计算机网络、内联网和因特网中是常见的。
当用于LAN联网环境中时,计算机441通过网络接口或适配器437连接到LAN 445。当在WAN联网环境中使用时,计算机441通常包括调制解调器450或用于通过诸如因特网等WAN 449建立通信的其他手段。调制解调器450,可以是内置的或外置的,可以经由用户输入接口436或其他适当的机制,连接到系统总线421。在联网环境中,相对于计算机441所描述的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图24B示出了驻留在存储器设备447上的远程应用程序448。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
本发明系统的前述详细描述是出于说明和描述的目的而提供的。这并不旨在穷举本发明系统或将本发明系统限于所公开的精确形式。鉴于上述教导,许多修改和变型都是可能的。选择所述实施例以最好地解释本发明系统的原理及其实践应用,从而允许本领域技术人员能够在各种实施例中并采用各种适于所构想的特定用途的修改来最好地利用本发明系统。本发明系统的范围旨在由所附权利要求书来定义。
Claims (10)
1.一种重新校准深度图像传感器(20)的方法,所述深度图像传感器从三维空间捕捉图像数据,所述方法包括:
(a)使用所述深度图像传感器(20)测量(步骤208)所述三维空间中的至少一个样本点的深度值;
(b)独立于所述步骤(a)的测量,确定(步骤210)所述至少一个样本点的真实深度值;
(c)对从在所述步骤(b)中确定的真实深度和在所述步骤(a)中测量的深度的偏差导致的深度误差进行建模(步骤220);以及
(d)使用在所述步骤(c)中建模的所述深度误差来纠正(步骤224)由所述深度图像传感器所做的深度测量。
2.如权利要求1所述的方法,其特征在于,所述步骤(b)包括对呈现给所述深度图像传感器的刚性校准对象成像的步骤,所述校准对象的大小对执行所述步骤(b)的计算设备是已知的。
3.如权利要求2所述的方法,其特征在于,还包括使用单应性将所述校准对象的位置平移到与所述深度图像传感器相关联的RGB传感器的参考坐标系的步骤(e)。
4.如权利要求1所述的方法,其特征在于,所述步骤(b)包括接收对象的x轴或y轴维度大小的用户指示的步骤,以及基于对象的大小与描绘在所述对象和所述深度图像传感器之间的给定距离处的所述对象的像素数之间的已知相关来将所输入的大小与离所述深度图像传感器的距离相关的步骤。
5.如权利要求4所述的方法,其特征在于,所述对象的大小是用户的高度。
6.如权利要求1所述的方法,其特征在于,所述步骤(a)和(b)包括在所述三维空间中的至少两个不同位置处测量校准对象上的至少两个样本点的步骤。
7.一种执行重新校准自然用户接口的深度图像传感器(20)的方法,所述深度图像传感器从三维空间捕捉图像数据,所述方法包括:
(a)使用所述深度图像传感器测量(步骤276)所述三维空间内的校准对象(150)上的两个或更多个点(24,26)的深度;
(b)独立于所述深度图像传感器,确定(步骤280,282,286)所述校准对象(150)上的所述两个或更多个点(24,26)的真实深度;
(c)对从在所述步骤(b)中确定的所述真实深度和在所述步骤(a)中测量的所述深度的偏差导致的深度误差进行建模(步骤288);以及
(d)使用在所述步骤(c)中建模的所述深度误差来补偿(步骤224)由所述深度图像传感器所做的深度测量。
8.如权利要求7所述的方法,其特征在于,对于线性深度误差,所述步骤(c)包括对所述误差以所述步骤(a)的所测量的深度=α(所述步骤(b)的真实深度)–β的形式进行建模,其中β分量表示所述深度图像传感器的深度和所述真实深度彼此相等处的深度,而α表示定义在所述真实深度和由所述深度图像传感器测量的深度之间的线的斜率。
9.一种用于重新校准自然用户接口的深度图像传感器(20)的系统,所述深度图像传感器(20)从三维空间捕捉图像数据,所述系统包括:
位于所述三维空间内的校准对象(150);以及
与所述深度图像传感器(20)相关联的计算设备(12),所述计算设备(12)包括用于将所述三维空间中的所述校准对象上的点的真实深度值与由所述深度图像传感器测量的深度值进行比较,并推导出描述所述真实深度值和由所述深度图像传感器测量的所述深度值之间的偏差的误差模型的重新校准引擎(194)。
10.如权利要求9所述的系统,其特征在于,所述校准对象是具有不同区域的校准卡,所述区域具有水平分量和竖直分量,所述区域在所述水平分量和竖直分量的交叉点处定义了多个点。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/939,038 US8866889B2 (en) | 2010-11-03 | 2010-11-03 | In-home depth camera calibration |
US12/939,038 | 2010-11-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102572505A CN102572505A (zh) | 2012-07-11 |
CN102572505B true CN102572505B (zh) | 2014-11-05 |
Family
ID=45996261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110364401.1A Active CN102572505B (zh) | 2010-11-03 | 2011-11-02 | 用于校准深度图像传感器的方法和系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8866889B2 (zh) |
EP (1) | EP2636223B1 (zh) |
CN (1) | CN102572505B (zh) |
AR (1) | AR083709A1 (zh) |
TW (1) | TW201233144A (zh) |
WO (1) | WO2012061493A2 (zh) |
Families Citing this family (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8427424B2 (en) | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
WO2012014304A1 (ja) * | 2010-07-29 | 2012-02-02 | 富士通株式会社 | 生体認証装置および生体認証プログラム |
US9477302B2 (en) * | 2012-08-10 | 2016-10-25 | Google Inc. | System and method for programing devices within world space volumes |
FR2967324B1 (fr) * | 2010-11-05 | 2016-11-04 | Transvideo | Procede et dispositif de controle du dephasage entre cameras stereoscopiques |
US9329469B2 (en) * | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
US9225964B2 (en) * | 2011-02-24 | 2015-12-29 | Purdue Research Foundation | Figure-ground organization of 3-D scenes |
US9480907B2 (en) | 2011-03-02 | 2016-11-01 | Microsoft Technology Licensing, Llc | Immersive display with peripheral illusions |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
KR101920473B1 (ko) * | 2011-07-27 | 2018-11-22 | 삼성전자주식회사 | 센서 융합 기반으로 3차원 위치와 방향을 추정하는 장치 및 방법 |
US20130177296A1 (en) * | 2011-11-15 | 2013-07-11 | Kevin A. Geisner | Generating metadata for user experiences |
US9628843B2 (en) * | 2011-11-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Methods for controlling electronic devices using gestures |
US9030352B2 (en) * | 2011-12-07 | 2015-05-12 | Raytheon Company | Sensor rotation bias removal |
WO2014053158A1 (en) * | 2012-10-01 | 2014-04-10 | Telefonaktiebolaget L M Ericsson (Publ) | 3d camera calibration |
KR101770866B1 (ko) * | 2012-10-23 | 2017-08-25 | 한국전자통신연구원 | 뎁스 센서와 촬영 카메라 간의 관계에 기초한 뎁스 영상 보정 장치 및 방법 |
JP6359259B2 (ja) * | 2012-10-23 | 2018-07-18 | 韓國電子通信研究院Electronics and Telecommunications Research Institute | デプスセンサと撮影カメラとの間の関係に基づいたデプス映像補正装置及び方法 |
TWI486820B (zh) | 2012-12-28 | 2015-06-01 | Wistron Corp | 用於互動系統之座標轉換方法及電腦系統 |
RU2013104894A (ru) * | 2013-02-05 | 2014-08-10 | ЭлЭсАй Корпорейшн | Процессор изображений с функциональностью сохраняющего контуры подавления шума |
US9292923B2 (en) | 2013-03-06 | 2016-03-22 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to monitor environments |
US20140300702A1 (en) * | 2013-03-15 | 2014-10-09 | Tagir Saydkhuzhin | Systems and Methods for 3D Photorealistic Automated Modeling |
CN103337066B (zh) * | 2013-05-27 | 2016-05-18 | 清华大学 | 3d获取系统的校准方法 |
US10230934B2 (en) * | 2013-06-14 | 2019-03-12 | Microsoft Tehcnology Licensing, Llc | Depth map correction using lookup tables |
CN104424637B (zh) * | 2013-09-02 | 2017-06-27 | 联想(北京)有限公司 | 信息处理的方法及智能设备 |
CN104424481B (zh) * | 2013-09-02 | 2018-11-09 | 联想(北京)有限公司 | 信息处理的方法及智能设备 |
CN104581112B (zh) * | 2013-10-14 | 2016-10-05 | 钰立微电子股份有限公司 | 快速产生摄像机的距离对视差关系表的系统及其相关方法 |
US10062180B2 (en) * | 2014-04-22 | 2018-08-28 | Microsoft Technology Licensing, Llc | Depth sensor calibration and per-pixel correction |
US9311565B2 (en) * | 2014-06-16 | 2016-04-12 | Sony Corporation | 3D scanning with depth cameras using mesh sculpting |
US9773155B2 (en) * | 2014-10-14 | 2017-09-26 | Microsoft Technology Licensing, Llc | Depth from time of flight camera |
US9578311B2 (en) * | 2014-10-22 | 2017-02-21 | Microsoft Technology Licensing, Llc | Time of flight depth camera |
US10110881B2 (en) * | 2014-10-30 | 2018-10-23 | Microsoft Technology Licensing, Llc | Model fitting from raw time-of-flight images |
US9936195B2 (en) * | 2014-11-06 | 2018-04-03 | Intel Corporation | Calibration for eye tracking systems |
EP3040941B1 (en) * | 2014-12-29 | 2017-08-02 | Dassault Systèmes | Method for calibrating a depth camera |
US10931933B2 (en) * | 2014-12-30 | 2021-02-23 | Eys3D Microelectronics, Co. | Calibration guidance system and operation method of a calibration guidance system |
LU92688B1 (en) * | 2015-04-01 | 2016-10-03 | Iee Int Electronics & Eng Sa | Method and system for real-time motion artifact handling and noise removal for tof sensor images |
US10178374B2 (en) | 2015-04-03 | 2019-01-08 | Microsoft Technology Licensing, Llc | Depth imaging of a surrounding environment |
US9858683B2 (en) * | 2015-08-05 | 2018-01-02 | Intel Corporation | Method and system of planar surface detection objects in 3d space generated from captured images for image processing |
EP3139346B1 (en) * | 2015-09-01 | 2019-01-16 | Veoneer Sweden AB | Vision system for a motor vehicle and method of controlling a vision system |
CN106488204B (zh) * | 2015-09-02 | 2018-06-15 | 财团法人工业技术研究院 | 具备自身校准的深度摄影装置以及自身校准方法 |
US10742961B2 (en) | 2015-09-02 | 2020-08-11 | Industrial Technology Research Institute | Depth sensing apparatus with self-calibration and self-calibration method thereof |
US10554956B2 (en) | 2015-10-29 | 2020-02-04 | Dell Products, Lp | Depth masks for image segmentation for depth-based computational photography |
TWI577970B (zh) * | 2015-11-19 | 2017-04-11 | Object coordinate fusion correction method and calibration plate device thereof | |
US10021371B2 (en) | 2015-11-24 | 2018-07-10 | Dell Products, Lp | Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair |
EP3176750B1 (en) | 2015-12-04 | 2019-03-13 | Veoneer Sweden AB | Vision system for a motor vehicle and method of controlling a vision system |
DE112016006213T5 (de) * | 2016-01-12 | 2018-10-18 | Mitsubishi Electric Corporation | System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen |
US10368037B2 (en) * | 2016-03-23 | 2019-07-30 | Purdue Research Foundation | Public safety camera monitoring system and method |
US10341617B2 (en) * | 2016-03-23 | 2019-07-02 | Purdue Research Foundation | Public safety camera identification and monitoring system and method |
US10506201B2 (en) * | 2016-03-23 | 2019-12-10 | Purdue Research Foundation | Public safety camera identification and monitoring system and method |
KR102537416B1 (ko) * | 2016-06-03 | 2023-05-26 | 우트쿠 부육사힌 | 3d 이미지를 캡처 및 생성하기 위한 시스템 및 방법 |
CN109478088B (zh) | 2016-07-21 | 2022-11-11 | 视觉应用解决方案有限公司 | 一种防止由电子屏幕设备近距离使用引起视觉退化的系统和方法 |
US10321114B2 (en) | 2016-08-04 | 2019-06-11 | Google Llc | Testing 3D imaging systems |
US10560679B2 (en) | 2016-08-30 | 2020-02-11 | Microsoft Technology Licensing, Llc | Deformation detection and automatic calibration for a depth imaging system |
CN106503408B (zh) * | 2016-12-07 | 2019-09-13 | 电子科技大学 | 基于数据相关条件下的汽车转向机构稳健设计优化方法 |
CN106767933B (zh) * | 2017-02-10 | 2024-01-12 | 奥比中光科技集团股份有限公司 | 深度相机误差的测量系统、测量方法、评价方法及补偿方法 |
WO2018167999A1 (ja) * | 2017-03-17 | 2018-09-20 | パナソニックIpマネジメント株式会社 | プロジェクタ及びプロジェクタシステム |
US10593064B2 (en) * | 2017-03-31 | 2020-03-17 | Intel Corporation | Dynamic depth camera system calibration using mobile dispay device |
US20230107110A1 (en) * | 2017-04-10 | 2023-04-06 | Eys3D Microelectronics, Co. | Depth processing system and operational method thereof |
CN109242901B (zh) * | 2017-07-11 | 2021-10-22 | 深圳市道通智能航空技术股份有限公司 | 应用于三维相机的图像校准方法和装置 |
CN108605081B (zh) * | 2017-07-18 | 2020-09-01 | 杭州他若信息科技有限公司 | 智能目标追踪 |
CN107730561B (zh) * | 2017-10-17 | 2021-07-06 | 奥比中光科技集团股份有限公司 | 深度相机温度误差校正方法及系统 |
CN107657635B (zh) * | 2017-10-17 | 2022-03-29 | 奥比中光科技集团股份有限公司 | 深度相机温度误差校正方法及系统 |
US10460512B2 (en) * | 2017-11-07 | 2019-10-29 | Microsoft Technology Licensing, Llc | 3D skeletonization using truncated epipolar lines |
CN108234998A (zh) * | 2018-01-09 | 2018-06-29 | 南京华捷艾米软件科技有限公司 | 体感摄像头的精度测量方法和体感摄像头的精度测量装置 |
CN108921902B (zh) * | 2018-06-06 | 2020-05-08 | 贝壳技术有限公司 | 一种修正结构光相机偏差的方法及装置 |
DE102019118457A1 (de) | 2018-07-13 | 2020-01-16 | Sony Semiconductor Solutions Corporation | Tof-(time-of-flight)-kamera, elektronikeinrichtung und kalibrierungsverfahren |
CN108833884B (zh) * | 2018-07-17 | 2020-04-03 | Oppo广东移动通信有限公司 | 深度校准方法及装置、终端、可读存储介质及计算机设备 |
CN109345550A (zh) * | 2018-08-07 | 2019-02-15 | 信利光电股份有限公司 | 结构光图像的光斑角点抓取方法、装置及可读存储介质 |
CN109272556B (zh) * | 2018-08-31 | 2021-04-30 | 青岛小鸟看看科技有限公司 | 一种飞行时间tof相机的标定方法和装置 |
CN108961344A (zh) * | 2018-09-20 | 2018-12-07 | 鎏玥(上海)科技有限公司 | 一种深度摄像头与自定义平面校准设备 |
US10628968B1 (en) * | 2018-12-05 | 2020-04-21 | Toyota Research Institute, Inc. | Systems and methods of calibrating a depth-IR image offset |
TWI680436B (zh) * | 2018-12-07 | 2019-12-21 | 財團法人工業技術研究院 | 深度相機校正裝置及其方法 |
EP3671111A1 (en) * | 2018-12-18 | 2020-06-24 | Agfa Nv | Method for calibrating a 3d camera for patient thickness measurements |
CN109982074B (zh) * | 2019-04-11 | 2021-01-15 | 歌尔光学科技有限公司 | 一种获取tof模组的倾斜角度的方法、装置及组装方法 |
CN110113528B (zh) * | 2019-04-26 | 2021-05-07 | 维沃移动通信有限公司 | 一种参数获取方法及终端设备 |
CN110148186B (zh) * | 2019-05-28 | 2021-01-22 | 河北农业大学 | 一种rgb-d相机快速标定方法 |
US11836938B2 (en) * | 2019-06-18 | 2023-12-05 | Sony Semiconductor Solutions Corporation | Time-of-flight imaging apparatus and time-of-flight imaging method |
US11315258B1 (en) | 2019-08-19 | 2022-04-26 | Ag Leader Technology, Inc. | Optical system for tracking the heading and position of an implement compared to the pulling tractor and other uses |
CN112445326B (zh) * | 2019-09-03 | 2023-04-07 | 浙江舜宇智能光学技术有限公司 | 一种基于tof相机的投影交互方法及其系统和电子设备 |
US11373331B2 (en) * | 2019-12-18 | 2022-06-28 | Agt International Gmbh | System, method and computer program product for determining sizes and/or 3D locations of objects imaged by a single camera |
TWI720869B (zh) * | 2020-04-15 | 2021-03-01 | 致伸科技股份有限公司 | 相機模組之對位方法 |
CN112135125B (zh) * | 2020-10-28 | 2024-07-30 | 歌尔光学科技有限公司 | 相机内参测试方法、装置、设备及计算机可读存储介质 |
US11727637B2 (en) * | 2020-12-15 | 2023-08-15 | Kwangwoon University Industry-Academic Collaboration Foundation | Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera |
CN112712590B (zh) * | 2021-01-15 | 2023-11-28 | 中国农业大学 | 一种动物点云生成方法及系统 |
CN112804508B (zh) * | 2021-03-19 | 2021-08-31 | 深圳市火乐科技发展有限公司 | 投影仪校正方法、系统、存储介质以及电子设备 |
TWI798663B (zh) * | 2021-03-22 | 2023-04-11 | 伍碩科技股份有限公司 | 深度影像補償方法及其系統 |
CN113487678A (zh) * | 2021-06-11 | 2021-10-08 | 奥比中光科技集团股份有限公司 | 一种相机校准方法、系统及处理电路 |
PL443897A1 (pl) * | 2023-02-24 | 2024-08-26 | Mentor Spółka Z Ograniczoną Odpowiedzialnością Spółka Komandytowa | Sposób analizy stereowizyjnej oraz urządzenie do analizy stereowizyjnej |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6633664B1 (en) * | 1999-05-11 | 2003-10-14 | Nippon Telegraph And Telephone Corporation | Three-dimensional structure acquisition method, apparatus and computer readable medium |
US7003136B1 (en) * | 2002-04-26 | 2006-02-21 | Hewlett-Packard Development Company, L.P. | Plan-view projections of depth image data for object tracking |
CN101086681A (zh) * | 2006-06-09 | 2007-12-12 | 中国科学院自动化研究所 | 基于立体视觉的游戏控制系统及方法 |
CN101271591A (zh) * | 2008-04-28 | 2008-09-24 | 清华大学 | 一种交互式多视点三维模型重建方法 |
Family Cites Families (173)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
JPH03103822U (zh) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
CA2101633A1 (en) | 1991-12-03 | 1993-06-04 | Barry J. French | Interactive video testing and training system |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
JPH0844490A (ja) | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
JP3481631B2 (ja) | 1995-06-07 | 2003-12-22 | ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク | 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法 |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
WO1997023871A1 (en) * | 1995-12-21 | 1997-07-03 | Philips Electronics N.V. | Optical scanning device |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
JP2000510013A (ja) | 1996-05-08 | 2000-08-08 | リアル ヴィジョン コーポレイション | 位置検出を用いたリアルタイムシミュレーション |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
EP0959444A4 (en) | 1996-08-14 | 2005-12-07 | Nurakhmed Nurislamovic Latypov | METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
EP0849697B1 (en) | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
WO1999019840A1 (en) | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | A system and method for generating an animatable character |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
AU1099899A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
EP1059970A2 (en) | 1998-03-03 | 2000-12-20 | Arena, Inc, | System and method for tracking and assessing movement skills in multidimensional space |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
EP0991011B1 (en) | 1998-09-28 | 2007-07-25 | Matsushita Electric Industrial Co., Ltd. | Method and device for segmenting hand gestures |
AU1930700A (en) | 1998-12-04 | 2000-06-26 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
WO2000036372A1 (en) | 1998-12-16 | 2000-06-22 | 3Dv Systems, Ltd. | Self gating photosurface |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
EP1497160B2 (de) | 2002-04-19 | 2010-07-21 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | Sicherheitsvorrichtung für ein fahrzeug |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
US6809330B2 (en) * | 2002-12-18 | 2004-10-26 | Lockheed Martin Corporation | Automatic calibration and built-in diagnostic procedures for line scan cameras |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US7372977B2 (en) | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US7620202B2 (en) | 2003-06-12 | 2009-11-17 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
US7536032B2 (en) | 2003-10-24 | 2009-05-19 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
CN100573548C (zh) | 2004-04-15 | 2009-12-23 | 格斯图尔泰克股份有限公司 | 跟踪双手运动的方法和设备 |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
EP1849123A2 (en) | 2005-01-07 | 2007-10-31 | GestureTek, Inc. | Optical flow based tilt sensor |
EP3693889A3 (en) | 2005-01-07 | 2020-10-28 | QUALCOMM Incorporated | Detecting and tracking objects in images |
JP2008537190A (ja) | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | 赤外線パターンを照射することによる対象物の三次元像の生成 |
JP5631535B2 (ja) | 2005-02-08 | 2014-11-26 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
US7317836B2 (en) | 2005-03-17 | 2008-01-08 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
JP4230525B2 (ja) * | 2005-05-12 | 2009-02-25 | 有限会社テクノドリーム二十一 | 3次元形状計測方法およびその装置 |
KR101430761B1 (ko) | 2005-05-17 | 2014-08-19 | 퀄컴 인코포레이티드 | 방위-감응 신호 출력 |
EP1752748B1 (en) | 2005-08-12 | 2008-10-29 | MESA Imaging AG | Highly sensitive, fast pixel for use in an image sensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
WO2008014826A1 (en) * | 2006-08-03 | 2008-02-07 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
US7769205B2 (en) * | 2006-11-28 | 2010-08-03 | Prefixa International Inc. | Fast three dimensional recovery method and apparatus |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
DE102007001649A1 (de) * | 2007-01-11 | 2008-07-17 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zur Selbstkalibrierung einer Überwachungskamera |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
US8696458B2 (en) * | 2008-02-15 | 2014-04-15 | Thales Visionix, Inc. | Motion tracking system and method using camera and non-camera sensors |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
EP2154650A1 (en) | 2008-08-12 | 2010-02-17 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | 3D time-of-flight camera system and position/orientation calibration method therefor |
KR101497659B1 (ko) | 2008-12-04 | 2015-03-02 | 삼성전자주식회사 | 깊이 영상을 보정하는 방법 및 장치 |
US8761434B2 (en) * | 2008-12-17 | 2014-06-24 | Sony Computer Entertainment Inc. | Tracking system calibration by reconciling inertial data with computed acceleration of a tracked object in the three-dimensional coordinate system |
US9582889B2 (en) * | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
US9041796B2 (en) * | 2010-08-01 | 2015-05-26 | Francis Ruben Malka | Method, tool, and device for determining the coordinates of points on a surface by means of an accelerometer and a camera |
-
2010
- 2010-11-03 US US12/939,038 patent/US8866889B2/en active Active
-
2011
- 2011-10-03 TW TW100135782A patent/TW201233144A/zh unknown
- 2011-11-02 WO PCT/US2011/058951 patent/WO2012061493A2/en active Application Filing
- 2011-11-02 EP EP11838742.2A patent/EP2636223B1/en active Active
- 2011-11-02 CN CN201110364401.1A patent/CN102572505B/zh active Active
- 2011-11-04 AR ARP110104098A patent/AR083709A1/es not_active Application Discontinuation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6633664B1 (en) * | 1999-05-11 | 2003-10-14 | Nippon Telegraph And Telephone Corporation | Three-dimensional structure acquisition method, apparatus and computer readable medium |
US7003136B1 (en) * | 2002-04-26 | 2006-02-21 | Hewlett-Packard Development Company, L.P. | Plan-view projections of depth image data for object tracking |
CN101086681A (zh) * | 2006-06-09 | 2007-12-12 | 中国科学院自动化研究所 | 基于立体视觉的游戏控制系统及方法 |
CN101271591A (zh) * | 2008-04-28 | 2008-09-24 | 清华大学 | 一种交互式多视点三维模型重建方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2012061493A3 (en) | 2012-07-26 |
TW201233144A (en) | 2012-08-01 |
EP2636223A4 (en) | 2017-05-10 |
US8866889B2 (en) | 2014-10-21 |
CN102572505A (zh) | 2012-07-11 |
AR083709A1 (es) | 2013-03-13 |
EP2636223A2 (en) | 2013-09-11 |
WO2012061493A2 (en) | 2012-05-10 |
US20120105585A1 (en) | 2012-05-03 |
EP2636223B1 (en) | 2019-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102572505B (zh) | 用于校准深度图像传感器的方法和系统 | |
US11189078B2 (en) | Automated understanding of three dimensional (3D) scenes for augmented reality applications | |
KR101881620B1 (ko) | 게임플레이에서의 3차원 환경 모델 사용 | |
US9270974B2 (en) | Calibration between depth and color sensors for depth cameras | |
US20200364509A1 (en) | System and method for training a neural network for visual localization based upon learning objects-of-interest dense match regression | |
Takimoto et al. | 3D reconstruction and multiple point cloud registration using a low precision RGB-D sensor | |
US20140168378A1 (en) | Calibration and registration of camera arrays using a single circular grid optical target | |
CN107025663A (zh) | 视觉系统中用于3d点云匹配的杂波评分系统及方法 | |
CN109255749A (zh) | 自主和非自主平台中的地图构建优化 | |
Afzal et al. | Rgb-d multi-view system calibration for full 3d scene reconstruction | |
Kassebaum et al. | 3-D target-based distributed smart camera network localization | |
CN109902675A (zh) | 物体的位姿获取方法、场景重构的方法和装置 | |
McIlroy et al. | Kinectrack: 3d pose estimation using a projected dense dot pattern | |
Radanovic et al. | Aligning the real and the virtual world: Mixed reality localisation using learning-based 3D–3D model registration | |
US11758100B2 (en) | Portable projection mapping device and projection mapping system | |
Donner et al. | Awakening history: Preparing a museum tour guide robot for augmenting exhibits | |
Alturki | Principal point determination for camera calibration | |
Braux-Zin et al. | Calibrating an optical see-through rig with two non-overlapping cameras: The virtual camera framework | |
US11924561B2 (en) | Determining a camera control point for virtual production | |
Setyati et al. | Face tracking implementation with pose estimation algorithm in augmented reality technology | |
Çalı | Depth Based Calibration of Multiple RGBD Cameras for Full 3D Reconstruction | |
Wang et al. | Real-Time Multiple Human Height Measurements with Occlusion Handling Using LiDAR and Camera of a Mobile Device | |
Janszen et al. | Master Thesis Improving robustness of pose estimation in AR using motion segmentation | |
CN115564760A (zh) | 一种户外场景电力线夹位姿检测方法及装置 | |
Picus et al. | Auto-calibration of Non-overlapping Multi-camera CCTV Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150428 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20150428 Address after: Washington State Patentee after: Micro soft technique license Co., Ltd Address before: Washington State Patentee before: Microsoft Corp. |