CN102549619A - 人类跟踪系统 - Google Patents
人类跟踪系统 Download PDFInfo
- Publication number
- CN102549619A CN102549619A CN2010800449190A CN201080044919A CN102549619A CN 102549619 A CN102549619 A CN 102549619A CN 2010800449190 A CN2010800449190 A CN 2010800449190A CN 201080044919 A CN201080044919 A CN 201080044919A CN 102549619 A CN102549619 A CN 102549619A
- Authority
- CN
- China
- Prior art keywords
- voxel
- tracker
- analysis
- target recognition
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000002414 leg Anatomy 0.000 claims description 30
- 238000005070 sampling Methods 0.000 claims description 26
- 238000000034 method Methods 0.000 claims description 23
- 210000000988 bone and bone Anatomy 0.000 claims description 18
- 210000003127 knee Anatomy 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 description 250
- 210000001624 hip Anatomy 0.000 description 57
- 210000003414 extremity Anatomy 0.000 description 28
- 230000033001 locomotion Effects 0.000 description 15
- 230000036544 posture Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000006073 displacement reaction Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 210000000245 forearm Anatomy 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000036541 health Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000000429 assembly Methods 0.000 description 4
- 230000000712 assembly Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000001699 lower leg Anatomy 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000001981 hip bone Anatomy 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 239000006187 pill Substances 0.000 description 1
- 238000005381 potential energy Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007474 system interaction Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/833—Hand-to-hand fighting, e.g. martial arts competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1068—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
- A63F2300/1075—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
- A63F2300/5546—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
- A63F2300/5553—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6607—Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
可由设备接收、观察或捕捉诸如场景的深度图像等图像。接着可基于深度图像生成体素的网格,使得可对该深度图像进行降采样。可移除体素的网格中所包括的背景,以隔离与前景对象(诸如人类目标)相关联的一个或多个体素。可以确定被隔离的人类目标的一个或多个肢端的位置或方位,并且可以基于一个或多个肢端的位置或方位来调整模型。
Description
背景技术
诸如计算机游戏、多媒体应用等的许多计算应用使用控制来允许用户操纵游戏角色或应用的其他方面。通常使用例如控制器、遥控器、键盘、鼠标等等来输入这样的控制。不幸的是,这些控制可能是难以学习的,由此造成了用户和这些游戏及应用之间的障碍。此外,这些控制可能与这些控制所用于的实际游戏动作或其他应用动作不同。例如,使得游戏角色挥动棒球球棒的游戏控制可能不与挥动棒球球棒的实际运动相对应。
发明内容
此处所公开的是用于跟踪场景中的用户的系统和方法。例如,可以接收或观察诸如场景的深度图像等图像。可基于深度图像生成体素(voxel)的网格(grid)以便降采样该深度图像。例如,深度图像可包括多个像素,这些像素可被划分成部分或块。然后可为每个部分或块生成体素,使得所接收的深度图像被降采样到体素的网格中。
根据一个实施例,然后可移除体素的网格中所包括的背景以隔离开与前景对象(诸如人类目标)相关联的一个或多个体素。可以确定所隔离开的人类目标的一个或多个肢端(诸如质心或中心、头、肩、髋、臂、手、肘、腿、脚、膝等)的位置或方位。此外,可以确定这些肢端的尺寸,诸如包括宽度、长度等的测量值。
随后可基于由此所确定的一个或多个肢端的位置或方位和/或尺寸来调整模型。例如,该模型可以是可包括诸如关节和/或骨骼的骨架模型。可以调整模型的一个或多个关节,使得该一个或多个关节可被指派到与其对应的一个或多个肢端的位置或方位,和/或在其间定义的骨骼可被调整至与其对应的一个或多个肢端的尺寸。
可处理经调整的模型。例如,在一个实施例中,可以将经调整的模型映射到化身或游戏角色,使得该化身或游戏角色可以被动画化(animated)以模仿该用户,和/或经调整的模型可被提供到计算环境中的姿势库,该姿势库可用于基于该模型中的各身体部分的方位来确定在应用内执行的控制。
提供本发明内容以便以简化形式介绍将在以下具体实施方式中进一步描述的一些概念。本发明内容并不旨在标识出所要求保护的主题的关键或必要特征,也不旨在用于限定所要求保护的主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中提及的任何或所有缺点的实现。
附图说明
图1A和1B示出了目标识别、分析和跟踪系统的示例实施例,其中用户正在玩游戏。
图2示出了可在目标识别、分析和跟踪系统中使用的捕捉设备的示例实施例。
图3示出可用于解释目标识别、分析和跟踪系统中的一个或多个姿势和/或动画化目标识别、分析和跟踪系统所显示的化身或屏幕上角色的计算环境的示例实施例。
图4示出可用于解释目标识别、分析和跟踪系统中的一个或多个姿势和/或动画化目标识别、分析和跟踪系统所显示的化身或屏幕上角色的计算环境的另一示例实施例。
图5描绘了用于跟踪场景中的用户的示例方法的流程图。
图6示出可被捕捉或观察的深度图像的示例实施例。
图7A-7B示出被降采样的深度图像的一部分的示例实施例。
图8示出了为人类目标估计的质心或中心的示例实施例。
图9示出了可被定义为确定核体积的边界框的示例实施例。
图10示出了可被创建为对头候选项进行打分的头柱体和躯干柱体的示例实施例。
图11示出了基于人类目标的头以及质心或中心的头-到-中心向量的示例实施例。
图12示出了基于头-到-中心向量所确定的肩体块和髋体块的示例实施例。
图13示出可基于肩体块和髋体块来计算的肩和髋的示例实施例。
图14示出了可表示核体积的柱体的示例实施例。
图15A-15C示出了基于锚点来确定的手的示例实施例。
图16示出可基于臂和腿的平均方位和/或锚点来计算的手和脚的示例实施例。
图17示出了可被生成的模型的示例实施例。
说明性实施例的具体实施方式
图1A和1B示出目标识别、分析和跟踪系统10的配置的示例实施例,其中用户18正在玩拳击游戏。在一示例实施例中,目标识别、分析和跟踪系统10可用于识别、分析和/或跟踪诸如用户18等的人类目标。
如图1A所示,目标识别、分析和跟踪系统10可以包括计算环境12。计算环境12可以是计算机、游戏系统或控制台等等。根据一示例实施例,计算环境12可包括硬件组件和/或软件组件,使得计算环境12可用于执行诸如游戏应用、非游戏应用等应用。在一个实施例中,计算环境12可包括可执行指令的标准化处理器、专用处理器、微处理器等,这些指令可包括例如用于接收深度图像的指令;用于基于深度图像来生成体素网格的指令;用于移除体素网格中所包括的背景以隔离与人类目标相关联的一个或多个体素的指令;用于确定被隔离的人类目标的一个或多个肢端的位置或方位的指令;用于基于一个或多个肢端的位置或地点来调整模型的指令;或任何其他合适的指令,下面将对它们进行更详细的描述。
如图1A所示,目标识别、分析和跟踪系统10还可包括捕捉设备20。捕捉设备20可以是例如照相机,所述照相机可用于在视觉上监视诸如用户18等的一个或多个用户从而可以捕捉、分析并跟踪一个或多个用户所执行的姿势和/或移动,来执行应用程序中的一个或多个控制命令或动作和/或动画化化身或屏幕上人物,如将在下面更详细地描述的。
根据一个实施例,目标识别、分析和跟踪系统10可连接到可向诸如用户18等用户提供游戏或应用视觉和/或音频的视听设备16,如电视机、监视器、高清电视机(HDTV)等。例如,计算环境12可包括诸如图形卡等视频适配器和/或诸如声卡等音频适配器,这些适配器可提供与游戏应用、非游戏应用等相关联的视听信号。视听设备16可从计算环境12接收视听信号,然后可向用户18输出与该视听信号相关联的游戏或应用视觉和/或音频。根据一个实施例,视听设备16可经由例如,S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等连接到计算环境12。
如图1A和1B所示,目标识别、分析和跟踪系统10可用于识别、分析和/或跟踪诸如用户18等的人类目标。例如,可使用捕捉设备20来跟踪用户18,从而可以捕捉用户18的姿势和/或移动来动画化化身或屏幕上人物,和/或可将用户18的姿势和/或移动解释为可用于影响计算环境12所执行的应用的控制命令。因此,根据一个实施例,用户18可移动他或她的身体来控制应用和/或动画化化身或屏幕上人物。
如图1A和1B所示,在一示例性实施例中,在计算环境12上执行的应用可以是用户18可能正在玩的拳击游戏。例如,计算环境12可使用视听设备16来向用户18提供拳击对手38的视觉表示。计算环境12还可使用视听设备16来提供用户18可通过他的或她的移动来控制的玩家化身40的视觉表示。例如,如图1B所示,用户18可以在物理空间中挥拳以致使玩家化身40在游戏空间中挥拳。因此,根据一示例实施例,目标识别、分析和跟踪系统10的计算环境12和捕捉设备20可用于识别和分析物理空间中用户18的重拳从而使得该重拳可被解释为对游戏空间中的玩家化身40的游戏控制和/或该重拳的运动可用于动画化游戏空间中的玩家化身40。
用户18的其他移动也可被解释为其他控制命令或动作,和/或用于动画化玩家化身,如上下快速摆动、闪避、滑步、封堵、用拳猛击或挥动各种不同的有力重拳的控制命令。此外,某些移动可被解释为可对应于除控制玩家化身40之外的动作的控制。例如,在一个实施例中,玩家可使用移动来结束、暂停或保存游戏、选择级别、查看高分、与朋友交流等。根据另一实施例,玩家可使用移动来从主用户界面选择游戏或其他应用程序。因此,在示例实施例中,用户18的全范围运动可以用任何合适的方式来获得、使用并分析以与应用程序进行交互。
在各示例实施例中,诸如用户18等人类目标可持有一物体。在这些实施例中,电子游戏的用户可手持物体,使得可使用玩家和物体的运动来调整和/或控制游戏的参数。例如,可以跟踪并利用玩家手持球拍的运动来控制电子运动游戏中的屏幕上球拍。在另一示例实施例中,可以跟踪并利用玩家手持物体的运动来控制电子格斗游戏中的屏幕上武器。
根据其他示例实施例,目标识别、分析和跟踪系统10还可用于将目标移动解释为游戏领域之外的操作系统和/或应用控制。例如,事实上操作系统和/或应用程序的任何可控方面都可由诸如用户18等目标的移动来控制。
图2示出可在目标识别、分析和跟踪系统10中使用的捕捉设备20的示例实施例。根据一示例实施例,捕捉设备20可被配置成经由任何合适的技术,包括例如飞行时间、结构化光、立体图像等来捕捉包括深度图像的带有深度信息的视频,该深度信息可包括深度值。根据一实施例,捕捉设备20可将深度信息组织为“Z层”或者可与从深度相机沿其视线延伸的Z轴垂直的层。
如图2所示,捕捉设备20可包括图像相机组件22。根据一个示例性实施例,图像相机组件22可以是可捕捉场景的深度图像的深度相机。深度图像可以包括所捕捉场景的二维(2-D)像素区域,其中2-D像素区域中的每个像素都可表示深度值,比如例如所捕捉场景中的对象距相机的以厘米、毫米等为单位的长度或距离。
如图2所示,根据一示例性实施例,图像相机组件22可以包括可用于捕捉场景的深度图像的IR光组件24、三维(3-D)相机26、和RGB相机28。例如,在飞行时间分析中,捕捉设备20的IR光组件24可将红外光发射到场景上,并且随后可使用传感器(未示出)、用例如3-D相机26和/或RGB相机28来检测从场景中的一个或多个目标和物体的表面反向散射的光。在一些实施例中,可以使用脉冲红外光,使得可以测量出射光脉冲与相应入射光脉冲之间的时间,并且将其用于确定从捕捉设备20到场景中的目标或物体上的特定位置的物理距离。附加地,在其他示例性实施例中,可以将出射光波的相位与入射光波的相位相比较来确定相移。然后可以使用该相移来确定从捕捉设备到目标或物体上的特定位置的物理距离。
根据另一示例性实施例,可以使用飞行时间分析来通过经由包括例如快门式光脉冲成像在内的各种技术分析反射光束随时间的强度来间接地确定从捕捉设备20到目标或物体上的特定位置的物理距离。
在另一示例性实施例中,捕捉设备20可以使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即被显示为诸如网格图案或条纹图案之类的已知图案的光)可以经由例如IR光组件24被投影到场景上。在落到场景中的一个或多个目标或物体的表面上以后,作为响应,图案可以变为变形的。图案的这种变形可由例如3-D相机26和/或RGB相机28来捕捉,然后可被分析来确定从捕捉设备到目标或物体上的特定位置的物理距离。
根据另一实施例,捕捉设备20可包括两个或更多物理上分开的相机,这些相机可从不同角度查看场景以获得视觉立体数据,该视觉立体数据可被解析以生成深度信息。
捕捉设备20还可包括话筒30。话筒30可包括可接收声音并将其转换成电信号的变换器或传感器。根据一个实施例,话筒30可用于减少目标识别、分析和跟踪系统10中的捕捉设备20与计算环境12之间的反馈。附加地,话筒30可用于接收也可由用户提供的音频信号,以控制可由计算环境12执行的诸如游戏应用、非游戏应用等之类的应用。
在一示例性实施例中,捕捉设备20还可包括可与图像相机组件22可操作地通信的处理器32。处理器32可包括可执行指令的标准化处理器、专用处理器、微处理器等,这些指令可包括例如用于接收深度图像的指令;用于基于深度图像来生成体素网格的指令;用于移除体元网格中所包括的背景以隔离与人类目标相关联的一个或多个体素的指令;用于确定被隔离的人类目标的一个或多个肢端的位置或方位的指令;用于基于一个或多个肢端的位置或定位来调整模型的指令;或任何其他合适的指令,下面将对它们进行更详细的描述。
捕捉设备20还可包括存储器组件34,存储器组件34可存储可由处理器32执行的指令、3-D相机或RGB相机捕捉到的图像或图像的帧、或任何其他合适的信息、图像等。根据一示例性实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的存储组件。如图2所示,在一个实施例中,存储器组件34可以是与图像捕捉组件22和处理器32进行通信的单独的组件。根据另一实施例,存储器组件34可被集成到处理器32和/或图像捕捉组件22中。
如图2所示,捕捉设备20可经由通信链路36与计算环境12进行通信。通信链路36可以是包括例如USB连接、火线连接、以太网电缆连接等的有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等的无线连接。根据一个实施例,计算环境12可以经由通信链路36向捕捉设备20提供时钟,该时钟可用于确定何时捕捉例如场景。
另外,捕捉设备20可经由通信链路36向计算环境12提供深度信息和由例如3-D相机26和/或RGB相机28捕捉的图像,和/或可由捕捉设备20生成的骨架模型。计算环境12然后可使用该模型、深度信息、以及所捕捉的图像来例如控制诸如游戏或字处理程序等的应用和/或动画化化身或屏幕上人物。例如,如图2所示,计算环境12可包括姿势库190。姿势库190可包括姿势过滤器集合,每一姿势过滤器包括关于骨架模型可执行(在用户移动时)的姿势的信息。可将由相机26、28和捕捉设备20捕捉的骨架模型形式的数据以及与其相关联的移动与姿势库190中的姿势过滤器进行比较来标识用户(如骨架模型所表示的)何时执行了一个或多个姿势。那些姿势可与应用的各种控制相关联。因此,计算环境12可使用姿势库190来解释骨架模型的移动并基于该移动来控制应用。
图3示出可用于解释目标识别、分析和跟踪系统中的一个或多个姿势和/或动画化目标识别、分析和跟踪系统所显示的化身或屏幕上的人物的计算环境的示例实施例。上面参考图1A-2所描述的诸如计算环境12等计算环境可以是诸如游戏控制台等多媒体控制台100。如图3所示,多媒体控制台100具有含有一级高速缓存102、二级高速缓存104和闪存ROM(只读存储器)106的中央处理单元(CPU)101。一级高速缓存102和二级高速缓存104临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU101可被提供为具有一个以上的核,并且由此具有附加的一级高速缓存102和二级高速缓存104。闪存ROM 106可存储在多媒体控制台100通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速和高分辨率图形处理的视频处理流水线。数据经由总线从图形处理单元108输送到视频编码器/视频编解码器114。视频处理流水线向A/V(音频/视频)端口140输出数据,以便传输到电视机或其他显示器。存储器控制器110连接到GPU 108以方便处理器访问各种类型的存储器112,诸如但不局限于RAM(随机存取存储器)。
多媒体控制台100包括较佳地在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口控制器124、第一USB主控制器126、第二USB控制器128和前面板I/O子部件130。USB控制器126和128用作外围控制器142(1)-142(2)、无线适配器148、以及外置存储器设备146(例如,闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中的任何一种。
提供系统存储器143来存储在引导过程期间加载的应用数据。提供媒体驱动器144,并且其可包括DVD/CD驱动器、硬盘驱动器,或其他可移动媒体驱动器等。媒体驱动器144可内置或外置于多媒体控制台100。应用数据可经由媒体驱动器144访问,以供多媒体控制台100执行、回放等。媒体驱动器144经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器120。
系统管理控制器122提供与确保多媒体控制台100的可用性相关的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件130支持暴露在多媒体控制台100的外表面上的电源按钮150和弹出按钮152、以及任何LED(发光二极管)或其他指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。
CPU 101、GPU 108、存储器控制器110、以及多媒体控制台100内的各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台100通电时,应用数据可从系统存储器143加载到存储器112和/或高速缓存102、104中,并且可在CPU 101上执行。应用可在导航到多媒体控制台100上可用的不同媒体类型时呈现提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中所包含的应用和/或其他媒体可从媒体驱动器144启动或播放,以将附加功能提供给多媒体控制台100。
多媒体控制台100可通过简单地将该系统连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口124或无线适配器148可用的宽带连接集成的情况下,多媒体控制台100还可作为更大网络社区中的参与者来操作。
当多媒体控制台100通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源从应用的视角而言是不存在的。
具体而言,存储器保留量优选地足够大,以包含启动内核、并发系统应用程序和驱动程序。CPU保留量优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留量,通过使用GPU中断来调度代码以将弹出窗口呈现为覆盖图,从而显示由系统应用程序生成的轻量消息(例如,弹出窗口)。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率和引起TV重新同步。
在多媒体控制台100引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识出作为系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 101上运行,以便提供对应用而言一致的系统资源视图。调度是为了使在控制台上运行的游戏应用的高速缓存分裂最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所描述的)在系统应用活动时控制游戏应用的音频级别(例如,静音、衰减)。
输入设备(例如,控制器142(1)和142(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器较佳地控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。相机26、28和捕捉设备20可为控制台100定义附加输入设备。
图4示出计算环境220的另一示例实施例,该计算环境可以是用于解释目标识别、分析和跟踪系统中的一个或多个姿势和/或动画化目标识别、分析和跟踪系统所显示的化身或屏幕上人物的图1A-2中示出的计算环境12。计算系统环境220只是合适的计算环境的一个示例,并且不旨在对当前公开的主题的使用范围或功能提出任何限制。也不应该将计算环境220解释为对示例性操作环境220中示出的任一组件或其组合有任何依赖性或要求。在某些实施例中,所描绘的各种计算元素可包括被配置成实例化本发明的各具体方面的电路。例如,本公开中使用的术语“电路”可包括被配置成通过固件或开关来执行功能的专用硬件组件。其他示例中,术语电路可包括由实施可用于执行功能的逻辑的软件指令配置的通用处理单元、存储器等。在电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。由此,对于硬件实现还是软件实现的选择是设计选择之一并留给实现者。
在图4中,计算环境220包括计算机241,计算机241通常包括各种计算机可读介质。计算机可读介质可以是能被计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)223和随机存取存储器(RAM)260。包含诸如在启动期间帮助在计算机241内的元件之间传输信息的基本例程的基本输入/输出系统224(BIOS)通常储存储在ROM 223中。RAM 260通常包含处理单元259可立即访问和/或当前正在操作的数据和/或程序模块。作为示例而非限制,图4示出了操作系统225、应用程序226、其他程序模块227和程序数据228。
计算机241也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图4示出了从不可移动、非易失性磁介质中读取或向其写入的硬盘驱动器238,从可移动、非易失性磁盘254中读取或向其写入的磁盘驱动器239,以及从诸如CD ROM或其他光学介质等可移动、非易失性光盘253中读取或向其写入的光盘驱动器240。可在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器238通常由例如接口234等不可移动存储器接口连接至系统总线221,而磁盘驱动器239和光盘驱动器240通常由例如接口235等可移动存储器接口连接至系统总线221。
以上讨论并在图4中示出的驱动器及其相关联的计算机存储介质为计算机241提供了对计算机可读指令、数据结构、程序模块和其他数据的存储。在图4中,例如,硬盘驱动器238被示为存储操作系统258、应用程序257、其他程序模块256和程序数据255。注意,这些组件可与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可与它们不同。在此操作系统258、应用程序257、其他程序模块256以及程序数据255被给予了不同的编号,以说明至少它们是不同的副本。用户可以通过输入设备,例如键盘251和定点设备252——通常是指鼠标、跟踪球或触摸垫——向计算机241输入命令和信息。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其他输入设备通常通过耦合到系统总线的用户输入接口236连接到处理单元259,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其他接口和总线结构来连接。相机26、28和捕捉设备20可为控制台100定义附加输入设备。监视器242或其他类型的显示设备也通过诸如视频接口232之类的接口连接至系统总线221。除监视器之外,计算机还可以包括可以通过输出外围接口233连接的诸如扬声器244和打印机243之类的其他外围输出设备。
计算机241可使用到一个或多个远程计算机(诸如,远程计算机246)的逻辑连接而在联网环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见网络节点,并且通常包括许多或所有以上关于计算机241所描述的元件,但在图4中仅示出了存储器存储设备247。图2中所描绘的逻辑连接包括局域网(LAN)245和广域网(WAN)249,但还可包括其他网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机241通过网络接口或适配器237连接到LAN 245。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于通过诸如因特网等WAN 249建立通信的其他手段。调制解调器250可以是内置的或外置的,可经由用户输入接口236或其他适当的机制连接到系统总线221。在联网环境中,相对于计算机241所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图4示出了远程应用程序248驻留在存储器设备247上。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
图5描绘了用于跟踪场景中的用户的示例方法300的流程图。示例方法300可使用例如,参考图1A-4所描述的目标识别、分析和跟踪系统10的捕捉设备20和/或计算环境12来实现。在一示例实施例中,示例方法300可采取可由例如参考图1A-4所描述的目标识别、分析和跟踪系统10的捕捉设备20和/或计算环境12执行的程序代码(即指令)的形式。
根据一个实施例,在305,可接收深度图像。例如,目标识别、分析和跟踪系统可包括诸如参考图1A-2描述的捕捉设备20等捕捉设备。捕捉设备可捕捉或观察可包括一个或多个目标的场景。在一示例实施例中,捕捉设备可以是深度相机,该深度相机被配置成使用诸如飞行时间分析、结构化光分析、立体视觉分析等任何合适的技术来获得场景的深度图像。
深度图像可以是多个观测到的像素,其中每个观测到的像素具有观测到的深度值。例如,深度图像可包括所捕捉的场景的二维(2D)像素区域,其中2D像素区域中的每一像素可表示深度值,诸如例如以厘米、毫米等计的、所捕捉的场景中的对象距捕捉设备的长度或距离。
图6示出了可在305处被接收的深度图像400的示例实施例。根据一示例实施例,深度图像400可以是由例如以上参考图2所描述的捕捉设备20的3D相机26和/或RGB相机28所捕捉的场景的图像或帧。如图6所示,深度图像400可包括与例如诸如参考图1A和1B所描述的用户18等的用户对应的人类目标402a以及诸如所捕捉的场景中的墙、桌子、监视器等的一个或多个非人类目标404。如上所述,深度图像400可包括多个观测到的像素,其中每一观测到的像素具有与其相关联的观测到的深度值。例如,深度图像400可包括所捕捉的场景的二维(2D)像素区域,其中该2D像素区域中的特定X值和Y值处的每一像素可具有诸如以例如厘米、毫米等为单位的所捕捉的场景中的目标或对象离捕捉设备的长度或距离之类的深度值。
在一个实施例中,深度图像400可被着色(colorized)从而使得深度图像的像素的不同颜色对应于和/或从视觉上描绘了人类目标402a和非人类目标404离捕捉设备的不同距离。例如,与深度图像中最接近捕捉设备的目标相关联的像素可用红色和/或橙色阴影来着色,而与深度图像中较远的目标相关联的像素可用绿色和/或蓝色阴影来着色。
回头参考图5,在一个实施例中,一接收到该图像,在305,可从深度图像中移除和/或平滑掉一个或多个高变度和/或含噪声的深度值;可填入和/或重构缺少的和/或被移除的深度信息的各部分;和/或可对接收到的深度图像执行任何其他合适的处理,以使与该深度图像相关联的深度信息可用于生成诸如骨架模型之类的模型,这将在下文更详细地描述。
根据一示例实施例,在310,可基于所接收到的深度图像生成一个或多个体素的网格。例如,目标识别、分析和跟踪系统可通过使用所接收到的深度图像中所包括的信息来生成一个或多个体素来对所接收的深度图像进行降采样,以便可以生成经降采样的深度图像。在一个实施例中,该一个或多个体素可以是可在经子采样(sub-sampled)的网格上表示所接收的深度图像中所包括的信息的数据或值的体元素。
例如,如上所述,深度图像可包括所捕捉的场景的2D像素区域,其中每一像素具有与其相关联的X值、Y值和深度值(或Z值)。在一实施例中,深度图像可通过将2D像素区域中的像素减少为一个或多个体素的网格来降采样。例如,深度图像可被分成各个像素部分或像素块,诸如4x4的像素块、5x5的像素块、8x8的像素块、10x10的像素块等等。每个部分或块可被处理以生成深度图像的体素,该体素可表示与该2D深度图像的像素相关联的部分或块在真实世界空间中的方位。根据一示例实施例,每个体素的方位可以基于例如该体素可能表示的块或部分中的像素的有效或非零深度值的平均深度值、或者该体素可能表示的块或部分中的像素的最小、最大和/或中间深度值、该体素可能表示的部分或块中的具有有效深度值的像素的X值和Y值的平均、或该深度图像所提供的任何适当的信息。因此,根据一示例实施例,每个体素可表示该深度图像中具有诸如以下值的子体(sub-volume)部分或块:该体素可能表示的块或部分中的像素的有效或非零深度值的平均深度值、该体素可能表示的部分或块中的像素的最小、最大和/或中间深度值、该体素可能表示的部分或块中的具有有效深度值的像素的X值和Y值的平均、或基于在305所接收的深度图像的像素的相应部分或块的X值、Y值和深度值由该深度图像所提供的任何其他适当信息。
在一个实施例中,经降采样的深度图像中的一个或多个体素的网格可被分层。例如,目标识别、分析和跟踪系统可生成如上所述的体素。然后该目标识别、分析和跟踪系统可将所生成的体素堆叠在该网格中所生成的一个或多个其他体素上。
根据一示例实施例,该目标识别、分析和跟踪系统可以将体素堆叠在该网格中,例如该深度图像中所捕捉的场景中的物体的边缘周围。例如,在305接收的深度图像可包括人类目标和非人类目标(诸如墙)。例如在人类目标的边缘处,人类目标可以与非人类目标(诸如墙)重叠。在一个实施例中,重叠边缘可包括诸如与该深度图像中可捕捉的该人类目标和非人类目标相关联的深度值、X值、Y值等。该目标识别、分析和跟踪系统可以生成该重叠边缘处的与该人类目标相关联的体素以及与该人类目标相关联的体素,以便该体素可被堆叠而该重叠边缘的信息(诸如深度值、X值、Y值等)可被保持在该网格中。
根据另一实施例,在310,通过例如将深度图像中像素的信息(诸如深度值、X值、Y值等)投影到三维(3D)空间中,可以生成一个或多个体素的网格。例如,目标识别、分析和跟踪系统可以使用诸如相机、图像或透视变换等变换将深度图像中的像素的信息(诸如X值、Y值等)映射到3D空间中的3D点,使得该信息在3D空间中可被变换为梯形或锥形。在一个实施例中,具有梯形或锥形的3D空间可被划分成诸如立方体的块,所述块可创建体素的网格,使得这些块或立方体中的每一个可表示该网格中的体素。例如,该目标识别、分析和跟踪系统可以将3-D网格叠加在与该深度图像中的物体相对应的3-D点上。随后该目标识别、分析和跟踪系统可以将该网格划分或切割为表示体素的块以将该深度图像降采样为更低的分辨率。根据一示例实施例,网格中的每个体素可包括该体素可表示的与网格中的3D空间相关联的像素的有效或非零深度值的平均深度值、该体素可表示的与网格中的3D空间相关联的像素的最小和/或最大深度值、该体素可表示的与网格中的3D空间相关联的具有有效深度值的像素的X值和Y值的平均、或该深度图像所提供的任何其他适合的信息。
图7A-7B示出被降采样的深度图像的一部分的示例实施例。例如,如图7A所示,以上参考图6所述的深度图像400的一部分410可包括多个像素420,其中每一像素420可具有与其相关联的X值、Y值和深度值(或Z值)。.根据一个实施例,如上所述,深度图像(诸如深度图像400)可通过将2D像素区域中的像素减少为一个或多个体素的网格来降采样。例如,如图7A所示,深度图像400的部分410可以被划分为像素420的部分或块430,诸如像素420的8x8块。目标识别、分析和跟踪系统可以处理该部分或块430以生成体素440,体素440可表示与像素420相关联的部分或块430在真实世界中的方位,如图7A-7B所示。
回头参考图5,在315,可将背景从经降采样的深度图像中移除。例如,可以移除经降采样的深度图像中的背景(诸如非人类目标或物体)以隔离前景物体(诸如与用户相关联的人类目标)。在一个实施例中,如上所述,目标识别、分析和跟踪系统可以通过为所捕捉或观察的深度图像生成一个或多个体素的网格来对所捕捉或观察的深度图像进行降采样。目标识别、分析和跟踪系统可以分析经降采样的深度图像中的每个体素以确定体素是否可与背景对象(诸如该深度图像的一个或多个非人类目标)相关联。如果体素可与背景物体相关联,则该体素可从经降采样的深度图像被移除或丢弃,使得前景物体(诸如人类目标)和该网格中与该前景物体相关联的一个或多个体素可以被隔离。
根据一个实施例,目标识别、分析和跟踪系统可以分析每个体素以确定与其相关联的物体。例如,如上所述,可在305处作为深度图像(诸如上面参考图6所描述的深度图像400)来观察或捕捉的场景可包括多个物体。物体可包括一个或多个人类目标和/或一个或多个非人类目标,诸如墙、桌子、沙发椅、灯等。在一个实施例中,目标识别、分析和跟踪系统可以分析网格中的每个体素以确定该体素可能与场景中的哪个物体相关联,使得在315处,目标识别、分析和跟踪系统可以标识与场景中的每个物体相关联的体素。因此,根据一示例实施例,如果人类目标或一个人站在场景中的墙的前面,则目标识别、分析和跟踪系统可以分析每个体素以确定该体素可能是与人类目标还是与墙相关联。
为了确定体素可能与场景中的哪个物体相关联,目标识别、分析和跟踪系统可以比较以下值,诸如该体素可表示的块或部分中的像素的有效或非零深度值的平均深度值、该体素可表示的块或部分中的像素的最小和/或最大深度值、该体素可表示的具有有效深度值的像素的X值和Y值的平均、或者邻近或附近体素的任何其他适合的信息。例如,在一个实施例中,可以将与网格中正被分析的特定体素相关联的平均深度值与同网格中正被分析的特定体素相邻的每个体素的平均深度值进行比较。如果正被分析的特定体素的平均深度值与相邻体素的平均深度值的差可以小于阈值,则特定体素与相邻体素可被标识为属于相同的物体。如果正被分析的特定体素的平均深度值与相邻体素的平均深度值的差可以大于阈值,则特定体素与相邻体素可被标识为属于不同的物体。根据一个示例实施例,该阈值可以是例如由目标识别、分析和跟踪系统所生成的预定值,该预定值可以基于该体素可能是相同的物体的一部分的可能性或概率。因此,根据一示例实施例,如果人类目标或一个人站在由深度图像所捕捉或观察的场景中的墙的前面,则目标识别、分析和跟踪系统可以分析为该深度图像生成的每个体素以确定该体素可能是与人类目标还是与墙相关联。
在标识了接收到的深度图像的场景中的物体以及与之相关联的体素之后,目标识别、分析和跟踪系统随后可以计算与每个所标识的物体相关联的信息。例如,目标识别、分析和跟踪系统可以为每个所标识的物体计算最大世界空间、最小世界空间方位和平均世界空间方位等。
在一个实施例中,在315处,目标识别、分析和跟踪系统还可确定场景中所标识的一个或多个物体是否应与场景中的其他物体合并。例如,可将在305处接收到的深度图像中的物体的一部分与该物体的另一部分相分离。根据一个实施例,可通过由例如场景中的一个物体或另一个物体等所投射的红外阴影来将该物体的一部分与该物体的另一部分相分离。在另一个示例实施例中,可通过例如与一个物体相关联的颜色、纹理、图案等来将该物体的一部分与该物体的另一部分相分离。例如,可通过例如面部毛发、多件服装等沿Y方向中的Y平面将人类目标的头与该人类目标的躯干相分离。
为了确定场景中所标识的一个物体是否可能实际上是场景中所标识的另一个物体的一部分,目标识别、分析和跟踪系统可以对同该物体相关联的体素的X值、深度值与同附近物体相关联的体素的X值、深度值进行比较。例如,目标识别、分析和跟踪系统可以对同例如场景中所标识的第一物体相关联的一个或多个体素的X值、深度值与同该第一物体附近或邻近的第二物体相关联的一个或多个体素的X值、深度值进行比较。因此,根据示例实施例,目标识别、分析和跟踪系统可以分析场景中的体素以确定第一和第二物体是否沿着X方向中定义的X平面和/或Z方向中定义的Z平面重叠,使得可以合并第一和第二物体并将其标识为同一物体的各部分。
根据一个实施例,如果同第一物体相关联的一个或多个体素的X值和深度值可能与同第二物体相关联的一个或多个体素的X值和深度值相重叠,则目标识别、分析和跟踪系统可以合并第一和第二物体,使得目标识别、分析和跟踪系统可将第一和第二物体标识为共同物体的各部分。例如,如果同第一物体相关联的第一体素可具有沿X方向的X值5以及位于第一物体右侧外缘的深度值10mm,并且同第二物体相关联的第二体素可具有沿X方向的X值3以及位于第二物体左侧外缘的深度值10mm,则目标识别、分析和跟踪系统可以确定第一和第二物体可能重叠。目标识别、分析和跟踪系统随后可合并第一和第二物体,使得目标识别、分析和跟踪系统可将第一和第二物体标识为同一物体的各部分。
另外,为了确定场景中所标识的一个物体是否可能实际上是场景中所标识的另一个物体的一部分,目标识别、分析和跟踪系统可以确定在场景中为一个物体所定义的边界框是否与另一个物体的边界框相重叠。例如,目标识别、分析和跟踪系统可为每个所标识的物体定义边界框。目标识别、分析和跟踪系统随后可以基于例如如上所述的包括在其中的一个或多个体素的X值、Y值和/或深度值来确定一个或多个物体的边界框是否重叠。
根据另一个示例实施例,目标识别、分析和跟踪系统可以通过例如对物体中所包括的体素的X值、Y值和深度值取平均来确定每个物体的中心或质心。目标识别、分析和跟踪系统随后可以确定场景中各物体的质心或中心之间的距离,以便确定场景中所标识的一个物体是否可能实际上是场景中所标识的另一个物体的一部分。基于各物体之间的距离,目标识别、分析和跟踪系统可以合并一个或多个物体。例如,目标识别、分析和跟踪系统可以确定第一物体的质心或中心与第二物体的中心或质心之间的距离。如果第一物体与第二物体的质心或中心之间的距离可能位于指示应当合并第一和第二物体的预定范围以内,则目标识别、分析和跟踪系统可以合并这两个物体,使得目标识别、分析和跟踪系统可将第一和第二物体标识为同一物体的各部分。
在一个实施例中,在315处,目标识别、分析和跟踪系统还可确定场景中所标识的一个或多个物体是否应被分离。例如,在315处场景中所标识的物体可能实际上是两个分离的物体。为了确定场景中的一个物体是否应被分离,目标识别、分析和跟踪系统可以标识为之前接收到的帧所确定的每个物体的中心的位置。根据一个实施例,目标识别、分析和跟踪系统随后可以同时从由之前接收到的帧的物体所确定的中心的位置开始,泛色填充场景中为在305处接收到的帧的深度图像所生成的体素。目标识别、分析和跟踪系统随后可以使用物体的之前位置来确定经泛色填充的体素可能更接近于之前接收到的帧中的哪个物体。如果经泛色填充的体素可能更接近于之前接收到的帧中所标识的另一个物体,则目标识别、分析和跟踪系统可在315处拆分一个物体。
在315处,目标识别、分析和跟踪系统随后可以确定所标识的物体是否可能是诸如非人类目标的背景物体、还是诸如人类目标的前景物体。根据一示例实施例,目标识别、分析和跟踪系统可以基于所标识的物体是否可能在运动中或正在移动来确定所标识的物体可能是背景物体还是前景物体。例如,目标识别、分析和跟踪系统可包括诸如场景的基准图像等基准平面,该基准平面可包括例如每个体素的非运动深度信息。根据示例实施例,基准平面可包括体素的最小世界空间方位(诸如通过一系列帧确定的网格中体素的最小X值、Y值和深度值),体素的最大世界空间方位(诸如通过一系列帧确定的网格中体素的最大X值、Y值和深度值),体素的平均世界方位(通过一系列帧确定的网格中体素的平均X值、Y值和深度值),或者任何其他适合的基准平面。根据另一个实施例,基准平面可包括与场景中的每个体素相关联的移动平均。移动平均可包括例如通过一系列之前接收到的帧所确定的体素的平均深度值。
根据一个实施例,目标识别、分析和跟踪系统可将例如在305处接收的深度图像的场景中所标识的物体相关联的每个体素的诸如最大深度值、平均深度值、最小深度值等的深度信息与基准平面中所包括的每个对应体素的非运动深度信息进行比较。基于基准平面中对应体素的深度信息和非运动深度信息的比较,目标识别、分析和跟踪系统可以标识一个体素在移动。例如,在一个实施例中,如果诸如体素的最小深度值、最大深度值、和/或平均深度值的深度值可小于基准平面中对应体素的移动平均从而使得体素可在移动平均前方,则该体素可被标识为移动。根据另一个示例实施例,目标识别、分析和跟踪系统可以计算与体素和基准平面中对应体素相关联的值之间的差。如果例如诸如体素的平均深度值、最大深度值、和/或最小深度值的深度值与基准平面中对应体素的非运动信息所包括的深度值之间的差可大于运动阈值,则该体素可由目标识别、分析和跟踪系统标识为移动。
根据另一个示例实施例,目标识别、分析和跟踪系统可将诸如体素和与其邻近的体素的最大深度值、平均深度值、最小深度值等的深度信息与基准平面中所包括的每个对应体素的非运动深度信息进行比较。例如,为了处理边缘噪声,目标识别、分析和跟踪系统可将特定体素和可与其邻近的体素的最小深度值相对于基准平面中对应体素的最小深度值进行比较,以确定体素和/或与其相关联的物体是否可能正在移动。如果例如特定体素和可与其邻近的体素的最小深度值与基准平面中对应体素的非运动信息所包括的最小深度值之间的差可能大于运动阈值,则该特定体素可由目标识别、分析和跟踪系统标识为移动。
目标识别、分析和跟踪系统随后基于移动体素的百分比为每个所标识的物体计算前景分数。在一个实施例中,目标识别、分析和跟踪系统可以用可被标识为移动的岛中的体素的数量除以岛中所包括的体素总数来计算前景分数。
目标识别、分析和跟踪系统随后可以隔离具有超过分数阈值的前景分数的物体。分数阈值可以是由目标识别、分析和跟踪系统所定义的可指示一个物体可处于运动中的值或百分比。例如,目标识别、分析和跟踪系统可基于前景分数将可能未在移动的背景物体从经降采样的深度图像中移除或丢弃,使得可在经降采样的深度图像中对的前景物体(诸如具有可能超过分数阈值的前景分数的人类目标)进行隔离。根据一示例实施例,为了移除或丢弃可能未正在移动的物体,目标识别、分析和跟踪系统可以通过用0值、或另一个适合的指示符、或可指示体素可能无效的标记代替X值、Y值和/或深度值来移除或丢弃与未移动物体相关联的体素。
在320,可以为被隔离的前景物体(诸如人类目标)确定一个或多个肢端(诸如一个或多个身体部位)。例如,在一个实施例中,该目标识别、分析和跟踪系统可将一个或多个试探(heuristic)或规则应用到经隔离的人类目标以确定例如与该经隔离的人类目标相关联的例如质心或中心、头、肩、躯干、臂、腿等。根据一个实施例,基于对肢端的确定,目标识别、分析和跟踪系统可以生成和/或调整被隔离的人类目标的模型。例如,如果在305所接收的深度图像可以被包括在由捕捉设备(诸如上面参考图1A-2描述的捕捉设备20)所观察或捕捉的初始帧中,则可基于在320确定的肢端(诸如质心、头、肩、臂、手、腿等等)的位置,通过例如将骨架模型的关节分配到肢端的所确定的位置来生成模型,这将在下面更详细地描述。或者,如果深度图像可以被包括在由捕捉设备所观察或捕捉的后续或非初始帧中,则可以基于在320确定的肢端(诸如质心、头、肩、臂、手、腿等)的位置来调整可在之前已经生成的模型。
根据一示例实施例,在315隔离开前景物体(诸如人类目标)之后,该目标识别、分析和跟踪系统可在320计算该人类目标中的体素的平均以例如估算该人类目标的质心或中心。例如,该目标识别、分析和跟踪系统可计算该人类目标中包括的体素的平均方位,其可提供对该人类目标的质心或中心的估算。在一个实施例中,该目标识别、分析和跟踪系统可基于与体素相关联的X值、Y值和深度值来计算与该人类目标相关联的体素的平均方位。例如,如上所述,该目标识别、分析和跟踪系统可通过对与体素相关联的像素的X值求平均来计算该体素的X值,通过对与该体素相关联的像素的Y值求平均来计算该体素的Y值,以及通过对与该体素相关联的像素的深度值求平均来计算该体素的深度值。在320,目标识别、分析和跟踪系统可对该人类目标中所包括的体素的X值、Y值和深度值求平均以计算平均方位,该平均方位可提供该人类目标的质心或中心的估算。
图8示出了为人类目标402b估计的质心或中心的示例实施例。根据示例实施例,质心或中心的位置或方位802可以基于与如上所述的被隔离的人类目标402b相关联的体素的平均方位或位置。
回头参考图5,目标识别、分析和跟踪系统随后可在320为人类目标定义边界框以确定例如可包括人类目标的头和/或躯干的人类目标的核体积。例如,在确定对人类目标的质心或中心的估计时,目标识别、分析和跟踪系统可以沿X方向水平地搜索以确定可用于定义与核体积相关联的边界框的人类目标的宽度。根据一个实施例,为了沿X方向水平地搜索以确定人类目标的宽度,目标识别、分析和跟踪系统可以从质心或中心沿X轴在向左方向和向右方向上搜索,直到目标识别、分析和跟踪系统可到达无效的体素,诸如可能不包括与其相关联的深度值的体素、或者可能与场景中所标识的另一个物体相关联的体素。例如,如上所述,可以在315处移除与背景相关联的体素以隔离人类目标和与其相关联的体素。如上所述,根据示例实施例,为了在315处移除体素,目标识别、分析和跟踪系统可以使用0值、或另一个适合的指示符、或可指示体素无效的标记来代替与背景物体的体素相关联的X值、Y值、和/或深度值。在320处,目标识别、分析和跟踪系统可从人类目标的质心在向左方向上搜索直至到达人类目标左侧的第一无效体素,并且可从人类目标的质心在向右方向上搜索直至到达人类目标右侧的第二无效体素。目标识别、分析和跟踪系统随后可基于例如向左方向上到达的第一无效体素邻近的第一有效体素的X值与向右方向上第二无效体素邻近的第二有效体素的X值之间的差来计算或测量长度。
目标识别、分析和跟踪系统随后可沿Y方向垂直地搜索以确定人类目标的高度,例如可用于定义与核体积相关联的边界框的从头到髋的高度。根据一个实施例,为了沿Y方向垂直地搜索以测量人类目标的宽度,目标识别、分析和跟踪系统可以从质心或中心沿Y轴在向上方向和向下方向上搜索,直到目标识别、分析和跟踪系统可到达无效的体素、或者可能不包括与其相关联的X值、Y值、或深度值的体素。例如,在320处,目标识别、分析和跟踪系统可从人类目标的质心在向左方向上搜索直至到达人类目标上部的第三无效体素,并且可从人类目标的质心在向下方向上搜索直至到达人类目标下部的第四无效体素。目标识别、分析和跟踪系统随后可基于例如向上方向上到达的第三无效体素邻近的第三有效体素的Y值与向下方向上第四无效体素邻近的第四有效体素的Y值之间的差来计算或测量高度。
根据示例实施例,目标识别、分析和跟踪系统还可以在X和Y轴上沿X和Y方向以各种角度(诸如30度、45度角、60度角等)正交地搜索,以便确定可用于定义与核体积相关联的边界框的其他距离和值。
另外,目标识别、分析和跟踪系统可以基于距离或值的比率来定义与核体积相关联的边界框。例如,在一个实施例中,目标识别、分析和跟踪系统可以基于如上所述确定的高度乘以常量(诸如0.2、0.25、0.3、或任何其他适合的值),来定义边界框的宽度。
目标识别、分析和跟踪系统随后可以基于由沿着X轴的水平搜索所确定的第一和第二有效体素、由沿着Y轴的垂直搜索所确定的第三和第四有效体素、或者由例如正交搜索所确定的其他距离或值来定义可表示核体积的边界框。例如,在一个实施例中,目标识别、分析和跟踪系统可在第一有效体素的X值处沿Y轴生成边界框的第一垂直线,以及在第二有效体素的X值处沿Y轴生成边界框的第二垂直线。另外,目标识别、分析和跟踪系统可在第三有效体素的Y值处沿X轴生成边界框的第一水平线,以及在第四有效体素的Y值处沿X轴生成边界框的第二水平线。根据示例实施例,第一和第二水平线可以与第一和第二垂直线交叉以形成矩形或正方形,该矩形或正方形可以表示与人类目标的核体积相关联的边界框。
图9示出了可被定义为确定核体积的边界框804的示例实施例。如图9所示,边界框804可以基于如上所述所确定的第一垂直线VL1、第二垂直线VL2与第一水平线HL1、第二水平线HL2的交叉来形成矩形。
回头参考图5,在320,目标识别、分析和跟踪系统随后可确定人类目标的头。例如,在一个实施例中,在确定了核体积和定义了与其相关联的边界框之后,目标识别、分析和跟踪系统可以确定人类目标的头的位置或方位。
为了确定头的方位或位置,目标识别、分析和跟踪系统可在适合于头的方位或位置搜索各个候选项,可以对各个候选项打分,并且随后可以基于分数从各个候选项中选择头的方位。例如,根据一个实施例,目标识别、分析和跟踪系统可以搜索该人类目标的绝对最高体素和/或邻近或接近该绝对最高体素的体素、基于为之前的帧确定的头的位置的一个或多个增量体素、可(从例如质心或中心和/或邻近或接近为之前的帧确定的之前向上向量上的最高体素的体素)竖直延伸的向上向量上的最高体素、在中心和为之前帧确定的最高体素之间的之前的向上向量上的最高体素、或可以是头的候选项的任何其他适合的体素。
该目标识别、分析和跟踪系统然后可对这些候选项打分。根据一个实施例,可基于3-D模式匹配对这些候选项打分。例如,该目标识别、分析和跟踪系统可创建头柱体和肩柱体。该目标识别、分析和跟踪系统随后可基于头柱体中可包括的与候选项相关联的体素的数量来计算候选项的得分,这将在下面更为详细地描述。
图10示出了可被创建为对与头相关联的候选项进行打分的头柱体806和肩808的示例实施例。根据示例实施例,目标识别、分析和跟踪系统可基于与头柱体806和肩柱体808中可包括的头候选项相关联的体素的数量来计算候选项的得分。例如,目标识别、分析和跟踪系统可基于与头候选项相关联的体素的位置来确定头柱体806和/或肩柱体808内部的头候选项的总数,以及基于与头候选项相关联的体素来确定头柱体806(例如,区域807以内)和/或肩柱体808外部的头候选项的总数。目标识别、分析和跟踪系统还可基于肩柱体808的左半部LH中头候选项的数量与肩柱体808的右半部RH中头候选项的数量之间的差的绝对值的函数来计算对称的度量。在示例实施例中,目标识别、分析和跟踪系统随后可通过从头柱体806和/或肩柱体808内部的候选项的总数中减去头柱体806和/或肩柱体808外部的候选项的总数,并进一步从头柱体806和/或肩柱体808内部和外部的候选项的总数之差中减去对称度量来计算候选项的分数。根据一个实施例,目标识别、分析和跟踪系统可将头柱体806和/或肩柱体808内部和外部的候选项的总数乘以由目标识别、分析和跟踪系统在减法之前所确定的常数。
回头参考图5,根据一个实施例,如果与候选项之一相关联的分数超过头阈值分数,则目标识别、分析和跟踪系统可在320基于与该候选项相关联的体素来确定头的方位或位置。例如,在一个实施例中,目标识别、分析和跟踪系统可以基于最高点、可(从例如质心或中心和/或邻近或接近为之前帧所确定的之前向上向量上的最高体素的体素)垂直延伸的向上向量上的最高体素、在中心和为之前帧确定的最高体素之间的之前向上向量上的最高体素、之前帧中头的方位或位置周围的区域(诸如框、立方体等)内全部体素的平均方位等,来选择头的方位或位置。根据其他示例实施例,目标识别、分析和跟踪系统可以计算与可能超过头阈值分数的候选项相关联的体素的值(诸如X值、Y值、和深度值)的平均,以确定头的方位或位置,或者目标识别、分析和跟踪系统可以基于可超过头阈值分数的候选项中所包括的体素的拟合线或最佳拟合线来选择头的方位或位置。
此外,在一个实施例中,如果一个以上候选项超过头阈值分数,则目标识别、分析和跟踪系统可选择可具有最高分数的候选项,并且随后可基于与可具有最高分数的候选项相关联的体素来确定头的方位或位置。如上所述,目标识别、分析和跟踪系统可以基于例如与可具有最高分数的候选项相关联的体素的平均值(诸如X值、Y值和深度值)来选择头的方位或位置。
根据一个实施例,如果与候选项相关联的分数都未超过头阈值分数,则目标识别、分析和跟踪系统可使用其中头部分数可已超过头阈值分数的之前帧的深度图像相关联的人类目标中所包括的体素确定的头的之前方位或位置,或者如果在305接收的深度图像可能是在由该捕捉设备捕捉或观察的初始帧,则目标识别、分析和跟踪系统可使用人类目标的默认姿态(诸如,T型姿态、自然站立姿态等)中的头的默认方位或位置。
根据另一实施例,该目标识别、分析和跟踪系统可包括与例如头的形状相关联的一个或多个两维(2D)样式。目标识别、分析和跟踪系统随后可基于与候选项相关联的体素可能是一个或多个2D样式的头的形状的可能性来对与头相关联的候选项打分。例如,目标识别、分析和跟踪系统可对可以指示定义头的形状的邻近或附近的体素的深度值进行采样。如果可以指示定义头的形状的体素之一的经采样的深度值可能偏离头的形状的体素的一个或多个预期或预定义的深度值,则目标识别、分析和跟踪系统可以减少默认分数或初始分数,以指示该体素可能不是头。在一个实施例中,目标识别、分析和跟踪系统随后可以选择具有最高值的分数,并且可以基于与具有最高分数的候选项相关联的体素的位置或方位来指派头的位置或方位。
根据另一个实施例,默认分数或初始分数可以是与使用如上所述的头和/或肩柱体来计算的头相关联的候选项的分数。如果候选项可能不在与一个或多个2D样式相关联的头的形状中,则目标识别、分析和跟踪系统可以减少这个分数。如上所述,目标识别、分析和跟踪系统随后可以选择超过头阈值分数的候选项的分数,并且可以基于候选项的位置或方位来指派头的位置或方位。
该目标识别、分析和跟踪系统可在320进一步确定人类目标的肩和髋。例如,在一个实施例中,在确定人类目标的头的位置或方位之后,目标识别、分析和跟踪系统可确定人类目标的肩和髋的位置或方位。目标识别、分析和跟踪系统还可确定肩和髋的定向,诸如肩和髋的旋转或角度。
根据示例实施例,为了确定肩和髋的位置或方位,目标识别、分析和跟踪系统可以基于头的位置或方位以及人类目标的质心或中心来定义头-到-中心的向量。例如,头-到-中心的向量可以是在头点的位置或方位的X值、Y值和深度值(或Z值)与质点或中心点的位置或方位的X值、Y值和深度值(或Z值)之间定义的向量或线。
图11示出了基于人类目标的头以及质心或中心的头-到-中心向量的示例实施例。如上所述,可以确定诸如头的位置或方位810的位置或方位。如图11所示,目标识别、分析和跟踪系统随后可在头的位置或方位810与中心或质心的位置或方位802之间定义头-到-中心向量812。
回头参考图5,在320,目标识别、分析和跟踪系统随后可基于头-到-中心向量来定义肩体积框和髋体积框。例如,根据一个实施例,目标识别、分析和跟踪系统可以基于位移(诸如从诸如与头相关联的方位或位置的身体地标或质心或中心的长度)来定义或确定肩和髋的大致位置或方位。目标识别、分析和跟踪系统随后可以定义距离诸如与头相关联的方位或位置或质心或中心的身体地标的位移值周围的肩体块和髋体块。
图12示出了基于头-到-中心向量812所确定的肩体块SVB和髋体块HVB的示例实施例。根据示例实施例,目标识别、分析和跟踪系统可以基于位移(诸如从诸如与头相关联的位置或方位810、或与质心或中心相关联的位置或方位802的身体地标的长度)来定义或确定肩和髋的大致位置或方位。目标识别、分析和跟踪系统随后可以定义距离身体地标位移值周围的肩体块SVB和髋体块HVB。
回头参考图5,目标识别、分析和跟踪系统还可在320基于诸如距离身体地标(诸如沿着头-到-中心向量的头)的长度的位移值来计算肩和髋的中心。例如,目标识别、分析和跟踪系统可以沿着头-到-中心向量向下或向上移动该位移值以计算肩和髋的中心。
根据一个实施例,目标识别、分析和跟踪系统还可以确定诸如肩和髋的角度的定向。在一个实施例中,目标识别、分析和跟踪系统可以计算例如肩体块和髋体块内的深度值的拟合线,以便确定该定向,诸如肩和髋的角度。例如,目标识别、分析和跟踪系统可以基于与肩体块和髋体块相关联的体素的X值、Y值和深度值来计算最佳拟合线,以便计算可通过肩的中心来定义肩骨的向量的肩斜度并可通过髋的中心来定义髋的关节之间的髋骨的向量的髋斜度。肩斜度和髋斜度可以定义相应的定向,诸如肩和髋的角度。
根据另一个实施例,目标识别、分析和跟踪系统可以镜像人类目标的深度值,使得在320可以基于头-到-中心向量在人类目标的中心周围反映体素的深度值。因此,在一个实施例中,目标识别、分析和跟踪系统可通过围绕轴向量(诸如头-到-中心向量、从肩和/或髋边界框中计算的轴点等)来反映人类目标的体素的深度值来补偿身体的背面。
目标识别、分析和跟踪系统随后可以计算包括例如肩体块和髋体块内所反映的深度值在内的深度值的拟合线,以便确定该定向,诸如肩和髋的角度。例如,目标识别、分析和跟踪系统可以基于(包括与肩体块和髋体块相关联的所反映的深度值在内的)体素的X值、Y值和深度值来计算最佳拟合线,以便计算可通过肩的中心来定义肩骨的向量的肩斜度以及可通过髋的中心来定义髋的关节之间的髋骨的向量的髋斜度。肩斜度和髋斜度可以定义相应的定向,诸如肩和髋的角度。
图13示出可基于肩体块SVB和髋体块HVB来计算的肩和髋的示例实施例。如图13所示,可以如上所述地基于相应的肩体块SVB和髋体块HVB来确定肩的位置或方位816a-b和髋的位置或方位818a-b。
回头参考图5,在320,目标识别、分析和跟踪系统随后可确定人类目标的躯干。在一个实施例中,在确定肩和髋之后,目标识别、分析和跟踪系统可生成或创建躯干体,该躯干体可包括与头、肩、中心和髋相关联或围绕它们的体素。基于中心、头、肩和/或髋的位置或方位,躯干体可以是圆柱、药丸形(诸如两端为圆形的圆柱)等等。
根据一个实施例,目标识别、分析和跟踪系统可以创建柱体,该柱体可表示具有基于肩、头、髋、中心等的尺寸的核体积。例如,该目标识别、分析和跟踪系统可创建柱体,该柱体可具有基于肩的宽度的宽度或直径以及基于头和髋之间的距离的高度。然后该目标识别、分析和跟踪系统沿头-到-中心向量定向或倾斜(angle)可表示躯干体的柱体以便该躯干体可反映人类目标的躯干的定向(诸如角度)。
图14示出了可表示核体积的柱体820的示例实施例。如图14所示,柱体820可以具有基于肩的宽度的宽度或直径以及基于头和髋之间的距离的高度。还可沿着头-到-中心向量812对柱体820定向或倾斜。
回头参考图5,在320,目标识别、分析和跟踪系统随后可估计或确定人类目标的肢体。根据一个实施例,该目标识别、分析和跟踪系统可在生成或创建躯干体之后粗略地将躯干体外的体素标记为肢体。例如,目标识别、分析和跟踪系统可标识躯干体外的体素中的每一个,使得目标识别、分析和跟踪系统可将该体素标记为肢体的一部分。
然后目标识别、分析和跟踪系统可确定与躯干体外的体素相关联的实际的肢体,诸如右臂和左臂、右手和左手、右腿和左腿、右脚和左脚等等。在一个实施例中,为了确定实际的肢体,目标识别、分析和跟踪系统可将所标识的肢体的之前方位或位置(诸如右臂、左臂、左腿、右腿等的之前方位或位置)与躯干体外的体素的方位或位置进行比较。根据示例实施例,之前标识的肢体的之前位置或方位可以是之前帧中所接收的深度图像中的肢体的位置或方位、基于之前移动的所投影的身体部位的位置或方位、或诸如人类目标的完全连接(fully articulated)骨架或体模型等人类目标的标识的任何其他适当之前的位置或方位。基于所述比较,目标识别、分析和跟踪系统随后可将躯干体外的体素与最接近的之前标识的肢体相关联。例如,目标识别、分析和跟踪系统可将包括躯干体外的体素中的每一个的X值、Y值和深度值的方位或位置与包括之前标识的肢体(诸如之前标识的左臂、右臂、左腿、右腿等)的X值、Y值和深度值的之前的方位或位置进行比较。目标识别、分析和跟踪系统随后可基于该比较将躯干体外的体素中的每一个与可能具有最接近的位置或方位的先前标识的肢体相关联。
在一个实施例中,为了确定实际的肢体,目标识别、分析和跟踪系统可将人类目标的标识的默认姿态中的所标识的肢体(诸如右臂、左臂、左腿、右腿等)的默认方位或位置与躯干体外的体素的方位或位置进行比较。例如,在305接收的深度图像可被包括在捕捉设备所捕捉或观察的初始帧中。如果在305接收的深度图像可被包括在初始帧中,该目标识别、分析和跟踪系统可将肢体的默认方位或位置(诸如右臂、左臂、左腿、右腿等的默认方位或位置)与躯干体外的体素的方位或位置进行比较。根据示例实施例,所标识的肢体的默认位置或方位可以是人类目标的表示(诸如默认姿态中的人类目标的完全连接的骨架或体模型)在默认姿态(诸如T型姿态、达芬奇姿态、自然姿态等)中的肢体的位置或方位。基于所述比较,该目标识别、分析和跟踪系统随后可将躯干体外的体素与与该默认姿态相关联的最接近的肢体相关联。例如,该目标识别、分析和跟踪系统可将包括躯干体外的体素中的每一个的X值、Y值和深度值的方位或位置与包括默认的肢体(诸如默认的左臂、右臂、左腿、右腿等)的X值、Y值和深度值的默认方位或位置进行比较。该目标识别、分析和跟踪系统随后可基于该比较将躯干体外的体素中的每一个与可能具有最接近的位置或方位的默认的肢体相关联。
该目标识别、分析和跟踪系统还可基于所估算的肢体来重新标记躯干体内的体素。例如,在一个实施例中,臂(诸如左前臂)的至少一部分可被置于人类目标的躯干的前方。基于所标识的臂的默认方位或位置,如上所述,该目标识别、分析和跟踪系统可将该部分确定或估算为与所述臂相关联。例如,先前标识的肢的先前方位或位置可指示人类目标的肢体(诸如臂)的一个或多个体素可以在躯干体内。该目标识别、分析和跟踪系统随后可将包括先前标识的肢体(诸如先前标识的左臂、右臂、左腿、右腿等)的X值、Y值、和深度值的先前方位或位置与躯干体中所包括的体素的方位或位置进行比较。目标识别、分析和跟踪系统随后可基于该比较将躯干体内的体素中的每一个与可能具有最接近的位置或方位的先前标识的肢体相关联并将其重新标记。
根据一个实施例,在标记与肢体相关联的体素后,目标识别、分析和跟踪系统可在320确定例如所标记的肢体的部分的位置或方位。例如,在标记与左臂、右臂、左腿和/或右腿相关联的体素之后,该目标识别、分析和跟踪系统可确定与右臂和左臂的手和/或肘、膝和/或脚、肘等的位置或方位。
目标识别、分析和跟踪系统可基于所述肢体中的每一个的肢体平均来确定所述部分(诸如手、肘、脚、膝等)的位置或方位。例如,该目标识别、分析和跟踪系统可通过将与左臂相关联的体素的每一个的X值相加,将与左臂相关联的体素的每一个的Y值相加,以及将与左臂相关联的体素的每一个的深度值相加并将所加总的X值、Y值和深度值中的每一个的和除以与左臂相关联的体素的总数来计算左臂平均位置。根据一个实施例,该目标识别、分析和跟踪系统然后可定义左肩和左臂平均位置之间的向量或线以便该左肩和左臂平均位置之间的向量或线可定义左手的第一搜索方向。该目标识别、分析和跟踪系统然后可从肩至沿由该向量或线所定义的该第一搜索方向搜索最后有效体素或具有有效X值、Y值和/或深度值的最后体素并可将该最后有效体素的位置或方位与左手相关联。
根据另一实施例,该目标识别、分析和跟踪系统可计算锚点。目标识别、分析和跟踪系统然后可定义锚点与左臂平均位置之间的向量或线,使得锚点与左臂平均位置之间的向量或线可以定义左手的第二搜索方向。目标识别、分析和跟踪系统然后可从锚点沿由该向量或线所定义的第二搜索方向搜索最后有效体素或具有有效X值、Y值和/或深度值的最后体素并可将该最后有效体素的位置或方位与左手相关联。
在一示例实施例中,目标识别、分析和跟踪系统可基于从其他的确定的肢端(诸如头、髋、肩等)的一个或多个偏移来计算锚点的位置或方位。例如,目标识别、分析和跟踪系统可通过将肩的位置或方位在相应的X方向和Z方向上延伸与肩的位置或方位相关联的X值和深度值的一半来计算锚点的X值和深度值。该目标识别、分析和跟踪系统然后可在所延伸的位置或方位周围镜像锚点的X值和深度值的位置或方位。
目标识别、分析和跟踪系统可基于左臂平均位置从头和/或髋的位移来计算锚点的Y值。例如,该目标识别、分析和跟踪系统可计算头的Y值和左臂平均的Y值之间的位移或差。该目标识别、分析和跟踪系统然后可将该位移或差加到例如髋的中心的Y值来计算锚点的Y值。
图15A-15C示出了基于锚点828a-828c来确定的手的示例实施例。如图15A-15C所示,根据另一实施例,该目标识别、分析和跟踪系统可计算锚点828a-828c。目标识别、分析和跟踪系统然后可定义锚点828a-828c与左臂平均位置826a-826c之间的向量或线,使得锚点与左臂平均位置之间的向量或线可以定义左手的第二搜索方向。目标识别、分析和跟踪系统然后可从锚点828a-828c沿由该向量或线所定义的第二搜索方向搜索最后有效体素或具有有效X值、Y值和/或深度值的最后体素,并可将该最后有效体素的位置或方位与左手相关联。
如上所述,在一示例实施例中,目标识别、分析和跟踪系统可基于从其他的确定的肢端(诸如如上所述的头、髋、肩等)的一个或多个偏移来计算锚点828a-828c的位置或方位。例如,目标识别、分析和跟踪系统可通过将肩的位置或方位在相应的X方向和Z方向上延伸与肩的位置或方位相关联的X值和深度值的一半来计算锚点828a-828c的X值和深度值。目标识别、分析和跟踪系统然后可在所延伸的位置或方位周围镜像锚点828a-828c的X值和深度值的位置或方位。
目标识别、分析和跟踪系统可基于左臂平均位置从头和/或髋的位移来计算锚点828a-828c的Y值。例如,目标识别、分析和跟踪系统可计算头的Y值与左臂平均826a-826c的Y值之间的位移或差。目标识别、分析和跟踪系统然后可将该位移或差加到例如髋的中心的Y值来计算锚点828a-828c的Y值。
回头参考图5,根据示例实施例,目标识别、分析和跟踪系统可以在320计算右臂平均位置,该右臂平均位置可用于定义如上所述的诸如第一和第二搜索方向的搜索方向,该搜索方向可用于确定右手的位置或方位。目标识别、分析和跟踪系统还可以计算可用于定义如上所述的搜索方向的左腿平均位置和右腿平均位置,该搜索方向可用于确定左脚和右脚。
图16示出可基于臂和腿的平均位置和/或锚点来计算的手和脚的示例实施例。如图16所示,可以基于由如上所述的相应的臂和腿平均方位和/或锚点确定的第一和第二搜索方向来确定手的位置或方位822a-b以及脚的位置或方位824a-b。
回头参考图6,在320,目标识别、分析和跟踪系统还可基于右臂和左臂平均位置、右腿和左腿平均位置、肩、髋、头等来确定肘和膝的位置或方位。在一个实施例中,目标识别、分析和跟踪系统可通过细化左臂平均位置的X值、Y值和深度值来确定左肘的位置方位。例如,目标识别、分析和跟踪系统可确定最外面的体素,所述最外面的体素可能定义与左臂相关联的边缘。目标识别、分析和跟踪系统然后可将左臂平均位置的X值、Y值和深度值调整为在中间或与各边缘等距。
目标识别、分析和跟踪系统还可在320确定被隔离的人类目标的附加兴趣点。例如,目标识别、分析和跟踪系统可以基于诸如肩的角度的定向来确定离人体中心最远的体素、最接近相机的体素、人类目标最前向的体素。
目标识别、分析和跟踪系统随后可在320确定为肢端(诸如头、肩、髋、手、脚等)确定的位置或方位中的一个或多个是否可能不是人类目标的实际肢端的准确位置或方位。例如,在一个实施例中,右手的位置或方位可能是不准确的,使得右手的位置或方位可能停滞在或邻近于肩或髋的位置或方位。
根据示例实施例,目标识别、分析和跟踪系统可包括或存储各肢端的体标记(marker)的列表,所述体标记可指示该肢端的不准确的位置或方位。例如,该列表可包括可能与手相关联的、在肩或髋周围的体标记。目标识别、分析和跟踪系统可基于该列表中与手相关联的体标记来确定手的位置或方位是否可能是准确的。例如,如果手的位置或方位可在列表中与手相关联的体标记之一内,该目标识别、分析和跟踪系统可确定手的位置或方位可能是不准确的。根据一个实施例,目标识别、分析和跟踪系统然后可将手的位置或方位调整到之前帧中的手的之前准确位置到手的当前位置或方位。
在325,目标识别、分析和跟踪系统可跟踪基于在320确定的肢端而生成的模型。例如,目标识别、分析和跟踪系统可生成和/或可包括诸如可具有其间定义一个或多个关节和骨骼的骨架模型等模型。
图17示出诸如可生成的骨架模型之类的模型900的示例实施例。根据一示例实施例,模型900可包括可表示例如人类的三维模型的一个或多个数据结构。每个身体部分可以被表征为一数学向量,该数学向量具有可定义模型900的关节和骨骼的X、Y和Z值。
如图17所示,模型900可包括一个或多个关节j1-j16。根据一示例实施例,关节j1-j16中的每一个可使得在这些关节之间定义的一个或多个身体部位能相对于一个或多个其他身体部位移动。例如,表示人类目标的模型可包括多个刚性和/或可变形身体部位,这些身体部位由一个或多个诸如“骨骼”等结构件来定义,而关节j1-j16位于毗邻骨骼的交叉点处。关节j1-j16可使得与骨骼和关节j1-j16相关联的各个身体部位能够彼此独立地移动。例如,如图17所示,关节j10与j12之间定义的骨对应于前臂,该前臂可独立于例如关节j14与j16之间的骨骼(其对应于小腿)移动。
回头参考图5,在325,目标识别、分析和跟踪系统可基于在320为肢端确定的位置或方位来调整所生成的模型。例如,目标识别、分析和跟踪系统可将与头相关联的关节j1调整为与诸如在320确定的头的位置或方位810等的方位或位置相对应。因此,在一示例实施例中,关节j1可被赋予与如上所述的为头确定的位置或方位810相关联的X值、Y值和深度值。如果一个或多个肢端基于例如如上所述的体标记的列表可能是不准确的,则目标识别、分析和跟踪系统可以基于之前的帧将不准确的关节保持在其之前的位置或方位。
另外,如果目标识别、分析和跟踪系统可能不具有肢端的位置或方位,则该目标识别、分析和跟踪系统可以使用基于默认姿态(诸如T型姿态、达芬奇姿态等)的位置或方位。例如,目标识别、分析和跟踪系统可以吸附或调整模型的一个或多个关节j1-j16,使其与默认姿态中最接近的体素的X值、Y值、和/或深度值相关联。
在325,目标识别、分析和跟踪系统还可以基于在330确定的一个或多个身体测量(将在下面详细地描述)来调整对在模型的各关节之间定义的一个或多个骨骼的测量。例如,目标识别、分析和跟踪系统可在330确定人类目标的左前臂的长度。在325,目标识别、分析和跟踪系统随后可以调整与左前臂相关联的骨骼的长度以模拟在330为人类目标确定的左前臂的长度。例如,目标识别、分析和跟踪系统可以调整关节j10和j12的X值、Y值和深度值(或Z值)中的一个或多个,使得在其间定义的骨骼可以等于在330为人类目标的左前臂确定的长度。
在325,目标识别、分析和跟踪系统还可以检查与所调整的模型相关联的关节的无效位置或方位。例如,在一个实施例中,目标识别、分析和跟踪系统可检查以确定诸如关节j10的关节是否可能凸出,使得该模型可能卡在小鸡舞的姿态。因此,在325,目标识别、分析和跟踪系统可检查模型的已知位置或方位,其中该模型可能以不适当的方式折叠,诸如与肘相关联的关节。
根据一个实施例,目标识别、分析和跟踪系统还可基于在305接收的非降采样的深度图像的2D像素区域中的X值、Y值和深度值来细化关节的位置或方位。例如,在一个实施例中,目标识别、分析和跟踪系统可使用来自该非降采样的深度图像的数据来细化模型可能折叠之处的模型的关节的位置或方位。
另外,目标识别、分析和跟踪系统可使用来自该非降采样的深度图像的数据来细化与频繁使用的姿势相关联的模型的关节的位置或方位。例如,根据一个实施例,该目标识别、分析和跟踪系统可对与手相关联的关节区分优先级。目标识别、分析和跟踪系统可本地化在305接收的非降采样的深度图像中的手周围的数据,使得目标识别、分析和跟踪系统可使用在305接收的非降采样的深度图像中的更高分辨率的数据来修改在320确定的手的位置或方位。
如上所述,在330,目标识别、分析和跟踪系统可扫描与被隔离的人类目标相关联的体素以确定与其相关联的肢端的尺寸。例如,可扫描被隔离的人类目标来确定例如与肢端(诸如臂、腿、头、肩、髋、躯干等)相关联的测量(诸如长度、宽度等)。
为了确定尺寸,在330,目标识别、分析和跟踪系统可生成为每个肢端建议的关节尺寸的估算器。目标识别、分析和跟踪系统可使用所述估算器来计算所建议的关节尺寸中的每一个的均值和标准差。目标识别、分析和跟踪系统可添加在定义的百分比偏差内的所建议的关节尺寸,而可拒绝离群点(outlier)以及在定义的百分比偏差外的所建议的关节尺寸。目标识别、分析和跟踪系统随后可基于在其标准差和所建议的关节尺寸的数量之间可具有最高比的估算器来确定所述肢端的尺寸。
也可在330更新扫描所确定的与肢端相关联的尺寸。根据一个实施例,目标识别、分析和跟踪系统可包括一个或多个试探(heuristic)或规则以确定扫描所确定的尺寸是否可能是正确的。例如,目标识别、分析和跟踪系统包括可确定对称关节之间的欧几里德距离是否大致相等的试探或规则,可确定手和/或肘是否靠近身体的试探或规则,可确定头是否可锁定在一方位或位置的试探和/或规则、可确定手是否靠近头的试探和/或规则,或者可用于调整所述尺寸的其他试探或规则。如上所述,在325,在330确定的尺寸可用于调整可被跟踪用于下一帧的模型。
在335,随后可以处理经调整的模型。例如,在一个实施例中,目标识别、分析和跟踪系统可以通过例如将应用于经调整的模型的一个或多个运动或移动映射到化身或游戏角色来处理该经调整的模型,使得该化身或游戏角色可被动画化以便模拟诸如以上参考图1A和1B描述的用户18等用户。例如,然后可响应于对经调整的模型的改变来改变屏幕上人物的视觉外观。
在一个实施例中,经调整的模型可以通过将经调整的模型提供给诸如参照图1A-4描述的计算环境12等计算环境中的姿势库,来处理经调整的模型。姿势库可用于基于骨架模型中各身体部分的方位来确定在应用内执行的控制。
应该理解,此处所述的配置和/或方法在本质上是示例性的,且这些具体实施例或示例不被认为是限制性的。此处所述的具体例程或方法可表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示顺序执行、按其他顺序执行、并行地执行等等。同样,可以改变上述过程的次序。
本公开的主题包括各种过程、系统和配置的所有新颖和非显而易见的组合和子组合、和此处所公开的其他特征、功能、动作、和/或特性、以及其任何和全部等效物。
Claims (15)
1.一种用于跟踪用户的方法,所述方法包括:
接收深度图像;
基于所述深度图像生成体素的网格;
移除所述体素的网格中所包括的背景以隔离与人类目标相关联的一个或多个体素;
确定被隔离的人类目标的一个或多个肢端的位置或方位;以及
基于所述一个或多个肢端的位置或方位来调整模型。
2.如权利要求1所述的方法,其特征在于,所述模型包括具有关节和骨骼的骨架模型。
3.如权利要求2所述的方法,其特征在于,基于一个或多个所确定的肢端来调整所述模型包括将所述一个或多个肢端的位置或方位指派到所述模型的对应关节。
4.如权利要求1所述的方法,其特征在于,移除所述体素的网格的背景以隔离与人类目标相关联的一个或多个体素还包括:
确定所述网格中的物体是否在运动中;以及
当基于所述确定所述物体不在运动中时,丢弃与所述物体相关联的体素。
5.如权利要求1所述的方法,其特征在于,还包括确定所述一个或多个肢端的尺寸,以及基于所确定的尺寸来调整所述模型的关节和骨骼。
6.如权利要求1所述的系统,其特征在于,所述一个或多个肢端包括如下的至少一个:头、质心、肩、髋、腿、臂、手、肘、膝和脚。
7.如权利要求1所述的方法,其特征在于,还包括处理经调整的模型。
8.如权利要求1所述的方法,其特征在于,所述网格中的每个体素是基于所接收的深度图像中所包括的像素部分或块来生成的。
9.一种其上存储有用于跟踪用户的计算机可执行指令的计算机可读存储介质,所述计算机可执行指令包括用于以下操作的指令:
接收包括像素的深度图像;
对所接收的深度图像中的所述像素进行降采样以生成一个或多个体素;
隔离与人类目标相关联的一个或多个体素;
确定被隔离的人类目标的一个或多个肢端的位置或方位;以及
基于所述一个或多个肢端的位置或方位来调整模型。
10.如权利要求9所述的计算机可读存储介质,其特征在于,所述模型包括具有关节和骨骼的骨架模型。
11.一种用于跟踪与用户相关联的模型的系统,所述系统包括:
捕捉设备,其中所述捕捉设备包括接收场景的深度图像的相机组件;以及
与所述捕捉设备可操作地通信的计算设备,其中所述计算设备包括处理器,所述处理器基于从所述捕捉设备接收的所述深度图像中的一个或多个像素来生成经降采样的深度图像,移除所述经降采样的深度图像的背景以隔离人类目标,确定被隔离的人类目标的一个或多个肢端的位置或方位,并且基于所述一个或多个肢端的位置或方位来调整模型。
12.如权利要求11所述的系统,其特征在于,所述处理器通过为所述一个或多个像素部分或块生成体素,来基于从所述捕捉设备接收的所述深度图像中的一个或多个像素生成所述经降采样的深度图像。
13.如权利要求12所述的系统,其特征在于,所述模型包括具有关节和骨骼的骨架模型。
14.如权利要求13所述的系统,其特征在于,所述处理器通过将所述一个或多个肢端的位置或方位指派到所述模型的对应关节,来基于一个或多个所确定的肢端调整所述模型。
15.如权利要求11所述的系统,其特征在于,其中所述一个或多个肢端包括如下的至少一个:头、质心、肩、髋、腿、臂、手、肘、膝和脚。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/575,388 | 2009-10-07 | ||
US12/575,388 US8564534B2 (en) | 2009-10-07 | 2009-10-07 | Human tracking system |
PCT/US2010/051662 WO2011044257A2 (en) | 2009-10-07 | 2010-10-06 | Human tracking system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102549619A true CN102549619A (zh) | 2012-07-04 |
CN102549619B CN102549619B (zh) | 2013-11-20 |
Family
ID=43822804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010800449190A Active CN102549619B (zh) | 2009-10-07 | 2010-10-06 | 人类跟踪系统 |
Country Status (7)
Country | Link |
---|---|
US (6) | US8564534B2 (zh) |
EP (1) | EP2486545B1 (zh) |
JP (1) | JP5845184B2 (zh) |
KR (2) | KR101802125B1 (zh) |
CN (1) | CN102549619B (zh) |
TW (4) | TWI545464B (zh) |
WO (1) | WO2011044257A2 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104182987A (zh) * | 2013-05-22 | 2014-12-03 | 株式会社日立制作所 | 人数计测装置和人物流动线解析装置 |
CN106104633A (zh) * | 2014-03-19 | 2016-11-09 | 英特尔公司 | 面部表情和/或交互驱动的化身装置和方法 |
CN106559660A (zh) * | 2015-09-29 | 2017-04-05 | 杭州海康威视数字技术股份有限公司 | 2d视频中展示目标3d信息的方法及装置 |
CN107077208A (zh) * | 2014-10-17 | 2017-08-18 | 微软技术许可有限责任公司 | 基于图像的地面重量分布确定 |
CN108055479A (zh) * | 2017-12-28 | 2018-05-18 | 暨南大学 | 一种动物行为视频的制作方法 |
CN112237735A (zh) * | 2019-07-19 | 2021-01-19 | 史克威尔·艾尼克斯有限公司 | 记录介质、物体检测装置、物体检测方法及物体检测系统 |
CN113744410A (zh) * | 2021-09-13 | 2021-12-03 | 浙江商汤科技开发有限公司 | 网格生成方法、装置、电子设备及计算机可读存储介质 |
Families Citing this family (123)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7297856B2 (en) * | 1996-07-10 | 2007-11-20 | Sitrick David H | System and methodology for coordinating musical communication and display |
US7989689B2 (en) * | 1996-07-10 | 2011-08-02 | Bassilic Technologies Llc | Electronic music stand performer subsystems and music communication methodologies |
US20080236431A1 (en) * | 2007-03-28 | 2008-10-02 | Pergo (Europe) Ab | Process for Color Variability in Printing to Simulate Color Variation of Natural Product |
TWI369899B (en) * | 2008-07-21 | 2012-08-01 | Ind Tech Res Inst | Method and system for tracking human extremity positions |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US7961910B2 (en) * | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8867820B2 (en) * | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
KR101633359B1 (ko) * | 2009-10-20 | 2016-06-27 | 삼성전자 주식회사 | 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법 |
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
WO2011056657A2 (en) | 2009-10-27 | 2011-05-12 | Harmonix Music Systems, Inc. | Gesture-based user interface |
US20110211749A1 (en) * | 2010-02-28 | 2011-09-01 | Kar Han Tan | System And Method For Processing Video Using Depth Sensor Information |
WO2011151999A1 (ja) * | 2010-05-31 | 2011-12-08 | 日本電気株式会社 | 動線検出システム、動線検出方法および動線検出プログラム |
JP2012000165A (ja) * | 2010-06-14 | 2012-01-05 | Sega Corp | ビデオゲーム装置 |
US8639020B1 (en) * | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US8638364B2 (en) * | 2010-09-23 | 2014-01-28 | Sony Computer Entertainment Inc. | User interface system and method using thermal imaging |
JP2012160039A (ja) * | 2011-02-01 | 2012-08-23 | Fujifilm Corp | 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム |
US8702507B2 (en) * | 2011-04-28 | 2014-04-22 | Microsoft Corporation | Manual and camera-based avatar control |
CN103562821B (zh) * | 2011-04-28 | 2016-11-09 | 日本电气方案创新株式会社 | 信息处理装置、信息处理方法和记录介质 |
WO2012172322A2 (en) * | 2011-06-13 | 2012-12-20 | Elliptic Laboratories As | Touchless interaction |
EP2725458B1 (en) * | 2011-06-23 | 2016-06-15 | Fujitsu Limited | Information processing device, input control method, and input control program |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
TWI460683B (zh) * | 2011-06-24 | 2014-11-11 | Reallusion Inc | The way to track the immediate movement of the head |
TWI465960B (en) * | 2011-08-30 | 2014-12-21 | Three-dimensional human interface system and method thereof | |
CN102981599A (zh) * | 2011-09-05 | 2013-03-20 | 硕擎科技股份有限公司 | 三维人机界面系统及其方法 |
JP2013101526A (ja) * | 2011-11-09 | 2013-05-23 | Sony Corp | 情報処理装置、表示制御方法、およびプログラム |
US9628843B2 (en) * | 2011-11-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Methods for controlling electronic devices using gestures |
US9072929B1 (en) * | 2011-12-01 | 2015-07-07 | Nebraska Global Investment Company, LLC | Image capture system |
US9782680B2 (en) | 2011-12-09 | 2017-10-10 | Futurewei Technologies, Inc. | Persistent customized social media environment |
WO2013103410A1 (en) | 2012-01-05 | 2013-07-11 | California Institute Of Technology | Imaging surround systems for touch-free display control |
US9530060B2 (en) | 2012-01-17 | 2016-12-27 | Avigilon Fortress Corporation | System and method for building automation using video content analysis with depth sensing |
KR101909544B1 (ko) * | 2012-01-19 | 2018-10-18 | 삼성전자주식회사 | 평면 검출 장치 및 방법 |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
JP2015525381A (ja) * | 2012-05-04 | 2015-09-03 | オブロング・インダストリーズ・インコーポレーテッド | 相互ユーザ手追跡および形状認識ユーザ・インターフェース |
TWI470565B (zh) * | 2012-06-15 | 2015-01-21 | Sheng Fang Huang | 非接觸式醫療導覽系統及其控制方法 |
US20140018169A1 (en) * | 2012-07-16 | 2014-01-16 | Zhong Yuan Ran | Self as Avatar Gaming with Video Projecting Device |
US20140037135A1 (en) * | 2012-07-31 | 2014-02-06 | Omek Interactive, Ltd. | Context-driven adjustment of camera parameters |
TWI496090B (zh) | 2012-09-05 | 2015-08-11 | Ind Tech Res Inst | 使用深度影像的物件定位方法與裝置 |
JP6018468B2 (ja) * | 2012-09-21 | 2016-11-02 | 日本放送協会 | 奥行き範囲算出装置及びそのプログラム |
KR20140049152A (ko) | 2012-10-16 | 2014-04-25 | 한국전자통신연구원 | 사람 추종 방법 및 로봇 장치 |
AU2013204965B2 (en) | 2012-11-12 | 2016-07-28 | C2 Systems Limited | A system, method, computer program and data signal for the registration, monitoring and control of machines and devices |
US10009579B2 (en) * | 2012-11-21 | 2018-06-26 | Pelco, Inc. | Method and system for counting people using depth sensor |
US9367733B2 (en) | 2012-11-21 | 2016-06-14 | Pelco, Inc. | Method and apparatus for detecting people by a surveillance system |
US9602778B2 (en) * | 2012-12-12 | 2017-03-21 | Sensormatic Electronics, LLC | Security video system using customer regions for monitoring point of sale areas |
US9530213B2 (en) | 2013-01-02 | 2016-12-27 | California Institute Of Technology | Single-sensor system for extracting depth information from image blur |
US9830736B2 (en) | 2013-02-18 | 2017-11-28 | Tata Consultancy Services Limited | Segmenting objects in multimedia data |
US9135516B2 (en) | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US10220303B1 (en) | 2013-03-15 | 2019-03-05 | Harmonix Music Systems, Inc. | Gesture-based music game |
US9639747B2 (en) | 2013-03-15 | 2017-05-02 | Pelco, Inc. | Online learning method for people detection and counting for retail stores |
JP6097150B2 (ja) * | 2013-05-24 | 2017-03-15 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、画像処理方法およびプログラム |
US10474921B2 (en) * | 2013-06-14 | 2019-11-12 | Qualcomm Incorporated | Tracker assisted image capture |
TW201500968A (zh) * | 2013-06-21 | 2015-01-01 | Utechzone Co Ltd | 三維互動系統及其互動感測方法 |
CN103399637B (zh) * | 2013-07-31 | 2015-12-23 | 西北师范大学 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
CN104424649B (zh) * | 2013-08-21 | 2017-09-26 | 株式会社理光 | 检测运动物体的方法和系统 |
WO2015038138A1 (en) * | 2013-09-13 | 2015-03-19 | Intel Corporation | Motion data based focus strength metric to facilitate image processing |
US10156937B2 (en) | 2013-09-24 | 2018-12-18 | Hewlett-Packard Development Company, L.P. | Determining a segmentation boundary based on images representing an object |
US10933320B2 (en) * | 2013-10-24 | 2021-03-02 | Virtuix Holdings Inc. | Method generating an input in an omnidirectional locomotion system |
US10286313B2 (en) | 2013-10-24 | 2019-05-14 | Virtuix Holdings Inc. | Method of generating an input in an omnidirectional locomotion system |
US9530101B1 (en) * | 2013-11-20 | 2016-12-27 | The United States Of America As Represented By The Secretary Of The Navy | Method for calculating sensor performance of a sensor grid using dynamic path aggregation |
US9336440B2 (en) * | 2013-11-25 | 2016-05-10 | Qualcomm Incorporated | Power efficient use of a depth sensor on a mobile device |
US11615460B1 (en) | 2013-11-26 | 2023-03-28 | Amazon Technologies, Inc. | User path development |
JP6217373B2 (ja) * | 2013-12-13 | 2017-10-25 | 富士通株式会社 | 動作判定方法、動作判定装置および動作判定プログラム |
FR3015730B1 (fr) * | 2013-12-20 | 2017-07-21 | Thales Sa | Procede de detection de personnes et ou d'objets dans un espace |
US20150185851A1 (en) * | 2013-12-30 | 2015-07-02 | Google Inc. | Device Interaction with Self-Referential Gestures |
US9684928B2 (en) * | 2014-01-15 | 2017-06-20 | Holition Limited | Foot tracking |
CN104801042A (zh) * | 2014-01-23 | 2015-07-29 | 鈊象电子股份有限公司 | 根据玩家挥手范围切换游戏画面的方法 |
US9452531B2 (en) | 2014-02-04 | 2016-09-27 | Microsoft Technology Licensing, Llc | Controlling a robot in the presence of a moving object |
EP4015054A1 (en) * | 2014-03-19 | 2022-06-22 | Virtuix Holdings Inc. | Method of generating an input in an omnidirectional locomotion system |
US9727778B2 (en) | 2014-03-28 | 2017-08-08 | Wipro Limited | System and method for guided continuous body tracking for complex interaction |
US9432768B1 (en) | 2014-03-28 | 2016-08-30 | Amazon Technologies, Inc. | Beam forming for a wearable computer |
US9436277B2 (en) * | 2014-04-21 | 2016-09-06 | Xerox Corporation | System and method for producing computer control signals from breath attributes |
CN106471556B (zh) | 2014-06-23 | 2021-11-16 | 株式会社电装 | 驾驶员的驾驶不能状态检测装置 |
WO2015198540A1 (ja) | 2014-06-23 | 2015-12-30 | 株式会社デンソー | ドライバの運転不能状態検出装置 |
JP6372388B2 (ja) | 2014-06-23 | 2018-08-15 | 株式会社デンソー | ドライバの運転不能状態検出装置 |
US9508195B2 (en) * | 2014-09-03 | 2016-11-29 | Microsoft Technology Licensing, Llc | Management of content in a 3D holographic environment |
KR101643917B1 (ko) * | 2014-09-15 | 2016-08-01 | (주)인더스웰 | 실사 영상 기반의 스마트 피팅장치 |
US11013451B2 (en) | 2014-09-19 | 2021-05-25 | Brigham Young University | Marker-less monitoring of movement disorders |
JP6030617B2 (ja) * | 2014-10-15 | 2016-11-24 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置および画像処理方法 |
TWI549069B (zh) * | 2014-12-15 | 2016-09-11 | Sheng Hui Meng | Method and device for passenger barge |
US10007996B2 (en) * | 2015-03-02 | 2018-06-26 | Lawrence Livermore National Security, Llc | System for detecting objects in streaming 3D images formed from data acquired with a medium penetrating sensor |
US11205270B1 (en) | 2015-03-25 | 2021-12-21 | Amazon Technologies, Inc. | Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility |
US10586203B1 (en) | 2015-03-25 | 2020-03-10 | Amazon Technologies, Inc. | Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility |
US10810539B1 (en) * | 2015-03-25 | 2020-10-20 | Amazon Technologies, Inc. | Re-establishing tracking of a user within a materials handling facility |
US10679177B1 (en) | 2015-03-25 | 2020-06-09 | Amazon Technologies, Inc. | Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility |
US9706107B2 (en) * | 2015-07-13 | 2017-07-11 | Avaya Inc. | Camera view control using unique nametags and gestures |
CN111450521B (zh) | 2015-07-28 | 2023-11-24 | 弗丘伊克斯控股公司 | 对输入进行软解耦的系统和方法 |
CN108369451B (zh) * | 2015-12-18 | 2021-10-29 | 索尼公司 | 信息处理装置、信息处理方法及计算机可读存储介质 |
US11511156B2 (en) | 2016-03-12 | 2022-11-29 | Arie Shavit | Training system and methods for designing, monitoring and providing feedback of training |
US10587858B2 (en) * | 2016-03-14 | 2020-03-10 | Symbol Technologies, Llc | Device and method of dimensioning using digital images and depth data |
US9824500B2 (en) | 2016-03-16 | 2017-11-21 | Microsoft Technology Licensing, Llc | Virtual object pathing |
TWI610059B (zh) * | 2016-08-04 | 2018-01-01 | 緯創資通股份有限公司 | 三維量測方法及應用其之三維量測裝置 |
US10762715B2 (en) * | 2016-10-21 | 2020-09-01 | Sony Interactive Entertainment Inc. | Information processing apparatus |
EP3373114B1 (en) | 2017-03-10 | 2019-10-09 | Alterface Projects | Tracking system and method using a depth aware camera |
US10346695B2 (en) * | 2017-05-25 | 2019-07-09 | General Motors Llc | Method and apparatus for classifying LIDAR data for object detection |
US10942575B2 (en) * | 2017-06-07 | 2021-03-09 | Cisco Technology, Inc. | 2D pointing indicator analysis |
US10943088B2 (en) | 2017-06-14 | 2021-03-09 | Target Brands, Inc. | Volumetric modeling to identify image areas for pattern recognition |
US10311624B2 (en) * | 2017-06-23 | 2019-06-04 | Disney Enterprises, Inc. | Single shot capture to animated vr avatar |
KR102434574B1 (ko) | 2017-08-14 | 2022-08-22 | 삼성전자주식회사 | 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법 |
CN109529327B (zh) * | 2017-09-21 | 2022-03-04 | 腾讯科技(深圳)有限公司 | 虚拟交互场景中目标定位方法、装置及电子设备 |
US11328513B1 (en) | 2017-11-07 | 2022-05-10 | Amazon Technologies, Inc. | Agent re-verification and resolution using imaging |
JP7017689B2 (ja) * | 2017-12-29 | 2022-02-09 | 富士通株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
US11127189B2 (en) | 2018-02-23 | 2021-09-21 | Canon Kabushiki Kaisha | 3D skeleton reconstruction from images using volumic probability data |
GB2571307B (en) * | 2018-02-23 | 2020-10-21 | Canon Kk | 3D skeleton reconstruction from images using volumic probability data |
WO2020008458A2 (en) * | 2018-07-02 | 2020-01-09 | Vayyar Imaging Ltd. | System and methods for environment mapping |
JP6990777B2 (ja) * | 2018-09-03 | 2022-01-12 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、及びプログラム |
CN109443196B (zh) * | 2018-09-28 | 2020-07-24 | 顺丰科技有限公司 | 一种体积测量方法及系统 |
WO2020101472A1 (en) * | 2018-11-14 | 2020-05-22 | Mimos Berhad | Method and system for counting and determining direction of movement of moving objects |
US11386306B1 (en) * | 2018-12-13 | 2022-07-12 | Amazon Technologies, Inc. | Re-identification of agents using image analysis and machine learning |
CN111514584B (zh) | 2019-02-01 | 2022-07-26 | 北京市商汤科技开发有限公司 | 游戏控制方法及装置、游戏终端及存储介质 |
GB2583742B (en) * | 2019-05-08 | 2023-10-25 | Jaguar Land Rover Ltd | Activity identification method and apparatus |
CN110674719B (zh) * | 2019-09-18 | 2022-07-26 | 北京市商汤科技开发有限公司 | 目标对象匹配方法及装置、电子设备和存储介质 |
TWI736138B (zh) * | 2020-02-17 | 2021-08-11 | 國立屏東大學 | 交通安全學習系統與方法 |
CN113473378A (zh) * | 2020-03-31 | 2021-10-01 | 宇龙计算机通信科技(深圳)有限公司 | 一种移动轨迹上报方法、装置、存储介质及电子设备 |
US11128636B1 (en) | 2020-05-13 | 2021-09-21 | Science House LLC | Systems, methods, and apparatus for enhanced headsets |
JP7196205B2 (ja) * | 2020-05-15 | 2022-12-26 | バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド | 部分的ポイントクラウドベースの歩行者速度推定方法 |
US20230386053A1 (en) * | 2020-09-15 | 2023-11-30 | Jintronix, Inc. | Method and system for 2d motion tracking of a subject |
CN114330606B (zh) * | 2020-10-09 | 2024-05-10 | 华为终端有限公司 | 真人游戏交互系统与方法 |
JP2022133723A (ja) * | 2021-03-02 | 2022-09-14 | 株式会社アイシン | 身体情報取得装置 |
CN113096337B (zh) * | 2021-04-08 | 2022-11-11 | 中国人民解放军军事科学院国防工程研究院工程防护研究所 | 用于复杂背景的移动目标识别处理方法及智能安防系统 |
CN113313794B (zh) * | 2021-05-19 | 2022-11-08 | 深圳市慧鲤科技有限公司 | 动画迁移方法和装置、设备及存储介质 |
TWI779735B (zh) * | 2021-07-22 | 2022-10-01 | 宏碁股份有限公司 | 可調靈敏度之觸控裝置及其控制方法 |
KR102377556B1 (ko) * | 2021-08-30 | 2022-03-22 | 주식회사 조이펀 | 깊이 카메라를 활용한 실시간 사용자 추적 시스템 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5974175A (en) * | 1997-01-22 | 1999-10-26 | Fujitsu Limited | Image processing apparatus and method for detecting a contour of an object from images of a motion picture and extracting the object therefrom |
US20030113018A1 (en) * | 2001-07-18 | 2003-06-19 | Nefian Ara Victor | Dynamic gesture recognition from stereo sequences |
US20040151366A1 (en) * | 2003-02-04 | 2004-08-05 | Nefian Ara V. | Gesture detection from digital video images |
US20050031166A1 (en) * | 2003-05-29 | 2005-02-10 | Kikuo Fujimura | Visual tracking using depth data |
CN101479782A (zh) * | 2006-05-04 | 2009-07-08 | 美国索尼电脑娱乐公司 | 多输入游戏控制混合器 |
US20090221374A1 (en) * | 2007-11-28 | 2009-09-03 | Ailive Inc. | Method and system for controlling movements of objects in a videogame |
Family Cites Families (294)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4288078A (en) | 1979-11-20 | 1981-09-08 | Lugo Julio I | Game apparatus |
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
JPH03103822U (zh) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
WO1993010708A1 (en) | 1991-12-03 | 1993-06-10 | French Sportech Corporation | Interactive video testing and training system |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
US5561745A (en) | 1992-10-16 | 1996-10-01 | Evans & Sutherland Computer Corp. | Computer graphics for animation by time-sequenced textures |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5325984A (en) * | 1993-06-21 | 1994-07-05 | Motorola, Inc. | Friction clutch for dual pivot point hinge |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
GB9405299D0 (en) | 1994-03-17 | 1994-04-27 | Roke Manor Research | Improvements in or relating to video-based systems for computer assisted surgery and localisation |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
JPH0844490A (ja) | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
AUPN003894A0 (en) | 1994-12-13 | 1995-01-12 | Xenotech Research Pty Ltd | Head tracking system for stereoscopic display apparatus |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
CN1183151A (zh) | 1995-04-28 | 1998-05-27 | 松下电器产业株式会社 | 接口装置 |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
JP3481631B2 (ja) | 1995-06-07 | 2003-12-22 | ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク | 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法 |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
WO1999044698A2 (en) | 1998-03-03 | 1999-09-10 | Arena, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
JPH09231369A (ja) | 1996-02-21 | 1997-09-05 | Canon Inc | 画像情報入力装置 |
US5909218A (en) | 1996-04-25 | 1999-06-01 | Matsushita Electric Industrial Co., Ltd. | Transmitter-receiver of three-dimensional skeleton structure motions and method thereof |
CA2253626A1 (en) | 1996-05-08 | 1997-11-13 | Real Vision Corporation | Real time simulation using position sensing |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US5844241A (en) | 1996-07-19 | 1998-12-01 | City Of Hope | System and method for determining internal radioactivity and absorbed dose estimates |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
CN1168057C (zh) | 1996-08-14 | 2004-09-22 | 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 | 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统 |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
EP0849697B1 (en) | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6400368B1 (en) | 1997-03-20 | 2002-06-04 | Avid Technology, Inc. | System and method for constructing and using generalized skeletons for animation models |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
US6411744B1 (en) | 1997-10-15 | 2002-06-25 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
WO1999019840A1 (en) | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | A system and method for generating an animatable character |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6272231B1 (en) | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
DE69910757T2 (de) | 1998-04-13 | 2004-06-17 | Eyematic Interfaces, Inc., Santa Monica | Wavelet-basierte gesichtsbewegungserfassung für avataranimation |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
DE69936620T2 (de) | 1998-09-28 | 2008-05-21 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verfahren und Vorrichtung zum Segmentieren von Handgebärden |
AU1930700A (en) | 1998-12-04 | 2000-06-26 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
AU1574899A (en) | 1998-12-16 | 2000-07-03 | 3Dv Systems Ltd. | Self gating photosurface |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
JP4006873B2 (ja) * | 1999-03-11 | 2007-11-14 | ソニー株式会社 | 情報処理システム、情報処理方法及び装置、並びに情報提供媒体 |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6487304B1 (en) | 1999-06-16 | 2002-11-26 | Microsoft Corporation | Multi-view approach to motion and stereo |
GB9914808D0 (en) * | 1999-06-25 | 1999-08-25 | Koninkl Philips Electronics Nv | Active matrix electroluminscent device |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
US6556199B1 (en) | 1999-08-11 | 2003-04-29 | Advanced Research And Technology Institute | Method and apparatus for fast voxelization of volumetric models |
MXPA02002553A (es) * | 1999-09-10 | 2006-02-10 | Scanvaegt Int As | Un aparato clasificador. |
US6658136B1 (en) | 1999-12-06 | 2003-12-02 | Microsoft Corporation | System and process for locating and tracking a person or object in a scene using a series of range images |
JP4531897B2 (ja) | 1999-12-27 | 2010-08-25 | パナソニック株式会社 | 人物追跡装置、人物追跡方法及びそのプログラムを記録した記録媒体 |
US6980690B1 (en) | 2000-01-20 | 2005-12-27 | Canon Kabushiki Kaisha | Image processing apparatus |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US20020024517A1 (en) * | 2000-07-14 | 2002-02-28 | Komatsu Ltd. | Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space |
US7375728B2 (en) | 2001-10-01 | 2008-05-20 | University Of Minnesota | Virtual mirror |
US6760028B1 (en) | 2000-07-21 | 2004-07-06 | Microsoft Corporation | Methods and systems for hinting fonts |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US6700586B1 (en) | 2000-08-23 | 2004-03-02 | Nintendo Co., Ltd. | Low cost graphics with stitching processing hardware support for skeletal animation |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
US6573912B1 (en) | 2000-11-07 | 2003-06-03 | Zaxel Systems, Inc. | Internet system for virtual telepresence |
JP4011327B2 (ja) | 2000-11-15 | 2007-11-21 | 株式会社レクサー・リサーチ | 表示オブジェクト提供装置、表示オブジェクト提供方式及び表示オブジェクト提供プログラム |
US20020158873A1 (en) | 2001-01-26 | 2002-10-31 | Todd Williamson | Real-time virtual viewpoint in simulated reality environment |
US20040104935A1 (en) | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
JP2002319036A (ja) * | 2001-02-13 | 2002-10-31 | Sega Corp | アニメーション生成プログラム |
US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
RU2215326C2 (ru) | 2001-06-29 | 2003-10-27 | Самсунг Электроникс Ко., Лтд. | Иерархическое основанное на изображениях представление неподвижного и анимированного трехмерного объекта, способ и устройство для использования этого представления для визуализации объекта |
JP2003058907A (ja) | 2001-08-09 | 2003-02-28 | Univ Tokyo | 木構造リンク系のポーズ及び動作を生成する方法 |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
JP2003109015A (ja) * | 2001-10-01 | 2003-04-11 | Masanobu Yamamoto | 身体動作測定方式 |
DE10149556A1 (de) | 2001-10-08 | 2003-04-24 | Siemens Ag | Verfahren zur Erzeugung eines zweidimensionalen Bildes aus einem 3D-Datensatz eines Tomographie-Geräts und medizinisches Tomographie-Gerät |
JP2004005373A (ja) | 2001-11-27 | 2004-01-08 | Samsung Electronics Co Ltd | 深さイメージに基づく3次元物体を表現するためのノード構造 |
KR100446635B1 (ko) | 2001-11-27 | 2004-09-04 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 객체 표현 장치 및 방법 |
US7340077B2 (en) | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
WO2003073359A2 (en) | 2002-02-26 | 2003-09-04 | Canesta, Inc. | Method and apparatus for recognizing objects |
US7203356B2 (en) | 2002-04-11 | 2007-04-10 | Canesta, Inc. | Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications |
EP1497160B2 (de) | 2002-04-19 | 2010-07-21 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | Sicherheitsvorrichtung für ein fahrzeug |
GB0209080D0 (en) | 2002-04-20 | 2002-05-29 | Virtual Mirrors Ltd | Methods of generating body models from scanned data |
US7366645B2 (en) | 2002-05-06 | 2008-04-29 | Jezekiel Ben-Arie | Method of recognition of human motion, vector sequences and speech |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
WO2003107039A2 (en) | 2002-06-13 | 2003-12-24 | I See Tech Ltd. | Method and apparatus for a multisensor imaging and scene interpretation system to aid the visually impaired |
WO2004004320A1 (en) | 2002-07-01 | 2004-01-08 | The Regents Of The University Of California | Digital processing of video images |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US7176915B1 (en) | 2002-08-09 | 2007-02-13 | Avid Technology, Inc. | Subdividing rotation in a character using quaternion interpolation for modeling and animation in three dimensions |
WO2004036900A1 (ja) * | 2002-08-30 | 2004-04-29 | Sony Corporation | 画像抽出装置及び方法、画像処理装置及び処理方法、並びに撮像装置 |
US7068444B2 (en) * | 2002-09-24 | 2006-06-27 | Kenji Nishi | Image display unit and projection optical system |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
KR100507780B1 (ko) | 2002-12-20 | 2005-08-17 | 한국전자통신연구원 | 고속 마커프리 모션 캡쳐 장치 및 방법 |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US7257237B1 (en) | 2003-03-07 | 2007-08-14 | Sandia Corporation | Real time markerless motion tracking using linked kinematic chains |
EP1477924B1 (en) | 2003-03-31 | 2007-05-02 | HONDA MOTOR CO., Ltd. | Gesture recognition apparatus, method and program |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
EP1631937B1 (en) | 2003-06-12 | 2018-03-28 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
US7874917B2 (en) * | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
JP2005165984A (ja) * | 2003-12-05 | 2005-06-23 | Seiko Epson Corp | 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム |
US20050215319A1 (en) | 2004-03-23 | 2005-09-29 | Harmonix Music Systems, Inc. | Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment |
JP4708422B2 (ja) | 2004-04-15 | 2011-06-22 | ジェスチャー テック,インコーポレイテッド | 両手動作の追跡 |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US8059153B1 (en) | 2004-06-21 | 2011-11-15 | Wyse Technology Inc. | Three-dimensional object tracking using distributed thin-client cameras |
KR101323966B1 (ko) | 2004-07-30 | 2013-10-31 | 익스트림 리얼리티 엘티디. | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법 |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
US20130063477A1 (en) | 2004-12-06 | 2013-03-14 | James Richardson | Systems and methods for using a movable object to control a computer |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
WO2006074310A2 (en) | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Creating 3d images of objects by illuminating with infrared patterns |
CN102831387B (zh) | 2005-01-07 | 2016-12-14 | 高通股份有限公司 | 检测和跟踪图像中的物体 |
EP1849123A2 (en) | 2005-01-07 | 2007-10-31 | GestureTek, Inc. | Optical flow based tilt sensor |
US20060170769A1 (en) | 2005-01-31 | 2006-08-03 | Jianpeng Zhou | Human and object recognition in digital video |
US7598942B2 (en) | 2005-02-08 | 2009-10-06 | Oblong Industries, Inc. | System and method for gesture based control system |
US7646902B2 (en) | 2005-02-08 | 2010-01-12 | Regents Of The University Of Michigan | Computerized detection of breast cancer on digital tomosynthesis mammograms |
WO2006089417A1 (en) | 2005-02-23 | 2006-08-31 | Craig Summers | Automatic scene modeling for the 3d camera and 3d video |
WO2006099597A2 (en) | 2005-03-17 | 2006-09-21 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
RU2007146172A (ru) | 2005-05-17 | 2009-06-27 | Гестуретэк, Инк. (Us) | Вывод сигнала, чувствительный к ориентации |
US20090041297A1 (en) | 2005-05-31 | 2009-02-12 | Objectvideo, Inc. | Human detection and tracking for security applications |
ATE412882T1 (de) | 2005-08-12 | 2008-11-15 | Mesa Imaging Ag | Hochempfindliches, schnelles pixel für anwendung in einem bildsensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
JP4653599B2 (ja) | 2005-08-29 | 2011-03-16 | アロカ株式会社 | 超音波診断装置 |
US8382485B2 (en) | 2005-09-29 | 2013-02-26 | The General Hospital Corporation | Methods and apparatus for providing realistic medical training |
US8390821B2 (en) | 2005-10-11 | 2013-03-05 | Primesense Ltd. | Three-dimensional sensing using speckle patterns |
US7728839B2 (en) | 2005-10-28 | 2010-06-01 | Honda Motor Co., Ltd. | Discriminative motion modeling for human motion tracking |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
US8094928B2 (en) | 2005-11-14 | 2012-01-10 | Microsoft Corporation | Stereo video for gaming |
WO2007064456A2 (en) * | 2005-11-28 | 2007-06-07 | The George Washington University | Virtual reality simulator harness systems |
KR100817298B1 (ko) | 2005-12-08 | 2008-03-27 | 한국전자통신연구원 | 양손 검출 및 추적 방법 |
JP5025950B2 (ja) | 2005-12-12 | 2012-09-12 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法 |
US8571258B2 (en) * | 2006-02-07 | 2013-10-29 | France Telecom | Method of tracking the position of the head in real time in a video image stream |
WO2007130693A2 (en) * | 2006-05-07 | 2007-11-15 | Sony Computer Entertainment Inc. | Methods and systems for processing an interchange of real time effects during video communication |
CN103778635B (zh) | 2006-05-11 | 2016-09-28 | 苹果公司 | 用于处理数据的方法和装置 |
US8467570B2 (en) * | 2006-06-14 | 2013-06-18 | Honeywell International Inc. | Tracking system with fused motion and object detection |
US8086971B2 (en) | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
WO2008005946A2 (en) | 2006-06-30 | 2008-01-10 | Imagemovers Digital Llc | Capturing and rendering dynamic surface deformations in human motion |
JP4409545B2 (ja) | 2006-07-06 | 2010-02-03 | 株式会社ソニー・コンピュータエンタテインメント | 三次元位置特定装置および方法、奥行位置特定装置 |
JP4707034B2 (ja) | 2006-07-07 | 2011-06-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理方法、入力インタフェース装置 |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
DE102006048166A1 (de) | 2006-08-02 | 2008-02-07 | Daimler Ag | Verfahren zur Beobachtung einer Person in einem industriellen Umfeld |
CN100541540C (zh) | 2006-09-14 | 2009-09-16 | 浙江大学 | 基于侧影和末端节点的视频人体三维运动恢复方法 |
US8131011B2 (en) | 2006-09-25 | 2012-03-06 | University Of Southern California | Human detection and tracking system |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
US20100278391A1 (en) | 2006-10-12 | 2010-11-04 | Yung-Tai Hsu | Apparatus for behavior analysis and method thereof |
US8023726B2 (en) | 2006-11-10 | 2011-09-20 | University Of Maryland | Method and system for markerless motion capture using multiple cameras |
US7844087B2 (en) | 2006-12-19 | 2010-11-30 | Carestream Health, Inc. | Method for segmentation of lesions |
US8351646B2 (en) | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
CN101681438A (zh) | 2007-03-02 | 2010-03-24 | 有机运动公司 | 跟踪三维对象的系统和方法 |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
US20080252596A1 (en) | 2007-04-10 | 2008-10-16 | Matthew Bell | Display Using a Three-Dimensional vision System |
KR101184170B1 (ko) | 2007-04-20 | 2012-09-19 | 소프트키네틱 에스.에이. | 볼륨 인식 방법 및 시스템 |
US7965866B2 (en) | 2007-07-03 | 2011-06-21 | Shoppertrak Rct Corporation | System and process for detecting, tracking and counting human objects of interest |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
US8295543B2 (en) * | 2007-08-31 | 2012-10-23 | Lockheed Martin Corporation | Device and method for detecting targets in images based on user-defined classifiers |
US7806589B2 (en) | 2007-09-26 | 2010-10-05 | University Of Pittsburgh | Bi-plane X-ray imaging system |
US7970176B2 (en) | 2007-10-02 | 2011-06-28 | Omek Interactive, Inc. | Method and system for gesture classification |
US7876947B2 (en) | 2007-10-10 | 2011-01-25 | Siemens Medical Solutions Usa, Inc. | System and method for detecting tagged material using alpha matting |
WO2009059065A1 (en) | 2007-10-30 | 2009-05-07 | Hewlett-Packard Development Company, L.P. | Interactive display system with collaborative gesture detection |
US20090221368A1 (en) | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
GB2455316B (en) | 2007-12-04 | 2012-08-15 | Sony Corp | Image processing apparatus and method |
US7925081B2 (en) | 2007-12-12 | 2011-04-12 | Fuji Xerox Co., Ltd. | Systems and methods for human body pose estimation |
US9098766B2 (en) * | 2007-12-21 | 2015-08-04 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US9165199B2 (en) | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
KR100939294B1 (ko) | 2007-12-26 | 2010-01-29 | 주식회사 케이티 | 3차원 공간에서의 사람 움직임 추적 방법 및 장치 |
US8166421B2 (en) | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
CN103258184B (zh) | 2008-02-27 | 2017-04-12 | 索尼计算机娱乐美国有限责任公司 | 用于捕获场景的深度数据并且应用计算机动作的方法 |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
JP4582174B2 (ja) | 2008-03-28 | 2010-11-17 | ソニー株式会社 | 追跡処理装置、追跡処理方法、プログラム |
CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
KR101494344B1 (ko) * | 2008-04-25 | 2015-02-17 | 삼성전자주식회사 | 휴머노이드 로봇의 움직임 제어 시스템 및 그 방법 |
EP2283373B1 (en) | 2008-04-28 | 2021-03-10 | Cornell University | Accurate quantification of magnetic susceptibility in molecular mri |
US8971565B2 (en) * | 2008-05-29 | 2015-03-03 | Hie-D Technologies, Llc | Human interface electronic device |
US8456517B2 (en) | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
AU2009281762A1 (en) | 2008-08-15 | 2010-02-18 | Brown University | Method and apparatus for estimating body shape |
CN201254344Y (zh) | 2008-08-20 | 2009-06-10 | 中国农业科学院草原研究所 | 植物标本及种子存贮器 |
US8385688B2 (en) | 2008-08-27 | 2013-02-26 | International Business Machines Corporation | System and method for automatic recognition and labeling of anatomical structures and vessels in medical imaging scans |
US8577084B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
WO2010103482A2 (en) | 2009-03-13 | 2010-09-16 | Primesense Ltd. | Enhanced 3d interfacing for remote devices |
KR101591779B1 (ko) | 2009-03-17 | 2016-02-05 | 삼성전자주식회사 | 모션 데이터 및 영상 데이터를 이용한 골격 모델 생성 장치및 방법 |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US9182814B2 (en) | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8379101B2 (en) | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8175335B2 (en) * | 2009-06-17 | 2012-05-08 | Sony Corporation | Content adaptive detection of images with stand-out object |
US8565479B2 (en) | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
KR101619076B1 (ko) | 2009-08-25 | 2016-05-10 | 삼성전자 주식회사 | 모바일 플랫폼의 동적 물체 검출 및 추적 방법 |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US8564534B2 (en) * | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8867820B2 (en) * | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
WO2012046392A1 (ja) * | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
US20130208926A1 (en) * | 2010-10-13 | 2013-08-15 | Microsoft Corporation | Surround sound simulation with virtual skeleton modeling |
US20130208900A1 (en) * | 2010-10-13 | 2013-08-15 | Microsoft Corporation | Depth camera with integrated three-dimensional audio |
US8761437B2 (en) * | 2011-02-18 | 2014-06-24 | Microsoft Corporation | Motion recognition |
US9171200B2 (en) * | 2011-03-04 | 2015-10-27 | Hewlett-Packard Development Company, L.P. | Gestural interaction identification |
CA2852695C (en) * | 2011-10-31 | 2019-10-01 | Ossur Hf | Orthopedic device for dynamically treating the knee |
US9607419B2 (en) * | 2012-12-14 | 2017-03-28 | Electronics And Telecommunications Research Institute | Method of fitting virtual item using human body model and system for providing fitting service of virtual item |
US9052746B2 (en) * | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
US9135516B2 (en) * | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US9159140B2 (en) * | 2013-03-14 | 2015-10-13 | Microsoft Technology Licensing, Llc | Signal analysis for repetition detection and analysis |
US9142034B2 (en) * | 2013-03-14 | 2015-09-22 | Microsoft Technology Licensing, Llc | Center of mass state vector for analyzing user motion in 3D images |
-
2009
- 2009-10-07 US US12/575,388 patent/US8564534B2/en active Active
-
2010
- 2010-09-21 TW TW104115427A patent/TWI545464B/zh not_active IP Right Cessation
- 2010-09-21 TW TW099132065A patent/TWI497346B/zh not_active IP Right Cessation
- 2010-09-21 TW TW104115432A patent/TWI595383B/zh not_active IP Right Cessation
- 2010-09-21 TW TW104115429A patent/TWI521388B/zh not_active IP Right Cessation
- 2010-10-06 KR KR1020177008298A patent/KR101802125B1/ko active IP Right Grant
- 2010-10-06 KR KR1020127008854A patent/KR101722147B1/ko active IP Right Grant
- 2010-10-06 WO PCT/US2010/051662 patent/WO2011044257A2/en active Application Filing
- 2010-10-06 JP JP2012533286A patent/JP5845184B2/ja active Active
- 2010-10-06 EP EP10822620.0A patent/EP2486545B1/en active Active
- 2010-10-06 CN CN2010800449190A patent/CN102549619B/zh active Active
-
2012
- 2012-02-02 US US13/365,121 patent/US8542910B2/en active Active
-
2013
- 2013-09-23 US US14/034,484 patent/US8861839B2/en active Active
- 2013-10-21 US US14/059,258 patent/US8970487B2/en active Active
-
2014
- 2014-09-04 US US14/477,713 patent/US9522328B2/en active Active
-
2015
- 2015-01-22 US US14/602,333 patent/US9821226B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5974175A (en) * | 1997-01-22 | 1999-10-26 | Fujitsu Limited | Image processing apparatus and method for detecting a contour of an object from images of a motion picture and extracting the object therefrom |
US20030113018A1 (en) * | 2001-07-18 | 2003-06-19 | Nefian Ara Victor | Dynamic gesture recognition from stereo sequences |
US20040151366A1 (en) * | 2003-02-04 | 2004-08-05 | Nefian Ara V. | Gesture detection from digital video images |
US20050031166A1 (en) * | 2003-05-29 | 2005-02-10 | Kikuo Fujimura | Visual tracking using depth data |
CN101479782A (zh) * | 2006-05-04 | 2009-07-08 | 美国索尼电脑娱乐公司 | 多输入游戏控制混合器 |
US20090221374A1 (en) * | 2007-11-28 | 2009-09-03 | Ailive Inc. | Method and system for controlling movements of objects in a videogame |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104182987A (zh) * | 2013-05-22 | 2014-12-03 | 株式会社日立制作所 | 人数计测装置和人物流动线解析装置 |
CN106104633A (zh) * | 2014-03-19 | 2016-11-09 | 英特尔公司 | 面部表情和/或交互驱动的化身装置和方法 |
CN107077208A (zh) * | 2014-10-17 | 2017-08-18 | 微软技术许可有限责任公司 | 基于图像的地面重量分布确定 |
CN106559660A (zh) * | 2015-09-29 | 2017-04-05 | 杭州海康威视数字技术股份有限公司 | 2d视频中展示目标3d信息的方法及装置 |
CN106559660B (zh) * | 2015-09-29 | 2018-09-07 | 杭州海康威视数字技术股份有限公司 | 2d视频中展示目标3d信息的方法及装置 |
CN108055479A (zh) * | 2017-12-28 | 2018-05-18 | 暨南大学 | 一种动物行为视频的制作方法 |
CN112237735A (zh) * | 2019-07-19 | 2021-01-19 | 史克威尔·艾尼克斯有限公司 | 记录介质、物体检测装置、物体检测方法及物体检测系统 |
CN113744410A (zh) * | 2021-09-13 | 2021-12-03 | 浙江商汤科技开发有限公司 | 网格生成方法、装置、电子设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US9522328B2 (en) | 2016-12-20 |
US8564534B2 (en) | 2013-10-22 |
WO2011044257A2 (en) | 2011-04-14 |
US8861839B2 (en) | 2014-10-14 |
US9821226B2 (en) | 2017-11-21 |
KR101802125B1 (ko) | 2017-11-27 |
TWI521388B (zh) | 2016-02-11 |
JP2013507688A (ja) | 2013-03-04 |
TWI595383B (zh) | 2017-08-11 |
TW201546659A (zh) | 2015-12-16 |
KR101722147B1 (ko) | 2017-03-31 |
US8970487B2 (en) | 2015-03-03 |
TW201120684A (en) | 2011-06-16 |
EP2486545A2 (en) | 2012-08-15 |
TWI545464B (zh) | 2016-08-11 |
US20110080336A1 (en) | 2011-04-07 |
US20140375557A1 (en) | 2014-12-25 |
US20140022161A1 (en) | 2014-01-23 |
JP5845184B2 (ja) | 2016-01-20 |
US8542910B2 (en) | 2013-09-24 |
US20120128208A1 (en) | 2012-05-24 |
EP2486545B1 (en) | 2019-07-17 |
CN102549619B (zh) | 2013-11-20 |
WO2011044257A3 (en) | 2011-09-29 |
EP2486545A4 (en) | 2017-03-15 |
US20150131862A1 (en) | 2015-05-14 |
TW201546660A (zh) | 2015-12-16 |
KR20120093197A (ko) | 2012-08-22 |
US20140044309A1 (en) | 2014-02-13 |
TW201546658A (zh) | 2015-12-16 |
KR20170038101A (ko) | 2017-04-05 |
TWI497346B (zh) | 2015-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102549619B (zh) | 人类跟踪系统 | |
CN102665838B (zh) | 用于确定和跟踪目标的肢端的方法和系统 | |
CN102576466B (zh) | 用于跟踪模型的系统和方法 | |
CN102448562B (zh) | 用于跟踪模型的系统和方法 | |
CN102413885B (zh) | 用于对运动捕捉应用模型跟踪的系统和方法 | |
CN102448565B (zh) | 将骨架数据实时重新定标到游戏化身的系统和方法 | |
CN102576463B (zh) | 用于移除图像的背景的系统和方法 | |
CN102596340B (zh) | 用于将动画或运动应用到角色的系统和方法 | |
CN102448564B (zh) | 环境和/或目标分割 | |
CN102622774B (zh) | 起居室电影创建 | |
US8542252B2 (en) | Target digitization, extraction, and tracking | |
CN102947777B (zh) | 用户跟踪反馈 | |
CN102135798B (zh) | 仿生学运动 | |
CN102301398B (zh) | 用于捕捉场景的深度信息的设备、方法和系统 | |
CN102129293A (zh) | 在运动捕捉系统中跟踪用户组 | |
CN102184009A (zh) | 跟踪系统中的手位置后处理精炼 | |
CN102314595A (zh) | 用于改善话音识别的rgb/深度相机 | |
CN102087738A (zh) | 用于为目标跟踪处理图像的系统和方法 | |
CN102222347A (zh) | 使用波阵面编码来创建深度图像 | |
CN102414641A (zh) | 改变显示环境内的视图视角 | |
CN102448563A (zh) | 深度图像降噪 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150429 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20150429 Address after: Washington State Patentee after: Micro soft technique license Co., Ltd Address before: Washington State Patentee before: Microsoft Corp. |