CN102470274B - 自动生成视觉表示 - Google Patents

自动生成视觉表示 Download PDF

Info

Publication number
CN102470274B
CN102470274B CN201080033128.8A CN201080033128A CN102470274B CN 102470274 B CN102470274 B CN 102470274B CN 201080033128 A CN201080033128 A CN 201080033128A CN 102470274 B CN102470274 B CN 102470274B
Authority
CN
China
Prior art keywords
visual representation
user
feature
option
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201080033128.8A
Other languages
English (en)
Other versions
CN102470274A (zh
Inventor
K·S·佩雷兹
A·基普曼
N·D·伯顿
A·威尔逊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102470274A publication Critical patent/CN102470274A/zh
Application granted granted Critical
Publication of CN102470274B publication Critical patent/CN102470274B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/833Hand-to-hand fighting, e.g. martial arts competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • A63F2300/6018Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content where the game content is authored by the player, e.g. level editor or by game device at runtime, e.g. level is created from music data on CD
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

自动生成目标的视觉表示的技术可以减少或消除生成目标的视觉表示所需要的手动输入。例如,具有捕捉设备的系统可在物理空间中检测用户的各个特征,并且基于所检测到的特征从视觉表示特征选项库中作出特征选择。系统可以基于所检测到的特征自动地将选择应用于用户的视觉表示。或者,系统可以作出选择,该选择缩减了用户从中选择特征的选项的数量。系统可以实时地将选择应用于用户,以及实时地对所选择的和被应用到目标的视觉表示的特征进行更新。

Description

自动生成视觉表示
背景技术
应用通常显示用户通过特定动作来控制的与该用户相对应的视觉表示,诸如选择遥控器上的按钮或以特定方式来移动控制器。视觉表示可以是化身、想象的人物、卡通图像或动物、光标、手等形式。视觉表示是在诸如计算机游戏、视频游戏、聊天、论坛、社区、即时消息收发服务等各种应用中通常采取二维(2D)或三维(3D)模型的形式的计算机表示。诸如计算机游戏、多媒体应用、办公室应用等很多计算应用提供对预定义动画人物的选择,该预定义动画人物可被选择以在应用中用作用户的化身。
允许创建化身的大多数系统也允许通过提供可被应用于该化身的可选择特征的数据库来定制该人物的外貌。例如,用户可访问应用中可用的衣服和配件的储存库并对化身的外貌作出修改。通常,用户将选择与该用户的自身特征最相似的特征。例如,用户可以选择具有与该用户相似身体结构的化身,并且随后该用户可以从特征的目录选择相似的眼睛、鼻子、嘴、头发等。然而,用于那些特征中每一个的特征的数量和选项的数量可能导致从中选择的过多的选项,而用户的视觉表示的手动生成可能变得繁重。系统可以限制可选择特征的数量以减少用户所需要的工作,但是这不合需要地限制了用户可用来生成唯一化身的特征。
发明内容
可能期望的是应用或系统代表用户来作出用于用户的视觉表示的特征选择。使用所选择的特征,系统可以自动生成用户的视觉表示。例如,系统可以检测用户的各个特征,并基于所检测到的特征来作出特征选择。系统可以基于所检测到的特征自动地将选择应用于用户的视觉表示。或者,系统可以作出选择,该选择缩减了用户从中选择特征的选项的数量。如果系统可以代表用户作出决定,则用户可以无需作出很多决定或不必从很多选项中进行选择。由此,所公开的技术可以移除用户大量的工作,并且可以代表用户作出选择并将其应用于用户的视觉表示。
在示例实施例中,系统可以执行身体扫描并使用面部识别技术和/或身体识别技术来标识用户的特征。系统可以对与用户的所标识的特征最接近地类似的用户视觉表示作出选择。在另一个示例实施例中,系统可在将选择应用于视觉表示之前修改该选择。用户可在将选择应用于该用户的视觉表示之前指示系统作出修改。例如,如果用户是超重的,则该用户可以指示系统选择用于该用户的视觉表示的较苗条的身材。
系统可以实时地将选择应用于用户。还期望系统从物理空间捕捉数据,标识用户的特性,并且实时地更新用户的视觉表示的特征。
提供本发明内容以便以简化的形式介绍将在以下具体实施方式中进一步描述的一些概念。本发明内容既不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。此外,所请求保护的主题不限于解决在本公开的任一部分中提及的任何或所有缺点的实现。
附图说明
参考附图来进一步描述根据本说明书的用于作出特征选择并自动生成视觉表示的系统、方法和计算机可读介质,在附图中:
图1示出目标识别、分析、及跟踪系统的示例实施例,用户正在玩游戏。
图2示出了可在目标识别、分析和跟踪系统中使用且结合了链接和动画混合技术的捕捉设备的示例实施例。
图3示出了其中可实现本文描述的动画技术的计算环境的示例实施例。
图4示出了其中可实现本文描述的动画技术的计算环境的另一示例实施例。
图5示出了从深度图像生成的用户的骨架映射。
图6A-6B每个描绘了示例目标识别、分析、及跟踪系统以及自动生成的视觉表示的示例实施例。
图7描绘了为应用提供针对目标的视觉表示的特征选项的子集的示例目标识别、分析、及跟踪系统。
图8描绘了自动生成视觉表示或为应用自动生成针对视觉表示的特征选项的子集的方法的示例流程图。
图9描绘了使用目标数字化技术在物理空间中标识目标的示例目标识别、分析、及跟踪系统。
说明性实施例的具体实施方式
此处所公开的是用于提供目标的视觉表示的技术,诸如物理空间中的用户或非人类物体。用户的视觉表示例如可以是化身、屏幕上的光标、手、或物理空间中与用户相对应的任何其他虚拟物体的形式。人的骨架模型或网格模型的各方面可以基于捕捉设备所捕捉的图形数据来生成,并且可被求值以检测用户的特性。捕捉设备可以检测用户的特征并通过从特征的目录中选择特征来自动生成用户的视觉表示,该特征类似于那些所检测到的特征,诸如面部表情、头发颜色和类型、肤色和类型、服装、身体类型、身高、体重等。例如,系统可以使用面部识别和姿势/身体姿态识别技术从与已识别的特征相对应的特征选项的目录或数据库中自动地选择特征。系统可以实时地将所选择的特征、以及对那些特征的更新应用于用户的视觉表示。类似地,系统可在物理空间中检测非人类目标的特征,并从特征选项的目录中选择用于虚拟物体的特征。系统可显示与所检测到的特征相对应的虚拟物体。
该计算环境可基于例如已被识别出并被映射到系统自动生成的视觉表示的用户的姿势来确定在计算机环境上执行的应用中要执行哪些控件。由此,可以显示虚拟用户,并且用户可通过在物理空间中作出姿势来控制虚拟用户的运动。所捕捉的运动可以是物理空间中由诸如相机等捕捉设备捕捉的任何运动。所捕捉的运动可包括物理空间中诸如用户或物体等目标的运动。所捕捉的运动可包括转换成操作系统或应用中的控制的姿势。运动可以是动态的,如奔跑运动,或者运动可以是静态的,例如以很少的移动摆姿态的用户。
基于可检测的用户特性作出用于视觉表示的选择的面部和身体识别的系统、方法、技术和组件可在诸如游戏控制台等多媒体控制台中被具体化,或可在期望显示目标的视觉表示的任何其他计算设备中被具体化,作为示例但非有意的限制,这些其他计算设备包括卫星接收机、机顶盒、电子游戏机、个人计算机(PC)、便携式电话、个人数字助理(PDA)、以及其他手持式设备。
图1示出了目标识别、分析、及跟踪系统10的配置的示例实施例,该目标识别、分析、及跟踪系统10可以采用将用户的特性应用于化身的技术。在示例实施例中,用户18正在玩拳击游戏。在示例实施例中,系统10可识别、分析和/或跟踪诸如用户18的人类目标。系统10可以收集与物理空间中用户的运动、面部表情、身体语言、情绪等相关的信息。例如,系统可以标识并扫描人类目标18。系统10可使用身体姿态识别技术来标识人类目标18的身体类型。系统10可以标识用户18的身体各部位以及它们如何移动。系统10可以将所检测到的用户特征与可选择的视觉表示特征的目录进行比较。
如图1所示,目标识别、分析及跟踪系统10可包括计算环境12。计算环境12可以是计算机、游戏系统或控制台等等。根据一示例实施例,计算环境12可包括硬件组件和/或软件组件,使得计算环境12可用于执行诸如游戏应用、非游戏应用等应用。
如图1所示,目标识别、分析及跟踪系统10还可包括捕捉设备20。捕捉设备20可以是例如相机,该相机可用于在视觉上监视诸如用户18等一个或多个用户,以使得可以捕捉、分析并跟踪一个或多个用户所执行的姿势以执行应用中的一个或多个控制或动作,如将在下面更详细地描述的。
根据一个实施例,目标识别、分析和跟踪系统10可连接到可向诸如用户18等用户提供游戏或应用视觉和/或音频的视听设备16,如电视机、监视器、高清电视机(HDTV)等。例如,计算环境12可包括诸如图形卡等视频适配器和/或诸如声卡等音频适配器,这些适配器可提供与游戏应用、非游戏应用等相关联的视听信号。视听设备16可从计算环境12接收视听信号,然后可向用户18输出与该视听信号相关联的游戏或应用视觉和/或音频。根据一个实施例,视听设备16可经由例如,S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等连接到计算环境12。
如图1所示,目标识别、分析及跟踪系统10可用于识别、分析和/或跟踪诸如用户18等人类目标。例如,可使用捕捉设备20来跟踪用户18,以使得可将用户18的移动解释为可用于影响由计算机环境12执行的应用的控制。由此,根据一个实施例,用户18可移动他或她的身体来控制应用。系统10可以跟踪用户的身体以及用户的身体所作的运动,包括控制诸如应用、操作系统等系统的各方面的姿势。
系统10可将对捕捉设备20的输入转换成动画,该输入表示用户的运动,使得动画由该输入驱动。由此,用户的运动可映射到化身40,使得物理空间中该用户的运动由该化身40执行。用户的运动可以是可适用于应用中的控件的姿势。如图1所示,在示例实施例中,在计算环境12上执行的应用可以是用户18可能正在玩的拳击游戏。
计算环境12可使用视听设备16来提供用户18可通过他的或她的移动来控制的玩家化身40的视觉表示。系统可将运动和/或姿势应用于用户的视觉表示,该视觉表示可以是系统基于用户的所检测到的特征而自动生成的自动生成的视觉表示。例如,用户18可在物理空间中挥拳猛击,这使得玩家化身40在游戏空间中挥拳猛击。玩家化身40可以具有捕捉设备20所标识的用户的特性,或者系统可以为映射到用户的运动的视觉表示使用知名拳击运动员的特征或描绘专业拳击运动员的体格。系统10可以跟踪用户,并且可基于物理空间中用户可检测的特征来修改用户化身的特性。计算环境12还可使用视听设备16来向用户18提供拳击对手38的视觉表示。根据一示例实施例,目标识别、分析和跟踪系统10的计算环境12和捕捉设备20可用于识别和分析用户18在物理空间中的出拳,使得该出拳可被解释为对游戏空间中的玩家化身40的游戏控制。多个用户可从远程位置彼此交互。例如,拳击对手38的视觉表示可以表示另一个用户,诸如物理空间中的第二用户与用户18或第二物理空间中的联网用户。
用户18的其他移动也可被解释为其他控制或动作,诸如上下快速摆动、闪避、滑步、格挡、直拳或挥动各种不同力度的拳等控制。此外,某些移动可被解释为可对应于除控制玩家化身40之外的动作的控制。例如,玩家可以使用移动来结束、暂停或保存游戏、选择级别、查看高分、与朋友交流等。另外,用户18的全范围运动可以用任何合适的方式来获得、使用并分析以与应用进行交互。
在各示例实施例中,诸如用户18等人类目标可持有一物体。在这些实施例中,电子游戏的用户可手持物体,使得可使用玩家和物体的运动来调整和/或控制游戏的参数。例如,可以跟踪并利用玩家手持球拍的运动来控制电子运动游戏中的屏幕上球拍。在另一示例实施例中,可以跟踪并利用玩家手持物体的运动来控制电子格斗游戏中的屏幕上武器。
用户的姿势或运动可被解释为可对应于除控制玩家化身40之外的动作的控制。例如,玩家可以使用移动来结束、暂停或保存游戏、选择级别、查看高分、与朋友交流等。玩家可以使用移动来将修改应用于化身。例如,用户可在物理空间中摇晃他的或她的手臂,而这可以是被系统10标识为请求使化身的手臂更长的姿势。事实上操作系统和/或应用的任何可控方面可由诸如用户18等目标的移动来控制。根据其他示例实施例,目标识别、分析和跟踪系统10可解释目标移动用于控制游戏领域之外的操作系统和/或应用的各方面。
用户的姿势可以是可适用于操作系统、游戏的非游戏方面、或非游戏应用的控制。用户的姿势可被解释为物体操纵,例如控制用户界面。例如,考虑具有从左向右垂直排列的叶片(blades)或选项卡式界面的用户界面,其中对每个叶片或选项卡的选择打开应用或系统内的各种控制的选项。系统可标识移动选项卡的用户的手姿势,其中物理空间中的用户的手虚拟地与应用空间中的选项卡对齐。包括暂停、抓取运动以及然后的手向左扫动在内的姿势可被解释为对选项卡的选择,然后将其移开以打开下一选项卡。
图2示出了可用于目标识别、分析和跟踪的捕捉设备20的示例实施例,其中目标可以是用户或物体。根据一示例实施例,捕捉设备20可被配置成经由任何合适的技术,包括例如飞行时间、结构化光、立体图像等来捕捉包括深度图像的带有深度信息的视频,该深度信息可包括深度值。根据一个实施例,捕捉设备20可将所计算的深度信息组织成“Z层”,或与从深度相机沿其视线延伸的Z轴垂直的层。
如图2所示,捕捉设备20可包括图像相机组件22。根据一个示例实施例,图像相机组件22可以是可捕捉场景的深度图像的深度相机。深度图像可包括所捕捉场景的二维(2-D)像素区域,其中2-D像素区域中的每一像素可表示深度值,诸如例如以厘米、毫米等为单位的、所捕捉场景中的物体距相机的长度或距离。
如图2所示,根据一示例实施例,图像相机组件22可包括可用于捕捉场景的深度图像的IR光组件24、三维(3-D)相机26、和RGB相机28。例如,在飞行时间分析中,捕捉设备20的IR光组件24可将红外光发射到场景上,并且随后可使用传感器(未示出)、用例如3-D相机26和/或RGB相机28来检测从场景中的一个或多个目标和物体的表面反向散射的光。在一些实施例中,可使用脉冲红外光,从而可测量出射光脉冲和相应入射光脉冲之间的时间差,并且将其用于确定从捕捉设备20到场景中的目标或物体上的特定位置的物理距离。另外,在其他示例实施例中,可将出射光波的相位与入射光波的相位作比较来确定相移。该相移随后可用于确定从捕获设备20到目标或物体上特定位置的物理距离。
根据另一示例实施例,飞行时间分析可用于通过经由包括例如快门式光脉冲成像在内的各种技术来随时间分析反射光束的强度来间接地确定从捕捉设备20到目标或物体上的特定位置的物理距离。
在另一示例实施例中,捕捉设备20可使用结构化光来捕捉深度信息。在该分析中,图案化光(即,被显示为例如网格图案或条纹图案的已知图案的光)可经由例如IR光组件24被投影到场景上。在落到场景中的一个或多个目标或物体的表面时,作为响应,图案可变形。图案的此类变形可被例如3-D相机26和/或RGB相机28捕捉,并且随后可被分析以确定从捕捉设备20到目标或物体上的特定位置的物理距离。
根据另一实施例,捕捉设备20可包括可以从不同的角度观察场景的两个或更多个在物理上分开的相机,以获取可以被解析以生成深度信息的视觉立体数据。
在另一示例实施例中,捕捉设备20可使用点云数据(point cloud data)和目标数字化技术来检测用户的特征。这些技术在以下关于图2B更详细地描述。
捕捉设备20还可包括话筒30或话筒阵列。话筒30可包括可接收声音并将其转换成电信号的变换器或传感器。根据一个实施例,话筒30可用于减少目标识别、分析和跟踪系统10中的捕捉设备20和计算环境12之间的反馈。另外,话筒30可用于接收也可由用户提供的音频信号,以控制可由计算环境12执行的诸如游戏应用、非游戏应用程序等应用。
在一个示例实施例中,捕捉设备20还可包括可与图像相机组件22有效通信的处理器32。处理器32可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令可包括用于接收深度图像的指令、用于确定合适的目标是否可包括在深度图像中的指令、用于将合适的目标转换成该目标的骨架表示或模型的指令、或任何其他合适的指令。
例如,计算机可读介质可包括用于接收场景的数据的计算机可执行指令,其中该数据包括表示物理空间中的目标的数据。该指令包括用于从该数据中检测至少一个目标特征并将至少一个所检测到的目标特征与来自特征库197的视觉表示特征选项进行比较的指令。视觉表示特征选项可包括被配置为应用到视觉表示的可选择选项。其他指令允许从视觉表示特征选项中选择视觉表示特征,将视觉表示特征应用于目标的视觉表示,以及呈现该视觉表示。视觉表示可从至少一个检测到的特征与视觉表示特征选项的比较中自动生成,使得对视觉表示特征的选择是在没有用户的手动选择的情况下执行的。
对视觉表示特征的选择可包括选择类似于所检测到的目标特征的视觉表示特征。视觉表示特征可以是脸部特征、身体部位、颜色、大小、高度、宽度、形状、饰品、或服装项中的至少一个。该指令可允许从用于视觉表示特征的视觉表示特征选项中生成视觉表示特征选项子集,并提供所生成的特征选项子集以供用户选择要应用于视觉表示的视觉表示特征。所生成的视觉表示特征选项子集可包括类似于所检测到的目标特征的多个视觉表示特征选项。该指令可允许接收用户从所生成的特征选项子集中对视觉表示特征的选择,其中从视觉表示特征选项中选择视觉表示特征包括选择对应于该用户选择的视觉表示特征。具有视觉表示特征的视觉表示可被实时呈现。此外,该指令可允许监视目标并检测所检测到的目标特征中的变化,并通过基于所检测到的目标特征中的变化实时地更新应用于视觉表示的视觉表示特征来更新目标的视觉表示。
捕捉设备20还可包括存储器组件34,存储器组件34可存储可由处理器32执行的指令、3-D相机26或RGB相机28所捕捉的图像或图像的帧、或任何其他合适的信息、图像等等。根据一个示例实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的存储组件。如图2所示,在一个实施例中,存储器组件34可以是与图像捕捉组件22和处理器32进行通信的单独的组件。根据另一实施例,存储器组件34可被集成到处理器32和/或图像捕捉组件22中。
如图2所示,捕捉设备20可经由通信链路36与计算环境12进行通信。通信链路36可以是包括例如USB连接、火线连接、以太网电缆连接等的有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等的无线连接。根据一个实施例,计算环境12可以经由通信链路36向捕捉设备20提供时钟,可以使用该时钟来确定何时捕捉例如场景。
另外,捕捉设备20可以通过通信链路36向计算环境12提供深度信息和由例如3-D相机26和/或RGB相机28捕捉到的图像,以及可以由捕捉设备20生成的骨架模型。计算环境12然后可使用该骨架模型、深度信息和捕捉的图像来例如控制例如游戏或文字处理程序之类的应用。例如,如图2所示,计算环境12可包括姿势库192。
如图所示,在图2中,计算环境12可包括姿势库192和姿势识别引擎190。姿势识别引擎190可包括姿势过滤器191的集合。过滤器可包括可识别姿势或以其他方式处理深度、RGB或骨架数据的代码和相关联的数据。每一过滤器191可包括定义姿势以及该姿势的参数或元数据的信息。例如,包括一只手从身体背后到身体前方的运动的投掷可被实现为包括表示用户的一只手从身体背后到身体前方的移动的信息的姿势过滤器191,该移动将由深度相机来捕捉。随后可为该姿势设定参数。在姿势是投掷的情况下,参数可以是该手必须达到的阈值速度、该手必须行进的距离(绝对的,或相对于用户的整体大小)、以及识别器引擎对发生了该姿势的置信评级。用于姿势的这些参数可随时间在各应用之间、在单个应用的各个上下文之间、或在一个应用的一个上下文内变化。
尽管构想了姿势识别引擎190可包括姿势过滤器的集合,其中过滤器可包括表示用于处理深度、RGB或骨架数据的代码或以其他方式表示用于进行这样的处理的组件,但对过滤器的使用不旨在将分析限于过滤器。过滤器是分析系统所接收的场景的数据,并将该数据与表示姿势的基础信息进行比较的示例组件或代码部分的表示。作为分析的结果,系统可产生对应于输入数据是否对应于姿势的输出。表示姿势的基础信息可被调整为对应于代表用户的捕捉运动的数据历史中重复出现的特征。例如,基础信息可以是如上所述的姿势过滤器的一部分。但是,构想了任何合适的用于分析输入数据和姿势数据的方式。
在示例实施例中,姿势可被识别为进入修改模式的触发,在修改模式中,用户可修改系统自动生成的视觉表示。例如,姿势过滤器191可包括用于识别修改触发姿势的信息。如果识别到修改触发姿势,则应用可进入修改模式。修改触发姿势可在应用之间、在系统之间、在用户之间等变化。例如,网球游戏应用中相同的姿势可能不是保龄球游戏应用中相同的修改触发姿势。考虑包括用户运动在该用户身体前方的用户的右手,同时食指向上指并以圆圈运动移动的示例修改触发姿势。为该修改触发姿势设置的参数可用于标识用户的手在用户身体的前方,用户的食指以向上运动指向,并标识食指正在以圆圈运动移动。
某些姿势可被标识为进入修改模式的请求,其中如果应用当前正在执行,则修改模式中断应用的当前状态并进入修改模式。修改模式可使得应用暂停,其中应用可在用户离开修改模式时在暂停点继续。或者,修改模式可能不导致对应用的暂停,且应用可在用户作出修改的同时继续执行。
可将由相机26、28和设备20捕捉的骨架模型以及与其相关联的移动的形式的数据与姿势库192中的姿势过滤器191进行比较来标识用户(如骨架模型所表示的)何时执行了一个或多个姿势。由此,对诸如过滤器191等过滤器的输入可包括诸如关于用户的关节位置的关节数据,像在关节处相交的骨所形成的角度、来自场景的RGB色彩数据、以及用户的某一方面的变化速率等内容。如所提到的,可为姿势设置参数。来自过滤器191的输出可包括诸如正作出给定姿势的置信度、作出姿势运动的速度、以及姿势发生的时间等内容。
计算环境12可包括处理器195,处理器196可处理深度图像来确定场景中有什么目标,如房间中的用户18或物体。这可例如通过将深度图像中共享相似距离值的像素分组在一起来实现。该图像也可被解析以产生用户的骨架表示,其中标识例如关节和各关节之间的组织等特征。存在骨架映射技术,其使用深度相机来捕捉个人,并从中确定该用户骨架上的多个点,手、腕、肘、膝、鼻、踝、肩的关节,以及骨盆与脊椎相交之处。其他技术包括将图像转换为人的人体模型表示以及将图像转换为人的网格模型表示。
在实施例中,处理是在捕捉设备20本身上执行的,且深度和色彩(其中捕捉设备20包括3D相机26)值的原始图像数据经由链路36被发送到计算环境12。在另一实施例中,处理由耦合到相机402的处理器32来执行,然后经解析的图像数据被发送到计算环境12。在又一实施例中,原始图像数据和经解析的图像数据两者被发送到计算环境12。计算环境12可接收经解析的图像,但是它仍可接收原始数据来执行当前过程或应用。例如,如果场景的图像通过计算机网络发送到另一用户,则计算环境12可发送供另一计算环境处理的原始数据。
处理器可具有特征比较模块196。特征比较模块196可将目标的所检测到的特征与特征库197中的选项进行比较。特征库197可提供视觉表示特征选项,如颜色选项、面部特征选项、身体类型选项、大小选项等,并且选项可以对人类和非人类目标变化。库可以是存储视觉表示的特征的目录、数据库、存储器等。库可以是特征选项的有组织的或无组织的集合。系统或用户可以将特征添加到目录。例如,应用可具有一组预封装的特征选项,或者系统可具有默认数量的可用特征。附加特征选项可被添加到特征库197或在其中更新。例如,用户可在虚拟市场购买附加特征选项,用户可将特征选项赠予另一用户,或者系统可通过拍摄用户的所检测到的特征的快照来生成特征选项。
FCM 196可诸如从特征选项目录中作出最接近地类似于目标的所检测到的特征的特征选择。系统可自动生成具有所检测到的特征的虚拟物体。例如,考虑对物理空间中的红色的、两个座位的长椅的检测。系统可从特征库197中标识单独地或组合地类似于该长椅的所检测到的目标特征的特征。在示例实施例中,从特征库197中的选择可以就像选择具有物理目标的至少一个特征的虚拟目标那样简单。例如,特征库197可具有用于家具的众多特征选项,并且可包括对红色的、两个座位的长椅的虚拟图像或描绘。这些特征可以是预封装的,并随应用或随系统一起提供。在另一示例中,系统可拍摄该物理长椅的快照,并创建具有该物理长椅的形状的卡通或虚拟图像。由此,所选特征可以是来自系统先前拍摄并添加到特征库197的该物理长椅的快照。
系统可以基于所检测到的目标特征来调整所选特征的颜色、定位或比例。例如,系统可从特征库197中选择类似于所检测到的目标的特征的特征或组合若干特征。系统可将特征添加到所选特征或虚拟图像来更完全地类似于所检测到的目标。在所检测到的长椅的示例中,系统可执行在特征库197中的特征查找,并标识具有类似于物理长椅的特征的至少一个特征的长椅的虚拟框架。例如,系统可最初选择形状类似于所检测到的物理长椅的虚拟长椅。如果虚拟的两个座位的长椅是可用特征选项,则系统可选择该虚拟的两个座位的长椅。颜色可以是可由系统选择的特征选项。在该示例中,如果红色长椅明确不是特征库197中的选项,则系统可从特征库197中选择颜色并将其应用于所选的虚拟框架。系统可在特征库197中选择类似于物理长椅的所检测到的红色的现有颜色,或者系统可拍摄物理长椅的颜色的快照并将其作为特征选项添加到特征库。系统可将所选红色特征应用于虚拟长椅图像。
在另一示例中,系统可以组合来自特征库的特征以生成类似于所检测到的目标的可视物体。例如,系统可以通过从来自特征库197的长椅特征选项(诸如臂、腿、座位、坐垫、靠背、脊等)中进行选择来生成两个座位的长椅并使用所选择的特征来拼凑长椅。
在另一示例中,目标是人类用户,且该系统检测用户的特征,诸如眼睛颜色、大小和形状,头发颜色、类型和长度等。系统可将所检测到的特征与特征选项目录进行比较,并将所选特征应用于视觉表示。如上所述,系统可组合特征并更改这些特征。例如,特征可通过向目标应用颜色、定位或比例来更改。特征可通过从特征库197中选择诸如颜色等附加特征或通过使用来自目标的快照的图像数据来更改。例如,应用可在特征库197中提供一组通用的纯色裤子、T恤和鞋子类型。系统可从该通用服装特征中进行选择,并通过向服装应用颜色来反映系统检测到的目标的服装的颜色来更改所选的服装特征。
在另一示例中,系统可标识特征库197中类似于用户的特征的特征子集,并提供用户可从中进行选择的该子集。由此,提供给用户的用于某一特征的选项数量可以被智能地过滤以便使用户更容易定制视觉表示。
特征库可适用于应用或者可以是系统范围的。例如,游戏应用可以定义指示了适用于该游戏的各种性情的特征。特征选项可包括具体特征和通用特征。还注意到,对查找表或数据库的引用是示例性的,并且构想了对与此处公开的技术相关的特征选项的供应可以通过任何适合的方式来访问、存储、封装、提供、生成等。
计算环境12可使用姿势库192来解释骨架模型的移动并基于该移动来控制应用。计算环境12可对用户的表示进行建模和显示,例如采用诸如显示设备193之类的显示器上的化身或指针的形式。显示设备193可包括计算机监视器、电视机屏幕、或任何合适的显示设备。例如,相机控制的计算机系统可捕捉用户图像数据,并在电视机屏幕上显示映射到用户的姿势的用户反馈。用户反馈可被显示为屏幕上的化身,如图1A和1B中所示。化身的运动可直接通过将化身的移动映射到用户的移动来控制。用户的姿势可以被解释来控制应用的某些方面。
根据一示例实施例,目标可以是诸如站着或坐着等处于任何位置的人类目标、具有物体的人类目标、两个或更多人类目标、一个或多个人类目标的一个或多个附件等,目标可被扫描、跟踪、建模和/或评估来生成虚拟屏幕,将用户与一个或多个所存储的简档进行比较和/或在诸如计算环境12等计算环境中存储关于目标的简档信息198。简档信息198可以采用用户简档、个人简档、应用简档、系统简档的形式,或用于存储数据以供稍后访问的任何其他合适的方法。简档信息198可以经由应用来访问,或者可以是例如系统范围可用的。简档信息198可包括用于加载特定用户简档信息的查找表。虚拟屏幕可与可由以上关于图1A-1B描述的计算环境12执行的应用进行交互。
系统可通过基于存储在用户简档中的信息自动生成视觉表示来呈现诸如用户等目标的视觉表示。根据各示例实施例,查找表可包括用户专用简档信息。在一个实施例中,诸如计算环境12等计算环境可在查找表中包括关于一个或多个用户的所存储的简档数据198。所存储的简档数据198可特别地包括目标的所扫描的或所估计的身体大小、骨架模型、身体模型、语音样本或口令、目标的性别、目标年龄、先前的姿势、目标限制、以及目标对系统的标准使用,例如坐、惯用左手或惯用右手的趋势,或站在非常靠近捕捉设备之处的趋势。该信息可用于确定在捕捉场景中的目标与一个或多个用户简档198之间是否有匹配,在一个实施例中,该匹配可允许系统将虚拟屏幕自适应到用户,或根据简档198来自适应计算或游戏体验的其他元素。
先前为目标的视觉表示所选择的特征可被存储在简档中。例如,用户专用简档可存储所选并被应用来自动生成用户的视觉表示的特征。位置专用简档可存储所选并被应用来自动生成并显示类似于物理空间的虚拟场景的特征。例如,对应于诸如房间中的家具等物理空间中的物体的虚拟物体可通过从特征库197中选择选项来生成。可检测颜色,并且可从特征库197中选择可用颜色。在系统识别或初始化时,可加载位置专用简档,从而显示对应于该位置的家具和颜色。
一个或多个个人简档198可被存储在计算机环境12中,并在多个用户会话中使用,或者一个或多个个人简档可仅为单个会话而创建。用户可以有建立简档的选项,其中他们可向系统提供信息,诸如语音或身体扫描、年龄、个人偏好、惯用右手或左手、化身、姓名等。还可以为除步入捕捉空间以外不向系统提供任何信息的“访客”提供个人简档。可以为一个或多个访客建立临时的个人简档。在访客会话的结尾,可以存储或删除访客个人简档。
姿势库192、姿势识别引擎190、特征库197、特征比较器196和简档198可以用硬件、软件或两者的组合来实现。例如,姿势库192和姿势识别引擎190可被实现为在计算环境12的诸如处理器195等处理器上执行(或在图3的处理单元101或图4的处理单元259上)执行的软件。
要强调的是,以下描述的图3-4中描绘的框图是示例性的,且不旨在暗示一具体实现。由此,图1的处理器195或32、图3的处理单元101、和图4的处理单元259可被实现为单个处理器或多个处理器。多个处理器可以分布式或集中式地定位。例如,姿势库192可被实现为在捕捉设备的处理器32上执行的软件,或者它可被实现为在计算环境12中的处理器195上执行的软件。构想了适用于执行此处公开的技术的处理器的任意组合。多个处理器可无线地、经由硬连线、或以其组合来通信。
此外,如此处所使用的,计算环境12可以指的是单个计算设备或计算系统。计算环境可包括非计算组件。计算环境可包括显示设备,如图2所示的显示设备193。显示设备可以是与计算环境分开但与其耦合的实体,或者显示设备可以是例如进行处理和显示的计算设备。由此,计算系统、计算设备、计算环境、计算机、处理器或其他计算组件可被互换地使用。
姿势库和过滤器参数可由姿势工具为应用或应用的上下文来调节。上下文可以是文化上下文,并且可以是环境上下文。文化上下文指的是使用系统的用户的文化。不同的文化可使用相似的姿势来赋予显著不同的含义。例如,希望叫另一个用户“看”或“使用他的眼睛”的美国用户可将他的食指放在他头上靠近他的眼睛的远端处。然而,对意大利用户而言,该姿势可被解释为对黑手党的引用。
类似地,在单个应用的不同环境之中可能有不同的上下文。以涉及操作摩托车的第一用户射击游戏为例。当用户在走路时,将手指朝向地面握拳并向前且从身体向外伸出拳头可表示出拳姿势。当用户在驾驶上下文中时,相同的运动可表示“换挡”姿势。关于对视觉表示的修改,不同的姿势可依赖于环境而触发不同的修改。不同的修改触发姿势可用于进入相对于系统范围修改模式的应用专用修改模式。每个修改模式可以与对应于该修改模式的独立的姿势集包装在一起,作为修改触发姿势的结果而进入。例如,在保龄球游戏中,挥动手臂运动可以是被标识为挥动保龄球以便向下释放到虚拟保龄球道的姿势。然而,在另一个应用中,挥动手臂运动可以是被标识为请求延长屏幕上所显示的用户化身的手臂的姿势。可能还有一个或多个菜单环境,其中用户可保存他的游戏、在他的人物装备之间选择或执行类似的不包括直接玩游戏的动作。在该环境中,该游戏姿势可具有第三个含义,如选择某样东西或前进到另一屏幕。
姿势可被一起分组到可能由该风格中的应用使用的互补姿势风格包中。互补姿势-或者如通常一起使用的那些姿势中那样是互补的,或者如一个姿势的参数改变将改变另一姿势的参数中那样是互补的-被一起分组到风格包中。这些包可被提供给应用,应用可选择至少其中一个。应用可调节或修改姿势或姿势过滤器191的参数来最佳地适合应用的独特方面。当调节该参数时,也调节该姿势或第二姿势的第二互补参数(在相互依赖的意义上)使得这些参数保持互补。用于视频游戏的风格包可包括诸如第一用户射击、动作、驾驶和体育等风格。
图3示出可用于解释目标识别、分析和跟踪系统中的一个或多个姿势的计算环境的示例实施例。以下参考附图1-2所描述的诸如计算环境12的计算环境可以是多媒体控制台100,诸如游戏控制台。图3的计算环境100可以是诸如游戏控制台等多媒体控制台-2。如图3所示,多媒体控制台100具有含有一级高速缓存102、二级高速缓存104和闪存ROM(只读存储器)106的中央处理单元(CPU)101。一级高速缓存102和二级高速缓存104临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU 101可被设置成具有一个以上的内核,并且由此附加一级和二级高速缓存102和104。闪存ROM 106可存储在多媒体控制台100通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速和高分辨率图形处理的视频处理流水线。经由总线从图形处理单元108向视频编码器/视频编解码器114运送数据。视频处理流水线向A/V(音频/视频)端口140输出数据,用于传输至电视或其他显示器。存储器控制器110连接到GPU 108以方便处理器访问各种类型的存储器112,诸如但不局限于RAM(随机存取存储器)。
多媒体控制台100包括较佳地在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口控制器124、第一USB主控制器126、第二USB控制器128和前面板I/O子部件130。USB控制器126和128用作外围控制器142(1)-142(2)、无线适配器148、和外置存储器设备146(例如闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中任何一种。
提供系统存储器143来存储在引导过程期间加载的应用数据。提供媒体驱动器144,且其可包括DVD/CD驱动器、硬盘驱动器、或其他可移动媒体驱动器等。媒体驱动器144可以是对多媒体控制器100内置的或外置的。应用数据可经由介质驱动器144访问,以供多媒体控制台100执行、回放等。介质驱动器144经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器120。
系统管理控制器122提供与确保多媒体控制台100的可用性相关的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件130支持电源按钮150和弹出按钮152以及暴露在多媒体控制台100外表面上的任何LED(发光二极管)或其它指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。
CPU 101、GPU 108、存储器控制器110、以及多媒体控制台100内的各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台100通电时,应用数据可从系统存储器143加载到存储器112和/或高速缓存102、104中,并且可在CPU 101上执行。应用可呈现在导航到在多媒体控制台100上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,介质驱动器144中所包含的应用和/或其他媒体可从介质驱动器144启动或播放,以将附加功能提供给多媒体控制台100。
多媒体控制台100可通过将该系统简单地连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口124或无线适配器148可用的宽带连接集成的情况下,多媒体控制台100还可作为更大网络社区中的参与者来操作。
当多媒体控制台100通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源对于应用视角而言是不存在的。
具体而言,存储器保留优选地足够大,以包含启动内核、并发系统应用程序和驱动程序。CPU保留优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来显示由系统应用程序生成的轻量消息(例如,弹出窗口),以调度代码来将弹出窗口呈现为覆盖图。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率和引起TV重新同步。
在多媒体控制台100引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识作为系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 101上运行,以便为应用提供一致的系统资源视图。调度是为了使在控制台上运行的游戏应用所引起的高速缓存分裂最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所述)在系统应用活动时控制游戏应用的音频水平(例如,静音、衰减)。
输入设备(例如,控制器142(1)和142(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器较佳地控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。相机26、28和捕捉设备20可为控制台100定义附加输入设备。
图4示出了可用于在目标识别、分析和跟踪系统中解释一个或多个姿势的计算环境220的另一示例实施例,该计算环境可以是图1A-2所示的计算环境12。计算系统环境220只是合适的计算环境的一个示例,并且不旨在对当前公开的主题的使用范围或功能提出任何限制。也不应该将计算环境220解释为对示例性操作环境220中示出的任一组件或其组合有任何依赖性或要求。在某些实施例中,所描绘的各种计算元素可包括被配置成实例化本发明的各具体方面的电路。例如,本公开中使用的术语电路可包括被配置成通过固件或开关来执行功能的专用硬件组件。其他示例中,术语电路可包括由实施可用于执行功能的逻辑的软件指令配置的通用处理单元、存储器等。在电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。由此,对于硬件实现还是软件实现的选择是设计选择并留给实现者。
在图4中,计算环境220包括计算机241,计算机241通常包括各种计算机可读介质。计算机可读介质可以是能由计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)223和随机存取存储器(RAM)260。包含诸如在启动期间帮助在计算机241内的元件之间传输信息的基本例程的基本输入/输出系统224(BIOS)通常储存储在ROM 223中。RAM 260通常包含处理单元259可立即访问和/或当前正在操作的数据和/或程序模块。作为示例而非限制,图4示出了操作系统225、应用程序226、其他程序模块227和程序数据228。
计算机241也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图4示出了从不可移动、非易失性磁介质中读取或向其写入的硬盘驱动器238,从可移动、非易失性磁盘254中读取或向其写入的磁盘驱动器239,以及从诸如CD ROM或其他光学介质等可移动、非易失性光盘253中读取或向其写入的光盘驱动器240。可在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器238通常由例如接口234等不可移动存储器接口连接至系统总线221,而磁盘驱动器239和光盘驱动器240通常由例如接口235等可移动存储器接口连接至系统总线221。
以上讨论并在图4中示出的驱动器及其相关联的计算机存储介质为计算机241提供了对计算机可读指令、数据结构、程序模块和其他数据的存储。在图4中,例如,硬盘驱动器238被示为存储操作系统258、应用程序257、其他程序模块256和程序数据255。注意,这些组件可与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可与它们不同。在此操作系统258、应用程序257、其他程序模块256以及程序数据255被给予了不同的编号,以说明至少它们是不同的副本。用户可以通过输入设备,例如键盘251和定点设备252——通常是指鼠标、跟踪球或触摸垫——向计算机241输入命令和信息。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其他输入设备通常通过耦合到系统总线的用户输入接口236连接到处理单元259,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其他接口和总线结构来连接。相机26、28和捕捉设备20可为控制台100定义附加输入设备。监视器242或其他类型的显示设备也通过诸如视频接口232之类的接口连接至系统总线221。除监视器之外,计算机还可以包括可以通过输出外围接口233连接的诸如扬声器244和打印机243之类的其他外围输出设备。
计算机241可使用到一个或多个远程计算机(诸如,远程计算机246)的逻辑连接而在联网环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见网络节点,并且通常包括许多或所有以上关于计算机241所描述的元件,但在图4中仅示出了存储器存储设备247。图2中所描绘的逻辑连接包括局域网(LAN)245和广域网(WAN)249,但还可包括其他网络。此类联网环境在办公室、企业级计算机网络、内联网和因特网中是常见的。
当用于LAN网络环境中时,计算机241通过网络接口或适配器245连接到LAN 237。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于通过诸如因特网等WAN 249建立通信的其他手段。调制解调器250可以是内置的或外置的,可经由用户输入接口236或其他适当的机制连接到系统总线221。在联网环境中,相对于计算机241所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图4示出了远程应用程序248驻留在存储器设备247上。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
计算机可读存储介质可以包括用于修改视觉表示的计算机可读指令。该指令可包括用于呈现视觉表示、接收场景的数据、以及基于用户的修改姿势来修改视觉表示的指令,其中该数据包括表示物理空间中用户的修改姿势的数据,该修改姿势是映射到控件的姿势,该控件用于修改视觉表示的特性。
图5描绘了可从捕捉设备20所捕捉的图像数据生成的用户的示例骨架映射。在该实施例中,标识出各个关节和骨骼:每一手502、每一前臂504、每一肘506、每一二头肌508、每一肩510、每一髋512、每一大腿514、每一膝516、每一小腿518、每一足520、头522、躯干524、脊椎的顶部526和底部528,以及腰530。在跟踪更多点的情况下,可标识出附加的特征,比如手指或脚趾的骨骼和关节,或面部的各个特征,如鼻和眼。
用户可通过移动他的身体创建姿势。姿势包括用户的运动或姿态,其可被捕捉为图像数据并解析其意义。姿势可以是动态的,包括运动,如模仿投球。姿势可以是静态姿态,如在一个人的躯干524前面交叉握住他的前臂504。姿势也可结合道具,如通过挥动仿制的剑。姿势可包括多于一个身体部位,如拍双手502,或是较微小的运动,如撅起一个人的嘴唇。
用户的姿势可用作一般计算上下文中的输入。例如,手502或其他身体部位的各种运动可对应于常见的系统级任务,如在分层列表中向上或向下导航、打开文件、关闭文件和保存文件。例如,用户能以手指向上指且掌心面向捕捉设备20来使他的手保持不动。他然后可以将手指朝向手掌收拢来形成拳头,并且这可以是指示基于窗口的用户界面计算环境中的焦点窗口应被关闭的姿势。姿势也可在视频游戏专用上下文中取决于游戏来使用。例如,对于驾驶游戏,手502和脚520的各种运动可对应于在一方向上操控车辆、换挡、加速和刹车。由此,姿势可指示映射到所显示的用户表示的、在诸如视频游戏、文本编辑器、文字处理、数据管理等各种各样应用中的各种各样的运动。
用户可通过自己在原地行走或奔跑来生成对应于行走或奔跑的姿势。例如,用户可另选地提起并放下每一腿512-520来在不移动的情况下模拟行走。系统可通过分析每一髋512和每一大腿514来解析该姿势。当一个髋部-大腿角(如相对于垂直线测量的,其中站立的腿具有0°的髋部-大腿角,而向前水平伸展的腿具有90°的髋部-大腿角)超过相对于另一大腿的特定阈值时,可识别一步。行走或奔跑可在交替腿的某一数量的连续步之后被识别。两个最近的步之间的时间可被认为是一周期。在不满足阈值角度达某一数量的周期之后,系统可确定行走或奔跑姿势已停止。
给定“行走或奔跑”姿势,应用可为与该姿势相关联的参数设定值。这些参数可包括上述阈值角度、发起行走或奔跑姿势所需的步数、结束姿势的没有发生步的周期数、以及确定姿势是行走还是奔跑的阈值周期。快周期可对应于奔跑,因为用户将快速地移动他的腿,而较慢的周期可对应于行走。
姿势最初可以与一组默认参数相关联,应用可用其自己的参数来覆盖该组默认参数。在这一场景中,不迫使应用提供参数,而是应用可改为使用一组允许在没有应用定义的参数的情况下识别姿势的默认参数。与姿势有关的信息可被存储用于预录制的动画的目的。
存在可以与姿势相关联的各种输出。可以有关于姿势是否正在发生的基线“是或否”。还可以有置信度水平,其对应于用户跟踪的移动对应于姿势的可能性。这可以是范围为0和1之间(包括端点)的浮点数的线性标度。在接收该姿势信息的应用不能接受假肯定作为输入的应用中,它可仅使用那些具有高置信度水平,如至少0.95的已识别的姿势。在应用必须识别姿势的每一实例的情况下,即使以假肯定为代价,它可使用至少具有低得多的置信度水平的姿势,如仅仅大于0.2的那些姿势。姿势可具有在两个最近步之间的时间的输出,并且在仅注册了第一步的情况下,这可被设为保留值,如-1(因为任何两步之间的时间必须为正)。姿势也可具有关于在最近一步期间达到的最高大腿角的输出。
另一示例性姿势是“脚跟提起跳”。在该姿势中,用户可通过将他的脚跟提离地面,但保持他的脚趾着地来创建该姿势。另选地,用户可跳向空中,其中他的脚520完全离开地面。该系统可通过分析肩510、髋512和膝516的角度关系来解析该姿势的骨架,以查看它们是否是等于直立的对齐位置。然后,可监视这些点和较高526和较低528脊椎点来发现任何向上加速。足够的加速组合可触发跳跃姿势。加速度与某一姿势的足够的组合可满足转变点的参数。
给定该“脚跟提起跳”姿势,应用可为与该姿势相关联的参数设定值。参数可包括上述加速阈值,其确定用户的肩510、髋512和膝516的某种组合必须向上移动多快来触发该姿势;以及肩510、髋512和膝516之间仍可触发跳跃的最大对齐角。输出可包括置信度水平,以及用户在跳跃时的身体角度。
基于将接收姿势的应用的细节来为姿势设定参数对于准确地标识姿势而言是重要的。正确地标识姿势以及用户的意图极大地有助于创建积极的用户体验。
应用可以为与各种转变点相关联的参数设置值来标识使用预录制的动画的点。转变点可由各种参数来定义,如某一姿势的标识、速度、目标或物体的角度、或其任何组合。如果转变点至少部分地由某一姿势的标识来定义,则正确地标识姿势有助于提高转变点的参数已被满足的置信水平。
对于姿势的另一参数可以是移动的距离。在用户的姿势控制虚拟环境中的化身的动作的情况下,该化身可以是手臂离球的长度。如果用户希望与该球交互并抓住它,则这可要求用户伸展他的手臂502-510到全长同时作出抓握姿势。在这一情形中,用户仅部分地伸展他的手臂502-510的类似的抓握姿势可能无法达到与球交互的结果。类似地,转变点的参数可以是对抓握姿势的标识,其中如果用户仅部分地伸展他的手臂502-510,从而没有实现与球交互的结果,则用户的姿势将不满足转变点的参数。
姿势或其一部分可将它必须在其中发生的空间体作为参数。在姿势包括身体移动的情况下,该空间体通常可相对于身体来表达。例如,对于惯用右手的用户的美式足球投掷姿势可仅在不低于右肩510a、且与投掷手臂502a-310a在头522的相同侧的空间体中识别。可能不必要定义空间体的所有边界,如对于该投掷姿势,其中从身体向外的边界留着不被定义,并且该空间体无限地向外延伸,或者延伸到正被监视的场景的边缘。
图6A和6B描绘了可包括捕捉设备608、计算设备610和显示设备612的系统600。例如,捕捉设备608、计算设备610和显示设备612的每个可包括执行所需功能的任何合适的设备,诸如参考图1-5所描述的设备。构想了单个设备可以执行系统600中的全部功能,或者合适的设备的任何组合可以执行所需的功能。例如,计算设备610可以提供参考图2所示的计算环境12或图3中的计算机所描述的功能。如图2所示,计算环境12可包括显示设备和处理器。计算设备610还可包括其自身的相机组件,或者可以耦合到具有相机组件的设备,诸如捕捉设备608。
在这些示例中,深度相机608捕捉用户602所存在于的物理空间601中的场景。深度相机608处理深度信息,和/或向诸如计算机610等计算机提供深度信息。深度信息可被解释以便显示用户602的视觉表示。例如,深度相机608或如所示的其耦合到的计算设备610可向显示器612输出。所捕捉并显示的图像数据帧的速率可确定视觉表示的所显示的运动的连续性水平。虽然可以捕捉并显示附加图像数据帧,但图6A和6B中描绘的帧是出于示例性的目的来选择的。还注意到,视觉表示可以是物理空间601中另一个目标的视觉表示,诸如另一个用户或非人类物体,或者视觉表示可以是部分的或完整的虚拟物体。
技术在此公开了系统自动生成目标的视觉表示的能力,该视觉表示具有与目标的所检测到的特征相类似的特征。或者,系统可提供用户可从中进行选择的可选择特征子集。系统可基于目标的所检测到的特征来选择特征,并将该选择应用于目标的视觉表示。或者,系统可以作出选择,该选择缩减了用户从中选择的选项的数量。如果系统可以代表用户作出决定,则用户可以无需作出很多决定或不必从很多选项中进行选择。由此,所公开的技术可从用户移除大量的工作。例如,系统可代表用户作出选择,并将它们应用于用户的视觉表示。
如图6A所示,系统呈现与物理空间601中的用户602相对应的视觉表示603。在该示例中,系统通过检测用户602的特征,将所检测到的特征与特征选项库进行比较,选择类似于用户602的所检测到的特征的特征选项,以及自动地将其应用于用户的视觉表示603来自动生成视觉表示603。视觉表示的自动生成从用户602移除了工作,并为用户602创建如同他们不费力地被传送到游戏或应用体验中那样的不可思议的体验。
还公开了用于实时地显示视觉表示并且实时地更新被应用到视觉表示的特征选择的技术。系统可以随着时间跟踪物理空间中的用户,并同样实时地应用修改或更新被应用于视觉表示的特征。例如,系统可以跟踪用户并标识用户已经脱下了运动衫。系统可以标识用户的身体移动,并识别用户的服装类型和颜色的变化。系统可以使用用户的所标识的特性中的任一个来帮助特征选择过程和/或更新从特征库中所选并应用于视觉表示的特征。由此,同样,系统可以不费力地将用户传送到应用体验中,并且更新视觉表示以便在用户的所检测到的特征改变时与其实时地对应。
在示例实施例中,为了检测用户的特征并使用所检测到的特征来选择用于视觉表示的特征的选项,系统可以生成用户的模型。为了生成模型,捕捉设备可以捕捉场景的图像并扫描场景中的目标或物体。根据一个实施例,图像数据可包括来自深度相机608和/或RGB相机的深度图像或图像,或者任何其他检测器上的图像。系统600可从场景捕捉深度信息、图像信息、RGB数据等。为了确定场景中的目标或物体是否对应于人类目标,可对每个目标进行泛色填充并将其与人体模型的模式作比较。可扫描与人类模式(pattern)相匹配的每个目标或物体以生成模型,诸如骨架模型、泛色模型、网格人类模型、或与其相关联的模型。随后可将该骨架模型提供给计算环境以便跟踪该骨架模型并呈现与该骨架模型相关联的化身。
图像数据和/或深度信息可用于标识目标特征。关于人类目标的这些目标特征可包括,例如身高和/或臂长,并且可以基于例如身体扫描、骨架模型、用户602在像素区域上的延伸范围或任何其他合适的过程或数据来获得。使用例如与人类目标相关联的多个观察到的像素中的深度值和人类目标的一个或多个方面的延伸范围,如身高、头宽、或肩宽等,可确定人类目标的大小。相机608可以处理图像数据,并将其用于确定用户的各个部位的形状、颜色和大小,包括用户的头发、服装等。所检测到的特征可以与用于应用于视觉表示的特征选项的目录进行比较,如特征库197中的视觉表示特征选项。
在另一示例实施例中,为了标识用户的特性,并使用所标识的特性来选择用于视觉表示的特征,系统可使用目标数字化技术,诸如参考图2B所描述的那些技术。该技术包括从得自诸如深度传感设备等捕捉设备的未经组织的点云中标识表面、纹理和物体尺寸。采用目标数字化可包括表面提取、标识点云中的点、标记表面法线、计算物体属性、随时间跟踪物体属性中的变化、以及随着捕捉额外的帧而增加物体边界和身份中的置信度。例如,可以接收或观察与物理空间中的物体相关的数据点的点云。然后可分析该点云来确定该点云是否包括物体。点云的集合可被标识为物体并融合在一起来表示单个物体。点云的表面可从所标识的物体中提取。
可使用提供扫描已知/未知物体、扫描人类、以及扫描场景中的背景方面(例如,地板、墙)的能力的任何已知技术或此处公开的技术来检测物理空间中的目标的特征。可使用每一对象的所扫描的数据,包括深度和RGB数据的组合,来创建该物体的三维模型。该RGB数据被应用于该模型的对应区域。各帧之间的时间跟踪可以提高置信度并实时地自适应物体数据。由此,可使用物体属性以及随时间对物体属性中的变化的跟踪来可靠地跟踪其位置和定向实时地在各帧之间变化的物体。捕捉设备以交互式速率来捕捉数据,从而提高了数据的保真度,并允许所公开的技术处理原始深度数据,数字化场景中的物体,提取物体的表面和纹理,以及实时地执行这些技术中的任一种,以使得显示画面可以提供该场景的实时描绘。
可使用相机识别技术来确定特征库197中的哪些元素最接近地类似于用户602的特性。系统可使用脸部识别和/或身体识别技术来检测用户602的特征。例如,系统可以基于从图像数据、点云数据、深度数据等中对模型的生成来检测用户的特征。可以进行脸部扫描,并且系统可以处理关于用户的脸部特征和RGB数据所捕捉的数据。在一示例实施例中,基于五个关键数据点(即,眼、嘴角点、和鼻)的位置,系统提出关于玩家的脸部建议。该脸部建议可包括至少一个所选的脸部特征、完整的脸部特征集,或者它可以是来自特征库197的关于脸部特征的经缩减的选项子集。系统可以执行身体识别技术,从而从身体扫描中标识各种身体部位/类型。例如,用户的身体扫描可提供关于用户的身高的建议。对于这些扫描中的任一个,可提示用户站在物理空间中提供最佳扫描结果的位置。
可从所捕捉的数据中检测其他特征。例如,系统可以通过分析用户和/或用户的模型来检测颜色数据和服装数据。该系统可基于这些用户特性的标识来为用户推荐服装。服装推荐可基于用户的衣柜中的服装,或来自可供在虚拟世界市场中购买的服装。例如,用户可能具有个人衣柜,该衣柜具有特定虚拟表示所拥有且关联的商品的储存库。个人衣柜可包括允许用户查看并修改应用于用户的虚拟表示的服装和其他商品的界面。例如,可修改饰品、鞋子等。用户的性别可基于所捕捉的数据或作为访问与用户相关联的简档的结果来确定。
系统可以检测用户的特征中的至少一个,并从特征库197中选择代表所检测到的特征的特征。系统可以将所选择的特征自动应用于用户的视觉表示603。由此,用户的视觉表示603具有如系统所选择的用户的相像性。例如,特征提取技术可以映射用户的面部特征,并且从特征库选择的特征选项可用于创建用户的卡通表示。视觉表示603是使用从特征库选择的类似于用户的所检测到的特征的特征来自动生成的,但在该示例中,视觉表示是用户602的卡通版本。视觉表示具有用户602的头发、眼睛、鼻子、服装(例如,牛仔裤、夹克、鞋)、身体位置和类型等的卡通版本。系统可以将视觉表示603呈现给用户602,该视觉表示603是通过应用特征并呈现自动生成的视觉表示603来创建的。用户602可以修改自动生成的视觉表示603,或者继续作出应用到视觉表示的选择。
在物理空间601中检测到的用户的视觉表示还可以采取替换的形式诸如动画、人物、化身等。图6B中示出的示例视觉表示是猴子角色605的视觉表示。用户602可以从系统或应用所提供的多个库存模型中选择以供对用户的屏幕上的表示。例如,在棒球游戏应用中,用于可视地表示用户602的可用的库存模型可包括将知名棒球运动员表示为一块太妃糖,或者将大象表示为想象的角色或符号,诸如光标或手部符号。在图6B所示的示例中,猴子角色605可以是系统或应用所提供的库存模型表示。库存模型可以专用于应用,诸如与程序包装在一起,或者库存模型可以是跨应用可用或系统范围内可用的。
视觉表示可以是用户602的特征与动画或库存模型的组合。例如,猴子表示605可以从猴子的库存模型来初始化,但是猴子的各个特征可以根据系统600从特征选项目录所选择的(诸如特征库197中的那些)类似于该用户的特征来修改。系统可以用库存模型来初始化视觉表示,但随后继续检测用户的特征,将所检测到的特征与特征库197进行比较,选择类似于用户的特征,并且将所选择的特征应用于猴子角色605。由此,猴子605可以具有猴子的身体,但具有用户的面部特征,诸如眉毛、眼睛和鼻子。用户的面部表情、身体位置、所说的单词、或任何其他可检测的特性可被应用于虚拟猴子605,并且如果合适的话可被修改。例如,用户正在物理空间中皱眉。系统检测该面部表情,从特征库中选择最接近地类似于用户的皱眉的皱眉,并且将所选择的皱眉应用于猴子,使得虚拟猴子也在皱眉。此外,猴子坐在与用户类似的位置,除非被修改以对应于该位置中的猴子的身体类型和大小。系统600可以将所检测到的目标身体类型特征与特征库197进行比较,该特征库197存储身体类型的可能的视觉表示特征的集合。系统可以从特征库的猴子特征子集中选择特征。例如,应用可以提供特征库中的猴子专用的特征选项以便与和应用预封装在一起的库存模型猴子角色选项相对应。系统或用户可从最接近地类似于用户的所检测到的特征的猴子专用特征的选项中进行选择。
期望的是系统提供来自特征库197的特征子集。例如,特征库197中一个以上选项可以类似于用户的所检测到的特征。系统可提供用户从中进行选择的小的特征子集。代替用户手动地从数十、数百、甚至数千特征选项中选择,系统可以提供经缩减的选项子集。例如,图7描绘了图6A和6B中所示的系统600。系统在显示器612上显示用于视觉表示的头发的示例特征选项集,选项1-10。在图6A中,系统自动地选择被应用于用户的视觉表示的头发选项#5。然而,在图7所示的示例中,系统已经选择了最接近地类似于用户的所检测到的头发特征的头发选项的子集702。由此,用户可从被应用于用户的视觉表示的选项子集702中选择。
在该示例中,头发的特征选项的子集702可包括最接近地类似于从身体和面部扫描所检测到的用户特征的选择,包括用户的头发形状、颜色和类型。代替从中选择的大量的头发选项,系统可以提供最接近地类似于用户的头发形状、颜色和类型的用于头发选项的短的选项列表。系统可以自动生成视觉表示,但也可被设计为提供用户可从中选择的一个以上选项,使得用户可在最能取悦用户的特征选项之间作出最终的详细选择。选项子集减少了用户评估全部选项的需求。
用户或应用可以具有用于在将对应于用户特性的特定特征应用于视觉表示之前对其进行修改的设置。例如,系统可以基于所捕捉的数据(例如,身体类型/大小)来检测用户的特定体重范围。然而,用户可以设置或者应用本身可以设置默认值,使得在特定体重范围而非实际的用户体重范围以内显示用户。由此,可为用户显示更令人愉悦的视觉表示,而不是例如可能超重的视觉表示。在另一个示例中,可以检测用户的面部特征,并且应用于用户的视觉表示的特征可以对应于所检测到的特征,使得视觉表示的面部特征在大小、比例、头上的空间安排等方面类似于用户的特征。用户可以通过改变特征来修改面部识别技术的真实效果。例如,用户可以通过改变计算尺来修改特征。用户可以改变计算尺以修改体重以便应用于视觉表示,或者改变将被应用于视觉表示的鼻子的大小。由此,可以应用系统所选择的某些特征,可以修改并随后应用其他特征。
出于显示目的,可以修改系统所检测到的特定目标特性。例如,目标特性可被修改为对应于视觉表示的形式、应用、应用的状态等。例如,特定的特性可能不直接映射到用户的视觉表示,其中该视觉表示是想象的角色。诸如化身603或诸如猴子605的用户的角色表示等用户的任何视觉表示可被赋予例如类似于用户602的但为特定角色修改过的身体比例。例如,猴子表示605可被赋予类似于用户602的身高,但猴子的手臂可能比用户的手臂成比例地更长。猴子605的手臂的移动可以对应于用户手臂的移动,如系统所标识的,但是系统可以修改猴子手臂的动画以反应猴子手臂移动的方式。
系统可以使用诸如扫描数据、图像数据或深度信息等所捕捉的数据来标识其他目标特性。目标特性可包括目标的任何其他特征,诸如:眼睛大小、类型和颜色,头发长度、类型和颜色,肤色,服装和服装颜色。例如,可以基于对应的RGB图像来标识颜色。系统还可将这些可检测的特征映射到视觉表示。例如,系统可以检测到用户佩戴眼镜以及穿一件红色衬衫,系统可以将眼镜和红色衬衫应用于在该示例中是用户的视觉表示的虚拟猴子605。
深度信息和目标特性还可与附加信息进行组合,该附加信息包括例如可与特定用户602相关联的信息,诸如具体的姿势、语音识别信息等。该模型随后可被提供给计算设备610,使得计算设备610可跟踪该模型,呈现与该模型相关联的视觉表示,和/或基于例如该模型来确定在计算设备610上执行的应用中执行哪些控件。
图8示出了向用户提供特征选择的示例方法。特征选择的提供可以通过显示视觉表示来提供,其中该视觉表示具有所应用的特征或用户可从中进行选择的具有经缩减的选项子集的特征库的子集。例如,在802,系统从包括诸如用户或非人类物体等目标的物理空间接收数据。
如上所述,捕捉设备可捕捉场景的数据,诸如场景的深度图像,并扫描场景中的目标。捕捉设备可以确定场景中的一个或多个目标是否对应于诸如用户等人类目标。例如,为了确定场景中的目标或物体是否对应于人类目标,可对每个目标进行泛色填充并将其与人体模型的图案作比较。然后可扫描匹配人体模型的每个目标或物体来生成与其相关联的骨架模型。例如,可扫描被标识为人类的目标来生成与其相关联的骨架模型。然后可将该骨架模型提供给计算环境来跟踪该骨架模型并呈现与该骨架模型相关联的视觉表示。在804,系统可通过使用任何合适的技术,如身体扫描、点云模型、骨架模型、泛色填充技术等,来转换所捕捉的数据,以便标识物理空间中的目标的特征。
在806,系统可检测目标的特性并将其与诸如特征库中的特征选项等特征选项进行比较。特征选项可以是用于目标的各种特征的选项的集合。例如,用于用户的特征选项可包括眉毛选项、头发选项、鼻子选项等。用于房间中的家具的特征选项可包括大小选项、形状选项、硬件选项等。
在一示例实施例中,系统可以检测可供应用于类似于用户的所检测到的特征的视觉表示的若干特征。由此,在806,系统可以检测用户的特征并将所检测到的特征与应用于用户的视觉表示的特征库197进行比较,并且在810,系统可以基于所检测到的特征来选择特征选项的子集。系统可以通过比较特征库197中的特征与用户的所检测到的特性的相似度来选择该子集作为那些特征。有时,特征将非常相似,但是系统可能仍然在810向用户提供从中进行选择的选项子集。以此方式,用户可从该子集中选择至少与用户的对应特性相似的特征,但是可例如从该子集中选择更令人愉悦的特征。系统可在812接收用户从子集选项中进行的选择。由此,用户不必过滤具体特征的整个选项库来寻找与用户相似的特征。系统可以过滤选项库并向用户提供从中进行选择的特征子集。
系统可以在814自动生成用户的视觉表示。由此,在将目标的所检测到的特征与特征库中的选项进行比较之后,系统可以通过自动选择要应用于视觉表示的特征来自动生成目标的视觉表示。当系统自动呈现对应于用户的视觉表示,自动从特征库中选择了类似于目标的所检测到的特征的特征时,目标被不费力地传送到系统或软件体验中。
该视觉表示可具有自动选择的特征和用户基于系统所提供的选项子集选择的特征的组合。由此,该视觉表示可被部分地生成且部分地由用户来定制。
在816,可将系统和/或用户作出的选择应用于目标的视觉表示。系统可以向用户呈现该视觉表示。在818,系统可以继续监视物理空间中的目标,从而随时间跟踪目标的可检测特征。对目标的视觉表示的修改可以实时地作出来反映对目标的所检测到的特征的任何改变。例如,如果目标是用户且该用户在物理空间中脱下了运动衫,则系统可以检测到新的衬衫样式和/或颜色,并从特征库中自动选择接近地类似于用户的衬衫的选项。
所选选项可实时地应用于用户的视觉表示。由此,前述步骤中的处理可以实时地执行,使得显示画面实时地对应于物理空间。以此方式,物理空间中的物体、用户或运动可被转换以供实时显示,使得用户可以实时地与正在执行的应用进行交互。
在822,用户的所检测到的特征、系统所选择的特征、以及用户所选择的任何特征可成为简档的一部分。简档可以例如专用于某一物理空间或用户。包括用户的特征在内的化身数据可以成为用户的简档的一部分。可以在用户进入捕捉场景时访问简档。如果基于口令、用户的选择、身体大小、语音识别等,简档匹配用户,则该简档可用于确定用户的视觉表示。可监视用户的历史数据,从而将信息存储到用户的简档。例如,系统可以检测特定于用户的特征,如用户的面部特征、身体类型等。系统可以选择类似于所检测的特征的特征以便应用于目标的视觉表示并存储在目标简档中。
图9描绘了来自图6的系统600的示例,该示例可以处理为物理空间601中的目标接收的信息,并且使用目标数字化技术来标识目标。所捕捉的目标可被映射到虚拟环境中那些目标的视觉表示。在该示例中,物理场景包括图1A所描绘的物理空间中示出的球102、箱子104、遮光帘106、靠墙扶手108、墙#1110、墙#2112、以及地板115。场景中还示出了用户602。在示例实施例中,系统10可以识别、分析和/或跟踪这些物体102、104、106、108、110、112和115中的任一个以及其他目标,如人类目标,诸如用户602。系统10可在物理空间中收集与物体102、104、106、108、110、112和114中每个和/或用户602的姿势相关的信息。诸如用户602的物理空间中的用户也可以进入物理空间。
目标可以是物理空间601中的任何物体或用户。例如,捕捉设备608可以扫描物理空间601中的人类602或非人类物体,诸如球607、纸板箱609、或狗605。在该示例中,系统600可以通过使用捕捉设备608来扫描物理空间601以便捕捉目标。例如,深度相机608可以接收原始深度数据。系统600可以处理原始深度数据,将深度数据解释为点云数据(point cloud data),将点云数据转换为表面法线。例如,深度缓冲区可被捕捉并转换为已排序的点云。
深度缓冲区可以是记录被呈现的每个像素的深度的缓冲区。深度缓冲区可以在附加像素被呈现时保持对其的记录,并确定所呈现的不同像素的深度之间的关系。例如,深度缓冲区可以执行隐藏表面移除,并且将要被呈现的每个像素与已经位于帧缓冲区中该位置的像素进行比较。也被称为z缓冲区的深度缓冲区可包括帧缓冲区,该帧缓冲区存储对从捕捉设备到所捕捉的图像中每个可视点的距离的测量。
基于所标识的点云和表面法线,系统600可以标记在场景中被解析的物体,清除噪声,并为每个物体计算定向。可在物体周围形成边界框。随后可逐帧地跟踪该物体以供纹理提取。
根据一个实施例,图像数据可包括深度图像或来自深度相机和/或RGB相机的图像,或者任何其他检测器上的图像。例如,相机608可处理图像数据,并使用它来确定目标的形状、颜色和大小。在该示例中,物理空间601中的目标602、102、104、106、108、110、112和114被深度相机608捕捉,该深度相机608处理深度信息和/或将深度信息提供给计算机,诸如计算机610。
深度信息可被解释以便在显示器612上显示视觉表示。系统可使用信息从特征库197选择选项以生成与物理空间中的目标相对应的虚拟物体。可扫描与人类样式(pattern)相匹配的每个目标或物体以生成与其相关联的模型,诸如骨架模型、网格人类模型等。可以扫描与已知物体库相匹配的每个目标或物体以生成可用于该特定物体的模型。还可以扫描未知物体以生成模型,该模型对应于点云数据、RGB数据、表面法线、定向、边界框、以及对与该未知物体相对应的原始深度数据的任何其他处理。
由于目标可以在物理空间中移动,因此所捕捉并显示的图像数据帧的速率确定对视觉表示的显示的连续性水平。此外,逐帧图像的数量可以随时间提高点云数据被解析为单独标记的物体的方式的置信度。物体的移动可以给出关于表面法线和定向的进一步的深度信息。系统600还可以能够将噪声与所需点数据区分开。系统600还可通过评估用户在单个捕捉数据帧中或在一系列帧中的位置来从用户602的运动中标识姿势。
系统600可在物理空间601中跟踪目标602、102、104、106、108、110、112和114中的任一个,使得显示器612上的视觉表示映射到目标602、102、104、106、108、110、112和114以及物理空间601中所捕捉的那些目标中任一个的运动。物理空间中的物体可以具有捕捉设备可捕捉并扫描以与诸如图2所示的特征库197等特征库中的特征选项进行比较的特性。系统可从特征库中选择特征,该特征最接近地类似于目标的所检测到的特征。
此处公开了用于与目标数字化的实现有关的计算机视觉的技术。这些技术可用于使系统能够将高保真地捕捉的特征与类似于目标特征的来自特征库的最佳选择特征进行比较。计算机视觉是通过根据诸如原始深度或图像数据等所捕捉的数据在物理空间中创建物体模型来理解场景内容的概念。例如,技术可包括表面提取,基于邻近度解释点云中的点以恢复表面法线,计算物体属性,随时间跟踪该物体属性,随时间提高物体识别和形状中的置信度,并扫描人类或已知/未知物体。
捕捉设备可以扫描物理空间,并且接收关于物理空间601中各个物体的范围数据。扫描可包括对物体表面的扫描、或对整个固体的扫描。通过对原始深度数据采用二维深度缓冲区的形式,任何适合的计算设备可以解释物体表面上的大量的点并输出点云。点云可以是在三维坐标系统中定义的数据点集,诸如由x、y和z坐标定义的数据点。点云数据可以表示物理空间中已被扫描过的物体的可视表面。由此,物体可以通过将场景中的物体表示为离散点集来数字化。点云数据可在数据文件中被保存为二维数据集。
可以使用诸如深度相机或深度传感设备等捕捉设备来实时地捕捉范围数据。例如,可以使用深度缓冲区形式的深度传感相机以至少20赫兹的频率捕捉数据帧。数据可被解释为结构化的样本点云,其中每个点可包括相关联的目标的特性,诸如位置、定向、表面法线、颜色或纹理属性。点云数据可被存储在二维数据集中。由于捕捉设备的光学属性是已知的,因此范围数据可被投影到可由此被存储在正则化数据结构中的完全三维的点云。三维点云可以指示物体表面的拓扑结构。例如,可以从云中的邻居点确定表面的邻近点之间的关系。可将点云数据转换为表面,并且可以通过评估点云数据表面上的表面法线来提取点云数据所表示的物体表面。正则化数据结构可以类似于二维深度缓冲区。
点云可包括与物理空间中各个物体相关的多个数据点。捕捉设备可以接收或观察点云数据,诸如此处所描述的。随后可分析该点云以确定该点云是否包括一个物体或一组物体。如果数据包括一个物体,则可以生成该物体的模型。物体识别中置信度的提高可在捕捉帧时发生。可以生成与特定物体相关联的模型的反馈并将其实时地提供给用户。此外,响应于物理空间中物体的任何移动,可以跟踪该物体的模型,使得该模型可被调整为模仿该物体的移动。
所有这些可以以用于处理以及实时显示结果的速率来完成。实时显示指的是姿势的视觉表示的显示或视觉帮助的显示,其中该显示与该姿势在物理空间中的执行同时或几乎同时显示。例如,系统可以提供对用户和该用户环境进行回应的显示的显示更新速率可以是20Hz的速率或更高,其中无关紧要的处理延迟造成最小的显示延迟或对用户而言根本不可见。由此,实时包括与被自动数据处理所需的时间延迟了的数据的及时性有关的任何无关紧要的延迟。
捕捉设备以交互式速率来捕捉数据,提高了数据的保真度,并允许所公开的技术处理原始深度数据,数字化场景中的物体,提取物体的表面和纹理,以及实时地执行这些技术中的任一种,以使得显示画面可以提供该场景的实时描绘。对于任何给定帧为了将云中的点组聚类成场景中的离散物体,可以使深度缓冲区在扫描线中从左到右并随后从上到下的走一遍。可在扫描时处理云中的每个对应的点或点集群。
相机可以捕捉深度和颜色数据,并将颜色分配给与该颜色数据相对应的点云。由此,在捕捉设备从相机的观点查看深度数据时,相机可以解释该深度数据以用三维来表示物理空间。三维点云数据可被合并和结合,使得多个点变为点云,并且云中点的子集可被标记为特定的物体。可以从该被标记的点云为所创建的每个被标记的物体和对应的网格模型恢复三维数据。由于颜色信息与深度信息相关,物体的纹理和表面也可被提取。这种目标数字化可能对游戏应用或非游戏应用是有用的,诸如操作系统或软件应用。在显示设备上提供关于捕捉和处理深度数据的实时的反馈提供了有价值的交互式体验,诸如玩游戏。
在图8所描绘的示例中,墙、天花板和地板都位于物理空间中。系统可以从对点云数据的分析来标记墙和地板,该点云数据来自处理捕捉设备所接收的原始深度数据,诸如图7B中所表示的点云数据。随后,可以提取关于物理场景的附加信息,诸如房间的形状。系统可以使用关于物理空间的基本信息来从特征库中进行选择以生成与物理空间相对应的虚拟空间。例如,特征库可包括各个特征的卡通绘图,而因此自动生成的虚拟空间可以是物理空间的卡通版本。However,the cartoon version
深度缓冲区中的信息可用于分离从原始深度数据标识的物体的表面。深度缓冲区的第一遍行走可用于基于从点云得出的表面法线来计算深度缓冲区的法线映射图。由此,系统可以得出表面指向的方向,而不是空间中独立的点。系统可以从深度缓冲区恢复表面法线,并将表面法线和与该表面法线相关联的云中的多个点一同存储。表面法线可用于标识物体的形状和轮廓。例如,球在整个表面上的各法线方向上具有逐渐恒定的变化。各个物体的表面法线可在各个物体过滤器中有所不同以便与场景中所检测到的表面法线进行比较。
虽然对表面法线的计算和普通映射计算是此处所公开的用于从点云数据标识表面的常见技术,但是可以使用任何合适的表面分离或提取技术,诸如霍夫变换、普通映射、傅立叶变换、小曲线变换等。例如,用于从点云分离和/或提取表面的计算可以使用用于平坦表面的霍夫变换来实现。在这种实例中普通映射将是不必要的,相反可以生成点云的霍夫变换。由此,当云的多个点被合并成物体并被标记时,对每个点的霍夫空间的评估可以指示一个点是否与邻居点一起位于平面上,使系统能够分别地标记组成特定物体的具体的平坦表面。可以使用任何合适的分离/提取技术,并且可以依赖于场景将其调节至整体标记性能和特性。虽然使用各种表面分离/提取技术可以改变标记试探,但任何合适的技术都用于这种标识和标记,并仍然使系统能够实时地处理深度数据以便生成和刷新对用户的实时显示。
噪声可以产生自所使用的深度传感器的类型。第一行走阶段可包括原始数据的噪声抑制轮。例如,可以执行平滑轮以从普通映射移除噪声。
针对数据集在二维扫描轮中对云中的多个点进行标记,其中接近并已标识出相似表面的选项可被标记为属于相同的物体。例如,如果表面分离技术包括生成普通映射,则接近并具有相似表面法线的数据集可被标记为属于相同的物体。标记提供了平坦表面和微曲表面之间的区别,而空间上结合或不相交的表面(像地板和墙)可被分别地标记。与邻居点连接的多个点可以基于那些点与指向相似方向的对应的表面法线之间的距离来标记。调解距离阈值和法线相似度阈值可以导致物体不同的大小和曲率、以及被离散地标记的表面。已知物体的阈值和预期结果可被存储在物体过滤器中。
如图7C所示,示出了球102和箱子104的点云。对邻近的点云数据和从点云集合标识的表面法线的评估可以将球与箱子相区分。由此,可以标记每个物体102和104。标记可以简单地是唯一标识。云中多个点的位置与表面法线的组合对于在表面上的多个物体或构成一个物体的多个物体之间进行区分是有用的。例如,如果杯子位于箱子104顶部,则可以用与赋予箱子相同的唯一ID来标识这个杯子,因为可能尚未从点云数据中确定这些物体是不相交的。然而,通过随后考虑表面法线,系统可以确定在各表面法线之间存在九十度差别,并且确定物体应当基于点的邻近度和点云来分别地标记。由此,点云中与结构表面元素一致的各数据点组可被相关联并被标记。
系统可以重新投射各个点云的已确定的表面定向并且对纹理进行重新对齐,就好像它在平坦表面上。技术使系统能够更准确地对物体进行重新处理。例如,如果用户举起带有打印文本的杂志,则对于用户朝向捕捉设备举起杂志的定向没有限制。捕捉设备可以重新投射杂志表面的所捕捉的纹理,并且重新投影该纹理,包括颜色信息、文本以及任何纹理。
对于被标记并具有其所涵盖的计算的参数组的物体,系统可以出于提高的保真度、机构和结构的目的,对虚拟场景执行或继续执行分析。例如,最适合边界框可以是区分特定物体的更准确的方式。最适合边界框可在特定帧中给出物体的定向。例如,其顶部带有咖啡杯的箱子最初可被赋予一个边界框,该边界框包括箱子的点云和表示该咖啡杯的点云二者。在每帧中,系统可以评估物体在空间上位于与最后一帧中相同的位置,并且确定定向是否相似。咖啡杯可以逐帧地移动,而系统可以标识出杯子与箱子是分开的,并因此为杯子生成新的边界框并为纸板箱重新定义边界框。
有时由于房间中无关紧要的粒子或物体,或者基于所使用的传感器的类型,噪声被引入到系统中。例如,云中的一组点可以表示苍蝇的点云,或者所使用的传感器的类型可能导致过量的无关点。为了减少噪声,可以执行清洁阶段以对传感器数据进行清洁或者移除非常小的物体和仅具有少量组成点样本的物体。例如,可以捕捉场景中的灰尘粒子或苍蝇,但是表示苍蝇的少量组成点样本可能不足够重要以触发与该点云相关联的表面法线的身份。由此,可以从分析中提取表示苍蝇的少量的组成点样本。点云数据的初始轮可一起使用物体中的在空间上与给出大型物体阵列有关的多个点。例如,点的大型集合可能是长椅并使用特定ID来标记;另一个物体可能是地板。特定阈值可被设置为标识应从分析移除的点集。例如,如果仅有20个点被标识用于一个物体,并且与物理空间或场景中的其他物体相比这20个点的空间安排位于相对小的区域,则系统可以消除这20个点。
轴对齐的边界框可用作对物体所占据的全部体积/空间的快速测量。轴对齐是指诸如X、Y或Z等特殊轴,而不是空间中的物体的轴。例如,系统可以计算表面是复杂的还是简单的(例如,球或杂志具有简单的表面;玩偶或植物具有复杂的表面)。物体的旋转对于系统分析并确定物体的更精细的特性可能是有用的。捕捉设备可以执行物体的固体扫描以便体积估计。捕捉设备还可提供点云与场景中物体之间的引用,使得参考物理空间可以标识物体的特定位置。
对物体属性的计算和随着时间对这些变化的跟踪建立了用于跟踪物体的可靠的技术,该物体的位置和定向实时地在各帧之间变化。在捕捉更多帧时,使用临时信息以捕捉变化可以对场景中的物体的解析、标识、和标记赋予进一步的置信度。由于普通数据集的大小,诸如640x480点,使用所公开的技术甚至可以实现复杂的处理。可在帧序列中以至少20赫兹的频率捕捉数据。
可将物体参数与前一帧的参数进行比较,并且物体可被重新标记以允许移动物体以便被实时地跟踪,而还维持从静态物体的持续地标记。可以为每个物体计算置信度,并且置信度因子可以随时间而增加。由此,在物体的置信度可能保持为高时,静态物体可由于遮挡而移入和移出视野。临时分析可包括对上一帧和当前帧的评估。如果物体在每帧中是相同的,则可以使用它在前一帧中的标签来重新标记该物体,以便逐帧地向标签和物体赋予一致性。物体以及表面定向和位置可用于估计深度相机的定向以及收集与相机周围相关的统计数据。例如,在很多情形中,主要平坦表面的位置将等于墙和地板。
应该理解,此处所述的配置和/或方法在本质上是示例性的,且这些具体实施例或示例不被认为是限制性的。本文中所述的具体例程或方法可表示任意数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示顺序执行、按其他顺序执行、并行地执行等等。同样,可改变上述过程的次序。
此外,尽管已经结合某些方面按各附图所示描述了本发明,但要理解,可使用其它相似方面或者可对所述方面进行修改或添加来执行本发明的相同功能而不脱离本发明。本公开的主题包括各种过程、系统和配置的所有新颖和非显而易见的组合和子组合、和此处所公开的其它特征、功能、动作、和/或属性、以及其任何和全部等效物。由此,所公开的各实施例的方法和装置或其某些方面或部分可采用包含在诸如软盘、CD-ROM、硬盘驱动器或任何其他机器可读存储介质等有形介质中的程序代码(即,指令)的形式。当程序代码被加载到诸如计算机等机器并由其执行时,该机器变为被配置成实施所公开的各实施例的装置。
除了此处明确阐述的具体实现之外,考虑此处所公开的说明书,其它方面和实现将对本领域的技术人员是显而易见的。因此,本发明不应该仅限于任何单个方面,而是应该在根据所附权利要求书的广度和范围内解释。例如,本文描述的各种过程可用硬件或软件、或两者的组合来实现。

Claims (14)

1.一种用于生成目标的视觉表示的方法,所述方法包括:
接收场景的数据,其中所述数据包括表示物理空间中的目标的数据(802);
从所述数据检测至少一个目标特征(806);
将至少一个所检测到的目标特征与视觉表示特征选项进行比较(806),其中所述视觉表示特征选项包括被配置为应用到所述目标的视觉表示的可选择的选项;
从所述视觉表示特征选项选择视觉表示特征(810);
将所述视觉表示特征应用于所述目标的所述视觉表示(816);
呈现所述视觉表示;
监视所述目标,并且检测所述至少一个所检测到的目标特征中的变化(818);
基于所述至少一个所检测到的目标特征中的变化,通过更新被应用于所述视觉表示的所述视觉表示特征,实时地更新所述目标的所述视觉表示(816)。
2.如权利要求1所述的方法,其特征在于,从所述至少一个所检测到的特征与所述视觉表示特征选项的比较中自动生成所述视觉表示,使得对所述视觉表示特征的选择是在没有用户(18、602)的手动选择的情况下执行的。
3.如权利要求1所述的方法,其特征在于,选择所述视觉表示特征包括选择与所述至少一个所检测到的目标特征相似的视觉表示特征(810)。
4.如权利要求1所述的方法,其特征在于,所述视觉表示特征是面部特征、身体部位、颜色、大小、高度、宽度、形状、饰品、或服装项中的至少一个。
5.如权利要求1所述的方法,其特征在于,还包括:
从所述视觉表示特征选项为所述视觉表示特征(810)生成视觉表示特征选项的子集(702);以及
提供所生成的特征选项的子集以供用户(18、602)选择要应用于所述视觉表示(810)的视觉表示特征。
6.如权利要求5所述的方法,其特征在于,所生成的视觉表示特征选项的子集包括选择与所述至少一个所检测到的目标特征相似的多个视觉表示特征选项。
7.如权利要求5所述的方法,其特征在于,还包括接收用户(18、602)从所生成的特征选项的子集中对所述视觉表示特征的选择(812),其中从所述视觉表示特征选项中选择所述视觉表示特征包括选择与所述用户(18、602)选择相对应的视觉表示特征。
8.如权利要求1所述的方法,其特征在于,实时地呈现具有所述视觉表示特征的所述视觉表示。
9.如权利要求1所述的方法,其特征在于,还包括在所述目标是人类目标的情况下,检测用户(18、602)的眼睛、嘴、鼻子或眉毛中至少一个的位置,并且使用所述位置来将对应的视觉表示特征与所述视觉表示对齐(816)。
10.如权利要求1所述的方法,其特征在于,还包括基于提供所需修改的设置,修改所选择的视觉表示特征(816)。
11.如权利要求10所述的方法,其特征在于,所述修改是基于计算尺的,所述计算尺可为所述视觉表示特征提供不同级别的修改。
12.一种设备,所述设备包括:
捕捉设备(20),所述捕捉设备(20)用于接收场景的数据,其中所述数据包括表示物理空间中的目标的数据;以及
处理器(32),所述处理器(32)用于执行计算机可执行指令,所述计算机可执行指令包括用于以下操作的指令:
从所述数据检测至少一个目标特征(806);
将至少一个所检测到的目标特征与视觉表示特征选项进行比较(806),其中所述视觉表示特征选项包括被配置为应用到视觉表示的可选择的选项;
从所述视觉表示特征选项中选择视觉表示特征(810);
将所述视觉表示特征应用于所述目标的所述视觉表示(816);
监视所述目标,并且检测所述至少一个所检测到的目标特征中的变化(818);
基于所述至少一个所检测到的目标特征中的变化,通过更新被应用于所述视觉表示的所述视觉表示特征,实时地更新所述目标的所述视觉表示(816)。
13.如权利要求12所述的设备,其特征在于,还包括用于实时地呈现所述视觉表示的显示设备(193)(816),其中所述处理器(32)从所述至少一个所检测到的特征与所述视觉表示特征选项的比较中自动生成所述视觉表示,使得对所述视觉表示特征的选择是在没有用户(18、602)的手动选择的情况下执行的。
14.如权利要求12所述的设备,其特征在于,所述计算机可执行指令还包括用于以下操作的指令:
从所述视觉表示特征选项为所述视觉表示特征(810)生成视觉表示特征选项的子集(702);以及
在显示设备上提供所生成的特征选项的子集,以供用户(18、602)选择要应用于所述视觉表示(810)的视觉表示特征。
CN201080033128.8A 2009-07-29 2010-07-27 自动生成视觉表示 Expired - Fee Related CN102470274B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/511,850 2009-07-29
US12/511,850 US20110025689A1 (en) 2009-07-29 2009-07-29 Auto-Generating A Visual Representation
PCT/US2010/043291 WO2011014467A2 (en) 2009-07-29 2010-07-27 Auto-generating a visual representation

Publications (2)

Publication Number Publication Date
CN102470274A CN102470274A (zh) 2012-05-23
CN102470274B true CN102470274B (zh) 2014-10-29

Family

ID=43526566

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080033128.8A Expired - Fee Related CN102470274B (zh) 2009-07-29 2010-07-27 自动生成视觉表示

Country Status (9)

Country Link
US (1) US20110025689A1 (zh)
EP (1) EP2459289A4 (zh)
JP (1) JP5782440B2 (zh)
KR (1) KR20120051659A (zh)
CN (1) CN102470274B (zh)
BR (1) BR112012002068A8 (zh)
CA (1) CA2766511A1 (zh)
RU (1) RU2560340C2 (zh)
WO (1) WO2011014467A2 (zh)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US20110157218A1 (en) * 2009-12-29 2011-06-30 Ptucha Raymond W Method for interactive display
US9319640B2 (en) * 2009-12-29 2016-04-19 Kodak Alaris Inc. Camera and display system interactivity
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US8787663B2 (en) 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
USRE49044E1 (en) * 2010-06-01 2022-04-19 Apple Inc. Automatic avatar creation
FR2960986A1 (fr) * 2010-06-04 2011-12-09 Thomson Licensing Procede de selection d’un objet dans un environnement virtuel
JP2012058968A (ja) * 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US9477302B2 (en) 2012-08-10 2016-10-25 Google Inc. System and method for programing devices within world space volumes
US9329469B2 (en) * 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
EP2691834A4 (en) * 2011-03-28 2015-02-18 Gestsure Technologies Inc GESTURIZED CONTROL FOR MEDICAL INFORMATION SYSTEMS
KR20120130466A (ko) * 2011-05-23 2012-12-03 삼성전자주식회사 휴대단말기에서 외부장치의 데이터를 제어할 수 있는 장치 및 방법
US9208571B2 (en) * 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9013489B2 (en) * 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US20120314031A1 (en) 2011-06-07 2012-12-13 Microsoft Corporation Invariant features for computer vision
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
CA2850234A1 (en) * 2011-07-22 2013-01-31 Glitchsoft Corporation Game enhancement system for gaming environment
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US9454849B2 (en) 2011-11-03 2016-09-27 Microsoft Technology Licensing, Llc Augmented reality playspaces with adaptive game rules
JP5874325B2 (ja) * 2011-11-04 2016-03-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP5994233B2 (ja) * 2011-11-08 2016-09-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2013101528A (ja) 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
JP2013101529A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US9782680B2 (en) 2011-12-09 2017-10-10 Futurewei Technologies, Inc. Persistent customized social media environment
WO2013103410A1 (en) 2012-01-05 2013-07-11 California Institute Of Technology Imaging surround systems for touch-free display control
US20130212501A1 (en) * 2012-02-10 2013-08-15 Glen J. Anderson Perceptual computing with conversational agent
CN107257403A (zh) 2012-04-09 2017-10-17 英特尔公司 使用交互化身的通信
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
US9195127B1 (en) * 2012-06-18 2015-11-24 Amazon Technologies, Inc. Rear projection screen with infrared transparency
US9262983B1 (en) * 2012-06-18 2016-02-16 Amazon Technologies, Inc. Rear projection system with passive display screen
US20130346875A1 (en) * 2012-06-20 2013-12-26 Microsoft Corporation Personalized Interactive Entertainment Profile
CN104395929B (zh) * 2012-06-21 2017-10-03 微软技术许可有限责任公司 使用深度相机的化身构造
US9035970B2 (en) 2012-06-29 2015-05-19 Microsoft Technology Licensing, Llc Constraint based information inference
US9292085B2 (en) 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
US9105210B2 (en) * 2012-06-29 2015-08-11 Microsoft Technology Licensing, Llc Multi-node poster location
US8961302B2 (en) 2012-07-20 2015-02-24 Microsoft Technology Licensing, Llc Game browsing
US9381432B2 (en) 2012-08-24 2016-07-05 Microsoft Technology Licensing, Llc Game migration
KR102095765B1 (ko) * 2012-10-19 2020-04-01 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
EP3660663B8 (en) 2012-10-31 2024-05-22 Outward Inc. Delivering virtualized content
US10462499B2 (en) 2012-10-31 2019-10-29 Outward, Inc. Rendering a modeled scene
AU2013204965B2 (en) 2012-11-12 2016-07-28 C2 Systems Limited A system, method, computer program and data signal for the registration, monitoring and control of machines and devices
US9336607B1 (en) * 2012-11-28 2016-05-10 Amazon Technologies, Inc. Automatic identification of projection surfaces
CN103871106A (zh) * 2012-12-14 2014-06-18 韩国电子通信研究院 利用人体模型的虚拟物拟合方法及虚拟物拟合服务系统
US9717982B2 (en) 2012-12-21 2017-08-01 Microsoft Technology Licensing, Llc Client rendering of latency sensitive game features
US9526980B2 (en) 2012-12-21 2016-12-27 Microsoft Technology Licensing, Llc Client side processing of game controller input
US9530213B2 (en) 2013-01-02 2016-12-27 California Institute Of Technology Single-sensor system for extracting depth information from image blur
US20140223326A1 (en) * 2013-02-06 2014-08-07 International Business Machines Corporation Apparatus and methods for co-located social integration and interactions
US9754154B2 (en) * 2013-02-15 2017-09-05 Microsoft Technology Licensing, Llc Identification using depth-based head-detection data
US9694277B2 (en) 2013-03-14 2017-07-04 Microsoft Technology Licensing, Llc Client side processing of character interactions in a remote gaming environment
US9564102B2 (en) 2013-03-14 2017-02-07 Microsoft Technology Licensing, Llc Client side processing of player movement in a remote gaming environment
US9595134B2 (en) * 2013-05-11 2017-03-14 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing 3D scenes from 2D images
WO2014183157A1 (en) * 2013-05-13 2014-11-20 Mport Pty Ltd Devices, frameworks and methodologies for enabling user-driven determination of body size and shape information and utilisation of such information across a networked environment
US9348411B2 (en) 2013-05-24 2016-05-24 Microsoft Technology Licensing, Llc Object display with visual verisimilitude
US10387729B2 (en) 2013-07-09 2019-08-20 Outward, Inc. Tagging virtualized content
KR101527188B1 (ko) * 2013-07-23 2015-06-09 (주)셀빅 단일의 모션센서를 이용한 다중 플레이어 게임 제공 방법
KR101444858B1 (ko) 2013-09-03 2014-11-03 재단법인 실감교류인체감응솔루션연구단 원격 존재 장치
US9524582B2 (en) * 2014-01-28 2016-12-20 Siemens Healthcare Gmbh Method and system for constructing personalized avatars using a parameterized deformable mesh
US10444938B1 (en) * 2014-02-26 2019-10-15 Symantec Corporation Systems and methods for customizing user icons
CN105654023B (zh) * 2014-11-12 2019-05-03 株式会社理光 识别物体危险性的方法和装置
WO2016101131A1 (en) 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
US20170069124A1 (en) * 2015-04-07 2017-03-09 Intel Corporation Avatar generation and animations
US9683834B2 (en) * 2015-05-27 2017-06-20 Intel Corporation Adaptable depth sensing system
CN105120144A (zh) * 2015-07-31 2015-12-02 小米科技有限责任公司 图像拍摄方法和装置
US20170118739A1 (en) * 2015-10-22 2017-04-27 Motorola Mobility Llc System and method for establishing a paging proxy in a wide area wireless network
US10656722B2 (en) 2015-11-09 2020-05-19 Carnegie Mellon University Sensor system for collecting gestural data in two-dimensional animation
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
US10475225B2 (en) * 2015-12-18 2019-11-12 Intel Corporation Avatar animation system
EP3285148A1 (fr) * 2016-08-19 2018-02-21 Bigben Interactive SA Procede de contrôle d'un element d'affichage par une console de jeux
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
US10410406B2 (en) * 2017-02-27 2019-09-10 Trimble Ab Enhanced three-dimensional point cloud rendering
US10237532B2 (en) 2017-03-07 2019-03-19 Trimble Ab Scan colorization with an uncalibrated camera
US10049297B1 (en) * 2017-03-20 2018-08-14 Beihang University Data driven method for transferring indoor scene layout and color style
US10565434B2 (en) * 2017-06-30 2020-02-18 Google Llc Compact language-free facial expression embedding and novel triplet training scheme
CN107369203B (zh) * 2017-07-14 2020-04-28 北京航空航天大学 室内三维场景自适应构建方法及装置
US10607079B2 (en) * 2017-09-26 2020-03-31 Toyota Research Institute, Inc. Systems and methods for generating three dimensional skeleton representations
US10723027B2 (en) * 2017-09-26 2020-07-28 Toyota Research Institute, Inc. Robot systems incorporating cloud services systems
WO2019108820A1 (en) * 2017-11-29 2019-06-06 Heed, Llc Systems and methods for comparing electronic athletic performance sensor data
WO2019161207A1 (en) 2018-02-15 2019-08-22 DMAI, Inc. System and method for conversational agent via adaptive caching of dialogue tree
WO2019161229A1 (en) * 2018-02-15 2019-08-22 DMAI, Inc. System and method for reconstructing unoccupied 3d space
GB2571306A (en) * 2018-02-23 2019-08-28 Sony Interactive Entertainment Europe Ltd Video recording and playback systems and methods
US11048393B2 (en) 2018-03-09 2021-06-29 Toyota Research Institute, Inc. Personalized visual representations of an artificially intelligent agent
US10672188B2 (en) * 2018-04-19 2020-06-02 Microsoft Technology Licensing, Llc Surface reconstruction for environments with moving objects
CN114915827A (zh) 2018-05-08 2022-08-16 日本聚逸株式会社 动态图像分发系统及其方法和记录介质
WO2019216146A1 (ja) * 2018-05-08 2019-11-14 グリー株式会社 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム
US11128932B2 (en) 2018-05-09 2021-09-21 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of actors
US10824864B2 (en) 2018-06-25 2020-11-03 Apple Inc. Plane detection using semantic segmentation
CN116778368A (zh) 2018-06-25 2023-09-19 苹果公司 使用语义分割的平面检测
US11044535B2 (en) 2018-08-28 2021-06-22 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program
CN109325450A (zh) * 2018-09-25 2019-02-12 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN110947181A (zh) * 2018-09-26 2020-04-03 Oppo广东移动通信有限公司 游戏画面显示方法、装置、存储介质及电子设备
WO2020124046A2 (en) * 2018-12-14 2020-06-18 Vulcan Inc. Virtual and physical reality integration
JP7139236B2 (ja) * 2018-12-17 2022-09-20 ヤフー株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN110237514A (zh) * 2019-06-21 2019-09-17 上海电机学院 肌肉电控制的模拟打保龄球互动设备
CN110472534A (zh) * 2019-07-31 2019-11-19 厦门理工学院 基于rgb-d数据的3d目标检测方法、装置、设备和存储介质
CN115735229A (zh) * 2020-06-25 2023-03-03 斯纳普公司 在消息收发系统中更新化身服装
JP2023133635A (ja) * 2020-07-30 2023-09-26 ソニーグループ株式会社 情報処理装置、触感提示システム及びプログラム
EP4315827A1 (en) * 2021-03-30 2024-02-07 Snap Inc. Inclusive camera
WO2022208143A1 (en) * 2021-03-30 2022-10-06 Sensetime International Pte. Ltd. Generating point cloud completion network and processing point cloud data
CN113424220B (zh) * 2021-03-30 2024-03-01 商汤国际私人有限公司 生成点云补全网络及点云数据的处理
JP7052128B1 (ja) * 2021-07-20 2022-04-11 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
US20230103161A1 (en) * 2021-09-24 2023-03-30 Apple Inc. Devices, methods, and graphical user interfaces for tracking mitigation in three-dimensional environments
TWI808787B (zh) * 2022-06-15 2023-07-11 英業達股份有限公司 自動分類過渡動作的方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101305401A (zh) * 2005-11-14 2008-11-12 微软公司 用于游戏的立体视频

Family Cites Families (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) * 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) * 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) * 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) * 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) * 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) * 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) * 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) * 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) * 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) * 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) * 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) * 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) * 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) * 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) * 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) * 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) * 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) * 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) * 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
JPH03103822U (zh) * 1990-02-13 1991-10-29
US5101444A (en) * 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) * 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5295491A (en) * 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US5320538A (en) * 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
US5595389A (en) * 1993-12-30 1997-01-21 Eastman Kodak Company Method and apparatus for producing "personalized" video games using CD discs
US5385519A (en) * 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
IL114278A (en) * 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
WO1997001112A2 (en) * 1995-06-22 1997-01-09 3Dv Systems Ltd. Telecentric 3d camera and method of rangefinding
JPH10240920A (ja) * 1996-12-25 1998-09-11 Omron Corp 画像作成装置、画像作成方法及び画像作成プログラム記憶媒体
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
JP3970520B2 (ja) * 1998-04-13 2007-09-05 アイマティック・インターフェイシズ・インコーポレイテッド 人間の姿を与えたものを動画化するためのウェーブレットに基づく顔の動きの捕捉
AU4307499A (en) * 1998-05-03 1999-11-23 John Karl Myers Videophone with enhanced user defined imaging system
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
IT1315446B1 (it) * 1998-10-02 2003-02-11 Cselt Centro Studi Lab Telecom Procedimento per la creazione di modelli facciali tridimensionali apartire da immagini di volti.
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
JP2000163178A (ja) * 1998-11-26 2000-06-16 Hitachi Ltd 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体
DE69922706T2 (de) * 1999-09-08 2005-12-08 3Dv Systems Ltd. 3d- bilderzeugungssystem
US6512838B1 (en) * 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US7006236B2 (en) * 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US7050177B2 (en) * 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
DE19960180B4 (de) * 1999-12-14 2006-03-09 Rheinmetall W & M Gmbh Verfahren zur Herstellung eines Sprenggeschosses
JP2001246161A (ja) * 1999-12-31 2001-09-11 Square Co Ltd ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) * 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6545682B1 (en) * 2000-05-24 2003-04-08 There, Inc. Method and apparatus for creating and customizing avatars using genetic paradigm
US6554706B2 (en) * 2000-05-31 2003-04-29 Gerard Jounghyun Kim Methods and apparatus of displaying and evaluating motion data in a motion game apparatus
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7091976B1 (en) * 2000-11-03 2006-08-15 At&T Corp. System and method of customizing animated entities for use in a multi-media communication application
US6697072B2 (en) * 2001-03-26 2004-02-24 Intel Corporation Method and system for controlling an avatar using computer vision
US6539931B2 (en) * 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
WO2003071410A2 (en) * 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7310431B2 (en) * 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US20100085363A1 (en) * 2002-08-14 2010-04-08 PRTH-Brand-CIP Photo Realistic Talking Head Creation, Content Creation, and Distribution System and Method
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
US7151530B2 (en) * 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7636755B2 (en) * 2002-11-21 2009-12-22 Aol Llc Multiple avatar personalities
JP2004246891A (ja) * 2003-02-11 2004-09-02 Campus Create Co Ltd 顔画像の生成方法および表示方法
WO2004081854A1 (en) * 2003-03-06 2004-09-23 Animetrics, Inc. Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery
US7009561B2 (en) * 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
US7372977B2 (en) * 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
US7874917B2 (en) * 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
JP3847753B2 (ja) * 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7991220B2 (en) * 2004-09-01 2011-08-02 Sony Computer Entertainment Inc. Augmented reality game system using identification information to display a virtual object in association with a position of a real object
EP1645944B1 (en) * 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US8009871B2 (en) * 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
KR100688743B1 (ko) * 2005-03-11 2007-03-02 삼성전기주식회사 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법
US7317836B2 (en) * 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
WO2006108279A1 (en) * 2005-04-11 2006-10-19 Martin Lizee Method and apparatus for virtual presence
US8370639B2 (en) * 2005-06-16 2013-02-05 Sensible Vision, Inc. System and method for providing secure access to an electronic device using continuous facial biometrics
US20070074114A1 (en) * 2005-09-29 2007-03-29 Conopco, Inc., D/B/A Unilever Automated dialogue interface
WO2007037590A1 (en) * 2005-09-30 2007-04-05 Sk C & C Co.Ltd. Electronic commerce system for the digital fashion using an avatar based on a user and method for operating the same
US20070080967A1 (en) * 2005-10-11 2007-04-12 Animetrics Inc. Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects
GB2431717A (en) * 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
US8047915B2 (en) * 2006-01-11 2011-11-01 Lyle Corporate Development, Inc. Character for computer game and method
JP4917615B2 (ja) * 2006-02-27 2012-04-18 プライム センス リミティド スペックルの無相関を使用した距離マッピング(rangemapping)
JP4921550B2 (ja) * 2006-05-07 2012-04-25 株式会社ソニー・コンピュータエンタテインメント ゲームプレイ中にコンピュータ生成アバターに感情的特徴を与える方法
US7721207B2 (en) * 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
EP2032224A2 (en) * 2006-06-26 2009-03-11 Icosystem Corporation Methods and systems for interactive customization of avatars and other animate or inanimate items in video games
US8395658B2 (en) * 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
JP4986279B2 (ja) * 2006-09-08 2012-07-25 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20080134102A1 (en) * 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
US8351646B2 (en) * 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
KR100859315B1 (ko) * 2006-12-26 2008-09-19 연세대학교 산학협력단 게임 시스템에서의 게임 캐릭터 얼굴 변경 방법
US20080158222A1 (en) * 2006-12-29 2008-07-03 Motorola, Inc. Apparatus and Methods for Selecting and Customizing Avatars for Interactive Kiosks
US8144148B2 (en) * 2007-02-08 2012-03-27 Edge 3 Technologies Llc Method and system for vision-based interaction in a virtual environment
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
WO2008106197A1 (en) * 2007-03-01 2008-09-04 Sony Computer Entertainment America Inc. Interactive user controlled avatar animations
JP2009521065A (ja) * 2007-04-12 2009-05-28 ジェイディエフ グループ カリカチュア生成システムとその方法およびその記録媒体
US20110115798A1 (en) * 2007-05-10 2011-05-19 Nayar Shree K Methods and systems for creating speech-enabled avatars
GB2450757A (en) * 2007-07-06 2009-01-07 Sony Comp Entertainment Europe Avatar customisation, transmission and reception
US20090033667A1 (en) * 2007-08-02 2009-02-05 Motorola, Inc. Method and Apparatus to Facilitate Depicting an Object in Combination with an Accessory
US8146005B2 (en) * 2007-08-07 2012-03-27 International Business Machines Corporation Creating a customized avatar that reflects a user's distinguishable attributes
US20090128567A1 (en) * 2007-11-15 2009-05-21 Brian Mark Shuster Multi-instance, multi-user animation with coordinated chat
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
GB2455316B (en) * 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
JP2009163465A (ja) * 2007-12-29 2009-07-23 Yurakusha:Kk 似顔絵イラストデータ提供システム
US8149210B2 (en) * 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
WO2009108645A1 (en) * 2008-02-27 2009-09-03 Sony Computer Entertainment America Inc. Methods for capturing depth data of a scene and applying computer actions
US7447996B1 (en) * 2008-02-28 2008-11-04 International Business Machines Corporation System for using gender analysis of names to assign avatars in instant messaging applications
US20090251484A1 (en) * 2008-04-03 2009-10-08 Motorola, Inc. Avatar for a portable device
US8832552B2 (en) * 2008-04-03 2014-09-09 Nokia Corporation Automated selection of avatar characteristics for groups
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US20100306120A1 (en) * 2009-05-28 2010-12-02 Yunus Ciptawilangga Online merchandising and ecommerce with virtual reality simulation of an actual retail location
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101305401A (zh) * 2005-11-14 2008-11-12 微软公司 用于游戏的立体视频

Also Published As

Publication number Publication date
EP2459289A4 (en) 2013-11-13
CA2766511A1 (en) 2011-02-03
RU2012102918A (ru) 2013-08-10
WO2011014467A3 (en) 2011-07-07
EP2459289A2 (en) 2012-06-06
RU2560340C2 (ru) 2015-08-20
KR20120051659A (ko) 2012-05-22
CN102470274A (zh) 2012-05-23
WO2011014467A2 (en) 2011-02-03
JP5782440B2 (ja) 2015-09-24
BR112012002068A8 (pt) 2017-10-10
JP2013500771A (ja) 2013-01-10
US20110025689A1 (en) 2011-02-03
BR112012002068A2 (pt) 2016-05-31

Similar Documents

Publication Publication Date Title
CN102470274B (zh) 自动生成视觉表示
CN102448566B (zh) 骨架以外的姿势
US9098873B2 (en) Motion-based interactive shopping environment
CN102470273B (zh) 基于玩家表情的视觉表示表情
CN102301315B (zh) 姿势识别器系统架构
CN102449576B (zh) 姿势快捷方式
CN102129152B (zh) 具有集成vcsel阵列的深度投影仪系统
US9245177B2 (en) Limiting avatar gesture display
CN102473320B (zh) 通过学习到的来自用户的输入使视觉表示生动化的方法
CN102129551B (zh) 基于关节跳过的姿势检测
CN102448561B (zh) 姿势教练
CN102947777B (zh) 用户跟踪反馈
CN102301311B (zh) 标准姿势
US20100302247A1 (en) Target digitization, extraction, and tracking
CN102549619A (zh) 人类跟踪系统
CN102222431A (zh) 基于机器的手语翻译器
Peng et al. Design and Implementation of Multi-mode Natural Interaction of Game Animation Characters in Mixed Reality: A Novel User Experience Method

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150429

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150429

Address after: Washington State

Patentee after: Micro soft technique license Co., Ltd

Address before: Washington State

Patentee before: Microsoft Corp.

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141029

Termination date: 20190727

CF01 Termination of patent right due to non-payment of annual fee