CN102929507A - 运动控制的列表滚动 - Google Patents

运动控制的列表滚动 Download PDF

Info

Publication number
CN102929507A
CN102929507A CN2012103701061A CN201210370106A CN102929507A CN 102929507 A CN102929507 A CN 102929507A CN 2012103701061 A CN2012103701061 A CN 2012103701061A CN 201210370106 A CN201210370106 A CN 201210370106A CN 102929507 A CN102929507 A CN 102929507A
Authority
CN
China
Prior art keywords
human subject
hand
body part
selectable
world space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012103701061A
Other languages
English (en)
Inventor
J·赞布拉诺
S·卢卡斯
J·W·哈亭
M·斯坦诺尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102929507A publication Critical patent/CN102929507A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

运动控制的列表滚动。运动控制的列表滚动包括向显示设备输出包括多个可选择的项目的用户界面以及接收人类主体的手的世界空间位置。响应于人类主体的手的位置在第一区域内,多个可选择的项目以第一方向滚动。响应于人类主体的手的位置在第二区域内,多个可选择的项目以第二方向滚动。响应于人类主体的手的世界空间位置在第三区域内,多个可选择的项目被保持,其中该多个可选择的项目中的一个被标识以供选择。

Description

运动控制的列表滚动
技术领域
本申请涉及运动控制的列表滚动。
背景技术
用户界面包括多个可选择的项目是普遍的。通常,可选择的项目的数量足够大使得它们不被全部地显示在同一视图中,而用户必须滚动来查看感兴趣的项目。许多移动设备、计算机、游戏控制台等被配置成输出这样的界面。
用户可通过经由各种输入设备提供输入来滚动。一些输入设备可能使用起来很麻烦,并可需要大量重复的用户动作来滚动列表。
发明内容
提供本概述以便以简化形式介绍将在以下详细描述中进一步描述的一些概念。本发明内容并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中所提及的任何或所有缺点的实现。
根据本公开的一个方面,滚动包括向显示设备输出包括多个可选择的项目的用户界面。可从深度相机接收包括人类主体的世界空间场景的一个或多个深度图像。另外,可接收人类主体的手的世界空间位置。响应于人类主体的手的世界空间位置在第一区域内,多个可选择的项目在用户界面内以第一方向滚动。类似地,响应于人类主体的手的世界空间位置在第二区域内,多个可选择的项目在用户界面内以与第一方向相反的第二方向滚动。并且,响应于人类主体的手的世界空间位置在第一区域和第二区域之间的第三区域内,多个可选择的项目被保持,其中该多个可选择的项目中的一个被标识以供选择。
附图说明
图1示意性地示出了根据本公开的一实施例的示例滚动环境。
图2示出根据本公开的一实施例的深度图像处理流水线。
图3A、3B和3C示出了响应于示例虚拟骨架的示例用户界面滚动。
图4示出了根据本公开的一实施例的在用户界面内滚动的示例方法。
图5A、5B和5C示意性地示出了根据本公开的一实施例的示例用户界面。
图6示意性地示出了用于执行图4的方法的计算系统。
具体实施方式
本申请涉及滚动用户界面内的多个可选择的项目。本申请进一步涉及通过输入设备来滚动,这些输入设备允许自然的用户运动和姿势用作对于滚动的推动(impetus)。
图1显示了示例滚动环境,包括人类主体110、计算系统120、深度相机130、显示设备140和用户界面150。显示设备140可通过计算系统120的显示输出来操作地连接到计算系统120。例如,计算系统120可包括HDMI或其它合适的显示输出。计算系统120可被配置成向显示设备140输出包括多个可选择的项目的圆盘传送带(carousel)用户界面150。
计算系统102可被用于玩各种不同的游戏、播放一个或多个不同的媒体类型、和/或控制或操纵非游戏应用和/或操作系统。在示出的实施例中,显示设备140是电视机,其可被用于向用户和观察者呈现画面。
深度相机130可通过一个或多个输入被操作地连接到计算系统120。作为非限制的示例,计算系统120可包括深度相机130可被连接到的通用串行总线。计算系统120可从深度相机130接收包括人类主体110的世界空间场景的一个或多个深度图像。深度图像可采取基本上任何合适的数据结构的形式,包括但不限于,像素矩阵,其中每个像素都包括指示在该像素处所观察到的对象的深度的深度信息。可以使用基本上任何深度寻找(depth finding)技术而不背离本公开的范围。
深度图像可被用于将人类主体110建模为虚拟骨架。图2显示了简化的处理流水线,其中深度相机被用于提供深度图像220,该深度图像220被用于将人类主体210建模为虚拟骨架230。可以理解,与图2中所描绘的那些步骤相比,处理流水线可包括附加的步骤和/或替代步骤,而不背离本发明的范围。
如图2中示出的,人类主体210的三维外观以及所观察到的场景的其余部分可由深度相机成像。在图2中,深度图像220被示意性地示为人类主体210的轮廓的像素化网格。这一例示是出于理解简明的目的、而不是出于技术精确性的目的。要理解,深度图像一般包括所有像素的深度信息,而不是仅仅对人类主体210成像的像素的信息。
虚拟骨架230可从深度图像220中导出,以提供人类主体210的机器可读表示。换言之,从深度图像230导出虚拟骨架220以对人类主体210建模。可以用任何合适方式来从深度图像220中导出虚拟骨架230。在某些实施例中,可以对深度图像应用一种或多种骨架适应算法。本发明与基本上任何骨架建模技术兼容。
虚拟骨架230可包括多个关节,每一关节可对应于人类主体210的一部分。根据本发明的虚拟骨架可包括基本上任何数量的关节,每个关节都可与基本上任何数量的参数(例如三维关节位置、关节旋转、对应身体部位的身体姿势(例如手张开、手合上等)等)相关联。应当理解,虚拟骨架可采取如下数据结构的形式:该数据结构包括多个骨架关节中的每个关节的一个或多个参数(例如包含每个关节的x位置、y位置、z位置和旋转的关节矩阵)。在一些实施例中,可使用其他类型的虚拟骨架(例如线框、一组形状图元等等)。
替代于或除了使用虚拟骨架来对人类主体建模,可使用其它机制来确定人类主体的身体部位的位置。作为非限制的示例,用户可拿住运动控制设备(例如,游戏棒),并且人类主体的手的位置可由所观察到的运动控制设备的位置来推断。
返回图1,计算系统120可被配置成标识人类主体110的手的世界空间位置。可使用任何数量的技术(诸如如以上描述的通过虚拟骨架)来标识手的世界空间位置。计算系统120可被配置成根据手的位置来滚动或保持由用户界面150呈现的可滚动的项目。
例如,图3A、3B和3C分别示出了人类主体110的虚拟骨架310、320和330以及相应的圆盘传送带用户界面150,其中每个都处于不同的时刻。虚拟骨架中的每个都对应于人类主体110可作出的滚动或保持可选择的项目的姿势。
所显示的姿势可被用于滚动或保持用户界面150的可滚动的项目。例如,响应于人类主体的手的世界空间位置在中间区域340内(如图3A中的虚拟骨架310所示),多个可选择的项目可保持在固定或缓慢移动的位置,其中该多个可选择的项目中的一个被标识以供选择。
在示出的实施例中,项目350通过以下性质被标识为供选择:其位置在用户界面的前方中间、相对于其它项目的大的尺寸、以及视觉上强调的呈现。可以理解,在不背离本公开的范围的情况下,项目可用基本上任何方式被标识以供选择。此外,即使多个可选择的项目在滚动,也通常总是标识一个项目以供选择。
响应于人类主体的手的世界空间位置在中间区域340的外部(从用户的角度来看)的第一边(如图3B中虚拟骨架320所示的),多个可选择的项目可被顺时针方向地滚动,并且响应于人类主体的手的世界空间位置在中间区域340的外部的第二边(如图3C中虚拟骨架330所示的),多个可选择的项目可被逆时针方向地滚动。
顺时针和逆时针方向两者上的滚动速度可以是任何合适的速度,诸如恒定速度或与手离开中间区域340的距离成比例的速度。被标识以供选择的项目可由人类主体110用基本上任何合适的方式来选择,诸如通过执行推姿势。
图400示出了用于控制包括多个可选择的项目的用户界面(包括但不限于图1的用户界面150)的方法400的实施例。在410,方法400可包括向显示设备输出包括多个可选择的项目的用户界面。显示设备可以是任何适于可视地显示数据的设备,诸如移动设备、计算机屏幕或电视机。可选择的项目可与任何合适的数据对象相关联,诸如例如歌曲、图片、应用或视频。作为非限制示例,选择一项目可触发歌曲被播放或图片被显示。
用户界面可显示多个以各种不同的方式组织的可选择的项目。一些示例用户界面被显示在图5A、5B和5C中。尤其,图5A显示了示例性圆盘传送带510,图5B显示了示例性1维(1-D)列表520,图5C显示了示例性2维(2-D)列表530。用户界面中的每个被显示在滚动之前的时间t0处以及在滚动之后的时间t1处。用户界面可从时间t0到t1改变外观。例如,圆盘传送带510可看起来被可视地旋转来标识项目511以供选择,1维列表520可具有被标识以供选择的不同的项目521,并且2维列表530可呈现具有被标识为以供选择的另一项目531的另一列532。
标识一项目以供选择可包括提供随后的用户输入将发起与选择该项目相关联的动作的线索。这样的线索可以是可视的,诸如突出显示或以其它方式标记该项目,或通过将该项目显示得比其它项目更为显著。在一些实施例中,线索可以是可听的。应当理解,可使用基本上任何标识一项目以供选择的方法而不背离本公开的范围。
在一些实施例中,滚动导致显示来示出先前没有在显示上被显示的新的项目。例如,1维列表可总是将中间项目标识为以供选择,而滚动可导致一组新的项目来填充该列表,从而标识另一项目为以供选择。
所显示的用户界面实际上是示例性的,并旨在用于方便理解。应当理解,适合本公开的用户界面可包括更多或更少的图形、图标或在图5A、5B和5C中未显示的其它项目,并且基本上,可使用任何用户界面让不背离本公开的范围。
返回图4,方法400可包括在420,接收人类主体的身体部位的世界空间放置。如在此使用的,世界空间指的是人类主体所存在于其中的物理空间(例如,起居室)。放置可包括该用户的身体部位的3-D位置和/或定向。例如,放置可包括头的定向、手的3-D位置和/或定向、和/或人类正面向的方向。在一些实施例中,放置可涉及多于一个的身体部位,诸如一个手到另一手的距离和/或一个人的身体部分相对于另一身体部位或人的位置/定向。
在一些实施例中,放置可包括1-D位置。例如,身体部位的世界空间放置可指身体部位关于世界空间中第一轴的放置,独立于身体部位关于不与该第一轴平行的其它轴的放置。换言之,出于滚动的目的,身体部位的离轴移动可被忽略。例如,可不关于手的向上和向下或向前和向后的位置来考虑手的向左和向右的位置。通过这种方式,人可以在一方向上移动他们的手(或任何身体部位)而不必需要将该身体部位的运动限制为另一方向。
如421处指示的,可从深度相机接收包括人类主体的世界空间场景的一个或多个深度图像。深度图像可被处理来确定身体部位的世界空间放置。例如,如参考图3描述的,虚拟骨架可被用于建模人类主体,并且该虚拟骨架的关节和/或其它方面可被用于确定人类主体的相应身体部位的世界空间放置。可使用其它方法和设备来确定身体部位的世界空间放置而不背离本公开的范围。例如,可使用能够观察和输出可见光数据的传统相机。可见光数据可被处理来确定身体部位的世界空间放置。例如,面部识别、对象识别和对象跟踪可被采用来处理可见光数据。
如在422处指示的,人类主体的手的世界空间位置可被标识。例如,可使用虚拟骨架来标识手的位置。在这种情况下,虚拟骨架的手关节的位置可被用于确定人类主体的真实手的世界空间位置。虽然人类主体的手的位置可被标识,但是手的位置不需要被可视地呈现给人类主体。例如,用户界面可以是没有指示手的位置的可视元素的无光标的用户界面。可以相信在一些情况下,无光标的用户界面可向该界面的用户提供更直观的体验。
方法400可包括在430,响应于主体具有对应于一方向的身体部位的世界空间放置,以该方向来滚动可选择的项目。以一方向来滚动可选择的项目可包括实际上任何用于对可选择的项目的显示进行重新组织的合适的方法,诸如那些参考图5A、5B和5C描述的方法。然而,也可以利用其它滚动技术。例如,三维滚动可由用户切换到查看另一组可选择的项目或从列表显示改变到圆盘传送带显示来发起。可实现更高维度的滚动,诸如通过以两个对角线方向、以水平方向以及以垂直方向滚动。应当理解,可使用基本上任何数量的滚动技术而不背离本公开的范围。
在一些实施例中,多个可选择的项目用根据人类主体的身体部位的放置的函数的滚动速度来滚动。例如,该函数可以是人类主体的身体部位的世界空间放置的阶梯函数(step function)(例如,手离开中间区域的距离)或随着离开区域(诸如中间区域)的距离来增加的另一函数。中间区域可以是在其中滚动速度为零的区域。换言之,如果人类主体的身体部位被放置在中间区域内,滚动可被停止或放慢,同时多个项目可被保持,其中一个项目被标识以供选择。例如,图3A、3B和3C示出与直接在人类主体前面的世界空间位置相对应的虚拟位置中的中间区域340。在这样的示例中,虚拟骨架的手向左或向右移动得离开中间区域340越远,则可选择的项目可滚动的越快。应当理解,可使用任何以可预测的方式将身体部位的世界空间放置映射到滚动速度的合适的函数而不背离本公开的范围。
针对任何合适的用户界面,可通过任何合适的方法来将身体部位的放置映射到滚动方向和速度。例如,响应于人类主体的身体部位的世界空间放置具有第一放置(例如,中间区域的左边),多个可选择的项目可在用户界面内以第一方向滚动(例如,逆时针),并且响应于人类主体的身体部位的世界空间放置具有第二放置(例如,中间区域的右边),多个可选择的项目可在用户界面内以与第一方向相反的第二方向滚动(例如,顺时针)。
滚动方向可通过任何合适的方法来确定。一般而言,滚动方向可被选择来与和人类主体的直觉(intuition)匹配的世界空间方向相对应。例如,向左滚动可通过将手向左移动来实现,而向下滚动可通过将手向下移动来实现。基本上可建立世界空间身体部位放置和滚动方向之间的任何相关。
此外,身体部位的放置不必要被限制为由该身体部位的世界空间位置来表征。放置可由身体部位的属性来表征。这样的属性可包括例如眼睛的眨眼、头的定向或面部表情。多个可选择的项目可响应于身体部位的属性的状态来滚动。一个状态可导致项目以第一方向滚动,而另一状态可导致项目以另一方向滚动。例如,闭上左眼可导致列表向左滚动,而闭上右眼可导致列表向右滚动。应当理解,如上描述的,属性可以是手的世界空间放置。此外,身体部位的属性可包括该身体部位的第一部分相对于该身体部位的第二部分的位置的位置。例如,人类主体可将一个手指移动地离开另一手指以实现想要的滚动效果。
在一些实施例中,响应于人类主体的身体部位的世界空间放置具有在第一放置和第二放置中间的第三放置,多个可选择的项目被保持,其中该多个可选择的项目中的一个被标识以供选择。作为示例,图3A显示虚拟骨架310,其具有直接向前保持在中间区域340内的左手。在该示例中,中间手放置导致用户界面150保持多个可选择的项目,其中可选择的项目350被标识以供选择。
在440,方法400可包括响应于用户输入来选择被标识为以供选择的项目。用户输入可包括基本上任何输入,诸如姿势或声音。例如,用户可作出推姿势来选择被标识为以供选择的项目。可使用其它姿势,诸如移步或例如点头。替代地,用户可以说话,通过诸如说出选择或进行。可诸如通过鼓掌来使用姿势和声音的组合。在选择项目后,可采取任意数量的动作,诸如播放歌曲、呈现新的数据、显示新的列表、播放视频、呼叫朋友等。
在一些实施例中,可将以上所描述的方法和过程捆绑到包括一个或多个计算机的计算系统。具体而言,此处所述的方法和过程可被实现为计算机应用、计算机服务、计算机API、计算机库、和/或其他计算机程序产品。
图6示意性示出了可以执行上述方法和过程之中的一个或更多个的非限制性计算系统600。以简化形式示出了计算系统600。应当理解,可使用基本上任何计算机架构而不背离本公开的范围。在不同的实施例中,计算系统600可以采取大型计算机、服务器计算机、台式计算机、膝上型计算机、平板计算机、家庭娱乐计算机、网络计算设备、移动计算设备、移动通信设备、游戏设备等等的形式。图1的计算系统120是计算系统600的非限制性示例。
计算系统600包括逻辑子系统602和数据保持子系统604。计算系统600可以任选地包括显示子系统606、通信子系统608和/或在图6中未示出的其他组件。计算系统600还可以任选地包括诸如下列用户输入设备:例如键盘、鼠标、游戏控制器、相机、话筒和/或触摸屏等等。
逻辑子系统602可包括被配置为执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统可被配置为执行一个或多个指令,该一个或多个指令是一个或多个应用、服务、程序、例程、库、对象、组件、数据结构、或其它逻辑构造的部分。可实现这样的指令以执行任务、实现数据类型、变换一个或多个设备的状态、或以其他方式得到所希望的结果。
逻辑子系统可包括被配置为执行软件指令的一个或多个处理器。附加地或替代地,逻辑子系统可包括被配置成执行硬件或固件指令的一个或多个硬件或固件逻辑机。逻辑子系统的处理器可以是单核或多核,且在其上执行的程序可被配置为并行或分布式处理。逻辑子系统可以任选地包括遍布两个或更多设备的独立组件,所述设备可远程放置和/或被配置为进行协同处理。该逻辑子系统的一个或多个方面可被虚拟化并由以云计算配置进行配置的可远程访问的联网计算设备执行。
数据保持子系统604可包括一个或多个物理的、非瞬时的设备,这些设备被配置成保持数据和/或可由该逻辑子系统执行的指令,以实现此处描述的方法和过程。在实现这样的方法和过程时,可以变换数据保持子系统604的状态(例如,以保持不同的数据)。
数据保持子系统604可包括可移动介质和/或内置设备。数据保持子系统604尤其可以包括光学存储器设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)和/或磁存储器设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)。数据保持子系统604可包括具有以下特性中的一个或多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址、以及内容可寻址。在某些实施例中,可以将逻辑子系统602和数据保持子系统604集成到一个或更多个常见设备中,如专用集成电路或片上系统。
图6还示出以可移动计算机可读存储介质612形式的数据保持子系统的一方面,可移动计算机可读存储介质可用于存储和/或传输可执行以实现本文描述的方法和过程的数据和/或指令。可移动计算机可读存储介质612尤其是可以采取CD、DVD、HD-DVD、蓝光盘、EEPROM和/或软盘形式。
可以明白,数据保持子系统604包括一个或多个物理的、非瞬时的设备。相反,在一些实施例中,本文描述的指令的各方面可以按暂态方式通过不由物理设备在至少有限持续时间期间保持的纯信号(例如电磁信号、光信号等)传播。此外,与本发明有关的数据和/或其他形式的信息可以通过纯信号传播。
当被包括时,显示子系统606可用于呈现由数据保持子系统604所保持的数据的可视表示。在此处所描述的方法和过程改变由数据保持子系统保持的数据,并由此变换数据保持子系统的状态时,同样可以变换显示子系统606的状态以在视觉上表示底层数据的改变。显示子系统606可以包括使用实际上任何类型的技术的一个或多个显示设备。可将此类显示设备与逻辑子系统602和/或数据保存子系统604一起组合在共享封装中,或此类显示设备可以是外围显示设备。
当包括通信子系统608时,通信子系统608可以被配置成将计算系统600与一个或多个其他计算设备可通信地耦合。通信子系统608可包括与一个或多个不同的通信协议相兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统可被配置为经由无线电话网、无线局域网、有线局域网、无线广域网、有线广域网等进行通信。在一些实施例中,通信子系统可允许计算系统600经由诸如因特网之类的网络发送消息至其他设备和/或从其他设备接收消息。
在一些实施例中,传感器子系统610可包括深度相机614。深度相机614可包括例如立体视觉系统的左和右相机。来自两个相机的时间解析的图像可被相互注册并可被组合来产生深度解析的视频。
在其它实施例中,深度相机614可以是结构化的光深度相机,被配置成投影结构化的包括多个离散的特征(例如,线或点)的红外照明。深度相机614可被配置成对从结构化的照明被投影到其之上的场景中反射的结构化的照明进行成像。基于所成像的场景的各个区域内邻近特征之间的间隔,可构造该场景的深度图像。
在其它实施例中,深度相机614可以是飞行时间相机,其被配置成将脉冲的红外照明投影到该场景上。深度相机可包括两个相机,被配置成检测从场景反射的脉冲照明。两个相机均可包括与脉冲照明同步的电子快门,但用于相机的集成时间可不同,使得脉冲照明的从源到场景再接着到相机的像素解析的飞行时间可从在两个相机的相应的像素中接收到的相对光的量中辨别。
在一些实施例中,传感器子系统610可包括可见光相机616。可以使用基本上任何类型的数字相机技术而不背离本公开的范围。作为非限制的示例,可见光相机616可包括电荷耦合的设备图像传感器。
在一些实施例中,传感器子系统610可包括一个或多个运动传感器618。示例运动传感器包括但不限于,加速计、陀螺仪以及全球定位系统。
应该理解,此处所述的配置和/或方法在本质上是示例性的,并且这些具体实施例或示例不应被认为是局限性的,因为多个变体是可能的。此处所述的具体例程或方法可表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示顺序执行、按其他顺序执行、并行地执行、或者在某些情况下被省略。同样,可以改变上述过程的次序。
本公开的主题包括各种过程、系统和配置、此处所公开的其他特征、功能、动作、和/或特性、以及其任何和全部等效物的所有新颖和非显而易见的组合和子组合。

Claims (10)

1.一种保持指令的数据保持子系统,所述指令可由逻辑子系统执行以:
向显示设备输出包括多个可选择的项目的用户界面;
从深度相机接收包括人类主体的世界空间场景的一个或多个深度图像;
标识所述人类主体的手的世界空间位置;
响应于所述人类主体的手的世界空间位置在第一区域内,在所述用户界面内以第一方向滚动所述多个可选择的项目;
响应于所述人类主体的手的世界空间位置在第二区域内,在所述用户界面内以与所述第一方向相反的第二方向滚动所述多个可选择的项目;
响应于所述人类主体的手的世界空间位置在所述第一区域和所述第二区域之间的中间区域内,保持所述多个可选择的项目,其中所述多个可选择的项目中的一个被标识以供选择。
2.如权利要求1所述的数据保持子系统,其特征在于,还保持可由所述逻辑子系统执行以执行以下操作的指令:
响应于用户输入来选择所述被标识以供选择的项目。
3.如权利要求2所述的数据保持子系统,其特征在于,所述用户输入是世界空间内的推姿势。
4.如权利要求1所述的数据保持子系统,其特征在于,所述多个可选择的项目以某一滚动速度来滚动,所述滚动速度根据所述手离开所述中间区域的距离的函数来增加。
5.如权利要求1所述的数据保持子系统,其特征在于,所述手的世界空间位置指所述手关于世界空间内第一轴的位置,独立于所述手关于不与所述第一轴平行的其它轴的位置。
6.如权利要求1所述的数据保持子系统,其特征在于,所述用户界面是没有指示所述手的位置的可视元素的无光标用户界面。
7.一种控制包括一个或多个可选择的项目的用户界面的方法,所述方法包括:
接收人类主体的身体部位的属性,所述身体部位的属性可在两个或更多个不同的状态之间改变;
响应于所述人类主体的身体部位的属性具有第一状态,在所述用户界面内以第一方向滚动所述多个可选择的项目;
响应于所述人类主体的身体部位的属性具有不同于所述第一状态的第二状态,保持所述多个可选择的项目,其中所述多个可选择的项目中的一个被标识以供选择。
8.如权利要求7所述的方法,其特征在于,所述身体部位的属性包括所述人类主体的头的定向。
9.如权利要求7所述的方法,其特征在于,所述身体部位的属性包括所述人类主体的面部表情。
10.如权利要求7所述的方法,其特征在于,所述身体部位的属性包括所述身体部位的第一部分相对于所述身体部位的第二部分的位置的位置。
CN2012103701061A 2011-09-28 2012-09-27 运动控制的列表滚动 Pending CN102929507A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/247,828 2011-09-28
US13/247,828 US20130080976A1 (en) 2011-09-28 2011-09-28 Motion controlled list scrolling

Publications (1)

Publication Number Publication Date
CN102929507A true CN102929507A (zh) 2013-02-13

Family

ID=47644327

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012103701061A Pending CN102929507A (zh) 2011-09-28 2012-09-27 运动控制的列表滚动

Country Status (12)

Country Link
US (1) US20130080976A1 (zh)
EP (1) EP2761404A4 (zh)
JP (1) JP2014531693A (zh)
KR (1) KR20140081840A (zh)
CN (1) CN102929507A (zh)
AU (1) AU2012316228A1 (zh)
BR (1) BR112014006755A2 (zh)
CA (1) CA2850143A1 (zh)
IN (1) IN2014CN02206A (zh)
MX (1) MX2014003850A (zh)
RU (1) RU2014111811A (zh)
WO (1) WO2013049055A2 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105229571A (zh) * 2013-03-13 2016-01-06 微软技术许可有限责任公司 自然用户接口滚动和瞄准
CN105335054A (zh) * 2014-07-31 2016-02-17 国际商业机器公司 列表显示控制方法和设备
CN109992188A (zh) * 2018-01-02 2019-07-09 武汉斗鱼网络科技有限公司 一种iOS移动端文本滚动显示的实现方法及装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10474342B2 (en) * 2012-12-17 2019-11-12 Microsoft Technology Licensing, Llc Scrollable user interface control
US8731824B1 (en) * 2013-03-15 2014-05-20 Honda Motor Co., Ltd. Navigation control for a touch screen user interface
US20150141139A1 (en) * 2013-11-19 2015-05-21 Microsoft Corporation Presenting time-shifted media content items
KR101488662B1 (ko) * 2014-07-31 2015-02-04 스타십벤딩머신 주식회사 Nui 장치를 통하여 사용자와 상호작용하는 인터페이스 제공방법 및 제공장치
KR102508833B1 (ko) 2015-08-05 2023-03-10 삼성전자주식회사 전자 장치, 전자 장치의 문자 입력 방법
US20180210630A1 (en) * 2017-01-26 2018-07-26 Kyocera Document Solutions Inc. Display device and display method
CN112099712B (zh) * 2020-09-17 2022-06-07 北京字节跳动网络技术有限公司 人脸图像显示方法、装置、电子设备及存储介质
US20240061514A1 (en) * 2022-08-18 2024-02-22 Meta Platforms Technologies, Llc Navigating a user interface using in-air gestures detected via neuromuscular-signal sensors of a wearable device, and systems and methods of use thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080036737A1 (en) * 2006-08-13 2008-02-14 Hernandez-Rebollar Jose L Arm Skeleton for Capturing Arm Position and Movement
US20090228841A1 (en) * 2008-03-04 2009-09-10 Gesture Tek, Inc. Enhanced Gesture-Based Image Manipulation
US20100060570A1 (en) * 2006-02-08 2010-03-11 Oblong Industries, Inc. Control System for Navigating a Principal Dimension of a Data Space
CN101810003A (zh) * 2007-07-27 2010-08-18 格斯图尔泰克股份有限公司 增强的基于相机的输入

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69921956T2 (de) 1999-02-11 2006-02-09 Sony International (Europe) Gmbh Edgerät für die drahtlose Telekommunikation und Verfahren zur Anzeige von Symbolen auf einer Anzeigevorrichtung eines solchen Endgeräts
US7107532B1 (en) * 2001-08-29 2006-09-12 Digeo, Inc. System and method for focused navigation within a user interface
US7661075B2 (en) * 2003-05-21 2010-02-09 Nokia Corporation User interface display for set-top box device
US7874917B2 (en) * 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
EP2013865A4 (en) * 2006-05-04 2010-11-03 Sony Comp Entertainment Us METHODS AND APPARATUS FOR APPLYING ADAPTATION EFFECTS TO INPUT BASED ON ONE OR MORE VISUAL, ACOUSTICAL, INERTIAL AND MIXED DATA
US8102417B2 (en) * 2006-10-25 2012-01-24 Delphi Technologies, Inc. Eye closure recognition system and method
JP2009093356A (ja) * 2007-10-05 2009-04-30 Sony Corp 情報処理装置およびスクロール方法
US8487871B2 (en) * 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US10357714B2 (en) * 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US20110150271A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US9141189B2 (en) * 2010-08-26 2015-09-22 Samsung Electronics Co., Ltd. Apparatus and method for controlling interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100060570A1 (en) * 2006-02-08 2010-03-11 Oblong Industries, Inc. Control System for Navigating a Principal Dimension of a Data Space
US20080036737A1 (en) * 2006-08-13 2008-02-14 Hernandez-Rebollar Jose L Arm Skeleton for Capturing Arm Position and Movement
CN101810003A (zh) * 2007-07-27 2010-08-18 格斯图尔泰克股份有限公司 增强的基于相机的输入
US20090228841A1 (en) * 2008-03-04 2009-09-10 Gesture Tek, Inc. Enhanced Gesture-Based Image Manipulation

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105229571A (zh) * 2013-03-13 2016-01-06 微软技术许可有限责任公司 自然用户接口滚动和瞄准
CN105229571B (zh) * 2013-03-13 2018-03-30 微软技术许可有限责任公司 自然用户接口滚动和瞄准
CN105335054A (zh) * 2014-07-31 2016-02-17 国际商业机器公司 列表显示控制方法和设备
CN105335054B (zh) * 2014-07-31 2019-02-15 国际商业机器公司 列表显示控制方法和设备
CN109992188A (zh) * 2018-01-02 2019-07-09 武汉斗鱼网络科技有限公司 一种iOS移动端文本滚动显示的实现方法及装置
CN109992188B (zh) * 2018-01-02 2021-02-02 武汉斗鱼网络科技有限公司 一种iOS移动端文本滚动显示的实现方法及装置

Also Published As

Publication number Publication date
EP2761404A4 (en) 2015-10-07
KR20140081840A (ko) 2014-07-01
JP2014531693A (ja) 2014-11-27
MX2014003850A (es) 2014-04-30
RU2014111811A (ru) 2015-10-10
EP2761404A2 (en) 2014-08-06
US20130080976A1 (en) 2013-03-28
BR112014006755A2 (pt) 2017-03-28
WO2013049055A3 (en) 2013-07-11
WO2013049055A2 (en) 2013-04-04
IN2014CN02206A (zh) 2015-06-12
AU2012316228A1 (en) 2014-04-17
CA2850143A1 (en) 2013-04-04

Similar Documents

Publication Publication Date Title
CN102929507A (zh) 运动控制的列表滚动
US11494995B2 (en) Systems and methods for virtual and augmented reality
TWI567659B (zh) 照片表示視圖的基於主題的增強
CN102693004B (zh) 界面控件的按压启动
US8788973B2 (en) Three-dimensional gesture controlled avatar configuration interface
US8957858B2 (en) Multi-platform motion-based computer interactions
US9489053B2 (en) Skeletal control of three-dimensional virtual world
CN105981076B (zh) 合成增强现实环境的构造
JP7008730B2 (ja) 画像に挿入される画像コンテンツについての影生成
US8159458B2 (en) Motion tracking user interface
US20120218395A1 (en) User interface presentation and interactions
US8913809B2 (en) Monitoring physical body changes via image sensor
EP2887322A1 (en) Mixed reality holographic object development
US20130102387A1 (en) Calculating metabolic equivalence with a computing device
US8885878B2 (en) Interactive secret sharing
KR20200145698A (ko) 증강 현실 기반의 3차원 조립 퍼즐을 제공하는 방법 및 단말
US20120309530A1 (en) Rein-controlling gestures
US11393153B2 (en) Systems and methods performing object occlusion in augmented reality-based assembly instructions
CN107077730A (zh) 基于剪影的肢寻找器确定
CN112891940A (zh) 图像数据处理方法及装置、存储介质、计算机设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150729

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150729

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20130213