CN114424151A - 用于vr和ar环境中的基于手的用户交互的装置和方法 - Google Patents

用于vr和ar环境中的基于手的用户交互的装置和方法 Download PDF

Info

Publication number
CN114424151A
CN114424151A CN202080066127.7A CN202080066127A CN114424151A CN 114424151 A CN114424151 A CN 114424151A CN 202080066127 A CN202080066127 A CN 202080066127A CN 114424151 A CN114424151 A CN 114424151A
Authority
CN
China
Prior art keywords
user
action
hand
neutral zone
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080066127.7A
Other languages
English (en)
Inventor
S·莱列夫
P·施穆克
J-E·马维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital CE Patent Holdings SAS
Original Assignee
InterDigital CE Patent Holdings SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by InterDigital CE Patent Holdings SAS filed Critical InterDigital CE Patent Holdings SAS
Publication of CN114424151A publication Critical patent/CN114424151A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

虚拟现实(VR)或增强现实(AR)系统通过相机检测用户的手的位置何时匹配预定义位置,并且响应于此,渲染包括冠部的覆盖物,用户可与该覆盖物进行交互以锁定到对象或场景上。然后,该系统检测并渲染跟踪用户的手的冠部的中心指示器,根据中心指示器相对于中性区的位置启用或禁用动作,对用户手移动作出响应以实施动作,并且还检测对象或场景的解锁。

Description

用于VR和AR环境中的基于手的用户交互的装置和方法
技术领域
本公开整体涉及用户界面,并且更具体地涉及用于虚拟现实(VR)和增强现实(AR)环境的用户界面。
背景技术
本部分旨在向读者介绍本领域的各个方面,这些方面可能与下文描述和/或要求保护的本公开的各个方面有关。据信该讨论有助于向读者提供背景信息,以促进更好地理解本公开的各个方面。因此,应当理解,这些陈述应当从这个角度来解读,而不是承认现有技术。
VR和AR技术向用户提供在合适的显示器(诸如智能电视、PC、投影仪、头戴式显示器(HMD)等)上运行此类应用的沉浸式体验。通过用户界面,用户通常能够与VR或AR环境进行交互,例如以处理其中的对象。为此,必须接收用户输入,例如可以通过用户跟踪系统使用检测颜色和深度的传感器(可穿戴或不可穿戴)或相机来完成该用户输入。例如,配备有颜色/深度相机的连接的智能电视可以能够跟踪用户的身体的每个部分的形状和位置,这可以使得能够在自然交互式系统中使用手势。这可以为用户提供与在例如广播TV节目中的AR或VR场景或对象、来自在视频会议期间共享的互联网或内容的内容项进行交互的方式。
常规用户界面可以覆盖用户的手的图像,这使与按钮和其他菜单项的交互变得相对简单。与对象进行交互更困难,这是因为对象不总是如在现实世界中反应。
另一种常规解决方案在屏幕上提供用户的手的位置的指示,并且使得用户能够与虚拟对象进行交互以放大/缩小和旋转该对象。
然而,特别是当与对象进行交互时,此类用户界面倾向于难以使用,特别是对于新用户,因为他们不总是直观的。
因此,应当理解,期望解决用于AR和VR的用户界面的至少一些缺点的解决方案。本发明原理提供了这样的解决方案。
发明内容
在第一方面,本发明原理涉及一种在装置中用于渲染虚拟现实或增强现实环境的方法。该方法包括在装置的至少一个硬件处理器中:在显示器上渲染覆盖物;基于用户的手的检测位置计算覆盖物的中心指示器的位置;基于中心指示器相对于中性区的位置来启用至少一个动作;以及响应于用户手移动而执行启用动作。
在第二方面,本发明原理涉及一种用于渲染虚拟现实或增强现实环境的装置,该装置包括至少一个硬件处理器,该至少一个硬件处理器被配置成:在显示器上渲染覆盖物;基于用户的手的位置计算覆盖物的中心指示器的位置;基于中心指示器相对于中性区的位置来启用至少一个动作;以及响应于用户手移动而执行启用动作。
在第三方面,本发明原理涉及一种计算机程序产品,该计算机程序产品存储在非暂态计算机可读介质上和包括程序代码指令,该程序代码指令可由处理器执行以实施根据第二方面的任何实施方案的方法的步骤。
附图说明
现在将参考附图通过非限制性示例描述本发明原理的特征,其中:
图1示出了根据本发明原理的实施方案的虚拟现实(VR)/增强现实(AR)系统;
图2示出了根据本发明原理的实施方案的方法;
图3示出了根据本发明原理的此类覆盖物的第一示例;并且
图4示出了根据本发明原理的此类覆盖物的第二示例。
具体实施方式
图1是根据例示性实施方案的虚拟现实(VR)或增强现实(AR)交互式系统100的描绘。交互式系统100包括渲染装置110、显示器120和相机130。
渲染装置110、显示器120和相机130已被描绘为单独的实体,但是在不同的变体中,它们以每种可能的方式组合。例如,三个实体可以并入到单个装置诸如电视中,显示器120和渲染装置110在一起,而相机130是单独的,或者渲染装置110与包括相机的显示器分离。
显示器120操作以向用户(未示出)显示从渲染装置接收的视频。显示器120可以例如是电视、计算机屏幕、头戴式显示器(HMD)、平板电脑或智能电话。
可以是深度和颜色相机的相机130操作以捕获其光圈前方的任何事物的图像和/或视频。在交互式系统100中,相机130通常将被布置成捕获包括用户的环境。检测用户的手的位置的其他手势检测器也是可能的,诸如用户穿戴的一个或多个传感器。
渲染装置110可以例如是计算机、机顶盒、游戏控制台、平板电脑、智能电话等。渲染装置110通常包括用户输入接口111、至少一个硬件处理器(“处理器”)112、存储器113、网络接口114和输出接口,例如显示界面115或扬声器。接口至少部分地在硬件中实施。应当理解,为了简洁描述,未示出装置110的对于理解本发明原理没有用的部件。
用户输入接口111可以是无线的并且被配置成从输入装置(未示出)接收输入,但该用户输入接口也可以是触摸屏、到键盘和/或鼠标的接口等。用户输入接口被配置成向处理器112提供接收到的输入。处理器112被配置成执行程序代码指令以执行根据参考图2描述的本发明原理的方法。存储器113被配置成存储用于由处理器112执行的程序代码指令并存储数据。网络接口114可以是有线或无线的,并且被配置成允许通过连接部140在处理器112与至少一个装置诸如外部网络中的服务器(未示出)之间进行通信以接收用于向用户显示的计算机程序或内容。此类内容可以是视频程序,其将被用作非限制性示例。输出接口可以是有线或无线的,并且被配置成输出用于在显示器120上显示的内容。如已经提到的,在装置110是电视的情况下,显示器120通常包括在该装置中。应注意,电视还可以具有用于在单独的屏幕(未示出)上显示信息的显示界面。
本发明原理的突出方面是在VR/AR场景之上使用覆盖物。
图2示出了根据本发明原理的实施方案的方法。假设用户在AR/VR场景“内部”,即用户能够与场景进行交互。出于示例性目的,还假设用户尚未与场景中的任何对象进行交互。
在步骤S210中,交互式系统(图1中的100)的用户界面(图1和图2中的120)检测用户的手的位置,以检测该位置何时匹配预定义位置。该预定义位置可以是具有相同含义的多个位置中的一者。此类预定义位置的示例可以是当用户在身体前方伸出手时。
在检测到匹配时,用户界面在步骤S220中在AR/VR场景上渲染覆盖物。图3示出了根据本发明原理的此类覆盖物300的第一示例。可以至少部分地半透明的覆盖物300在示例中旨在使用两只手进行交互。
覆盖物300可以包括中心指示器310、中性区320(以灰色对角阴影)和冠部330,该冠部包括第一锁定位置341和第二锁定位置342。
中心指示器310指示冠部330的中心。当中心指示器310位于中性区320内部时,抑制某些用户动作,如将描述的。相反,仅当中心指示器310位于中性区320内部时才能启用动作。中性区320在中心指示器310位于内部时可以是不可见的(或更透明的),并且在中心指示器310位于外部时变为可见或更不透明的。
优选地是手形的锁定位置341、342指示用户必须放置其手来锁定或解锁场景或对象的位置,如将描述的。
用户的手的位置由在示例性位置示出的右手指示器351和左手指示器352表示。
在步骤S230中,用户界面等待用户通过特定手势锁定到对象上,在本示例中,该特定手势将手放置在锁定位置341、342上方(或至少基本上放置在其上方)持续给定时间段;换句话说,为了将手指示器351、352放置在锁定位置341、342之上持续给定时间段,该给定时间段可以是0.5秒、1秒、1.5秒等。
在一个实施方案中,当没有锁时,锁定位置341、342b闪烁。另外,用户界面可以渲染文本以告知用户如何锁定到对象上。
在锁定到对象上时,用户界面在步骤S240中优选地基本上连续地检测和渲染中心指示器310的位置。具体地,用户界面可以检测中心指示器310是位于中性区320内部或还是位于其外部。当锁定时,中心指示器310通常可能利用一些滞后对应于用户两手的中心,即手指示器351、352的中心。应注意,冠部330通常沿循中心指示器310的移动。
图4示出了根据本发明原理的覆盖物400的第二示例。覆盖物400的部件与图3中的覆盖物300中所示的部件相同,差异之处在于,锁定位置341、342已经被填充以指示锁定到对象或场景上,并且中心指示器310和冠部330已经沿循用户的手,使得中心指示器310现在位于中性区320外部(应注意,如同中性区已经移动,在附图中出现)。
在步骤S250中,用户界面根据中心指示器310相对于中性区320的位置启用和/或禁用用户动作。
例如,当位于内部时,启用用户动作可以包括:
·通过分别伸展或收缩手(可能限制于当手指示器351、352处于基本上相同的高度时)放大或缩小(即,使对象更靠近或更远),
以及
·使对象旋转通过手的对应圆形移动(如同它们在方向盘上),可能限制于当手指示器351、352在冠部330内部时;以及
当位于外部时,启用用户动作可以包括:
·通过在对应水平方向上移动手来水平旋转对象,或通过在对应竖直方向上移动手来竖直旋转对象,或
·相机(即,用户的视点)在场景中四处移动。
如将理解的,中性区可以使AR/VR场景较不易于例如意外旋转,因为在中心指示器310在中性区320中时,小水平或竖直手移动将没有影响。
用户界面可以通过例如渲染指示启用动作的图标来指示可能性。另外,可以在用于禁用动作的不同方面(例如变灰或褪色)中渲染图标,如用户界面中常规的。图标可以在消失或褪色之前渲染持续有限时间段。优选地,图标在外围区域中渲染,以免隐藏大部分场景或对象。
应注意,其他用户动作诸如移动对象可以由用户界面实施。
在步骤S260中,用户界面对通过手位置检测跟踪的用户动作作出响应。该用户动作可以包括参考步骤S250描述的用户动作。另外的动作可以包括解锁(参考步骤S270描述)以及当用户交叉手时隐藏和显示覆盖物300,即,将右手引到左手左侧(并且应注意,当用户通过手的圆形移动执行旋转时,这可以被禁用,以便启用大的圆形旋转,例如180°)。替代地,可以防止手指示器351、352切换两侧,使得左侧总是在左侧,或在与右侧相同的竖直位置(除了例如当执行圆形移动时)。
应注意,随着中心指示器310在进程之中穿过中性区320到达另一侧,可以暂时禁用对象的水平或竖直旋转。
在步骤S270中,用户界面检测对象或场景的解锁。这可以通过用户将手指示器351、352放置在锁定位置341、342之上持续给定时间来完成。可以看出,对于锁定到对象或场景上,用户可以做同样的事。解锁还可能需要中心指示器310在中性区320中。
在适合于单手使用的变体中,覆盖物可以包括单个锁定位置,用户应该将手指示器放置在该单个锁定位置之上持续给定时间,以便锁定场景或对象,而解锁是相同的方式。在变体中,可以将启用用户动作限制为移动对象。
因此,应当理解,本发明原理可以用于提供AR/VR系统,该AR/VR系统向用户提供关于启用用户动作的信息,并且还通过使用中性区来提供由小的手移动引起的较不受到“抖动”影响的AR/VR体验。
应当理解,附图中所示的元件可以各种形式的硬件、软件或其组合来实施。优选地,这些元件在一个或多个适当编程的通用装置上以硬件和软件的组合实施,该通用装置可以包括处理器、存储器和输入/输出接口。
本说明书示出本公开的原理。因此,应当理解,本领域技术人员将能够设计各种布置,尽管在本文中未明确描述或示出,但是这些布置体现本公开的原理并且包括在其范围内。
本文中所叙述的所有示例和条件语言旨在用于教育目的,以帮助读者理解本公开的原理和发明人促进技术贡献的概念,并且应被解释为不限制于此类具体叙述的示例和条件。
此外,本文阐述的本公开的原理、方面和实施方案以及其具体示例的所有陈述均旨在涵盖其结构和功能等同物。另外,意图在于,此类等同物包括当前已知的等同物以及未来开发的等同物,即,所开发的执行相同功能的任何元件,而不管结构如何。
因此,例如,本领域技术人员应当理解,本文呈现的框图表示体现本公开的原理的例示性电路的概念图。类似地,应当理解,任何流程图表、流程图等表示可以基本上在计算机可读介质中表示并且由计算机或处理器执行的各种过程,无论此类计算机或处理器是否被明确示出。
附图中所示的各种元件的功能可以通过使用专用硬件以及能够执行与适当软件相关联的软件的硬件来提供。当由处理器提供时,功能可由单个专用处理器、由单个共享处理器或由多个单独处理器提供,其中一些处理器可以是共享的。此外,术语“处理器”或“控制器”的明确使用不应被理解为仅指能够执行软件的硬件,并且可以隐含地包括但不限于数字信号处理器(DSP)硬件、用于存储软件的只读存储器(ROM)、随机存取存储器(RAM)和非易失性存储装置。
也可包括其他常规的和/或定制的硬件。类似地,图中所示的任何开关仅是概念性的。它们的功能可以通过程序逻辑的操作、通过专用逻辑、通过程序控制和专用逻辑的交互、或甚至手动地或甚至手动地进行,如从上下文更具体地理解的,可以由实施人员选择的特定技术。
在本文的权利要求书中,表达为用于执行指定功能的装置的任何元件旨在涵盖执行该功能的任何方式,包括例如:a)执行该功能的电路元件的组合;或b)任何形式的软件,因此包括,固件、微码等,与用于执行该软件的适当电路组合以执行该功能。如由此类权利要求限定的公开内容存在于以下事实:由各种所叙述的装置提供的功能组合并且以权利要求书调用的方式结合在一起。因此,认为可以提供那些功能的任何装置等同于本文所示的那些。

Claims (14)

1.一种在装置中用于渲染虚拟现实或增强现实环境的方法,所述方法包括在所述装置的至少一个硬件处理器中:
在显示器上渲染覆盖物;
基于用户的手的检测位置计算所述覆盖物的中心指示器的位置;
基于所述中心指示器相对于中性区的所述位置来启用至少一个动作;以及
响应于用户手移动而执行启用动作。
2.根据权利要求1所述的方法,还包括响应于检测到检测手位置与至少一个预定义位置之间的匹配而渲染所述覆盖物。
3.根据权利要求1所述的方法,其中所述覆盖物至少部分地半透明。
4.根据权利要求1所述的方法,其中所述覆盖物包括所述中心指示器、所述中性区、冠部、第一锁定位置和第二锁定位置以及右手指示器和左手指示器,所述第一锁定位置和所述第二锁定位置指示所述用户应当将所述右手指示器和所述左手指示器叠加以锁定到对象或场景上或将锁定部解锁到对象或场景上的位置。
5.根据权利要求1所述的方法,其中仅当所述中心指示器的所述位置位于所述中性区内部时才启用第一组动作,并且仅当所述中心指示器的所述位置位于所述中性区外部时才启用第二组动作。
6.根据权利要求5所述的方法,其中所述第一动作是在所述显示器的平面中放大、缩小和旋转中的一者,并且所述第二动作是水平旋转、竖直旋转和移动中的一者。
7.根据权利要求1所述的方法,还包括渲染具有第一视觉方面的指示启用动作的第一图标和具有第二视觉方面的用于禁用动作的第二图标。
8.一种用于渲染虚拟现实或增强现实环境的装置,所述装置包括至少一个硬件处理器,所述至少一个硬件处理器被配置成:
在显示器上渲染覆盖物;
基于用户的手的检测位置计算所述覆盖物的中心指示器的位置;
基于所述中心指示器相对于中性区的所述位置来启用至少一个动作;以及
响应于用户手移动而执行启用动作。
9.根据权利要求8所述的装置,其中所述至少一个硬件处理器被进一步配置成响应于检测到检测手位置与至少一个预定义位置之间的匹配而渲染所述覆盖物。
10.根据权利要求8所述的装置,其中所述至少一个硬件处理器被配置成仅当所述中心指示器的所述位置位于所述中性区内部时才启用第一动作,并且仅当所述中心指示器的所述位置位于所述中性区外部时才启用第二动作。
11.根据权利要求10所述的装置,其中所述第一动作是在所述显示器的平面中放大、缩小和旋转中的一者,并且所述第二动作是水平旋转、竖直旋转和移动中的一者。
12.根据权利要求8所述的装置,其中所述至少一个硬件处理器被进一步配置成渲染具有第一视觉方面的指示启用动作的第一图标和具有第二视觉方面的用于禁用动作的第二图标。
13.根据权利要求8所述的装置,其中所述装置包括所述显示器和相机中的至少一者,所述相机被配置成捕获所述用户的手的位置。
14.一种存储程序代码指令的非暂态计算机可读介质,所述程序代码指令在由处理器执行时实施根据权利要求1至7中至少一项所述的方法的步骤。
CN202080066127.7A 2019-09-20 2020-09-07 用于vr和ar环境中的基于手的用户交互的装置和方法 Pending CN114424151A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19306153.8 2019-09-20
EP19306153 2019-09-20
PCT/EP2020/074950 WO2021052800A1 (en) 2019-09-20 2020-09-07 Device and method for hand-based user interaction in vr and ar environments

Publications (1)

Publication Number Publication Date
CN114424151A true CN114424151A (zh) 2022-04-29

Family

ID=68242597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080066127.7A Pending CN114424151A (zh) 2019-09-20 2020-09-07 用于vr和ar环境中的基于手的用户交互的装置和方法

Country Status (6)

Country Link
US (1) US11762476B2 (zh)
EP (1) EP4031956A1 (zh)
JP (1) JP2022548390A (zh)
CN (1) CN114424151A (zh)
MX (1) MX2022003336A (zh)
WO (1) WO2021052800A1 (zh)

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5568603A (en) * 1994-08-11 1996-10-22 Apple Computer, Inc. Method and system for transparent mode switching between two different interfaces
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6874126B1 (en) * 2001-11-30 2005-03-29 View Space Technologies Method and apparatus for controlling content display by the cursor motion
US6885363B2 (en) * 2002-05-09 2005-04-26 Gateway, Inc. Pointing device dwell time
WO2012171116A1 (en) 2011-06-16 2012-12-20 Rafal Jan Krepec Visual feedback by identifying anatomical features of a hand
US8581901B2 (en) * 2011-07-28 2013-11-12 Adobe Systems Incorporated Methods and apparatus for interactive rotation of 3D objects using multitouch gestures
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US20130103446A1 (en) * 2011-10-20 2013-04-25 Microsoft Corporation Information sharing democratization for co-located group meetings
US8866852B2 (en) * 2011-11-28 2014-10-21 Google Inc. Method and system for input detection
US10345911B2 (en) 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
US20160011724A1 (en) * 2012-01-06 2016-01-14 Google Inc. Hands-Free Selection Using a Ring-Based User-Interface
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US9864433B2 (en) * 2012-07-13 2018-01-09 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
US20140282274A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a gesture performed with at least two control objects
US9529513B2 (en) 2013-08-05 2016-12-27 Microsoft Technology Licensing, Llc Two-hand interaction with natural user interface
KR102166330B1 (ko) 2013-08-23 2020-10-15 삼성메디슨 주식회사 의료 진단 장치의 사용자 인터페이스 제공 방법 및 장치
WO2015081334A1 (en) * 2013-12-01 2015-06-04 Athey James Leighton Systems and methods for providing a virtual menu
US9383894B2 (en) 2014-01-08 2016-07-05 Microsoft Technology Licensing, Llc Visual feedback for level of gesture completion
US20160224123A1 (en) * 2015-02-02 2016-08-04 Augumenta Ltd Method and system to control electronic devices through gestures
US9696795B2 (en) * 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
GB201504362D0 (en) 2015-03-16 2015-04-29 Elliptic Laboratories As Touchless user interfaces for electronic devices
US10156908B2 (en) * 2015-04-15 2018-12-18 Sony Interactive Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display
US9529454B1 (en) 2015-06-19 2016-12-27 Microsoft Technology Licensing, Llc Three-dimensional user input
WO2017018388A1 (ja) * 2015-07-29 2017-02-02 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
US10981061B2 (en) * 2016-06-13 2021-04-20 Sony Interactive Entertainment LLC Method and system for directing user attention to a location based game play companion application
US10852913B2 (en) * 2016-06-21 2020-12-01 Samsung Electronics Co., Ltd. Remote hover touch system and method
EP3260950B1 (en) * 2016-06-22 2019-11-06 Nokia Technologies Oy Mediated reality
CN107885317A (zh) 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置
EP3510475A4 (en) 2016-10-11 2020-04-22 Hewlett-Packard Development Company, L.P. VISUAL NOTICE SYSTEM
US20180143693A1 (en) * 2016-11-21 2018-05-24 David J. Calabrese Virtual object manipulation
US10254846B1 (en) * 2017-03-15 2019-04-09 Meta Company Systems and methods to facilitate interactions with virtual content in an augmented reality environment
EP3454177B1 (en) * 2017-09-11 2020-06-10 Barco N.V. Method and system for efficient gesture control of equipment
WO2019172678A1 (en) * 2018-03-07 2019-09-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
US20190371066A1 (en) * 2018-06-05 2019-12-05 IMEX Media, Inc. Systems and Methods for Providing Virtual Reality Musical Experiences
US10692237B2 (en) * 2018-07-09 2020-06-23 Mehul Sompura Ring size measurement system and method for digitally measuring ring size
US11334212B2 (en) * 2019-06-07 2022-05-17 Facebook Technologies, Llc Detecting input in artificial reality systems based on a pinch and pull gesture
US11475661B2 (en) * 2020-02-10 2022-10-18 Fujifilm Business Innovation Corp. Systems and methods for augmented reality application for annotations and adding interfaces to control panels and screens
US11798201B2 (en) * 2021-03-16 2023-10-24 Snap Inc. Mirroring device with whole-body outfits
US20230038709A1 (en) * 2021-07-28 2023-02-09 Purdue Research Foundation System and Method for Authoring Freehand Interactive Augmented Reality Applications

Also Published As

Publication number Publication date
EP4031956A1 (en) 2022-07-27
US11762476B2 (en) 2023-09-19
US20220342485A1 (en) 2022-10-27
MX2022003336A (es) 2022-05-06
JP2022548390A (ja) 2022-11-18
WO2021052800A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
US10890983B2 (en) Artificial reality system having a sliding menu
US10948993B2 (en) Picture-taking within virtual reality
US10186087B2 (en) Occluding augmented reality objects
CN108604175B (zh) 装置和关联方法
US9619105B1 (en) Systems and methods for gesture based interaction with viewpoint dependent user interfaces
JP7005161B2 (ja) 電子機器及びその制御方法
US10191612B2 (en) Three-dimensional virtualization
CN111566596B (zh) 用于虚拟现实显示器的真实世界门户
US20170195664A1 (en) Three-dimensional viewing angle selecting method and apparatus
CN106873886B (zh) 一种立体显示的控制方法、装置和电子设备
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
CN113546419B (zh) 游戏地图显示方法、装置、终端及存储介质
WO2014194148A2 (en) Systems and methods involving gesture based user interaction, user interface and/or other features
CN113066189B (zh) 一种增强现实设备及虚实物体遮挡显示方法
US20240028130A1 (en) Object movement control method, apparatus, and device
US11100903B2 (en) Electronic device and control method for controlling a display range on a display
US20170031583A1 (en) Adaptive user interface
EP3190503B1 (en) An apparatus and associated methods
JP7005160B2 (ja) 電子機器及びその制御方法
CN114424151A (zh) 用于vr和ar环境中的基于手的用户交互的装置和方法
CN112578983B (zh) 手指取向触摸检测
CN113190110A (zh) 头戴式显示设备的界面元素控制方法及装置
EP4118520A1 (en) Display user interface method and system
CN118349138A (zh) 人机交互方法、装置、设备和介质
CN117354486A (zh) 一种基于ar眼镜的显示方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Paris France

Applicant after: Interactive digital CE patent holdings Ltd.

Address before: Paris France

Applicant before: Interactive digital CE patent holding Co.

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination