CN106980362A - 基于虚拟现实场景的输入方法及装置 - Google Patents
基于虚拟现实场景的输入方法及装置 Download PDFInfo
- Publication number
- CN106980362A CN106980362A CN201610881695.8A CN201610881695A CN106980362A CN 106980362 A CN106980362 A CN 106980362A CN 201610881695 A CN201610881695 A CN 201610881695A CN 106980362 A CN106980362 A CN 106980362A
- Authority
- CN
- China
- Prior art keywords
- dimension gesture
- virtual
- user
- dimensional
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000006073 displacement reaction Methods 0.000 claims description 26
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 230000002045 lasting effect Effects 0.000 claims description 3
- 238000004088 simulation Methods 0.000 claims 2
- 238000005516 engineering process Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000009977 dual effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 239000011800 void material Substances 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000000686 essence Substances 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供一种新的基于VR场景的输入方法,应用于虚拟现实客户端,所述虚拟现实客户端输出的虚拟现实场景中包括三维输入界面,所述方法包括:识别用户在所述虚拟现实场景中的三维手势;当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;如果识别出的所述三维手势为所述预设三维手势,计算所述三维手势对应于所述三维输入界面的操作位置;选中所述三维输入界面中与所述操作位置对应的虚拟输入元件,并读取所述虚拟输入元件所指示的输入信息完成输入。本申请实现了用户在佩戴虚拟现实终端进行沉浸体验时,可以通过三维手势,在虚拟现实场景中快速的完成信息的输入,从而可以提升用户的输入体验。
Description
技术领域
本申请涉及计算机应用领域,尤其涉及一种基于虚拟现实场景的输入方法及装置。
背景技术
VR(Virtual Reality,虚拟现实)技术,是一种综合利用计算机图形系统和各种控制接口,在计算机上生成可交互的三维交互环境,面向用户提供沉浸感的技术。随着VR技术以及硬件的进步,VR技术的应用场景也越来越丰富。然而,VR技术虽然可以面向用户提供逼真的沉浸感,但用户在佩戴VR终端进行沉浸体验时,在VR场景中完成信息输入通常会存在困难,因而如何在VR场景中面向用户提供更新人性化的信息输入,对于提升用户体验将具有十分重要的意义。
发明内容
本申请提出一种基于虚拟现实场景的输入方法,应用于虚拟现实客户端,所述虚拟现实客户端输出的虚拟现实场景中包括三维输入界面,所述方法包括:
识别用户在所述虚拟现实场景中的三维手势;
当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;
如果识别出的所述三维手势为所述预设三维手势,计算所述三维手势对应于所述三维输入界面的操作位置;
选中所述三维输入界面中与所述操作位置对应的虚拟输入元件,并读取所述虚拟输入元件所指示的输入信息完成输入。
本申请还提出一种基于虚拟现实场景的输入装置,应用于虚拟现实客户端,所述虚拟现实客户端输出的虚拟现实场景中包括三维输入界面,所述装置包括:
识别模块,识别用户在所述虚拟现实场景中的三维手势;
判断模块,当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;
计算模块,如果识别出的所述三维手势为所述预设三维手势,计算所述三维手势对应于所述三维输入界面的操作位置;
输入模块,选中所述三维输入界面中与所述操作位置对应的虚拟输入元件,并读取所述虚拟输入元件所指示的输入信息完成输入。
本申请中,通过在虚拟现实场景中输出一个三维输入界面,并识别用户在虚拟现实场景中的三维手势,当识别出的三维手势为预设三维手势时,可以计算该三维手势对应于虚拟现实场景中的三维输入界面的操作位置,并选中该三维输入界面中与该操作位置对应的虚拟输入元件,然后读取该虚拟输入元件所指示的输入信息完成输入,实现了用户在佩戴虚拟现实终端进行沉浸体验时,可以通过三维手势,在虚拟现实场景中快速的完成信息的输入,从而可以提升用户的输入体验。
附图说明
图1是本申请一实施例示出的基于VR场景的输入方法的流程图;
图2是本申请一实施例示出的一种“三维空气键盘”的示意图;
图3是本申请一实施例示出的一种“三维数字魔方键盘”的示意图;
图4是本申请一实施例示出的若干种可用于选中并触发VR场景中的虚拟元件的三维手势;
图5是本申请一实施例提供的一种基于VR场景的输入装置的逻辑框图;
图6是本申请一实施例提供的承载所述一种基于VR场景的输入装置的VR客户端所涉及的硬件结构图。
具体实施方式
在相关技术中,用户在佩戴VR终端进行沉浸体验时,如果需要在VR场景中执行信息输入,目前主要通过以下两种方案来实现:
在第一种方案中,用户可以取下佩戴的VR终端,使用与VR终端对接的PC主机,或者移动终端(比如用户的手机)来完成信息的输入。
例如,以需要插入用户手机的滑佩式VR头盔为例,假设用户在佩戴该VR头盔进行VR购物体验时,需要输入支付密码对订单完成支付,此时可以取下佩戴的该VR头盔,并取下插入在VR头盔中的手机,通过手机来输入支付密码完成订单支付。
在第二种方案中,用户可以使用与VR终端搭配的外接设备,比如操纵杆、手柄等,来控制VR场景中的操作焦点,将操作焦点移动到虚拟现实场景中用于信息输入的虚拟元件的位置上,然后点击外接设备上提供的选中按钮,选中并触发该虚拟元件,来完成信息的输入;
在第三方案中,可以预先设置一个超时时长,用户可以通过头部姿态或者手势,来控制操作焦点的位置,在将操作焦点移动到虚拟现实场景中用于信息输入的虚拟元件的位置上后,可以使该操作焦点在该虚拟元件的位置上保持悬停,并在悬停时间达到该超时时长后,选中并触发该虚拟元件,来完成信息输入。
例如,假设用户在佩戴该VR头盔进行VR购物体验时,需要输入支付密码对订单完成支付,此时用户可以选择使用预先完成充值的虚拟货币来完成支付;在这种情况下,在虚拟现实场景中可以提供一个“使用虚拟币支付”的虚拟按钮。
在一种实现方式中,用户可以通过操作操纵杆或者手柄等外接设备,通过控制VR场景中的操作焦点,将操作焦点移动到该虚拟按钮的位置上,然后通过点击操纵杆或者手柄等外接设备上提供的选中按钮,来选中并触发该虚拟按钮,使用虚拟货币来完成订单的支付;
在另一种实现方式中,可以预先设定一个超时时长,用户可以通过头部姿态或者手势,来控制操作焦点的位置,当将操作焦点移动到该虚拟按钮的位置上后,可以使操作焦点在该虚拟按钮上保持悬停,当悬停时间达到该超时时长时,可以选中并触发该虚拟按钮,使用虚拟货币来完成订单的支付。
然而,对于以上示出的第一种方案,在进行信息的输入时,用户无法在VR场景中完成信息的输入,需要用户取下佩戴的VR终端,因此会中断用户的VR沉浸体验,影响用户体验。
对于以上示出的第二种方案,由于在进行信息的输入时,VR终端需要搭配操纵杆、手柄等外接设备,因此会增加硬件成本。
对于以上示出的第三种方案,由于用户将操作焦点悬停在虚拟元件上后,需要等待一个悬停的超时时长,才能够完成信息的输入,因此无法实现信息的快速输入,导致信息的输入效率较低,影响用户体验。
有鉴于此,本申请提出一种基于虚拟现实场景的输入方法,通过在虚拟现实场中输出一个三维输入界面,并识别用户在虚拟现实场景中的三维手势,当识别出的三维手势为预设三维手势时,可以计算该三维手势对应于虚拟现实场景中的三维输入界面的操作位置,并选中该三维输入界面中与该操作位置对应的虚拟输入元件,然后读取该虚拟输入元件所指示的输入信息完成输入,实现了用户在在佩戴虚拟现实终端进行沉浸体验时,可以通过三维手势,在虚拟现实场景中快速的完成信息的输入,从而可以提升用户的输入体验。
下面通过具体实施例并结合具体的应用场景对本申请进行描述。
请参考图1,图1是本申请一实施例提供的一种基于虚拟现实场景的输入方法,应用于VR客户端,所述VR输出的虚拟现实场景中包括三维输入界面,执行以下步骤:
步骤101,识别用户在所述虚拟现实场景中的三维手势;
步骤102,当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;
步骤103,如果识别出的所述三维手势为所述预设三维手势,计算所述三维手势对应于所述三维输入界面的操作位置;
步骤104,选中所述三维输入界面中与所述操作位置对应的虚拟输入元件,并读取所述虚拟输入元件所指示的输入信息完成输入。
上述VR客户端,是指基于VR技术开发的可以面向用户提供三维沉浸体验的客户端软件;比如,基于VR的APP;上述VR客户端,可以将开发人员开发出的虚拟现实场景模型,通过与VR客户端对接的VR终端,向用户输出,从而使得佩戴VR终端的用户,能够在虚拟现实场景中得到三维沉浸体验。
上述三维手势,是指VR终端通过预设的传感硬件,识别出的具有深度信息的用户手势;其中,上述深度信息,通常是指用户的手势相对于虚拟现实场景的Z轴的坐标信息;例如,对于立体空间中的一个点,通过三维坐标通常可以表示为(x,y,z),在这种情况下,这个点对应的Z轴的坐标值,就可以称之为相对于X轴和Y轴的深度信息。
上述三维输入界面,是指在虚拟现实场景中输出的,用于进行信息输入的三维界面。在该三维输入界面中可以包含若干虚拟输入元件,每一个虚拟输入元件可以指示一个对应的输入信息。
例如,在示出的一种实施方式中,上述三维输入界面可以是一个三维输入键盘。在这种情况下,上述若干虚拟输入元件,可以是该三维输入键盘中所包含的多干虚拟按键,每一个虚拟按键分别指示一个对应的输入字符。
在本例中,为了使用户在在佩戴VR终端进行沉浸体验时,能够在VR场景中快速的完成信息的输入,可以在VR场景中输出三维输入界面,用户在佩戴VR终端进行沉浸体验时,可以在VR场景中执行特定的三维手势操作,通过三维手势触发上述三维输入界面中的虚拟输入元件,快速的完成输入。
以下通过VR场景模型创建,三维手势识别,以及信息输入三个阶段,对本申请的技术方案进行详细描述。
1)VR场景模型创建
在本例中,开发人员可以通过特定的建模工具,完成VR场景模型的创建。上述建模工具,在本例中不进行特别的限定;例如,开发人员可以使用诸如Unity、3dsMax、Photoshop等较为成熟的建模工具完成VR场景模型的创建。
其中,开发人员在通过建模工具创建VR场景模型的过程中,该VR场景模型,以及该VR场景的纹理贴图,都可来源于现实生活中的真实场景;例如,可以事先通过摄像,采集材质纹理贴图,和真实场景的平面模型,然后通过Photoshop或3dmax等建模工具,来处理纹理和构建真实场景的三维模型,然后导入到unity3D平台(简称U3D),在U3D平台中通过音效、图形界面、插件、灯光等多个维度进行画面渲染,然后编写交互代码,最后完成VR场景模型的建模。
在本例中,开发人员除了需要创建VR场景模型以外,为了使用户能够在VR场景中快速的完成信息输入,还可以通过上述建模工具,在上述VR场景模型中,创建一个用于在VR场景中进行信息输入的三维输入界面。
例如,在示出的一种实施方式中,上述三维输入界面,可以是一个三维虚拟键盘,在该三维虚拟键盘中可以包括若干虚拟按键,用户在佩戴VR终端进行沉浸体验时,可以通过这些三维虚拟键盘,在VR场景中快速的完成诸如密码等信息的输入。
其中,上述三维输入界面的具体形态,在本例中不进行特别限定;在实际应用中,可以基于用户体验进行个性化定制。
例如,在示出的一种实现方式中,上述三维输入界面可以是一“三维空气键盘”。
请参见图2,图2为本例中示出的一种“三维空气键盘”的示意图。
在图2所示出的“三维空气键盘”,可以包括一平铺在VR场景的用户视野中的三维虚拟键盘,在该三维虚拟键盘中包括若干三维的虚拟按键,用户可以在VR场景中,通过特定的三维手势选中相应的虚拟按键,来完成密码等数字信息的输入;比如,图2中示出的为用户在虚拟按键“3”所在的位置上执行“点击手势”,选中虚拟按键“3”,来完成3这一数字的输入。
在示出的另一种实现方式中,上述三维输入界面也可以是一“三维数字魔方键盘”。
请参见图3,图3为本例中示出的一种“三维数字魔方键盘”的示意图。
在图3所示出的“三维数字魔方键盘”,可以包括一魔方外形的立方体,该立方体的每一个面上包括若干个虚拟按键,其中,每一个虚拟按键上所指示的数字可以随机显示。用户可以在VR场景中,通过三维手势,在该“三维数字魔方键盘”中面向用户视野的那一面上选中相应的虚拟按键,然后向任意方向旋转该“三维数字魔方键盘”,来完成密码等数字信息的输入;比如,图3中示出的为用户在虚拟按键“9”所在位置执行“向右侧旋转的手势”选中虚拟按键“9”,来完成9这一数字的输入。
需要说明的是,如图2和图3所示出的三维输入界面的形态,仅为示意性的。显然,在实际应用中,上述三维输入界面的形态并不仅仅限定于图2和图3所示出的形态,在本例中不再进行一一列举。
在本例中,当开发人员完成VR场景模型,以及上述三维输入界面的建模后,上述VR客户端可以将上述VR场景模型以及上述三维输入界面,通过与上述VR客户端对接的VR终端(比如VR头盔),向用户输出。
其中,需要说明的是,在默认情况下,上述VR客户端可以仅向用户输出上述VR场景模型,当用户在VR场景中进行沉浸体验的过程中,需要执行信息输入时,再通过用户执行的预设三维手势的触发,在上述VR场景中输出上述三维输入界面。
在示出的一种实施方式中,在默认状态下,上述VR场景中,可以提供一预设的虚拟触发元件(比如虚拟按钮),该虚拟触发元件用于触发在该VR场景中输出上述三维输入界面。
当用户在VR场景中进行沉浸体验的过程中,需要执行信息输入时,可以通过特定的三维手势选中该虚拟触发元件,然后触发VR客户端在该VR场景中输出上述三维输入界面。
例如,假设用户通过佩戴VR终端进行VR购物体验。在这种场景中,上述虚拟触发元件,可以是一个“购买/支付”的虚拟按钮;上述三维输入界面,可以是一个包含三维虚拟键盘的“3D收银台”界面。当用户选择了一件满意的商品,需要在VR场景中购买该商品,并完成订单的支付时,可以通过特定的三维手势选中上述“购买/支付”的虚拟按钮,此时VR客户端可以在该VR场景中输出上述“3D收银台”。在这种情况下,用户可以通过特定的三维手势,继续在该收银台界面中的三维虚拟键盘中,选中并触发相应的虚拟按键,来输入支付密码,完成该商品的购买。
2)三维手势识别
在本例中,用户可以通过在VR场景中,执行特定的三维手势,来选中该VR场景中提供的虚拟元件(比如虚拟按钮,可操作控件,以及页面等)。
其中,上述特定的三维手势,在本例中不进行特别限定,可以是较为简单的三维手势(比如简单的点击手势),也可以是较为复杂的三维手势(比如特定的用于选中虚拟元件的手势),可以是静态的三维手势(比如利用手部做出特定的姿势),也可以是动态的三维手势(比如抓握,拖动,旋转,等等),在本例中不再进行一一列举,在实际应用中,可以基于实际的需求进行个性化定制;例如,不同的VR内容提供商,可以分别自定义不同的三维手势,以体现与其它VR内容提供商的差异化。
请参见图4,图4为本例示出的若干种可用于选中并触发VR场景中的虚拟元件的三维手势。
需要说明的是,图4示出的若干种可用于选中并触发VR场景中的虚拟元件的三维手势,仅为示例性的。显然,在实际应用中,也可以定义图4中示出的三维手势以外的其它类型的三维手势,来选中并触发VR场景中的虚拟元件。
在本例中,用户在通过佩戴VR终端进行沉浸体验时,上述VR客户端可以通过VR终端上搭载的传感硬件,并结合预设的三维手势识别算法,来识别用户在VR场景中所执行的三维手势。
在示出的一种实施方式中,上述VR客户端可以通过搭载在上述VR终端上的传感硬件,来实时的跟踪用户的手部位移,由上述传感硬件对用户的手部位移数据进行采集,并将采集到的用户的手部位移数据回传给上述VR客户端。
其中,上述手部位移数据,具体可以是指用户手部在完成特定的三维手势时的位置坐标、运动轨迹等数据。
当上述VR客户端获取到上述传感硬件采集到的上述用户的手部位移数据后,可以基于预设的手势识别算法,针对获取到的该手部位移数据进行计算,以识别出用户的三维手势。
其中,上述VR客户端在基于上述手势识别算法,识别用户的三维手势时,首先可以基于获取到的上述用户的手部位移数据,计算出该用户的手部,相对于VR场景的X/Y/Z轴的旋转量以及偏移量。
其中,针对X/Y/Z轴的旋转量,可以是指用户的手部在执行特定的三维手势时,用户手部上预先选定出的特征点,分别以X/Y/Z轴为旋转轴,相对于X/Y/Z轴所旋转的偏离角度。而上述偏移量,可以是指用户的手部在执行特定的三维手势时,用户手部上预先选定出的特征点,相对于X/Y/Z轴所偏离的水平距离。
通过获取用户的首部相对于VR场景的X/Y/Z轴的旋转量以及偏移量,将旋转量以及偏移量这两个维度相结合,可以正确的获取到用户的手部在执行三维手势的过程中的深度信息。
当上述VR客户端通过上述手势识别算法,计算出用户的手部,相对于VR场景的X/Y/Z轴的旋转量以及偏移量后,可以基于得到的该旋转量以及偏移量,进行三维建模。其中,具体的建模算法,在本例中进行特别限定。
由于上述旋转量以及偏移量,可以表征用户的手部在执行三维手势的过程中的深度信息,因此基于该深度信息进行三维建模,能够正确的对用户的三维手势进行还原。
当基于上述旋转量以及偏移量进行三维建模,成功创建出用户的三维手势模型后,此时针对用户的三维手势识别完成,上述三维手势模型即为最终的三维手势识别结果。
其中,需要说明的是,上述传感硬件,具体可以包括红外传感器、图像传感器、激光传感器、雷达传感器,等等,在本例中不进行特别限定。
例如,在VR技术的常规实现中,在识别用户的三维手势时,通常可以通过诸如TOF(Time of Flight,飞行时间)方案、双摄像头双目成像方案、结构光方案、以及微型雷达方案来实现。
以基于双摄像头双目成像方案来识别用户的三维手势时,上述传感硬件可以是图像传感器,在这种方案中,上述VR客户端可以通过双摄像头的图像传感器实时的跟踪用户的手部位移,并采集用户的手部位移数据,然后基于上述手势识别算法对用户的手部位移数据进行计算,计算出该用户的手部,相对于VR场景的X/Y/Z轴的旋转量以及偏移量,然后基于得到的旋转量和偏移量进行三维建模,得到最终的三维手势模型。
当然,除了以上示出的基于双摄像头双目成像来识别用户的三维手势的方案以外,在实际应用中,也可以采用TOF方案、结构光方案、微型雷达方案来实现。当基于TOF方案来识别用户的三维手势时,上述传感硬件则可以是红外传感器。当基于结构光方案来识别用户的三维手势时,上述传感硬件可以是激光传感器。当基于结微型雷达方案来识别用户的三维手势时,上述传感硬件可以是雷达传感器。
其中,基于TOF方案、结构光方案、以及微型雷达方案来识别用户的三维手势的详细实现过程,与基于双摄像头双目成像的方案在原理上相同,都是基于手部位移跟踪,计算出用户手部相对于VR场景的X/Y/Z轴的旋转量以及偏移量等深度信息,来进行三维建模,在本例中不再详述,本领域技术人员在将本申请的技术方案付诸实施时,可以参考相关技术中的记载。
在本例中,由于用户在佩戴VR终端进行沉浸体验的过程中,受限于VR终端对用户的裸眼视觉的遮挡,用户并不能实时的观看到的自己手部所执行的三维手势;因此,在这种情况下,可能会对用户所执行的三维手势的准确度造成影响,造成用户沉浸于VR场景中时,所执行的三维手势不够准确。
为了避免这种问题,上述VR客户端还可以在VR场景中输出一与用户的三维手势对应的操作焦点(也可以称之为视觉焦点),并控制该操作焦点,与用户在VR场景中所执行的三维手势同步的进行位移;
例如,在实现时,上述VR客户端,可以根据上述传感硬件通过实时跟踪用户的手部,而采集到的手部位移数据,来实时计算用户的手部对应于上述VR场景中的操作位置,然后根据用户的手部对应于上述VR场景中的操作位置,来控制上述操作焦点的位移,从而实现操作焦点,与用户的三维手势的同步位移。
另外,为了使用户能够在VR场景中的用户视野中,更加直观的观察到用户手部执行的三维手势,在一种实现方式中,上述操作焦点具体可以是一模拟用户的三维手势的动画。
例如,上述VR客户端在基于用户手部的深度信息进行三维建模,成功创建出与用户的三维手势对应的三维手势模型后,由于该三维手势模型通常准确记录了用户的手部的位置坐标、位移变化等参数,因此可以利用该三维手势模型来渲染出一个对应的三维手势动画,并将该三维手势动画作为上述操作焦点,与用户的三维手势同步位移。
可见,通过这种方式,用户沉浸在VR场景中时,可以通过VR场景中的用户视野中输出的操作焦点,实时准确的查看到自己手部当前正在执行的三维手势,从而可以提升用户执行的三维手势的准确度,用户在该操作焦点的提示下,可以及时对手势进行校正,以降低由于手势不准确而造成的误输入的概率。
在本例中,VR客户端可以预先定义用于对VR场景中的虚拟元素进行选中的预设三维手势。当VR客户端识别出用户的三维手势时,还可以进一步识别该三维手势是否为上述预设三维手势,来决策是否选中相应的虚拟元件。
其中,在识别三维手势是否为预设三维手势时,可以通过三维手势模型之间的精准匹配来实现;
例如,VR客户端可以预先保存用于匹配的上述预设三维手势模型,当识别出用户的三维手势后,可以从该三维模型对应的三维手势模型,以及上述预设三维手势模型上,分别选定若干个相对应的特征点,然后逐一匹配各特征点对应于上述虚拟现实场景的X/Y/Z轴的旋转量以及偏移量是否相同,来识别上述三维手势是否为预设三维手势;如果各特征点对应于上述虚拟现实场景的X/Y/Z轴的旋转量以及偏移量均相同,则可以确定上述三维手势为预设三维手势。
当然,在实际应用中,由于用户在VR场景中执行预设三维手势时,通常无法做到精准匹配(即用户执行的三维手势与预设三维手势百分之百相同),因此,在这种情况下,VR客户端在识别用户的三维手势是否为预设三维手势时,除了以上描述的通过三维手势模型之间的精准匹配来实现以外,也可以通过确定三维手势模型之间的相似度是否达到预设阈值来实现;
例如,当VR客户端识别出用户的三维手势后,可以基于预设的相似度算法计算该三维手势对应的三维手势模型,与预设三维手势模型之间的相似度,然后判断计算出的相似度是否达到预设阈值;如果是,则可以确定用户的三维手势为预设三维手势;
其中,上述相似度算法在本例中不进行特别限定,本领域技术人员在将本申请的技术方案付诸实施时,可以参考相关技术的记载;另外,上述预设阈值的大小,在本例中也不进行特别限定,本领域技术人员可以基于实际的需求进行设置;例如,当对三维手势识别时的相似度要求较高时,可以将上述预设阈值设置为一个较大的值;当对三维手势识别时的相似度要求较低时,可以将上述预设阈值设置为一个较小的值。
3)信息输入
在本例中,当VR客户端识别出用户的三维手势为预设三维手势时,此时VR客户端可以计算该三维手势对应于VR场景的操作位置,然后选中VR场景中与该操作位置对应的虚拟元件。
例如,VR客户端仍然可以根据上述传感硬件通过实时跟踪用户的手部,而采集到的手部位移数据,来实时计算用户的手部对应于上述VR场景中的操作位置。当计算出该操作位置后,VR客户端可以查找VR场景中与该操作位置对应的虚拟元件,然后选中该虚拟元件。
当然,在实际应用中,VR客户端除了可以通过上述传感硬件采集到的手部位移数据,来实时计算用户的手部对应于上述VR场景中的操作位置以外,如果当前VR场景中已经输出了与用户的三维手势对应的操作焦点,那么也可以直接通过定位该操作焦点的位置,来确定用户的手部对应于上述VR场景中的操作位置;在这种情况下,VR客户端可以直接查找该操作焦点在VR场景中指示的虚拟元件,然后选中该虚拟元件。
其中,为了降低用户在执行预设三维手势时,由于该三维手势的持续时间过长而造成的误操作,在示出的一种实施方式中,VR客户端还可以预设一个用于表征三维手势是否有效的预设的时长阈值。当VR客户端在识别出用户的三维手势后,还可以计算该三维手势的持续时间(即用户在开始执行手势的时刻,到手势执行完毕的时刻之间的时间差);然后判断该三维手势的持续时间,是否低于上述预设的时长阈值;如果该三维手势的持续时间低于该预设的时长阈值,则确定该三维手势有效,VR客户端可以开始执行后续的识别该三维手势是否为预设三维手势的执行逻辑。当然,如果该三维手势的持续时间等于或者大于该预设的时长阈值,则确定该三维手势无效。
其中,上述预设的时长阈值的具体取值,在本例中不进行特别限定,在实际应用中可以设置为一个较短的时长(比如2秒),从而使得用户可以在较短的时间内快速的执行预设三维手势,来选中VR场景中的虚拟元件,从而可以避免由于用户执行三维手势的持续时间太长,而造成的误操作的问题。
在本例中,如前所述,假设上述VR场景中,预先提供了一预设的虚拟触发元件,该虚拟触发元件用户触发上述VR客户端输出预设的三维输入界面。
在这种情况下,当用户在VR场景中进行沉浸体验时,如果需要执行信息输入,此时用户可以通过将操作焦点移动至该虚拟触发元件所在位置,并使该操作焦点在该虚拟触发元件上保持悬浮;
例如,在实现时,用户可以通过诸如操作杆、手柄等外接设备来控制操作焦点的移动;或者,可以在VR终端上预先安装重力传感器,或者在用户的手部佩戴相应的重力传感装置,继而用户可以通过头部姿态,或者手部的移动,来控制操作焦点的移动。
当该操作焦点在上述虚拟触发元件上保持悬浮后,用户可以在操作焦点指示的位置上执行预设三维手势,VR客户端在识别出用户执行的三维手势为预设三维手势后,由于该操作焦点在上述虚拟触发元件上保持悬停,此时该操作焦点所指示的虚拟元件为该虚拟触发元件,因此VR客户端可以选中该虚拟元件,并触发在上述VR场景中输出上述三维输入界面。
在本例中,当VR终端在VR场景中输出上述三维输入界面后,此时用户可以查看该三维输入界面中各虚拟输入元件所指示的信息,基于自己的输入需求,通过将操作焦点悬浮在相应的虚拟输入元件上,然后执行预设三维手势,来选中该虚拟输入元件。
其中,需要说明的是,用于选中上述虚拟触发元件的预设三维手势,与用于选中上述三维输入界面中的虚拟输入元件的预设三维手势,在实际应用中,可以相同,也可以不同,在本例中不进行特别限定。
VR客户端在识别出用户执行的三维手势为预设三维手势后,VR客户端可以计算该三维手势对应于VR场景的操作位置,然后查找上述三维输入界面中与该操作位置对应的虚拟输入元件,并选中该虚拟输入元件。
其中,为了确保用户能够直观的查看到当前选中的虚拟输入元件,当VR客户端基于用户执行的预设三维手势,选定相应的虚拟输入元件后,还可以在上述三维输入界面中将该虚拟输入元件突出显示;例如,可以在上述三维输入界面中,将选中的虚拟输入元件高亮显示。
在本例中,当上述三维输入界面中的虚拟元件被选中后,VR客户端可以读取该虚拟输入元件所指示的输入信息,然后基于获取到的该输入信息完成信息的输入。
以此类推,用户可以通过重复以上操作,按顺序选中上述三维输入界面中的多个虚拟输入元件,来完成诸如密码等字符串的输入。
以下结合用户在进行VR购物体验时,在VR场景中输入支付密码完成商品支付的应用场景为例,对本申请的技术方案进行描述。
当然,需要说明的是,上述示出的应用场景仅为示例性的,并不用于限定;显然,在实际应用中本申请的技术方案,也可以应用在其它基于VR场景的信息输入场景;
例如,用户在VR游戏的场景中,输入登录密码完成游戏账号的登录,或者输入支付密码完成游戏币的充值;或者,用户在VR直播场景中,输入支付密码,完成支付对主播进行打赏,等等;在本例中不再一一列举。
在本例中,用户在佩戴VR终端进行VR购物体验时,在VR场景中可以向用户呈现若干可供选择的商品,用户可以通过查看VR场景中提供的商品列表,来选择自己喜欢的商品进行购买。
上述VR场景中除了可以向用户提供商品列表外,在每一个商品对应的位置上还可以提供一个“购买/支付”的虚拟按钮(即上述虚拟触发元件)。当用户在上述商品列表中,选择了一件满意的商品后,可以将操作焦点移动至该“购买/支付”的虚拟按钮所在位置,并使该操作焦点在该“购买/支付”的虚拟按钮上保持悬浮。
当操作焦点在该“购买/支付”的虚拟按钮上保持悬浮后,用户可以执行预设三维手势来选中该“购买/支付”的虚拟按钮。当VR客户端识别出用户执行的三维手势为预设三维手势时,可以选中该“购买/支付”的虚拟按钮,并触发在VR场景中输出“三维虚拟键盘”(即上述三维输入界面)。
其中,输出的该“三维虚拟键盘”可以是如图2所示的“三维空气键盘”,也可以是如图3所示的“三维数字魔方键盘”。
当VR客户端在VR场景中输出上述“三维虚拟键盘”后,用户可以通过将操作焦点移动到相应的“虚拟按键”上,并使该操作焦点在该“虚拟按键”上保持悬浮,然后执行预设三维手势来选中该“虚拟按键”。当VR客户端识别出用户执行的三维手势为预设三维手势时,可以选中该“虚拟按键”,然后读取该“虚拟按键”所指示的数字,完成密码的输入。
以此类推,用户可以通过重复以上操作,按顺序选中上述“三维虚拟键盘”中的多个“虚拟按键”,来完成支付密码的输入。当支付密码输入完成,并且输入的支付密码由相应的支付服务器验证通过后,此时商品购买完成。
通过以上实施例可知,本申请通过在虚拟现实场景中输出一个三维输入界面,并识别用户在虚拟现实场景中的三维手势,当识别出的三维手势为预设三维手势时,可以计算该三维手势对应于虚拟现实场景中的三维输入界面的操作位置,并选中该三维输入界面中与该操作位置对应的虚拟输入元件,然后读取该虚拟输入元件所指示的输入信息完成输入,实现了用户在在佩戴虚拟现实终端进行沉浸体验时,可以通过三维手势,在虚拟现实场景中快速的完成信息的输入,从而可以提升用户的输入体验。
与上述方法实施例相对应,本申请还提供了装置的实施例。
请参见图5,本申请提出一种基于VR场景的输入装置50,应用于虚拟现实客户端,所述虚拟现实客户端输出的虚拟现实场景中包括三维输入界面;
请参见图6,作为承载所述基于VR场景的输入装置50的虚拟现实客户端所涉及的硬件架构中,通常包括CPU、内存、非易失性存储器、网络接口以及内部总线等;以软件实现为例,所述基于VR场景的输入装置40通常可以理解为加载在内存中的计算机程序,通过CPU运行之后形成的软硬件相结合的逻辑装置,所述装置50包括:
识别模块501,识别用户在所述虚拟现实场景中的三维手势;
判断模块502,当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;
计算模块503,如果识别出的所述三维手势为所述预设三维手势,计算所述三维手势对应于所述三维输入界面的操作位置;
输入模块504,选中所述三维输入界面中与所述操作位置对应的虚拟输入元件,并读取所述虚拟输入元件所指示的输入信息完成输入。
在本例中,所述虚拟现实场景中包括预设的虚拟触发元件;所述虚拟触发元件用于触发在所述虚拟现实场景中输出所述三维输入界面;
所述判断模块502进一步:
当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;
所述计算模块503进一步:
如果识别出的所述三维手势为所述预设三维手势,计算所述三维手势对应于所述三维输入界面的操作位置;
所述装置50还包括:
输出模块505(图5中未示出),在所述操作位置与所述虚拟触发元件所在位置对应时,输出所述三维输入界面。
在本例中,所述识别模块501:
通过预设的传感硬件跟踪所述用户的手部位移;
获取所述传感硬件采集到的所述用户的手部位移数据;
基于所述手部位移数据计算所述用户的手部相对于所述虚拟现场场景的X/Y/Z轴的旋转量以及偏移量;
基于所述旋转量以及所述偏移量进行三维建模,得到对应的三维手势。
在本例中,所述计算模块503进一步:
在计算所述三维手势对应于所述三维输入界面的操作位置之前,计算所述三维手势的持续时间;判断所述三维手势的持续时间是否低于预设阈值;如果所述三维手势的持续时间低于预设阈值,则执行计算所述三维手势对应于所述三维输入界面的操作位置的操作。
在本例中,所述虚拟现实场景中包括对应于所述三维手势的操作焦点;其中,所述操作焦点在所述虚拟现实场景中与所述三维手势同步位移。
在本例中,所述操作焦点为模拟所述三维手势的动画。
在本例中,所述输入模块504进一步:
将选中的所述虚拟输入元件在所述三维输入界面中突出显示。
在本例中,所述三维输入界面为三维虚拟键盘;所述虚拟输入元件为所述三维虚拟键盘中的虚拟按键。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (16)
1.一种基于虚拟现实场景的输入方法,其特征在于,应用于虚拟现实客户端,所述虚拟现实客户端输出的虚拟现实场景中包括三维输入界面,所述方法包括:
识别用户在所述虚拟现实场景中的三维手势;
当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;
如果识别出的所述三维手势为所述预设三维手势,计算所述三维手势对应于所述三维输入界面的操作位置;
选中所述三维输入界面中与所述操作位置对应的虚拟输入元件,并读取所述虚拟输入元件所指示的输入信息完成输入。
2.根据权利要求1所述的方法,其特征在于,所述虚拟现实场景中包括预设的虚拟触发元件;所述虚拟触发元件用于触发在所述虚拟现实场景中输出所述三维输入界面;
所述方法还包括:
当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;
如果识别出的所述三维手势为所述预设三维手势,确定所述三维手势对应于所述虚拟现实场景的操作位置,并在所述操作位置与所述虚拟触发元件所在位置对应时,输出所述三维输入界面。
3.根据权利要求1所述的方法,其特征在于,所述识别用户在所述虚拟现实场景中的三维手势,包括:
通过预设的传感硬件跟踪所述用户的手部位移;
获取所述传感硬件采集到的所述用户的手部位移数据;
基于所述手部位移数据计算所述用户的手部相对于所述虚拟现场场景的X/Y/Z轴的旋转量以及偏移量;
基于所述旋转量以及所述偏移量进行三维建模,得到对应的三维手势。
4.根据权利要求1所述的方法,其特征在于,所述确定识别出的所述的三维手势是否为预设三维手势之前,还包括:
计算所述三维手势的持续时间;
判断所述三维手势的持续时间是否低于预设阈值;
如果所述三维手势的持续时间低于预设阈值,则执行确定识别出的所述的三维手势是否为预设三维手势的操作。
5.根据权利要求3所述的方法,其特征在于,所述虚拟现实场景中包括对应于所述三维手势的操作焦点;其中,所述操作焦点在所述虚拟现实场景中与所述三维手势同步位移。
6.根据权利要求5所述的方法,其特征在于,所述操作焦点为模拟所述三维手势的动画。
7.根据权利要求1所述的方法,其特征在于,还包括:
将选中的所述虚拟输入元件在所述三维输入界面中突出显示。
8.根据权利要求1所述的方法,其特征在于,
所述三维输入界面为三维虚拟键盘;所述虚拟输入元件为所述三维虚拟键盘中的虚拟按键。
9.一种基于虚拟现实场景的输入装置,其特征在于,应用于虚拟现实客户端,所述虚拟现实客户端输出的虚拟现实场景中包括三维输入界面,所述装置包括:
识别模块,识别用户在所述虚拟现实场景中的三维手势;
判断模块,当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;
计算模块,如果识别出的所述三维手势为所述预设三维手势,计算所述三维手势对应于所述三维输入界面的操作位置;
输入模块,选中所述三维输入界面中与所述操作位置对应的虚拟输入元件,并读取所述虚拟输入元件所指示的输入信息完成输入。
10.根据权利要求9所述的装置,其特征在于,所述虚拟现实场景中包括预设的虚拟触发元件;所述虚拟触发元件用于触发在所述虚拟现实场景中输出所述三维输入界面;
所述判断模块进一步:
当识别出用户的三维手势时,确定识别出的所述的三维手势是否为预设三维手势;
所述计算模块进一步:
如果识别出的所述三维手势为所述预设三维手势,计算所述三维手势对应于所述三维输入界面的操作位置;
所述装置还包括:
输出模块,在所述操作位置与所述虚拟触发元件所在位置对应时,输出所述三维输入界面。
11.根据权利要求9所述的装置,其特征在于,所述识别模块:
通过预设的传感硬件跟踪所述用户的手部位移;
获取所述传感硬件采集到的所述用户的手部位移数据;
基于所述手部位移数据计算所述用户的手部相对于所述虚拟现场场景的X/Y/Z轴的旋转量以及偏移量;
基于所述旋转量以及所述偏移量进行三维建模,得到对应的三维手势。
12.根据权利要求9所述的装置,其特征在于,所述计算模块进一步:
在计算所述三维手势对应于所述三维输入界面的操作位置之前,计算所述三维手势的持续时间;判断所述三维手势的持续时间是否低于预设阈值;如果所述三维手势的持续时间低于预设阈值,则执行计算所述三维手势对应于所述三维输入界面的操作位置的操作。
13.根据权利要求9所述的装置,其特征在于,所述虚拟现实场景中包括对应于所述三维手势的操作焦点;其中,所述操作焦点在所述虚拟现实场景中与所述三维手势同步位移。
14.根据权利要求13所述的装置,其特征在于,所述操作焦点为模拟所述三维手势的动画。
15.根据权利要求9所述的装置,其特征在于,所述输入模块进一步:
将选中的所述虚拟输入元件在所述三维输入界面中突出显示。
16.根据权利要求9所述的装置,其特征在于,
所述三维输入界面为三维虚拟键盘;所述虚拟输入元件为所述三维虚拟键盘中的虚拟按键。
Priority Applications (12)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610881695.8A CN106980362A (zh) | 2016-10-09 | 2016-10-09 | 基于虚拟现实场景的输入方法及装置 |
TW106126422A TW201814438A (zh) | 2016-10-09 | 2017-08-04 | 基於虛擬實境場景的輸入方法及裝置 |
US15/720,635 US10474242B2 (en) | 2016-10-09 | 2017-09-29 | Three-dimensional graphical user interface for informational input in virtual reality environment |
JP2019519296A JP6999662B2 (ja) | 2016-10-09 | 2017-10-03 | 仮想現実環境における情報入力のための3次元グラフィカルユーザインターフェース |
SG10202108555YA SG10202108555YA (en) | 2016-10-09 | 2017-10-03 | Three-dimensional graphical user interface for informational input in virtual reality environment |
MYPI2019001954A MY197006A (en) | 2016-10-09 | 2017-10-03 | Three-dimensional graphical user interface for informational input in virtual reality environment |
KR1020197013078A KR102297818B1 (ko) | 2016-10-09 | 2017-10-03 | 가상 현실 환경에서의 정보 입력을 위한 3차원 그래피컬 사용자 인터페이스 |
EP17859034.5A EP3523708A4 (en) | 2016-10-09 | 2017-10-03 | THREE-DIMENSIONAL GRAPHICAL USER INTERFACE FOR ENTERING INFORMATION IN A VIRTUAL REALITY ENVIRONMENT |
SG11201903137XA SG11201903137XA (en) | 2016-10-09 | 2017-10-03 | Three-dimensional graphical user interface for informational input in virtual reality environment |
PCT/US2017/054967 WO2018067587A1 (en) | 2016-10-09 | 2017-10-03 | Three-dimensional graphical user interface for informational input in virtual reality environment |
PH12019500773A PH12019500773A1 (en) | 2016-10-09 | 2019-04-10 | Three-dimensional graphical user interface for informational input in vrtual reality environment |
US16/678,442 US11054912B2 (en) | 2016-10-09 | 2019-11-08 | Three-dimensional graphical user interface for informational input in virtual reality environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610881695.8A CN106980362A (zh) | 2016-10-09 | 2016-10-09 | 基于虚拟现实场景的输入方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106980362A true CN106980362A (zh) | 2017-07-25 |
Family
ID=59340781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610881695.8A Pending CN106980362A (zh) | 2016-10-09 | 2016-10-09 | 基于虚拟现实场景的输入方法及装置 |
Country Status (10)
Country | Link |
---|---|
US (2) | US10474242B2 (zh) |
EP (1) | EP3523708A4 (zh) |
JP (1) | JP6999662B2 (zh) |
KR (1) | KR102297818B1 (zh) |
CN (1) | CN106980362A (zh) |
MY (1) | MY197006A (zh) |
PH (1) | PH12019500773A1 (zh) |
SG (2) | SG11201903137XA (zh) |
TW (1) | TW201814438A (zh) |
WO (1) | WO2018067587A1 (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108563335A (zh) * | 2018-04-24 | 2018-09-21 | 网易(杭州)网络有限公司 | 虚拟现实交互方法、装置、存储介质及电子设备 |
CN109164915A (zh) * | 2018-08-17 | 2019-01-08 | 湖南时变通讯科技有限公司 | 一种手势识别方法、装置、系统和设备 |
CN109656432A (zh) * | 2017-10-10 | 2019-04-19 | 腾讯科技(深圳)有限公司 | 虚拟现实环境下的控制方法、装置、设备和存储介质 |
CN109799906A (zh) * | 2018-12-29 | 2019-05-24 | 北京诺亦腾科技有限公司 | 一种利用动作捕捉手套在vr场景中绘画的方法及装置 |
CN109933208A (zh) * | 2019-04-11 | 2019-06-25 | 湖北航天技术研究院特种车辆技术中心 | 一种基于虚拟现实的操作行为识别方法及系统 |
CN110096166A (zh) * | 2019-04-23 | 2019-08-06 | 广东工业大学华立学院 | 一种虚拟输入方法 |
CN110196629A (zh) * | 2018-02-27 | 2019-09-03 | 优酷网络技术(北京)有限公司 | 虚拟现实界面展示控制方法及装置 |
CN110262722A (zh) * | 2019-06-21 | 2019-09-20 | 深圳市趣创科技有限公司 | 移动终端解锁方法及装置 |
CN111084980A (zh) * | 2019-12-25 | 2020-05-01 | 网易(杭州)网络有限公司 | 一种购买虚拟物品的方法和装置 |
CN111427457A (zh) * | 2020-06-11 | 2020-07-17 | 诺百爱(杭州)科技有限责任公司 | 一种基于虚拟按键输入字符的方法、装置和电子设备 |
CN111766943A (zh) * | 2018-08-24 | 2020-10-13 | 谷歌有限责任公司 | 包括雷达系统的智能电话、系统和方法 |
CN111782041A (zh) * | 2020-06-24 | 2020-10-16 | Oppo广东移动通信有限公司 | 打字方法及装置、设备、存储介质 |
CN112698721A (zh) * | 2020-12-24 | 2021-04-23 | 上海科技大学 | 基于手势的虚拟现实物体交互系统 |
CN113282168A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的信息输入方法、装置及头戴式显示设备 |
CN113282166A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的交互方法、装置及头戴式显示设备 |
CN113432281A (zh) * | 2021-06-30 | 2021-09-24 | 珠海格力电器股份有限公司 | 设备的控制方法、装置、设备及存储介质 |
CN113822795A (zh) * | 2021-09-17 | 2021-12-21 | 惠州视维新技术有限公司 | 基于毫米波雷达的虚拟按键投影方法、装置及电子设备 |
CN113838177A (zh) * | 2021-09-22 | 2021-12-24 | 上海拾衷信息科技有限公司 | 一种手部动画制作方法及系统 |
CN114564101A (zh) * | 2020-06-19 | 2022-05-31 | 华为技术有限公司 | 一种三维界面的控制方法和终端 |
CN116069169A (zh) * | 2023-03-29 | 2023-05-05 | 深圳市光速时代科技有限公司 | 一种基于智能手表输入虚拟文本的数据处理方法及系统 |
CN116719416A (zh) * | 2023-08-07 | 2023-09-08 | 海马云(天津)信息技术有限公司 | 虚拟数字人的手势动作修正方法和装置、电子设备及存储介质 |
CN117095103A (zh) * | 2023-08-11 | 2023-11-21 | 广州淦源智能科技有限公司 | 一种基于智能魔方的数据处理方法及其魔方 |
CN117406867A (zh) * | 2023-12-15 | 2024-01-16 | 小芒电子商务有限责任公司 | 一种基于网页的增强现实交互方法及装置 |
US12111713B2 (en) | 2018-10-22 | 2024-10-08 | Google Llc | Smartphone-based radar system for determining user intention in a lower-power mode |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9202297B1 (en) * | 2011-07-12 | 2015-12-01 | Domo, Inc. | Dynamic expansion of data visualizations |
US9792017B1 (en) | 2011-07-12 | 2017-10-17 | Domo, Inc. | Automatic creation of drill paths |
US10223634B2 (en) | 2014-08-14 | 2019-03-05 | The Board Of Trustees Of The Leland Stanford Junior University | Multiplicative recurrent neural network for fast and robust intracortical brain machine interface decoders |
US10181653B2 (en) | 2016-07-21 | 2019-01-15 | Infineon Technologies Ag | Radio frequency system for wearable device |
US10218407B2 (en) | 2016-08-08 | 2019-02-26 | Infineon Technologies Ag | Radio frequency system and method for wearable device |
CN106980362A (zh) | 2016-10-09 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的输入方法及装置 |
US10466772B2 (en) | 2017-01-09 | 2019-11-05 | Infineon Technologies Ag | System and method of gesture detection for a remote device |
US10505255B2 (en) | 2017-01-30 | 2019-12-10 | Infineon Technologies Ag | Radio frequency device packages and methods of formation thereof |
US11494986B2 (en) * | 2017-04-20 | 2022-11-08 | Samsung Electronics Co., Ltd. | System and method for two dimensional application usage in three dimensional virtual reality environment |
CN107368184B (zh) | 2017-05-12 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 一种虚拟现实场景中的密码输入方法和装置 |
US10602548B2 (en) | 2017-06-22 | 2020-03-24 | Infineon Technologies Ag | System and method for gesture sensing |
US20190049558A1 (en) * | 2017-08-08 | 2019-02-14 | KC Sense Limited | Hand Gesture Recognition System and Method |
US10746625B2 (en) | 2017-12-22 | 2020-08-18 | Infineon Technologies Ag | System and method of monitoring a structural object using a millimeter-wave radar sensor |
US11278241B2 (en) | 2018-01-16 | 2022-03-22 | Infineon Technologies Ag | System and method for vital signal sensing using a millimeter-wave radar sensor |
US11346936B2 (en) | 2018-01-16 | 2022-05-31 | Infineon Technologies Ag | System and method for vital signal sensing using a millimeter-wave radar sensor |
US10795012B2 (en) | 2018-01-22 | 2020-10-06 | Infineon Technologies Ag | System and method for human behavior modelling and power control using a millimeter-wave radar sensor |
US10576328B2 (en) | 2018-02-06 | 2020-03-03 | Infineon Technologies Ag | System and method for contactless sensing on a treadmill |
US10705198B2 (en) | 2018-03-27 | 2020-07-07 | Infineon Technologies Ag | System and method of monitoring an air flow using a millimeter-wave radar sensor |
US10775482B2 (en) | 2018-04-11 | 2020-09-15 | Infineon Technologies Ag | Human detection and identification in a setting using millimeter-wave radar |
US10761187B2 (en) | 2018-04-11 | 2020-09-01 | Infineon Technologies Ag | Liquid detection using millimeter-wave radar sensor |
US10775892B2 (en) * | 2018-04-20 | 2020-09-15 | Immersion Corporation | Systems and methods for multi-user shared virtual and augmented reality-based haptics |
US10794841B2 (en) | 2018-05-07 | 2020-10-06 | Infineon Technologies Ag | Composite material structure monitoring system |
US10399393B1 (en) | 2018-05-29 | 2019-09-03 | Infineon Technologies Ag | Radar sensor system for tire monitoring |
US10903567B2 (en) | 2018-06-04 | 2021-01-26 | Infineon Technologies Ag | Calibrating a phased array system |
US11416077B2 (en) | 2018-07-19 | 2022-08-16 | Infineon Technologies Ag | Gesture detection system and method using a radar sensor |
US10928501B2 (en) | 2018-08-28 | 2021-02-23 | Infineon Technologies Ag | Target detection in rainfall and snowfall conditions using mmWave radar |
US11183772B2 (en) | 2018-09-13 | 2021-11-23 | Infineon Technologies Ag | Embedded downlight and radar system |
US11049299B2 (en) * | 2018-09-26 | 2021-06-29 | The Alchemy Of You, Llc | System and method for improved data structures and related interfaces |
US11125869B2 (en) | 2018-10-16 | 2021-09-21 | Infineon Technologies Ag | Estimating angle of human target using mmWave radar |
EP3953793A1 (en) * | 2018-10-23 | 2022-02-16 | Ainak Oy | Method, arrangement, and computer program product for three-dimensional visualization of augmented reality and virtual reality environments |
US11397239B2 (en) | 2018-10-24 | 2022-07-26 | Infineon Technologies Ag | Radar sensor FSM low power mode |
US11360185B2 (en) | 2018-10-24 | 2022-06-14 | Infineon Technologies Ag | Phase coded FMCW radar |
US10949086B2 (en) * | 2018-10-29 | 2021-03-16 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for virtual keyboards for high dimensional controllers |
US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
EP3654053A1 (en) | 2018-11-14 | 2020-05-20 | Infineon Technologies AG | Package with acoustic sensing device(s) and millimeter wave sensing elements |
US11087115B2 (en) | 2019-01-22 | 2021-08-10 | Infineon Technologies Ag | User authentication using mm-Wave sensor for automotive radar systems |
US11355838B2 (en) | 2019-03-18 | 2022-06-07 | Infineon Technologies Ag | Integration of EBG structures (single layer/multi-layer) for isolation enhancement in multilayer embedded packaging technology at mmWave |
US11126885B2 (en) | 2019-03-21 | 2021-09-21 | Infineon Technologies Ag | Character recognition in air-writing based on network of radars |
US11454696B2 (en) | 2019-04-05 | 2022-09-27 | Infineon Technologies Ag | FMCW radar integration with communication system |
US11442550B2 (en) * | 2019-05-06 | 2022-09-13 | Samsung Electronics Co., Ltd. | Methods for gesture recognition and control |
US11334212B2 (en) | 2019-06-07 | 2022-05-17 | Facebook Technologies, Llc | Detecting input in artificial reality systems based on a pinch and pull gesture |
CN110647803B (zh) * | 2019-08-09 | 2023-12-05 | 深圳大学 | 一种手势识别方法、系统以及存储介质 |
US11640204B2 (en) | 2019-08-28 | 2023-05-02 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods decoding intended symbols from neural activity |
US11327167B2 (en) | 2019-09-13 | 2022-05-10 | Infineon Technologies Ag | Human target tracking system and method |
US11774592B2 (en) | 2019-09-18 | 2023-10-03 | Infineon Technologies Ag | Multimode communication and radar system resource allocation |
US11435443B2 (en) | 2019-10-22 | 2022-09-06 | Infineon Technologies Ag | Integration of tracking with classifier in mmwave radar |
US11808883B2 (en) | 2020-01-31 | 2023-11-07 | Infineon Technologies Ag | Synchronization of multiple mmWave devices |
US11614516B2 (en) | 2020-02-19 | 2023-03-28 | Infineon Technologies Ag | Radar vital signal tracking using a Kalman filter |
US11585891B2 (en) | 2020-04-20 | 2023-02-21 | Infineon Technologies Ag | Radar-based vital sign estimation |
US11567185B2 (en) | 2020-05-05 | 2023-01-31 | Infineon Technologies Ag | Radar-based target tracking using motion detection |
KR102502195B1 (ko) * | 2020-06-16 | 2023-02-21 | 한국기술교육대학교 산학협력단 | 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법 및 시스템 |
US11774553B2 (en) | 2020-06-18 | 2023-10-03 | Infineon Technologies Ag | Parametric CNN for radar processing |
US11704917B2 (en) | 2020-07-09 | 2023-07-18 | Infineon Technologies Ag | Multi-sensor analysis of food |
US11614511B2 (en) | 2020-09-17 | 2023-03-28 | Infineon Technologies Ag | Radar interference mitigation |
US11719787B2 (en) | 2020-10-30 | 2023-08-08 | Infineon Technologies Ag | Radar-based target set generation |
US11719805B2 (en) | 2020-11-18 | 2023-08-08 | Infineon Technologies Ag | Radar based tracker using empirical mode decomposition (EMD) and invariant feature transform (IFT) |
CN112463004B (zh) * | 2020-11-25 | 2022-07-22 | 努比亚技术有限公司 | 一种交互界面操作控制方法、设备及计算机可读存储介质 |
US11662430B2 (en) | 2021-03-17 | 2023-05-30 | Infineon Technologies Ag | MmWave radar testing |
US11099709B1 (en) | 2021-04-13 | 2021-08-24 | Dapper Labs Inc. | System and method for creating, managing, and displaying an interactive display for 3D digital collectibles |
US11210844B1 (en) | 2021-04-13 | 2021-12-28 | Dapper Labs Inc. | System and method for creating, managing, and displaying 3D digital collectibles |
USD991271S1 (en) | 2021-04-30 | 2023-07-04 | Dapper Labs, Inc. | Display screen with an animated graphical user interface |
US11227010B1 (en) | 2021-05-03 | 2022-01-18 | Dapper Labs Inc. | System and method for creating, managing, and displaying user owned collections of 3D digital collectibles |
US11170582B1 (en) | 2021-05-04 | 2021-11-09 | Dapper Labs Inc. | System and method for creating, managing, and displaying limited edition, serialized 3D digital collectibles with visual indicators of rarity classifications |
US11533467B2 (en) | 2021-05-04 | 2022-12-20 | Dapper Labs, Inc. | System and method for creating, managing, and displaying 3D digital collectibles with overlay display elements and surrounding structure display elements |
US11950895B2 (en) | 2021-05-28 | 2024-04-09 | Infineon Technologies Ag | Radar sensor system for blood pressure sensing, and associated method |
US11900511B1 (en) * | 2022-12-08 | 2024-02-13 | Fmr Llc | Systems and methods for graphing data in virtual reality environments |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102789313A (zh) * | 2012-03-19 | 2012-11-21 | 乾行讯科(北京)科技有限公司 | 一种用户交互系统和方法 |
CN204463032U (zh) * | 2014-12-30 | 2015-07-08 | 青岛歌尔声学科技有限公司 | 一种3d场景中输入手势的系统和虚拟现实头戴设备 |
CN105573596A (zh) * | 2015-12-10 | 2016-05-11 | 广东欧珀移动通信有限公司 | 一种播放列表的播放顺序调整方法及用户终端 |
CN105892631A (zh) * | 2015-11-16 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种简化虚拟现实应用操作的方法和装置 |
CN105912110A (zh) * | 2016-04-06 | 2016-08-31 | 北京锤子数码科技有限公司 | 一种在虚拟现实空间中进行目标选择的方法、装置及系统 |
CN105955453A (zh) * | 2016-04-15 | 2016-09-21 | 北京小鸟看看科技有限公司 | 一种3d沉浸式环境下的信息输入方法 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004044664A1 (en) | 2002-11-06 | 2004-05-27 | Julius Lin | Virtual workstation |
US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
JP4318056B1 (ja) * | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
TW201113754A (en) * | 2009-10-15 | 2011-04-16 | Acer Inc | Multi-directional input method and electronic system thereof |
EP2372512A1 (en) * | 2010-03-30 | 2011-10-05 | Harman Becker Automotive Systems GmbH | Vehicle user interface unit for a vehicle electronic device |
TW201140420A (en) * | 2010-06-15 | 2011-11-16 | Wistron Neweb Corp | User interface and electronic device |
US9557817B2 (en) | 2010-08-13 | 2017-01-31 | Wickr Inc. | Recognizing gesture inputs using distributed processing of sensor data from multiple sensors |
KR20120080072A (ko) * | 2011-01-06 | 2012-07-16 | 삼성전자주식회사 | 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법 |
WO2012135378A1 (en) | 2011-04-01 | 2012-10-04 | Analog Devices, Inc. | Method and apparatus for haptic vibration response profiling and feedback |
KR20140069124A (ko) * | 2011-09-19 | 2014-06-09 | 아이사이트 모빌 테크놀로지 엘티디 | 증강 현실 시스템용 터치프리 인터페이스 |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US9383895B1 (en) * | 2012-05-05 | 2016-07-05 | F. Vinayak | Methods and systems for interactively producing shapes in three-dimensional space |
US9069455B2 (en) | 2012-06-22 | 2015-06-30 | Microsoft Technology Licensing, Llc | 3D user interface for application entities |
EP2879022A4 (en) * | 2012-07-27 | 2016-03-23 | Nec Solution Innovators Ltd | THREE-DIMENSIONAL USER INTERFACE DEVICE AND THREE-DIMENSIONAL OPERATING PROCESS |
SE537553C2 (sv) | 2012-08-03 | 2015-06-09 | Crunchfish Ab | Förbättrad identifiering av en gest |
EP2902874A4 (en) * | 2012-09-28 | 2016-06-15 | Kyocera Corp | DISPLAY DEVICE, CONTROL METHOD, AND CONTROL PROGRAM |
US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
US9298266B2 (en) * | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
CN105074625B (zh) * | 2013-04-02 | 2018-09-21 | 索尼公司 | 信息处理设备、信息处理方法及计算机可读记录介质 |
TW201447375A (zh) | 2013-06-13 | 2014-12-16 | Hsiu-Chi Yeh | 擴增實境之頭戴式電子裝置及方法 |
KR102130590B1 (ko) * | 2013-07-22 | 2020-07-06 | 엘지전자 주식회사 | 세탁물 처리기기 |
US20150067603A1 (en) | 2013-09-05 | 2015-03-05 | Kabushiki Kaisha Toshiba | Display control device |
TWI499966B (zh) | 2013-10-08 | 2015-09-11 | Univ Nat Taiwan Science Tech | 互動式操作方法 |
TWI488072B (zh) | 2013-12-19 | 2015-06-11 | Lite On Technology Corp | 手勢辨識系統及其手勢辨識方法 |
JP6851133B2 (ja) * | 2014-01-03 | 2021-03-31 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ユーザに方向付けられた個人情報アシスタント |
JP2015176253A (ja) | 2014-03-13 | 2015-10-05 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
US9558610B2 (en) | 2014-02-14 | 2017-01-31 | Igt Canada Solutions Ulc | Gesture input interface for gaming systems |
JP6355978B2 (ja) * | 2014-06-09 | 2018-07-11 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
US9766806B2 (en) | 2014-07-15 | 2017-09-19 | Microsoft Technology Licensing, Llc | Holographic keyboard display |
US9811650B2 (en) * | 2014-12-31 | 2017-11-07 | Hand Held Products, Inc. | User authentication system and method |
US10310616B2 (en) * | 2015-03-31 | 2019-06-04 | Ebay Inc. | Modification of three-dimensional garments using gestures |
US10067636B2 (en) * | 2016-02-09 | 2018-09-04 | Unity IPR ApS | Systems and methods for a virtual reality editor |
CN106980362A (zh) | 2016-10-09 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的输入方法及装置 |
-
2016
- 2016-10-09 CN CN201610881695.8A patent/CN106980362A/zh active Pending
-
2017
- 2017-08-04 TW TW106126422A patent/TW201814438A/zh unknown
- 2017-09-29 US US15/720,635 patent/US10474242B2/en active Active
- 2017-10-03 KR KR1020197013078A patent/KR102297818B1/ko active IP Right Grant
- 2017-10-03 MY MYPI2019001954A patent/MY197006A/en unknown
- 2017-10-03 JP JP2019519296A patent/JP6999662B2/ja active Active
- 2017-10-03 SG SG11201903137XA patent/SG11201903137XA/en unknown
- 2017-10-03 EP EP17859034.5A patent/EP3523708A4/en not_active Ceased
- 2017-10-03 SG SG10202108555YA patent/SG10202108555YA/en unknown
- 2017-10-03 WO PCT/US2017/054967 patent/WO2018067587A1/en active Search and Examination
-
2019
- 2019-04-10 PH PH12019500773A patent/PH12019500773A1/en unknown
- 2019-11-08 US US16/678,442 patent/US11054912B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102789313A (zh) * | 2012-03-19 | 2012-11-21 | 乾行讯科(北京)科技有限公司 | 一种用户交互系统和方法 |
CN204463032U (zh) * | 2014-12-30 | 2015-07-08 | 青岛歌尔声学科技有限公司 | 一种3d场景中输入手势的系统和虚拟现实头戴设备 |
CN105892631A (zh) * | 2015-11-16 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种简化虚拟现实应用操作的方法和装置 |
CN105573596A (zh) * | 2015-12-10 | 2016-05-11 | 广东欧珀移动通信有限公司 | 一种播放列表的播放顺序调整方法及用户终端 |
CN105912110A (zh) * | 2016-04-06 | 2016-08-31 | 北京锤子数码科技有限公司 | 一种在虚拟现实空间中进行目标选择的方法、装置及系统 |
CN105955453A (zh) * | 2016-04-15 | 2016-09-21 | 北京小鸟看看科技有限公司 | 一种3d沉浸式环境下的信息输入方法 |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109656432A (zh) * | 2017-10-10 | 2019-04-19 | 腾讯科技(深圳)有限公司 | 虚拟现实环境下的控制方法、装置、设备和存储介质 |
CN109656432B (zh) * | 2017-10-10 | 2022-09-13 | 腾讯科技(深圳)有限公司 | 虚拟现实环境下的控制方法、装置、设备和存储介质 |
CN110196629A (zh) * | 2018-02-27 | 2019-09-03 | 优酷网络技术(北京)有限公司 | 虚拟现实界面展示控制方法及装置 |
CN108563335B (zh) * | 2018-04-24 | 2021-03-23 | 网易(杭州)网络有限公司 | 虚拟现实交互方法、装置、存储介质及电子设备 |
CN108563335A (zh) * | 2018-04-24 | 2018-09-21 | 网易(杭州)网络有限公司 | 虚拟现实交互方法、装置、存储介质及电子设备 |
CN109164915A (zh) * | 2018-08-17 | 2019-01-08 | 湖南时变通讯科技有限公司 | 一种手势识别方法、装置、系统和设备 |
CN111766943B (zh) * | 2018-08-24 | 2024-07-16 | 谷歌有限责任公司 | 包括雷达系统的智能电话、系统和方法 |
CN111766943A (zh) * | 2018-08-24 | 2020-10-13 | 谷歌有限责任公司 | 包括雷达系统的智能电话、系统和方法 |
US12111713B2 (en) | 2018-10-22 | 2024-10-08 | Google Llc | Smartphone-based radar system for determining user intention in a lower-power mode |
CN109799906A (zh) * | 2018-12-29 | 2019-05-24 | 北京诺亦腾科技有限公司 | 一种利用动作捕捉手套在vr场景中绘画的方法及装置 |
CN109933208A (zh) * | 2019-04-11 | 2019-06-25 | 湖北航天技术研究院特种车辆技术中心 | 一种基于虚拟现实的操作行为识别方法及系统 |
CN110096166A (zh) * | 2019-04-23 | 2019-08-06 | 广东工业大学华立学院 | 一种虚拟输入方法 |
CN110262722A (zh) * | 2019-06-21 | 2019-09-20 | 深圳市趣创科技有限公司 | 移动终端解锁方法及装置 |
CN111084980A (zh) * | 2019-12-25 | 2020-05-01 | 网易(杭州)网络有限公司 | 一种购买虚拟物品的方法和装置 |
CN111084980B (zh) * | 2019-12-25 | 2023-04-07 | 网易(杭州)网络有限公司 | 一种购买虚拟物品的方法和装置 |
CN111427457A (zh) * | 2020-06-11 | 2020-07-17 | 诺百爱(杭州)科技有限责任公司 | 一种基于虚拟按键输入字符的方法、装置和电子设备 |
CN114564101A (zh) * | 2020-06-19 | 2022-05-31 | 华为技术有限公司 | 一种三维界面的控制方法和终端 |
CN111782041A (zh) * | 2020-06-24 | 2020-10-16 | Oppo广东移动通信有限公司 | 打字方法及装置、设备、存储介质 |
CN112698721A (zh) * | 2020-12-24 | 2021-04-23 | 上海科技大学 | 基于手势的虚拟现实物体交互系统 |
CN113282168A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的信息输入方法、装置及头戴式显示设备 |
CN113282166A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的交互方法、装置及头戴式显示设备 |
WO2022237268A1 (zh) * | 2021-05-08 | 2022-11-17 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的信息输入方法、装置及头戴式显示设备 |
CN113432281A (zh) * | 2021-06-30 | 2021-09-24 | 珠海格力电器股份有限公司 | 设备的控制方法、装置、设备及存储介质 |
CN113822795B (zh) * | 2021-09-17 | 2024-02-09 | 惠州视维新技术有限公司 | 基于毫米波雷达的虚拟按键投影方法、装置及电子设备 |
CN113822795A (zh) * | 2021-09-17 | 2021-12-21 | 惠州视维新技术有限公司 | 基于毫米波雷达的虚拟按键投影方法、装置及电子设备 |
CN113838177A (zh) * | 2021-09-22 | 2021-12-24 | 上海拾衷信息科技有限公司 | 一种手部动画制作方法及系统 |
CN116069169A (zh) * | 2023-03-29 | 2023-05-05 | 深圳市光速时代科技有限公司 | 一种基于智能手表输入虚拟文本的数据处理方法及系统 |
CN116719416A (zh) * | 2023-08-07 | 2023-09-08 | 海马云(天津)信息技术有限公司 | 虚拟数字人的手势动作修正方法和装置、电子设备及存储介质 |
CN116719416B (zh) * | 2023-08-07 | 2023-12-15 | 海马云(天津)信息技术有限公司 | 虚拟数字人的手势动作修正方法和装置、电子设备及存储介质 |
CN117095103A (zh) * | 2023-08-11 | 2023-11-21 | 广州淦源智能科技有限公司 | 一种基于智能魔方的数据处理方法及其魔方 |
CN117095103B (zh) * | 2023-08-11 | 2024-03-19 | 广州淦源智能科技有限公司 | 一种基于智能魔方的数据处理方法及其魔方 |
CN117406867A (zh) * | 2023-12-15 | 2024-01-16 | 小芒电子商务有限责任公司 | 一种基于网页的增强现实交互方法及装置 |
CN117406867B (zh) * | 2023-12-15 | 2024-02-09 | 小芒电子商务有限责任公司 | 一种基于网页的增强现实交互方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20200142498A1 (en) | 2020-05-07 |
EP3523708A4 (en) | 2019-09-04 |
PH12019500773A1 (en) | 2019-11-11 |
WO2018067587A1 (en) | 2018-04-12 |
US11054912B2 (en) | 2021-07-06 |
KR102297818B1 (ko) | 2021-09-07 |
EP3523708A1 (en) | 2019-08-14 |
KR20190064623A (ko) | 2019-06-10 |
US10474242B2 (en) | 2019-11-12 |
JP2020502614A (ja) | 2020-01-23 |
SG10202108555YA (en) | 2021-09-29 |
JP6999662B2 (ja) | 2022-01-18 |
TW201814438A (zh) | 2018-04-16 |
SG11201903137XA (en) | 2019-05-30 |
MY197006A (en) | 2023-05-18 |
US20180101239A1 (en) | 2018-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106980362A (zh) | 基于虚拟现实场景的输入方法及装置 | |
CN111610858B (zh) | 基于虚拟现实的交互方法及装置 | |
US20190236259A1 (en) | Method for 3d graphical authentication on electronic devices | |
US11836843B2 (en) | Enhanced pose generation based on conditional modeling of inverse kinematics | |
US11992768B2 (en) | Enhanced pose generation based on generative modeling | |
US7536655B2 (en) | Three-dimensional-model processing apparatus, three-dimensional-model processing method, and computer program | |
JP5147933B2 (ja) | 人−機械インターフェース装置システム及び方法 | |
US20210089639A1 (en) | Method and system for 3d graphical authentication on electronic devices | |
US20230177755A1 (en) | Predicting facial expressions using character motion states | |
WO2006073287A1 (en) | Method of processing three-dimensional image in mobile device | |
CN108958573B (zh) | 基于虚拟现实场景的身份认证方法及装置 | |
EP4207094A2 (en) | Method of learning a target object by detecting an edge from a digital model of the target object and setting sample points, and method of augmenting a virtual model on a real object implementing the target object using the learning method | |
US10909754B1 (en) | Visual scripting for multi-dimensional elements | |
CN112486319B (zh) | 基于触觉渲染设备的vr交互方法、装置、设备及介质 | |
CN110741327A (zh) | 基于增强现实及数字图像处理的泥胶玩具系统及其方法 | |
CN113176822A (zh) | 虚拟用户检测 | |
CN111625102A (zh) | 一种建筑物展示方法及装置 | |
Ramsbottom | A virtual reality interface for previsualization | |
EP4207073A1 (en) | Method and system for tracking a cad model in real time based on particle filters | |
US20220118358A1 (en) | Computer-readable recording medium, and image generation system | |
Volarević et al. | Freeform spatial modelling using depth-sensing camera | |
Panayiotou | Rgb slemmings: An augmented reality game in your room | |
CN115317907A (zh) | Ar应用中多用户虚拟交互方法、装置及ar设备 | |
KR20230056995A (ko) | 자가학습 지원 방법 및 이를 수행하는 시스템 | |
KR20230050857A (ko) | 가상 현실 환경에서의 정보 입력을 위한 3차원 그래피컬 사용자 인터페이스 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1239854 Country of ref document: HK |
|
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170725 |
|
RJ01 | Rejection of invention patent application after publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: WD Ref document number: 1239854 Country of ref document: HK |