CN113190109A - 头戴式显示设备的输入控制方法、装置及头戴式显示设备 - Google Patents
头戴式显示设备的输入控制方法、装置及头戴式显示设备 Download PDFInfo
- Publication number
- CN113190109A CN113190109A CN202110341333.0A CN202110341333A CN113190109A CN 113190109 A CN113190109 A CN 113190109A CN 202110341333 A CN202110341333 A CN 202110341333A CN 113190109 A CN113190109 A CN 113190109A
- Authority
- CN
- China
- Prior art keywords
- finger
- point
- virtual key
- human hand
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 210000001145 finger joint Anatomy 0.000 claims abstract description 91
- 238000001125 extrusion Methods 0.000 claims abstract description 26
- 238000003860 storage Methods 0.000 claims abstract description 15
- 210000003811 finger Anatomy 0.000 claims description 144
- 210000000988 bone and bone Anatomy 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 210000003813 thumb Anatomy 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 6
- 210000000707 wrist Anatomy 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 24
- 238000001514 detection method Methods 0.000 description 14
- 210000004932 little finger Anatomy 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000003993 interaction Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 210000003857 wrist joint Anatomy 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000002478 hand joint Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及一种头戴式显示设备的输入控制方法、装置、头戴式显示设备及计算机可读存储介质。该头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机,该方法包括:在显示界面显示有多个虚拟按键的情况下,识别目标图像中是否存在挤压姿态手势;其中,挤压姿态手势包括:人手中的第一手指的指尖点挤压在该人手中第二手指的一个指关节点上;在识别目标图像中存在挤压姿态手势的情况下,根据预设的多个指关节与多个虚拟按键的对应关系,将挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键;将目标虚拟按键对应的信息作为用户输入信息。
Description
技术领域
本公开实施例涉及虚拟现实技术领域,更具体地,涉及一种头戴式显示设备的输入控制方法、装置、头戴式显示设备及计算机可读存储介质。
背景技术
头戴式显示设备(Head Mounted Display,HMD)是一种可以穿戴在用户头部的显示设备,能够实现虚拟现实(Virtual Reality,VR)、增强现实(Augmented Reality,AR)和混合现实(Mixed Reality,MR)等不同效果。
HMD在使用时会使用户的头部或者眼睛会处于封闭环境,以使用户能够沉浸在虚拟环境中。为了展示AR和MR中的现实内容,HMD上还会安装至少一个彩色相机,以便通过至少一个彩色相机摄取现实世界中的现实图像并将其投影至人眼,从而模拟用户直接看外部的三维物理空间环境。HMD通过其上的显示界面显示经过叠加处理的现实图像和虚拟图像。
随着HMD应用领域的增多(例如娱乐领域、医疗领域、教育领域、工业领域等),HMD的显示界面中能够显示多种多样的虚拟现实场景(或增强现实场景或混合现实场景)。许多场景下,HMD需要外接例如手柄控制器等额外的硬件设备,以便通过该硬件设备来获得用户的输入信息,实现人机交互。
发明内容
本公开实施例的一个目的是提供一种头戴式显示设备的输入控制的新的技术方案。
根据本公开的第一方面,提供了一种头戴式显示设备的输入控制方法,该头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机;该方法包括:在显示界面显示有多个虚拟按键的情况下,识别目标图像中是否存在挤压姿态手势;其中,挤压姿态手势包括:人手中的第一手指的指尖点挤压在该人手中第二手指的一个指关节点上;在识别目标图像中存在挤压姿态手势的情况下,根据预设的多个指关节与多个虚拟按键的对应关系,将挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键;将目标虚拟按键对应的信息作为用户输入信息。
可选地,确定目标图像中是否存在挤压姿态手势,包括:检测目标图像中是否存在人手;在检测到目标图像中存在人手的情况下,识别人手上的骨骼点;其中,骨骼点包括人手的每个手指上的指尖点和指关节点、以及连接人手的腕关节点;实时获取人手上的骨骼点的三维空间位置信息;对人手上的骨骼点的三维空间位置信息进行追踪,以确定第一手指上的指尖点和第二手指上的一个指关节点满足重叠条件的情况下,根据目标图像确定用户是否做出挤压姿态手势。
可选地,对人手上的骨骼点的三维空间位置信息进行追踪,包括:获取预定帧数的人手上的骨骼点的三维空间位置信息;对各骨骼点的三维空间位置信息进行平滑滤波处理,将处理结果作为追踪结果。
可选地,重叠条件包括:第一手指上的指尖点和第二手指上的一个指关节点发生重叠且重叠状态的持续帧数大于预设帧数。
可选地,第一手指为大拇指,第二手指为食指、中指和无名指中任一个。
可选地,多个虚拟按键包括9个虚拟按键,9个虚拟按键与所有第二手指的指关节点一一对应。
可选地,该方法还包括:在目标虚拟按键对应一个信息情况下,将目标虚拟按键对应的该信息作为用户输入信息;在目标虚拟按键对应按照预设顺序排列的n个信息情况下,在连续m次将同一指关节点对应的虚拟按键确定为目标虚拟按键时,将目标虚拟按键对应的第m个信息作为用户输入信息;其中,n为自然数且n>1;m为自然数且n≥m>1。
根据本公开的第二方面,还提供了一种头戴式显示设备的输入控制装置,该头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机;该装置包括:识别模块,用于在显示界面显示有多个虚拟按键的情况下,识别目标图像中是否存在挤压姿态手势;其中,挤压姿态手势包括:人手中的第一手指的指尖点挤压在该人手中第二手指的一个指关节点上;确定模块,用于在识别模块识别目标图像中存在挤压姿态手势的情况下,根据预设的多个指关节与多个虚拟按键的对应关系,将挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键;处理模块,用于将确定模块确定的目标虚拟按键对应的信息作为用户输入信息。
可选地,识别模块包括:检测子模块,用于检测目标图像中是否存在人手;识别子模块,用于在检测到目标图像中存在人手的情况下,识别人手上的骨骼点;其中,骨骼点包括人手的每个手指上的指尖点和指关节点、以及连接人手的腕关节点;获取子模块,用于实时获取人手上的骨骼点的三维空间位置信息;处理子模块,用于对人手上的骨骼点的三维空间位置信息进行追踪,以确定第一手指上的指尖点和第二手指上的一个指关节点满足重叠条件的情况下,根据目标图像确定用户是否做出挤压姿态手势。
可选地,处理子模块用于:获取预定帧数的人手上的各骨骼点的三维空间位置信息;对各骨骼点的三维空间位置信息进行平滑滤波处理,将处理结果作为追踪结果。
可选地,重叠条件包括:第一手指上的指尖点和第二手指上的一个指关节点发生重叠且重叠状态的持续帧数大于预设帧数。
可选地,第一手指为大拇指,第二手指为食指、中指和无名指中任一个。
可选地,多个虚拟按键包括9个虚拟按键,9个虚拟按键与所有第二手指的指关节点一一对应。
可选地,该装置还包括,输入控制模块,用于在目标虚拟按键对应一个信息情况下,将目标虚拟按键对应的该信息作为用户输入信息;在目标虚拟按键对应按照预设顺序排列的n个信息情况下,在连续m次将同一指关节点对应的虚拟按键确定为目标虚拟按键时,将目标虚拟按键对应的第m个信息作为用户输入信息;其中,n为自然数且n>1;m为自然数且n≥m>1。
根据本公开的第三方面,还提供了一种头戴式显示设备,该头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机。该头戴式显示设备还包括存储器和处理器,存储器用于存储计算机程序;处理器用于执行计算机程序,以实现根据本公开第一方面的方法。
根据本公开的第四方面,还提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序在被处理器执行时实现根据本公开的第一方面的方法。
本公开实施例的一个有益效果在于,头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机,在头戴式显示设备显示界面显示有多个虚拟按键的情况下,识别目标图像中是否存在挤压姿态手势;挤压姿态手势包括:人手中的第一手指的指尖点挤压在该人手中第二手指的一个指关节点上;然后在确定目标图像中存在挤压姿态手势的情况下,根据预设的多个指关节与多个虚拟按键的对应关系,将挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键;最后将目标虚拟按键对应的信息作为用户输入信息。由此可见,本公开实施例能够根据用户的手势来准确获得用户所要输入的信息,不仅操作简单、用户学习成本低,使得用户无需再通过额外的手柄控制器与HMD进行人机交互,由此能够有效减少甚至消除由于用户需要手持手柄控制器给用户行动造成的不便影响、以及由于用户需要手持手柄控制器导致用户与HMD交互过程操作繁琐的影响,提高用户与HMD交互过程的便利性。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开实施例的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且连同其说明一起用于解释本公开实施例的原理。
图1为本公开实施例提供的一种头戴式显示设备的输入控制方法的方法流程图;
图2为本公开实施例提供的一种头戴式显示设备的输入控制方法中一种虚拟按键的排布示意图;
图3为本公开实施例提供的一种头戴式显示设备的输入控制方法中另一种虚拟按键的排布示意图;
图4A为图2所示的虚拟按键的排布方式下各数字按键的示意图;
图4B为图2所示的虚拟按键的排布方式下各字母按键的示意图;
图5为本公开实施例提供的一种头戴式显示设备的输入控制方法中各骨骼点位置示意图;
图6A为本公开实施例提供的一种头戴式显示设备的输入控制方法中一种第二手指上各指关节点的示意图;
图6B为本公开实施例提供的一种头戴式显示设备的输入控制方法中另一种第二手指上各指关节点的示意图;
图7为本公开实施例提供的另一种头戴式显示设备的输入控制方法的方法流程图;
图8为本公开实施例提供的再一种头戴式显示设备的输入控制方法的方法流程图;
图9为本公开实施例提供的一种头戴式显示设备的输入控制方法中三维空间位置坐标示意图;
图10A为本公开实施例提供的一种头戴式显示设备的输入控制方法中一种第二手指的指关节点与多个虚拟按键的对应关系示意图;
图10B为本公开实施例提供的一种头戴式显示设备的输入控制方法中另一种第二手指的指关节点与多个虚拟按键的对应关系示意图;
图11为本公开实施例提供的一种头戴式显示设备的输入控制装置的功能结构框图;
图12为本公开实施例提供的一种头戴式显示设备的功能结构框图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
HMD能够向用户展示虚拟世界中的可视化三维虚拟图像,或者HMD能够将虚拟世界和现实世界进行叠加,例如将虚拟世界中的虚拟图像与现实世界中的现实图像进行叠加,从而向用户展示出虚拟图像和现实图像相结合的可视化三维图像。
目前,随着HMD应用领域的增多,HMD的显示界面中能够显示多种多样的虚拟现实场景(或增强现实场景或混合现实场景)。在娱乐领域,HMD例如可以显示人机交互的游戏中多种多样的游戏场景,又如可以显示主题公园中的体验场景(如在用户体验远古地球生态的过程中显示虚拟现实的远古地球生态场景),可以播放电影等;在医疗领域,HMD例如可以实施远程手术、模拟实际手术场景,在教育领域,HMD例如可以呈现多种体验式场景,以实现体验式情景教学,在钢厂、电力、石油化工生产等工业领域,HMD可以模拟多种工业制造的场景等。
实际情况中,在许多场景下,用户需要手持例如手柄控制器等额外的硬件设备才能与HMD进行人机交互。然而,使用手柄控制器的过程可能会妨碍到用户的行动,例如在实施远程手术过程中,当前时刻医生需要了解用户的电子计算机断层扫描(ComputedTomography,CT)结果、核磁共振检测结果等,此时医生双手不方便通过手柄控制器来调出上述内容;并且,使用手柄控制器的过程也较为繁琐,例如,在使用HMD观看电影时,用户可能就仅仅需要查找一个电影的名字,目前的方式是用户需要手握手柄控制器,然后重新连接HMD与该手柄控制器,在二者连接成功的情况下,用户通过操作手柄控制器来操作HMD显示界面中的虚拟键盘,以向HMD输入用户希望查找的电影名字,由此才能完成用户的诉求。
由此可见,用户通过例如手柄控制器等额外的硬件设备与HMD进行人机交互的过程具有诸多不便性。然而,在不持有例如手柄控制器等额外的硬件设备的情况下,HMD很难直观和准确地检测用户的输入信息。
针对上述存在的问题,本公开实施例提供了一种头戴式显示设备的输入控制方案。
下面,参照附图描述根据本公开的各个实施例和例子。
<方法实施例>
图1示出了本公开实施例提供的一种头戴式显示设备的输入控制方法的方法流程图。如图1所示,该方法包括如下步骤S110~S130。
步骤S110:在显示界面显示有多个虚拟按键的情况下,识别目标图像中是否存在挤压姿态手势。
本公开实施例中,头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机。
示例地,上述相机为彩色相机。目标图像为彩色相机获取现实世界的不包含深度信息的平面图像。在此情况下,至少一个相机包括两个相机,该两个相机分别设置在两个人眼位置处,以准确模拟人眼观看外部的三维物理空间环境。
又示例地,上述相机为用于获取目标区域的深度图像的深度相机。深度图像即将深度相机到现实场景中各点的距离作为像素值的图像。在此情况下,至少一个相机包括一个相机。
又示例地,上述相机为利用红外线来成像的红外相机。在此情况下,至少一个相机包括两个相机,该两个相机分别设置在两个人眼位置处,以准确模拟人眼观看外部的三维物理空间环境。
在一些示例中,上述相机的一些参数如下:
分辨率通常:640px*480px以上;
帧率:30Hz以上;
视场角(Field of view,FOV):100°以上;
对手指的最小追踪距离(相机距离手指的距离):10cm~100cm。
本公开实施例中,头戴式显示设备的显示界面可以显示多个虚拟按键,上述多个虚拟按键可以按照一定规则排布。
示例地,如图2所示,多个虚拟按键按照3×3的九宫格的方式排布。
又示例地,多个虚拟按键按照如图3所示的3×4的十二宫格的方式排布。
在一些实施例中,多个虚拟按键例如包括多个数字按键、多个字母按键、和/或多个特定字符(例如标点符号、特殊字符等)按键。
示例地,以图2所示的按照3×3的九宫格的方式排布的多个虚拟按键为例,多个虚拟按键可以如图4A所示包括多个数字按键,或者多个虚拟按键可以如图4B所示包括多个字母按键。
当然,可以理解的是,上述所列举的排布规则仅仅是示例性的,本公开实施例中的多个虚拟按键的排布方式包括但不限于上述所列举的排布方式。只要能够保证多个虚拟按键中每个虚拟按键能够与第二手指(参见后续实施例中的对应描述)上的指关节点一一对应,本公开实施例中多个虚拟按键的排布方式不作限定。
如图5所示,通常情况下,人手包括五个手指,每个手指包括三个指关节点和一个指尖点。本公开实施例中,挤压姿态手势包括人手中的第一手指的指尖点挤压在该人手中第二手指的一个指关节点上。
参见图5所示,大拇指包括大拇指指尖点A1,以及沿着远离大拇指指尖点A1的方向依次排列的第一大拇指指关节点B1、第二大拇指指关节点B2和第三大拇指指关节点B3。食指包括食指指尖点A2、以及沿着远离食指指尖点A2的方向依次排列的第一食指指关节点B4、第二食指指关节点B5和第三食指指关节点B6。中指包括中指指尖点A3、以及沿着远离中指指尖点A3的方向依次排列的第一中指指关节点B7、第二中指指关节点B8和第三中指指关节点B9。无名指包括无名指指尖点A4、以及沿着远离无名指指尖点A4的方向依次排列的第一无名指指关节点B10、第二无名指指关节点B11和第三无名指指关节点B12。小拇指包括小拇指指尖点A5、以及沿着远离小拇指指尖点A5的方向依次排列的第一小拇指指关节点B13、第二小拇指指关节点B14和第三小拇指指关节点B15。
可以理解的是,图5中仅以左手为例示出了人手上各手指指尖点位置和指关节位置。实际情况中,右手上各手指指尖点位置和指关节位置与左手类似,此处不再赘述。
在一些实施例中,第一手指为大拇指,第二手指为食指、中指和无名指中任一个。在此情况下,如图6A所示,第一手指的指尖点所能够挤压的指关节点包括:食指、中指和无名指上的共9个指关节点,即第一食指指关节点B4、第二食指指关节点B5、第三食指指关节点B6、第一中指指关节点B7、第二中指指关节点B8、第三中指指关节点B9、第一无名指指关节点B10、第二无名指指关节点B11和第三无名指指关节点B12。
在另一些实施例中,第一手指为大拇指,第二手指为食指、中指、无名指和小拇指中任一个。在此情况下,如图6B所示,第一手指的指尖点所能够挤压的指关节点包括:食指、中指、无名指和小拇指上的共12个关节点,即第一食指指关节点B4、第二食指指关节点B5、第三食指指关节点B6、第一中指指关节点B7、第二中指指关节点B8、第三中指指关节点B9、第一无名指指关节点B10、第二无名指指关节点B11、第三无名指指关节点B12、第一小拇指指关节点B13、第二小拇指指关节点B14和第三小拇指指关节点B15。
在一些实施例中,如图7所示,步骤S110的执行过程可以包括如下步骤S710~S740。
步骤S710:检测目标图像中是否存在人手。
在一些实施例中,可以将目标图像输入预设的用于识别人手图像的检测模型。若检测模型检测到目标图像中存在人手图像,则输出结果为是,若检测模型检测到目标图像中不存在人手图像,则输出结果为否。
在步骤S710中,若检测到检测模型输出的结果为是,则确定目标图像中存在人手,若检测到检测模型输出的结果为否,则确定目标图像中不存在人手。
检测模型的训练方式可以由本领域技术人员根据实际情况进行设置,例如可以采用上述相机采集的包括150个以上的用户手的动作行为案例共300万张样本图像数据,根据上述样本图像数据和卷积神经网络算法训练用于识别人手图像的检测模型。
步骤S720:在检测到目标图像中存在人手的情况下,识别人手上的骨骼点。
在一些示例中,参见图5所示,人手上的骨骼点包括人手上食指、中指和无名指上的指关节点B4~B12。
在另一些示例中,为了提高对人手的骨骼点的位置识别的准确性,参见图5所示,人手上的骨骼点包括人手每个手指上的指尖点A1~A5和指关节点B1~B15、以及人手的腕关节点C1。在此情况下,人手上共21个骨骼点。其中,每个手指上有1个指尖点,3个指关节点。
在步骤S720中,可以将目标图像输入预设的骨骼点检测模型,然后获得骨骼点检测模型输出的骨骼点图像,识别人手上的骨骼点所在位置。
骨骼点检测模型的获得方式可以由本领域技术人员根据实际情况进行设置,本公开实施例对此不作限定。例如可以采用上述相机采集的包括150个以上的用户手的动作行为案例共300万张样本图像数据,根据上述样本图像数据和卷积神经网络算法训练用于识别人手上各骨骼点位置的骨骼点检测模型。
步骤S730:实时获取人手上的骨骼点的三维空间位置信息。
三维空间位置信息例如三维空间位置坐标信息。如图9所示,三维空间位置坐标包括X方向坐标、Y方向坐标和Z方向坐标,其中,原点坐标为O,X方向、Y方向和Z方向两两垂直。
步骤S740:对人手上的骨骼点的三维空间位置信息进行追踪,以确定第一手指上的指尖点和第二手指上的一个指关节点满足重叠条件的情况下,根据目标图像确定用户是否做出挤压姿态手势。
示例地,重叠条件包括:第一手指上的指尖点和第二手指上的一个指关节点发生重叠且重叠状态的持续帧数大于预设帧数。
步骤S740中,实时对人手上的骨骼点的三维空间坐标进行追踪,从而定位目标图像中每帧下的人手上各骨骼点的位置。在此情况下,在确定第一手指上的指尖点和第二手指上的一个指关节点满足重叠条件的情况下,确定用户做出了挤压姿态手势。
预设帧数可以由本领域技术人员根据实际情况进行设置,本公开实施例对此不作限定。
如图8所示,步骤S740的执行过程可以包括如下步骤S810~S820。
步骤S810:获取预定帧数的人手上的各骨骼点的三维空间位置信息。
预定帧数可以由本领域技术人员根据实际情况进行设置,本公开实施例对此不作限定。
步骤S820:对各骨骼点的三维空间位置信息进行平滑滤波处理,将处理结果作为追踪结果。
获得各骨骼点的三维空间位置信息在时间轴上的变化数据。对时间轴上预设窗口内的三维空间位置信息进行平滑滤波,降低各骨骼点的三维空间信息的抖动精度误差,减少由于图像数据噪声或者神经网络模型识别误差导致的骨骼点的抖动误差。
预设窗口的大小可以有本领域技术人员根据实际情况进行设置,本公开实施例对此不作限定。
步骤S120:在识别目标图像中存在挤压姿态手势的情况下,根据预设的多个指关节与多个虚拟按键的对应关系,将挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键。
在多个虚拟按键包括9个虚拟按键的情况下,食指、中指和无名指上共9个指关节点,9个虚拟按键与上述9个关节点一一对应。
在多个虚拟按键包括12个虚拟按键的情况下,食指、中指、无名指和小拇指上共12个指关节点,12个虚拟按键与上述12个关节点一一对应。
示例地,在多个虚拟按键包括9个虚拟按键,且9个虚拟按键按照3×3的九宫格的方式排布的情况下,如图10A所示,预设的多个指关节与多个虚拟按键的一一对应关系例如可以是:
食指中距离食指指尖最近的第一食指指关节点B4对应九宫格中位于右上角的第一虚拟按键,食指中距离食指指尖最远的第三食指指关节点B6对应九宫格中位于右下角的第二虚拟按键,食指中位于第一食指指关节点B4和第三食指指关节点B6之间的第二食指指关节点B5对应九宫格中位于第一虚拟按键和第二虚拟按键之间的第三虚拟按键。
无名指中距离无名指指尖最近的第一无名指指关节点B10对应九宫格中位于左上角的第四虚拟按键,无名指中距离无名指指尖最远的第三无名指指关节点B12对应九宫格中位于左下角的第五虚拟按键,无名指中位于第一无名指指关节点B10和第三无名指指关节点B12之间的第二无名指指关节点B11对应九宫格中位于第四虚拟按键和第五虚拟按键之间的第六虚拟按键。
中指中距离无中指指尖最近的第一中指指关节点B7对应九宫格中位于第一虚拟按键和第四虚拟按键之间的第七虚拟按键,中指中距离无中指指尖最远的第三中指指关节点B9对应九宫格中位于第二虚拟按键和第五虚拟按键之间的第八虚拟按键,中指中位于第一中指指关节点B7和第三中指指关节点B9之间的第二中指指关节点B8对应九宫格中位于第三虚拟按键和第六虚拟按键之间的第九虚拟按键。
需要说明的是,12个虚拟按键中指关节点与虚拟按键的对应方式与上述对应方式类似(参见图10B),具体可以参考上述对应方式的描述进行类推,此处不再赘述。
可以理解的是,上述所列举的对应关系仅仅是示例性地,只要能够将预设的多个指关节与多个虚拟按键一一对应,本公开实施例包括但不限于上述所列举的对应关系。
步骤S120中,在确定存在挤压姿态手势后,将挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键。
例如,预设的多个指关节与多个虚拟按键的一一对应关系为如图10A所示的对应关系,在确定存在挤压姿态手势后,若挤压姿态手势中被挤压的指关节为食指中距离食指指尖最近的第一食指指关节点B4,则将第一虚拟按键确定为目标虚拟按键。
步骤S130:将目标虚拟按键对应的信息作为用户输入信息。
每个虚拟按键可以对应一个信息或多个信息,在此情况下,目标虚拟按键可以对应一个信息或多个信息。
示例地,多个虚拟按键如图2所示按照3×3的九宫格的方式排布,每个虚拟按键对应0~9中的一个数字,在此情况下,每个虚拟按键对应一个信息,即每个虚拟按键对应一个数字。
又示例地,多个虚拟按键如图2所示按照3×3的九宫格的方式排布,每个虚拟按键对应26个字母中的多个字母,在此情况下,每个虚拟按键对应多个信息,即每个虚拟按键对应多个字母。
在步骤S130中,在目标虚拟按键对应一个信息情况下,将目标虚拟按键对应的该信息作为用户输入信息。例如多个虚拟按键如图2所示按照3×3的九宫格的方式排布,每个虚拟按键对应0~9中的一个数字,在此情况下,若左上角的虚拟按键为目标虚拟按键,其对应的信息为数字“1”,将数字“1”作为用户输入信息。
在目标虚拟按键对应按照预设顺序排列的n个信息情况下,在连续m次将同一指关节点对应的虚拟按键确定为目标虚拟按键时,将所述目标虚拟按键对应的第m个信息作为用户输入信息;其中,n为自然数且n>1;m为自然数且n≥m>1。例如多个虚拟按键如图2所示按照3×3的九宫格的方式排布,每个虚拟按键对应26中的多个字母,在此情况下,若左上角的虚拟按键为目标虚拟按键,其对应的信息为按照“A-B-C”的顺序排列的3个字母信息,若用户点击该目标虚拟按键一次,则将字母第一个字母“A”作为用户输入信息,若用户连续点击该目标虚拟按键两次,则将字母第二个字母“B”作为用户输入信息,若用户连续点击该目标虚拟按键三次,则将字母第二个字母“C”作为用户输入信息。
本公开实施例的一个有益效果在于,提供一种头戴式显示设备的输入控制方法,头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机,本公开实施例能够在显示界面显示有多个虚拟按键的情况下,识别目标图像中是否存在挤压姿态手势;挤压姿态手势包括:人手中的第一手指的指尖点挤压在该人手中第二手指的一个指关节点上;然后在确定目标图像中存在挤压姿态手势的情况下,根据预设的多个指关节与多个虚拟按键的对应关系,将挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键;最后将目标虚拟按键对应的信息作为用户输入信息。由此可见,本公开实施例能够根据用户的手势来准确获得用户所要输入的信息,不仅操作简单、用户学习成本低,使得用户无需再通过额外的手柄控制器与HMD进行人机交互,由此能够有效减少甚至消除由于用户需要手持手柄控制器给用户行动造成的不便影响、以及由于用户需要手持手柄控制器导致用户与HMD交互过程操作繁琐的影响,提高用户与HMD交互过程的便利性。
<设备实施例>
图11示出了本公开实施例提供的一种头戴式显示设备的输入控制装置的功能结构框图。头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机。如图11所示,该头戴式显示设备的输入控制装置1100可以包括识别模块1110、确定模块1120和处理模块1130。
识别模块1110,用于在显示界面显示有多个虚拟按键的情况下,识别目标图像中是否存在挤压姿态手势;其中,挤压姿态手势包括:人手中的第一手指的指尖点挤压在该人手中第二手指的一个指关节点上。
确定模块1120,用于在识别模块1110识别目标图像中存在挤压姿态手势的情况下,根据预设的多个指关节与多个虚拟按键的对应关系,将挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键;
处理模块1130,用于将确定模块1120确定的目标虚拟按键对应的信息作为用户输入信息。
可选地,识别模块包括:检测子模块,用于检测目标图像中是否存在人手;识别子模块,用于在检测到目标图像中存在人手的情况下,识别人手上的骨骼点;其中,骨骼点包括人手的每个手指上的指尖点和指关节点、以及连接人手的腕关节点;获取子模块,用于实时获取人手上的骨骼点的三维空间位置信息;处理子模块,用于对人手上的骨骼点的三维空间位置信息进行追踪,以确定第一手指上的指尖点和第二手指上的一个指关节点满足重叠条件的情况下,根据目标图像确定用户是否做出挤压姿态手势。
可选地,处理子模块用于:获取预定帧数的人手上的各骨骼点的三维空间位置信息;对各骨骼点的三维空间位置信息进行平滑滤波处理,将处理结果作为追踪结果。
可选地,重叠条件包括:第一手指上的指尖点和第二手指上的一个指关节点发生重叠且重叠状态的持续帧数大于预设帧数。
可选地,第一手指为大拇指,第二手指为食指、中指和无名指中任一个。
可选地,多个虚拟按键包括9个虚拟按键,9个虚拟按键与所有第二手指的指关节点一一对应。
可选地,该装置还包括,输入控制模块,用于在目标虚拟按键对应一个信息情况下,将目标虚拟按键对应的该信息作为用户输入信息;在目标虚拟按键对应按照预设顺序排列的n个信息情况下,在连续m次将同一指关节点对应的虚拟按键确定为目标虚拟按键时,将目标虚拟按键对应的第m个信息作为用户输入信息;其中,n为自然数且n>1;m为自然数且n≥m>1。
图12示出了本公开实施例提供的一种头戴式显示设备的功能结构框图。头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机。
如图12所示,该头戴式显示设备1200还包括处理器1210和存储器1220,该存储器1220用于存储可执行的计算机程序,该处理器1210用于根据该计算机程序的控制,执行如以上任意方法实施例的方法。
以上头戴式显示设备1200的各模块可以由本实施例中的处理器1210执行存储器1220存储的计算机程序实现,也可以通过其他电路结构实现,在此不做限定。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种头戴式显示设备的输入控制方法,其特征在于,所述头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机;
所述方法包括:
在所述显示界面显示有多个虚拟按键的情况下,识别所述目标图像中是否存在挤压姿态手势;其中,所述挤压姿态手势包括:人手中的第一手指的指尖点挤压在该人手中第二手指的一个指关节点上;
在识别所述目标图像中存在挤压姿态手势的情况下,根据预设的多个指关节与多个虚拟按键的对应关系,将所述挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键;
将所述目标虚拟按键对应的信息作为用户输入信息。
2.根据权利要求1所述的方法,其特征在于,所述识别所述目标图像中是否存在挤压姿态手势,包括:
检测所述目标图像中是否存在人手;
在检测到所述目标图像中存在人手的情况下,识别所述人手上的骨骼点;其中,所述骨骼点包括所述人手的每个手指上的指尖点和指关节点、以及连接所述人手的腕关节点;
实时获取所述人手上的骨骼点的三维空间位置信息;
对所述人手上的骨骼点的三维空间位置信息进行追踪,以确定所述第一手指上的指尖点和所述第二手指上的一个指关节点满足重叠条件的情况下,根据所述目标图像确定用户是否做出挤压姿态手势。
3.根据权利要求2所述的方法,其特征在于,所述对所述人手上的骨骼点的三维空间位置信息进行追踪,包括:
获取预定帧数的所述人手上的各骨骼点的三维空间位置信息;
对所述各骨骼点的三维空间位置信息进行平滑滤波处理,将处理结果作为追踪结果。
4.根据权利要求2所述的方法,其特征在于,所述重叠条件包括:所述第一手指上的指尖点和所述第二手指上的一个指关节点发生重叠且重叠状态的持续帧数大于预设帧数。
5.根据权利要求1所述的方法,其特征在于,所述第一手指为大拇指,所述第二手指为食指、中指和无名指中任一个。
6.根据权利要求5所述的方法,其特征在于,所述多个虚拟按键包括9个虚拟按键,所述9个虚拟按键与所有第二手指的指关节点一一对应。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述目标虚拟按键对应一个信息情况下,将所述目标虚拟按键对应的该信息作为用户输入信息;
在所述目标虚拟按键对应按照预设顺序排列的n个信息情况下,在连续m次将同一指关节点对应的虚拟按键确定为目标虚拟按键时,将所述目标虚拟按键对应的第m个信息作为用户输入信息;其中,n为自然数且n>1;m为自然数且n≥m>1。
8.一种头戴式显示设备的输入控制装置,其特征在于,所述头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机;
所述装置包括:
识别模块,用于在所述显示界面显示有多个虚拟按键的情况下,识别所述目标图像中是否存在挤压姿态手势;其中,所述挤压姿态手势包括:人手中的第一手指的指尖点挤压在该人手中第二手指的一个指关节点上;
确定模块,用于在所述识别模块识别所述目标图像中存在挤压姿态手势的情况下,根据预设的多个指关节与多个虚拟按键的对应关系,将所述挤压姿态手势中被挤压的指关节对应的虚拟按键确定为目标虚拟按键;
处理模块,用于将所述确定模块确定的所述目标虚拟按键对应的信息作为用户输入信息。
9.一种头戴式显示设备,其特征在于,所述头戴式显示设备包括用于摄取目标区域的目标图像的至少一个相机;
所述头戴式显示设备还包括存储器和处理器,所述存储器用于存储计算机程序;所述处理器用于执行所述计算机程序,以实现根据权利要求1-7中任意一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110341333.0A CN113190109A (zh) | 2021-03-30 | 2021-03-30 | 头戴式显示设备的输入控制方法、装置及头戴式显示设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110341333.0A CN113190109A (zh) | 2021-03-30 | 2021-03-30 | 头戴式显示设备的输入控制方法、装置及头戴式显示设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113190109A true CN113190109A (zh) | 2021-07-30 |
Family
ID=76974558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110341333.0A Pending CN113190109A (zh) | 2021-03-30 | 2021-03-30 | 头戴式显示设备的输入控制方法、装置及头戴式显示设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113190109A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113741699A (zh) * | 2021-09-15 | 2021-12-03 | 刘志超 | 一种基于智能戒指的手势输入设备及其系统、方法 |
CN114168063A (zh) * | 2021-12-13 | 2022-03-11 | 杭州灵伴科技有限公司 | 虚拟按键显示方法、头戴式显示设备和计算机可读介质 |
CN114690900A (zh) * | 2022-03-16 | 2022-07-01 | 中数元宇数字科技(上海)有限公司 | 一种虚拟场景中的输入识别方法、设备及存储介质 |
WO2023015886A1 (zh) * | 2021-08-12 | 2023-02-16 | 青岛小鸟看看科技有限公司 | 基于人工现实的手势交互方法、系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100231522A1 (en) * | 2005-02-23 | 2010-09-16 | Zienon, Llc | Method and apparatus for data entry input |
CN105681859A (zh) * | 2016-01-12 | 2016-06-15 | 东华大学 | 基于人体骨骼追踪控制智能电视的人机交互方法 |
CN109739349A (zh) * | 2018-12-10 | 2019-05-10 | 河源市汉祖文化科技有限公司 | 一种手掌虚拟键盘输入方法、系统及输入传感识别器 |
CN111078002A (zh) * | 2019-11-20 | 2020-04-28 | 维沃移动通信有限公司 | 一种悬空手势识别方法及终端设备 |
CN111142675A (zh) * | 2019-12-31 | 2020-05-12 | 维沃移动通信有限公司 | 输入方法及头戴式电子设备 |
CN111414837A (zh) * | 2020-03-16 | 2020-07-14 | 苏州交驰人工智能研究院有限公司 | 手势识别方法、装置、计算机设备及存储介质 |
CN111427458A (zh) * | 2020-06-11 | 2020-07-17 | 诺百爱(杭州)科技有限责任公司 | 一种基于手部动作虚拟输入字符的方法、装置和电子设备 |
-
2021
- 2021-03-30 CN CN202110341333.0A patent/CN113190109A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100231522A1 (en) * | 2005-02-23 | 2010-09-16 | Zienon, Llc | Method and apparatus for data entry input |
CN105681859A (zh) * | 2016-01-12 | 2016-06-15 | 东华大学 | 基于人体骨骼追踪控制智能电视的人机交互方法 |
CN109739349A (zh) * | 2018-12-10 | 2019-05-10 | 河源市汉祖文化科技有限公司 | 一种手掌虚拟键盘输入方法、系统及输入传感识别器 |
CN111078002A (zh) * | 2019-11-20 | 2020-04-28 | 维沃移动通信有限公司 | 一种悬空手势识别方法及终端设备 |
CN111142675A (zh) * | 2019-12-31 | 2020-05-12 | 维沃移动通信有限公司 | 输入方法及头戴式电子设备 |
CN111414837A (zh) * | 2020-03-16 | 2020-07-14 | 苏州交驰人工智能研究院有限公司 | 手势识别方法、装置、计算机设备及存储介质 |
CN111427458A (zh) * | 2020-06-11 | 2020-07-17 | 诺百爱(杭州)科技有限责任公司 | 一种基于手部动作虚拟输入字符的方法、装置和电子设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023015886A1 (zh) * | 2021-08-12 | 2023-02-16 | 青岛小鸟看看科技有限公司 | 基于人工现实的手势交互方法、系统 |
CN113741699A (zh) * | 2021-09-15 | 2021-12-03 | 刘志超 | 一种基于智能戒指的手势输入设备及其系统、方法 |
CN114168063A (zh) * | 2021-12-13 | 2022-03-11 | 杭州灵伴科技有限公司 | 虚拟按键显示方法、头戴式显示设备和计算机可读介质 |
CN114690900A (zh) * | 2022-03-16 | 2022-07-01 | 中数元宇数字科技(上海)有限公司 | 一种虚拟场景中的输入识别方法、设备及存储介质 |
CN114690900B (zh) * | 2022-03-16 | 2023-07-18 | 中数元宇数字科技(上海)有限公司 | 一种虚拟场景中的输入识别方法、设备及存储介质 |
WO2023173668A1 (zh) * | 2022-03-16 | 2023-09-21 | 中数元宇数字科技(上海)有限公司 | 一种虚拟场景中的输入识别方法、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shriram et al. | [Retracted] Deep Learning‐Based Real‐Time AI Virtual Mouse System Using Computer Vision to Avoid COVID‐19 Spread | |
Memo et al. | Head-mounted gesture controlled interface for human-computer interaction | |
CN113190109A (zh) | 头戴式显示设备的输入控制方法、装置及头戴式显示设备 | |
CN111694429A (zh) | 虚拟对象驱动方法、装置、电子设备及可读存储 | |
Rozado et al. | Controlling a smartphone using gaze gestures as the input mechanism | |
US20130038521A1 (en) | Systems and methods of camera-based fingertip tracking | |
Shim et al. | Gesture-based interactive augmented reality content authoring system using HMD | |
Kumar et al. | Chromium based framework to include gaze interaction in web browser | |
CN110555426A (zh) | 视线检测方法、装置、设备及存储介质 | |
Xu et al. | Exploring visual techniques for boundary awareness during interaction in augmented reality head-mounted displays | |
EP3885883A1 (en) | Imaging system and method for producing images with virtually-superimposed functional elements | |
CN112613374A (zh) | 人脸可见区域解析与分割方法、人脸上妆方法及移动终端 | |
CN111901518A (zh) | 显示方法、装置和电子设备 | |
CN111309153A (zh) | 人机交互的控制方法和装置、电子设备和存储介质 | |
Guliani et al. | Gesture controlled mouse navigation: Hand landmark approach | |
Holland et al. | Dynamic keypad–digit shuffling for secure pin entry in a virtual world | |
Annachhatre et al. | Virtual Mouse Using Hand Gesture Recognition-A Systematic Literature Review | |
Yuan et al. | TIPTAB: A tangible interactive projection tabletop for virtual experiments | |
Cruz Bautista et al. | Hand features extractor using hand contour–a case study | |
US20240028130A1 (en) | Object movement control method, apparatus, and device | |
Joshi et al. | Enhancing Computer Vision Through Transformational Algorithm | |
Khaliq et al. | Virtual Mouse Implementation Using Color Pointer Detection | |
Jungwirth | Contour-Guided Gaze Gestures: Eye-based Interaction with Everyday Objects | |
CN117193520A (zh) | 一种虚拟世界中手写输入信息的显示方法及装置 | |
CN116954367A (zh) | 一种虚拟现实的交互方法、系统及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210730 |
|
RJ01 | Rejection of invention patent application after publication |