CN111273777A - 虚拟内容的控制方法、装置、电子设备及存储介质 - Google Patents
虚拟内容的控制方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111273777A CN111273777A CN202010086990.0A CN202010086990A CN111273777A CN 111273777 A CN111273777 A CN 111273777A CN 202010086990 A CN202010086990 A CN 202010086990A CN 111273777 A CN111273777 A CN 111273777A
- Authority
- CN
- China
- Prior art keywords
- hand
- gesture
- virtual content
- preset
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种虚拟内容的控制方法、装置、电子设备及存储介质,该虚拟内容的控制方法包括:当检测到通过手部输入的手势时,获取所述手部的生物特征;将所述生物特征与预设手部特征进行匹配,获得匹配结果;如果所述匹配结果满足预设匹配条件,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。本方法可以避免手势控制过程中的误操作现象。
Description
技术领域
本申请涉及显示技术领域,更具体地,涉及一种虚拟内容的控制方法、装置、电子设备及存储介质。
背景技术
随着科技的进步,增强现实(AR,Augmented Reality)、虚拟现实(VirtualReality,VR)等技术已逐渐成为国内外研究的热点。已经广泛应用到教育、游戏、医疗等各个领域中。目前存在各种各样的与虚拟内容进行交互的方式,例如,利用手势与显示的虚拟内容进行交互的交互方式,但是目前利用手势的交互方式的准确性不足。
发明内容
鉴于上述问题,本申请提出了一种虚拟内容的控制方法、装置、电子设备及存储介质。
第一方面,本申请实施例提供了一种虚拟内容的控制方法,所述方法包括:当检测到通过手部输入的手势时,获取所述手部的生物特征;将所述生物特征与预设手部特征进行匹配,获得匹配结果;如果所述匹配结果满足预设匹配条件,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
第二方面,本申请实施例提供了一种虚拟内容的控制装置,所述装置包括:特征获取模块、特征匹配模块以及内容控制模块,其中,所述特征获取模块用于当检测到通过手部输入的手势时,获取所述手部的生物特征;所述特征匹配模块用于将所述生物特征与预设手部特征进行匹配,获得匹配结果;所述内容控制模块用于如果所述匹配结果满足预设匹配条件,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储器;一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行上述第一方面提供的虚拟内容的控制方法。
第四方面,本申请实施例提供了一种计算机可读取存储介质,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行上述第一方面提供的虚拟内容的控制方法。
本申请提供的方案,在检测到通过手部输入的手势时,获取该手部的生物特征,然后将获取到的生物特征与预设手部特征进行匹配,获得匹配结果,在匹配结果满足预设匹配条件时,才响应该手势,对虚拟空间中显示的虚拟内容进行相应的控制。从而可以实现在检测到手势时,对手部的生物特征进行身份的校验,当满足条件时,才响应该手势,对虚拟空间中的虚拟内容进行控制,避免误操作的发生。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本申请实施例提供的一种场景示意图。
图2示出了适用于本申请实施例的应用场景的一种示意图。
图3示出了根据本申请一个实施例的虚拟内容的控制方法流程图。
图4示出了本申请一个实施例提供的一种显示效果示意图。
图5示出了根据本申请另一个实施例的虚拟内容的控制方法流程图。
图6示出了根据本申请又一个实施例的虚拟内容的控制方法流程图。
图7示出了本申请又一个实施例提供的虚拟内容的控制方法中步骤S340的流程图。
图8示出了根据本申请再一个实施例的虚拟内容的控制方法流程图。
图9示出了本申请再一个实施例提供的虚拟内容的控制方法中步骤S430的流程图。
图10示出了根据本申请一个实施例的虚拟内容的控制装置的一种框图。
图11是本申请实施例的用于执行根据本申请实施例的虚拟内容的控制方法的电子设备的框图。
图12是本申请实施例的用于保存或者携带实现根据本申请实施例的虚拟内容的控制方法的程序代码的存储单元。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
增强现实(AR,Augmented Reality)是通过计算机系统提供的信息增加用户对现实世界感知的技术,其将计算机生成的虚拟对象、场景或系统提示信息等内容对象叠加到真实场景中,来增强或修改对现实世界环境或表示现实世界环境的数据的感知。虚拟现实(Virtual Reality,VR)是利用现实生活中的数据,通过计算机技术产生的电子信号,将其与各种输出设备结合使其转化为能够让人们感受到的现象,这些现象可以是现实中真真切切的物体,也可以是我们肉眼所看不到的物质,通过三维模型表现出来。混合现实(MR,MixReality)是将真实世界和虚拟世界混合在一起,来产生新的可视化环境,环境中同时包含了物理实体与虚拟信息,并且必须是实时的。
随着科技水平的发展,手势识别越来越多地在电子设备中使用。尤其是AR、VR、MR等设备,使用手势识别来对显示的虚拟物体进行交互操作,更符合用户逻辑习惯,交互操作更加便捷,可以增加用户使用的沉浸感。
在AR、VR、MR场景中利用手势与显示的虚拟内容进行交互,需要对手势进行识别。作为一种方式,可以通过深度摄像头对手部动作X、Y、Z三轴上的运动轨迹进行捕捉识别,并且不同的动作可以与不同的交互操作命令对应,然后可以根据这些动作来触发不同的交互操作命令;作为另一种方式,可以采用单个普通摄像头来实现,使用单个普通摄像头也可以检测手势的骨骼节点,进行手势的跟踪识别,具体地,可以简单地通过获取到的手势图像的增大和缩小来判断手势的靠近和原理;作为又一种方式,可以通过超声波手势识别、毫米波手势识别、红外手势识别等方式进行手势识别,这些识别方式通过发射设备向手部发射特定信号(例如超声波信号、毫米波信号灯),再通过接受设备接收从手部反射回的信号,对接收到的信号进行分析和处理,从而可以获得手部做出的手势动作。当然,也还可以通过结构光技术来实现手势的检测和识别。
发明人经过长时间的研究发现,目前的手势识别方案的越来越多,随着技术的发展,手势识别的速度和准确率等方面都得到了很大改善。但是进行手势识别时,有时候会受到其他人手的影响从而造成误操作或者识别准确率下降。尤其是在AR、VR、MR场景时,当处于人多或者多用户进行协同游戏时,很容易识别到其他用户的手势。例如,如图1所示,在AR场景中,如果两个用户处于同一现实场景进行多人交互,则头戴显示装置101可能会采集到另一用户的手势,可能会造成对虚拟篮球A1的误操作。
针对上述问题,发明人提出了本申请实施例提供的虚拟内容的控制方法、装置、电子设备以及存储介质,在识别到用户的手势时,同时识别用户身份,判断是用户自己的手势而不是其他人的手势,避免误操作的发生。其中,具体的虚拟内容的控制方法在后续的实施例中进行详细的说明。
下面对本申请实施例提供的虚拟内容的控制方法的应用场景进行介绍。
请参阅图2,示出了本申请实施例提供的虚拟内容的控制方法的应用场景的一种示意图,该应用场景包括交互系统10,交互系统10可以用于多人的AR、VR场景、或MR场景,当然也可以用于单人的AR、VR场景或MR场景。当交互系统10用于多人AR、VR场景或MR场景时,该交互系统10可以包括多个电子设备,例如图2中示例性地示出了第一设备100以及第二设备200。
在一些实施方式中,电子设备可以是头戴显示装置,也可以是手机、平板电脑等移动设备。电子设备为头戴显示装置时,头戴显示装置可以为一体式头戴显示装置。电子设备也可以是与外接式/接入式头戴显示装置连接的手机等智能终端,即电子设备可作为头戴显示装置的处理和存储设备,插入或者接入外接式头戴显示装置,在头戴显示装置中对虚拟内容进行显示。电子设备也可以是单独的手机等移动终端,移动终端可以生成虚拟场景并于屏幕中进行显示。
在一些实施方式中,电子设备可以生成AR场景、VR场景或MR场景中的虚拟内容,并将虚拟内容进行显示。在显示虚拟内容的过程中,电子设备可以检测用户通过手部输入的手势,并对手势进行识别,以对虚拟内容进行相应的控制,实现用户与虚拟内容的交互。
在一些实施方式中,第一设备100与第二设备200在用于多人交互时,还可以通过网络进行通信,以进行交互场景中的数据的传输和同步。
下面结合附图在实施例中对具体的虚拟内容的控制方法进行介绍。
请参阅图3,图3示出了本申请一个实施例提供的虚拟内容的控制方法的流程示意图。该虚拟内容的控制方法应用于上述交互系统中电子设备。下面将针对图3所示的流程进行详细的阐述,该虚拟内容的控制方法具体可以包括以下步骤:
步骤S110:当检测到通过手部输入的手势时,获取所述手部的生物特征。
在本申请实施例中,电子设备在生成和显示虚拟场景(例如AR场景、VR场景、MR场景等)中的虚拟内容的过程中,可以检测和识别用户通过手部输入的手势。其中,电子设备显示的虚拟内容可以不作为限定,例如,可以为游戏场景中的虚拟游戏人物、虚拟道具,又例如,可以为会议场景中展示的会议内容,再例如,医疗场景中显示的虚拟器官(例如虚拟心脏、虚拟大脑)等。
在一些实施方式中,电子设备可以通过深度摄像头对手部动作X、Y、Z三轴上的运动轨迹进行捕捉识别,以检测用户通过手部输入的手势;电子设备也可以使用单个普通摄像头也可以检测手势的骨骼节点,进而检测用户通过手部输入的手势;电子设备还可以通过超声波手势识别、毫米波手势识别、红外手势识别等方式进行手势识别。当然,电子设备具体检测用户通过手部输入手势的方式可以不作为限定。
在本申请实施例中,电子设备可以在当检测到用户通过手部输入的手势时,获取该手部的生物特征。其中,生物特征可以包括掌纹信息、手掌形状、手掌大小、手指形状、手指大小、手部肤色、手部纹理、手部的静脉分布等。可以理解的,不同用户的手部的生物特征通常不同,因此可以依据手部的生物特征来区分不同用户的手部,进而可以区分不同用户输入的手势,以确定是否响应用户输入的手势,与虚拟内容产生交互。
当然,也可以通过手势检测装置检测手势,并将检测到的手势的信息发送至电子设备,从而电子设备可以确定检测到手部输入的手势。
在一些实施方式中,电子设备可以通过图像采集装置对以上输入手势的手部进行图像采集,以获得手部图像,然后再对手部图像中的生物特征进行识别,进而获得手部的生物特征。
在另一些实施方式中,电子设备也可以根据在检测手势过程中所获得的信息,进行手部的生物特征的识别,例如,可以根据采集到的手部的深度图像,进行生物特征的识别,又例如,可以根据红外手势识别过程中接收到的红外信号,进行处理和分析,获得手部的生物特征。当然,具体进行手部的生物特征的获取方式可以不作为限定。
步骤S120:将所述生物特征与预设手部特征进行匹配,获得匹配结果。
在本申请实施例中,电子设备在获取到输入手势的手部的生物特征后,可以将获取到的生物特征与预设手部特征进行匹配。其中,预设手部特征可以为预先设置的可与虚拟内容进行交互的手部的生物特征,例如,可以为该电子设备所对应的用户的手部的生物特征,也就是说,当输入手势的手部的生物特征与预设手部特征匹配时,则表示该手部输入的手势可以被用于与虚拟内容的交互。在将获取到的生物特征与预设手部特征进行匹配时,可以计算获取到的生物特征与预设手部特征之间的相似度,并将计算得到的相似度作为匹配结果。
在一些实施方式中,预设手部特征可以预先存储于电子设备,电子设备在每次获取到输入手势的生物特征之后,可以将获取到的生物特征与存储的预设手部特征进行匹配,进而获得匹配结果;预设手部特征也可以存储其他设备(例如用于手部识别的服务器等),电子设备可以将获取到的手部的生物特征发送至其他设备,由其他设备对生物特征与预设手部特征进行匹配后,将匹配结果下发至电子设备。
步骤S130:如果所述匹配结果满足预设匹配条件,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
在本申请实施例中,电子设备在获取到生物特征与预设手部特征的匹配结果之后,可以确定匹配结果是否满足预设匹配条件。其中,预设匹配条件可以为获取到的生物特征与预设手部特征的相似度大于指定相似度,指定相似度可以不作为限定,例如,指定相似度可以为90%,也可以为95%等。可以理解的,如果匹配结果满足预设匹配条件,则表示输入以上检测到的手势的手部为可以与虚拟内容进行交互的手部;如果匹配结果不满足预设匹配条件,则表示输入以上检测到的手势的手部为不可以与虚拟内容进行交互的手部。
在本申请实施例中,如果电子设备获取到的匹配结果满足预设匹配条件,则表示该手部输入的手势可以用于虚拟场景的虚拟空间中的虚拟内容进行交互,因此,可以响应检测到的手势,对AR场景或VR场景中的虚拟内容进行相应的控制。虚拟空间是指完全或部分人工环境,其可以是三维的;虚拟场景是指从虚拟空间内的特定视点观看的虚拟空间的表示。与虚拟空间相对的真实空间,则是指指真实环境,其可以是三维的;而真实场景是指从真实空间内的特定视点观看的真实空间的表示。其中,虚拟场景可以为AR场景、VR场景、或者MR场景等,以上虚拟空间即指的是AR场景、VR场景、或者MR场景中的虚拟空间。
在一些实施方式中,电子设备响应以上检测到的手势,对虚拟空间中显示的虚拟内容进行相应的控制,可以是电子设备根据该手势所对应的控制指令,对虚拟内容进行与控制指令相对应的控制。例如,该手势对应的控制指令为放大目标虚拟内容,则电子设备可以对目标虚拟内容进行显示比例的放大。
在另一些实施方式中,电子设备也可以将以上检测到的手势作为触发手势,然后跟踪检测该手部输入的手势,并根据跟踪检测到的手势,对虚拟内容进行相应的控制。例如,跟踪检测到的手势为连续的手势动作,则可以根据连续的手势动作,对虚拟内容进行控制。
例如,请参阅图4,在一些场景中,在篮球游戏场景中,第二用户104通过头戴显示装置105可以看到现实场景中的第一用户103以及虚拟篮球A2。此时,虽然头戴显示装置105可以采集到第一用户103的手势,但是此时第二用户104的头戴显示装置105将判断第一用户103的手部的生物特征与预设手部特征的匹配结果不满足预设匹配条件,因此将不会响应第一用户103的拍球手势,而是响应第二用户104的抱球手势,而将篮球显示于第二用户104的手中。
本申请实施例提供的虚拟内容的控制方法,在检测到通过手部输入的手势时,对该手部的生物特征进行身份校验,当满足条件时,才响应该手势,对虚拟空间中的虚拟内容进行控制,有效避免了虚拟场景的手势控制中的误操作的发生。
请参阅图5,图5示出了本申请另一个实施例提供的虚拟内容的控制方法的流程示意图。该虚拟内容的控制方法应用于上述电子设备,下面将针对图5所示的流程进行详细的阐述,所述虚拟内容的控制方法具体可以包括以下步骤:
步骤S210:当检测到通过手部输入的手势时,确定当前是否满足手部识别条件。
在本申请实施例中,电子设备在检测到通过手部输入的手势时,可以确定当前是否满足手部识别条件。其中,手部识别条件可以作为是否需要进行手部识别的依据,即用于确定是否需要进行手部的生物特征的获取和确定。可以理解的,如果当前满足手部识别条件,则表示需要进行手部的识别;如果当前不满足手部识别条件,则表示不需要进行手部的识别。
在一些实施方式中,手部识别条件可以包括以下条件中的一种或者多种:同一时刻检测到的手势的数量大于一个;在显示所述虚拟内容的过程中第一次检测到手势;在连续检测所述手势的过程中发生中断。
在该实施方式中,电子设备同一时刻检测到的手势的数量大于一个,表示电子设备在检测到通过手部输入的手势时,检测到了多个手势,此时可能部分手势并非可以与虚拟内容进行交互的手部做出的手势。因此,电子设备可以获取检测到的所有手势所对应的手部的生物特征,以对每个手部进行识别,避免误操作的发生。
在该实施方式中,电子设备在显示虚拟空间中的虚拟内容的过程中,如果第一次检测到手势时,也可以获取该手势对应的手部的生物特征,以便在需要跟踪检测手部的手势过程中,无需再进行手部的识别,减少电子设备的处理任务。也就是说,在第一次检测到手势时,对手部进行识别,如果手部的生物特征与预设手部特征的匹配结果满足预设匹配条件的情况下,则后续无需再每次检测到该手部的手势时,都进行手部的识别。
在该实施方式中,在连续检测该手部的手势的过程中如果发生中断,则在再次检测到手势时,也需要对手部进行识别。可以理解的,如果连续检测该手部的手势的过程中,如果发生中断,即未检测到该手部的手势,则如果再次检测到手势时,为避免不能与虚拟内容进行交互的手部产生的手势引起误操作,因此可以再次识别手部的生物特征,以确定该手部可以通过手势与虚拟内容交互后,再进行相应的控制。
可以理解的,手部识别条件可以为以上条件中的其中一个,也可以为任意两个或两个以上条件的组合,在此不做限定。
在本申请实施例中,通过在检测到手势时,确定当前是否满足手部识别条件后,再获取手部的生物特征,对手部进行识别。可以实现对于虚拟场景场景中连贯手势的控制中,第一次识别到手势时进行手部的识别,而后续进行手势的追踪检测过程中,则不需要进行继续进行手部的识别。而当手势追踪中发生中断时则再次检测到手势时,需要再次进行手部的识别。
另外,在一些实施方式中,对于虚拟场景场景中静态手势的识别方案,也可以在每次检测到手势时,均对手部进行识别。
步骤S220:如果满足所述手部识别条件,获取所述手部的生物特征。
在本申请实施例中,无论电子设备对于手势的检测的方式是否通过图像采集装置进行,电子设备在获取手部的特征时,可以通过图像采集装置采集该手部的第一手部图像,然后对第一手部图像中的生物特征进行识别,获得手部的生物特征。其中,对第一手部图像中的生物特征的识别方式,可以根据具体要获取的生物特征的类型确定。
步骤S230:将所述生物特征与预设手部特征进行匹配,获得匹配结果。
在本申请实施例中,步骤S230可以参阅前述实施例的内容,在此不再赘述。
在一些实施方式中,电子设备可以根据用户的操作,预先设置预设手部特征。具体地,当电子设备获取到手部特征设置指令时,可以采集第二手部图像,也就是设置预设手部特征的用户的手部图像,然后对第二手部图像中的生物特征进行识别,获得识别到的手部特征,并将该识别到的手部特征作为预设手部特征,再将预设手部特征进行存储,以用于可以进行手势控制的手部的手部特征。
步骤S240:如果所述匹配结果满足预设匹配条件,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
在本申请实施例中,电子设备根据检测到的手势,对虚拟空间中的虚拟内容进行相应的控制,可以包括:对显示的虚拟内容进行移动、旋转、内容选取、内容添加、内容交互以及缩放比例调整中的至少一种。当然,对虚拟空间中的虚拟内容的控制并不局限于以上控制,例如在游戏场景中,可以控制该电子设备所对应的游戏对象,与其他游戏对象产生交互(例如打斗等)。
在一些实施方式中,可以区分对虚拟内容在二维平面下的控制以及对虚拟内容在三维空间中的控制。其中,对虚拟内容在二维平面下的控制,指对虚拟内容进行同一个平面上的控制,且该平面可以是平行于所述用户双眼之间构成的直线的平面。对虚拟内容在三维空间下的控制,指对虚拟内容在其显示的三维虚拟空间中的控制,也即,可对虚拟内容进行360度全方位的控制。
在该实施方式中,电子设备可以获取检测到的手势的手势参数。手势参数可以至少包括手势所对应的手指数量。当然,手势参数也还可以包括其他参数,例如手势形状、手势的持续时间等。电子设备可以根据获取到的手势参数中的手指数量,区分对虚拟内容在二维平面下的控制以及对虚拟内容在三维空间中的控制。
在一些实施方式中,当电子设备获取到的手势参数中手指数量为单个时,则可以对虚拟内容进行二维平面下的控制;当电子设备获取到的手势参数中手指数量为多个时,则可以对虚拟内容进行三维空间中的控制。
电子设备对虚拟内容进行二维平面下的控制,可以是对虚拟空间中显示的虚拟内容进行二维平面下的选取、滚动、移动、页面选取等。例如,在商品选择场景中,虚拟内容为商品对应的商品选项,通过上述二维平面下的选取则可以对商品选项进行选取;又例如,在棋类游戏场景中,虚拟内容为显示的棋盘和棋子时,其中,棋盘可以与二维平面对应,通过上述二维平面下的滚动可以实现棋子于棋盘上水平或者垂直方向的移动;再例如,在2D游戏场景中,可以在二维平面内控制游戏人物移动;还例如,在商品选择的场景中,可以显示多级页面的商品选项,其中,每级页面中包括多个商品选项,通过上述对虚拟内容进行二维平面下的页面选取,可以实现多级页面中其中一个页面的显示。
其中,对虚拟内容进行二维平面下的不同控制,可以通过单指进行的不同手势来进行控制。例如,单指可以指向不同的方向,上、下、左、右等方向均可以对应不同的控制。
当然,对于虚拟内容在二维平面中的控制,并不限于上述的内容,在二维平面中对虚拟内容的控制也还可以是其他控制。
电子设备对虚拟内容进行三维空间中的控制,可以是对虚拟内容进行三维空间中的旋转、缩放比例调整、位置调整、立体切分等。例如,在模型展示的场景中,可以通过对模型进行三维空间中的旋转,以使模型的朝向等发生改变,便于用户可以查看各个角度的模型;又例如,在模型展示的场景中,可以通过对模型进行缩放比例的调整,使模型的比例增大,便于查看模型,也可以使模型的比例减小,以便操作模型;再例如,3D游戏场景中,虚拟内容为游戏人物时,通过上述对虚拟内容在三维空间中的移动,可以实现游戏人物在三维空间中任意方向上的移动,以实现3D游戏场景;还例如,在模型操作的场景中,可以在三维空间中对模型进行切分,以便满足用户对模型的切分需求。
其中,对虚拟内容进行三维空间中的不同控制,可以通过多指进行的不同手势来进行。例如,可以通过多指比出不同形状的手势,以对虚拟内容进行三维空间中的不同控制。
当然,对于虚拟内容在三维空间中的控制,并不限于上述的内容,在三维空间中对虚拟内容的控制也还可以是其他控制。
本申请实施例提供的虚拟内容的控制方法,在检测到通过手部输入的手势时,确定该手势是否满足手部识别条件,在检测到的手势满足手势识别条件的情况下,对该手部的生物特征进行身份校验,当满足条件时,才响应该手势,对虚拟空间中的虚拟内容进行控制,有效避免了虚拟场景的手势控制中的误操作的发生。
请参阅图6,图6示出了本申请又一个实施例提供的虚拟内容的控制方法的流程示意图。该虚拟内容的控制方法应用于上述电子设备,下面将针对图6所示的流程进行详细的阐述,所述虚拟内容的控制方法具体可以包括以下步骤:
步骤S310:当检测到通过手部输入的手势时,获取所述手部的生物特征。
步骤S320:将所述生物特征与预设手部特征进行匹配,获得匹配结果。
在本申请实施例中,步骤S310及步骤S320可以参阅前述实施例的内容,在此不再赘述。
步骤S330:如果所述匹配结果满足预设匹配条件,判断所述手势是否为预设手势。
在本申请实施例中,电子设备在获得手部的生物特征与预设手部特征的匹配结果之后,可以判断检测到的手势是否为预设手势。其中,预设手势为预先设置的可以用于与虚拟内容交互的手势,或者用于触发对虚拟内容进行手势控制的过程的手势。
在一些实施方式中,预设手势为预先设置的可以用于与虚拟内容交互的手势时,预设手势可以包括多种不同的手势,并且每种不同的手势分别用于对虚拟内容进行不同的操作。例如,手势1可以用于对虚拟内容进行移动,手势2用于对虚拟内容进行取消显示,手势3用于对虚拟内容的显示比例进行放大,当然以上手势仅为举例,并不构成对实际的手势与具体控制的对应关系的限定。
电子设备在判断检测到的手势是否为预设手势时,可以将检测到的手势与预设手势中的多种手势一一匹配,如果检测到的手势为预设手势中的任一手势,则可以确定检测到的手势为预设手势;如果检测到的手势不为预设手势中的任一手势,则可以确定检测到的手势不为预设手势。
在另一些实施方式中,预设手势为用于触发对虚拟内容进行手势控制的过程的手势时,预设手势可以为预先设定的任意手势,具体的手势可以不作为限定。当电子设备确定检测到的手势为预设手势时,则可以触发对虚拟内容进行控制的过程,电子设备可以后续响应其他操作,以对虚拟内容进行控制。
步骤S340:如果所述手势为预设手势,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
在本申请实施例中,如果电子设备确定出检测到的手势为预设手势,则电子设备可以根据预设手势,对虚拟空间中显示的虚拟内容进行相应的控制;也可以根据预设手势,触发对虚拟内容的控制过程,例如继续检测手势,并根据检测到的手势,对虚拟内容进行控制。
在一些实施方式中,预设手势为用于触发对虚拟内容的控制过程时,电子设备可以跟踪检测手部的手势,并根据跟踪检测的手势对虚拟内容进行控制。具体地,请参阅图7,步骤S340可以包括:
步骤S341:如果所述手势为预设手势,响应所述手势,连续检测所述手部的手势动作,获得连续的多个手势。
在一些实施方式中,电子设备确定检测到的手势为预设手势时,则可以对输入预设手势的手部的手势动作进行跟踪,以连续检测该手部的手势动作。作为一种方式,电子设备可以利用图像采集装置跟踪拍摄该手部的图像,并根据拍摄到的图像,连续检测该手部的手势动作。
在该方式中,电子设备连续检测该手部的手势动作,可以对手势动作所对应的手势进行确定,如果该手部连续输入了多个手势,则可以获得连续的多个手势。
步骤S342:根据所述多个手势,对虚拟内容进行相应的控制。
在一些实施方式中,电子设备在获得连续的多个手势之后,则可以根据多个手势,对虚拟内容进行相应的控制。可以理解的,在一些场景中,用户需要通过输入连续的多个手势,以对虚拟内容进行相应的控制,从而可以实现对虚拟内容进行复杂的控制。
在一些实施方式中,电子设备可以是根据检测到的多个手势中的部分手势,对虚拟内容进行控制,也可以是对多个手势中的全部手势对虚拟内容进行控制。作为一种方式,电子设备可以先从检测到的多个手势中排除无效的手势,再根据剩余的手势,确定对虚拟内容的控制指令,然后根据控制指令对虚拟内容进行控制。作为另一种方式,电子设备可以从检测到的多个手势中,确定存在有相应的控制指令的至少部分手势,然后根据至少部分手势所对应的控制指令,对虚拟内容进行控制。
在一些实施方式中,电子设备根据多个手势,对虚拟空间中显示的虚拟内容进行控制,也可以是根据手势所构成的手势组合,对虚拟内容进行控制。具体地,电子设备可以根据手势组合与控制指令之间的对应关系,获取检测到的多个手势所构成的手势组合对应的目标控制指令,然后根据目标控制指令,对虚拟空间中显示的虚拟内容进行相应的控制。例如,在对战游戏场景中,通过握拿手势、抬高手势以及投掷手势的手势组合,可以对虚拟投掷物进行投掷。当然,以上手势组合所对应的虚拟内容的具体控制可以不作为限定。
本申请实施例提供的虚拟内容的控制方法,在检测到通过手部输入的手势时,对该手部的生物特征进行身份校验,当满足条件时,判断手势是否为预设手势,在该手势为预设手势时,才响应该手势,对虚拟空间中的虚拟内容进行控制,有效避免了虚拟场景的手势控制中的误操作的发生。
请参阅图8,图8示出了本申请又一个实施例提供的虚拟内容的控制方法的流程示意图。该虚拟内容的控制方法应用于上述电子设备,下面将针对图8所示的流程进行详细的阐述,所述虚拟内容的控制方法具体可以包括以下步骤:
步骤S410:当检测到通过手部输入的手势时,获取所述手部的生物特征,所述手势包括多个手部输入的手势。
步骤S420:将所述生物特征与预设手部特征进行匹配,获得匹配结果。
在本申请实施例中,步骤S410以及步骤S420可以参阅前述实施例的内容,在此不再赘述。
步骤S430:如果存在至少两个手部的生物特征对应的匹配结果满足所述预设匹配条件,从所述至少两个手部的手势中选取目标手部的手势。
在本申请实施例中,电子设备可能会同时检测到多个手势。电子设备在同时检测到多个手势的情况下,可以分别将每个手势对应的手部的生物特征与预设手部特征进行匹配,并获得到每个手部的生物特征的匹配结果。
电子设备在获得每个手部的生物特征的匹配结果之后,可以确定每个手部对应的匹配结果是否满足预设匹配条件。在一些场景中,可能预设手部特征被预先设置有多个用户的手部的生物特征,这些用户均可以利用手部的手势与虚拟内容进行交互,因此就会存在同时检测到的多个手部的生物特征与预设手部特征的匹配结果均满足预设匹配条件的情况。例如,在查看零件模型的场景中,可能会存在不同用户轮流使用电子设备查看零件模型的情况,这样可能会预先设置有这些用户的手部的生物特征作为预设手部特征,而当一个用户在查看零件模型时,可能其他用户也还处于同一现实场景,这样电子设备就可能同时检测到多个用户的手势,并且存在至少两个用户的手部的生物特征对应的匹配结果满足预设匹配条件。
在本申请实施例中,如果存在至少两个手部的生物特征所对应的匹配结果满足预设匹配条件,则可以从这至少两个手部的手势中,选择目标手部的手势,以根据目标手部的手势,对虚拟内容进行控制。例如,在上述查看零件模型的场景中,可能选取目标手部的手势,对零件模型进行控制,避免对零件模型的误操作。
在一些实施方式中,电子设备通过采集手部的图像检测手势时,电子设备可以根据采集到的图像,确定每个手部相对电子设备的距离,将相对电子设备的距离最小或者小于指定距离的手部作为目标手部,并选取该目标手部的手势。
在一些实施方式中,电子设备也可以根据预先设定的不同手部的优先级确定需要选取的手部。具体地,请参阅图9,步骤S430可以包括:
步骤S431:根据所述至少两个手部的生物特征,获取所述至少两个手部中每个手部对应的权限优先级;
步骤S432:根据所述每个手部对应的权限优先级,从所述至少两个手部的手势中选取目标手部的手势,所述目标手部的权限优先级满足预设优先级条件。
在该实施方式中,电子设备中可以预先存储有满足匹配条件的手部与权限优先级的对应关系,电子设备可以根据该对应关系,确定以上满足匹配条件的手部中每个手部对应的权限优先级。根据确定出的权限优先级,可以确定权限优先级满足预设优先级条件的目标手部,并选取该目标手部的手势。其中,权限优先级条件可以为权限优先级最高或者权限优先级大于指定优先级。例如,在以上共同查看零件模型的场景中,每个用户轮流查看零件模型,可以将当前查看者对应的手部的权限优先级设置为最高,从而可以避免其他用户的手势对零件模型产生误操作。
当然,具体确定目标手部的手势的方式可以不作为限定,例如,电子设备通过采集手部的图像检测手势时,电子设备可以根据采集到的图像,确定每个手部的尺寸,然后将尺寸最大的手部作为目标手部,并选取该目标手部的手势。
步骤S440:根据所述目标手部的手势,对虚拟空间中显示的虚拟内容进行相应的控制。
在本申请实施例中,电子设备在确定出目标手部的手势之后,则可以根据目标手部的手势,对虚拟空间中显示的虚拟内容进行相应的控制,从而在同时有多个手部的生物特征与预设手部特征的匹配结果满足预设匹配条件的情况下,可以有效避免手势的误操作。
本申请实施例提供的虚拟内容的控制方法,在检测到多个手部输入的手势时,对每个手部的生物特征与预设手部特征进行匹配,当存在多个手部的匹配结果满足预设条件时,从多个手部的手势中选取目标手部的手势,然后根据目标手部的手势,对虚拟空间中的虚拟内容进行控制,有效避免了虚拟场景的手势控制中的误操作的发生。
请参阅图10,其示出了本申请实施例提供的一种虚拟内容的控制装置400的结构框图。该虚拟内容的控制装置400应用上述的电子设备,该虚拟内容的控制装置400包括:特征获取模块410、特征匹配模块420以及内容控制模块430。其中,所述特征获取模块410用于当检测到通过手部输入的手势时,获取所述手部的生物特征;所述特征匹配模块420用于将所述生物特征与预设手部特征进行匹配,获得匹配结果;所述内容控制模块430用于如果所述匹配结果满足预设匹配条件,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
在一些实施方式中,特征获取模块410可以包括:手势确定单元以及第一执行单元。手势确定单元用于当检测到通过手部输入的手势时,确定当前是否满足手部识别条件;第一执行单元用于如果满足所述手部识别条件,获取所述手部的生物特征。
在该实施方式下,所述手部识别条件包括以下条件中的一种或者多种:同一时刻检测到的手势的数量大于一个;在显示所述虚拟内容的过程中第一次检测到手势;在连续检测所述手势的过程中发生中断。
在一些实施方式中,该虚拟内容的控制装置400还可以包括:手势判断模块。手势判断模块用于在内容控制模块430对虚拟空间中显示的虚拟内容进行相应的控制之前,判断所述手势是否为预设手势。内容控制模块430用于如果所述手势为预设手势,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
在该实施方式下,内容控制模块430可以包括:手势获取单元以及第二执行单元。手势获取单元用于如果所述手势为预设手势,响应所述手势,连续检测所述手部的手势动作,获得连续的多个手势;第二执行单元用于根据所述多个手势,对虚拟内容进行相应的控制。
进一步地,第二执行单元可以包括:指令获取子单元以及控制子单元。指令获取子单元用于根据手势组合与控制指令之间的对应关系,获取所述多个手势构成的手势组合所对应的目标控制指令;控制子单元用于根据所述目标控制指令对虚拟内容进行相应的控制。
在一些实施方式中,所述手势包括多个手部输入的手势。内容控制模块430可以包括:目标手势获取单元以及第三执行单元。目标手势获取单元用于如果存在至少两个手部的生物特征对应的匹配结果满足所述预设匹配条件,从所述至少两个手部的手势中选取目标手部的手势;第三执行单元用于根据所述目标手部的手势,对虚拟空间场景中显示的虚拟内容进行相应的控制。
在该实施方式下,目标手势获取单元包括:优先级获取子单元以及手势确定子单元。优先级获取子单元用于根据所述至少两个手部的生物特征,获取所述至少两个手部中每个手部对应的权限优先级;手势确定子单元用于根据所述每个手部对应的权限优先级,从所述至少两个手部的手势中选取目标手部的手势,所述目标手部的权限优先级满足预设优先级条件。
在一些实施方式中,内容控制模块430可以具体用于:对虚拟空间中显示的虚拟内容进行移动、旋转、内容选取、内容添加、内容交互以及缩放比例调整中的至少一种。
在一些实施方式中,特征获取模块410可以包括:图像采集单元以及特征识别单元。图像采集单元用于通过图像采集装置采集所述手部的第一手部图像;特征识别单元用于对所述第一手部图像中的生物特征进行识别,获得所述手部的生物特征。
在一些实施方式中,虚拟内容的控制装置400还可以包括:特征设置模块以及特征存储模块。特征设置模块用于当获取到手部特征设置指令时,采集第二手部图像;特征存储模块用于对所述第二手部图像中的生物特征进行识别,获得预设手部特征,并将所述预设手部特征进行存储。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,模块相互之间的耦合可以是电性,机械或其它形式的耦合。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
综上所述,本申请提供的方案,在检测到通过手部输入的手势时,获取该手部的生物特征,然后将获取到的生物特征与预设手部特征进行匹配,获得匹配结果,在匹配结果满足预设匹配条件时,才响应该手势,对虚拟空间中显示的虚拟内容进行相应的控制。从而可以实现在检测到手势时,对手部的生物特征进行身份的校验,当满足校验结果时,才响应该手势,对虚拟空间中的虚拟内容进行控制,避免误操作的发生。
请参考图11,其示出了本申请实施例提供的一种电子设备的结构框图。该电子设备300可以是智能手机、平板电脑、智能手表、头戴显示装置等能够运行应用程序的电子设备。本申请中的电子设备300可以包括一个或多个如下部件:处理器310、存储器320、图像采集装置330,存储器320中可存储有一个或多个计算机程序,计算机程序可被配置为由一个或多个处理器310执行,以用于执行如前述方法实施例所描述的方法。
处理器310可以包括一个或者多个处理核。处理器310利用各种接口和线路连接整个电子设备300内的各个部分,通过运行或执行存储在存储器320内的指令、程序、代码集或指令集,以及调用存储在存储器320内的数据,执行电子设备300的各种功能和处理数据。可选地,处理器310可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器310可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器310中,单独通过一块通信芯片进行实现。
存储器320可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器320可用于存储指令、程序、代码、代码集或指令集。存储器320可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储电子设备300在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
在本申请实施例中,图像采集装置330用于采集标记物的图像。图像采集装置330可以为红外摄像头,也可以是彩色摄像头,具体的摄像头类型在本申请实施例中并不作为限定。
请参考图12,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读介质800中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质800可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质800包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质800具有执行上述方法中的任何方法步骤的程序代码810的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码810可以例如以适当形式进行压缩。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (14)
1.一种虚拟内容的控制方法,其特征在于,所述方法包括:
当检测到通过手部输入的手势时,获取所述手部的生物特征;
将所述生物特征与预设手部特征进行匹配,获得匹配结果;
如果所述匹配结果满足预设匹配条件,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
2.根据权利要求1所述的方法,其特征在于,所述当检测到通过手部输入的手势时,获取所述手部的生物特征,包括:
当检测到通过手部输入的手势时,确定当前是否满足手部识别条件;
如果满足所述手部识别条件,获取所述手部的生物特征。
3.根据权利要求2所述的方法,其特征在于,所述手部识别条件包括:
同一时刻检测到的手势的数量大于一个;和/或
在显示所述虚拟内容的过程中第一次检测到手势;和/或
在连续检测所述手势的过程中发生中断。
4.根据权利要求1所述的方法,其特征在于,在所述对虚拟空间中显示的虚拟内容进行相应的控制之前,所述方法还包括:
判断所述手势是否为预设手势;
如果所述手势为预设手势,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
5.根据权利要求4所述的方法,其特征在于,所述如果所述手势为预设手势,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制,包括:
如果所述手势为预设手势,响应所述手势,连续检测所述手部的手势动作,获得连续的多个手势;
根据所述多个手势,对虚拟空间中显示的虚拟内容进行相应的控制。
6.根据权利要求5所述的方法,其特征在于,所述根据所述多个手势,对虚拟空间中显示的虚拟内容进行相应的控制,包括:
根据手势组合与控制指令之间的对应关系,获取所述多个手势构成的手势组合所对应的目标控制指令;
根据所述目标控制指令对虚拟空间中显示的虚拟内容进行相应的控制。
7.根据权利要求1所述的方法,其特征在于,所述手势包括多个手部输入的手势,所述如果所述匹配结果满足预设匹配条件,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制,包括:
如果存在至少两个手部的生物特征对应的匹配结果满足所述预设匹配条件,从所述至少两个手部的手势中选取目标手部的手势;
根据所述目标手部的手势,对虚拟空间中显示的虚拟内容进行相应的控制。
8.根据权利要求7所述的方法,其特征在于,所述从所述至少两个手部的手势中选取目标手部的手势,包括:
根据所述至少两个手部的生物特征,获取所述至少两个手部中每个手部对应的权限优先级;
根据所述每个手部对应的权限优先级,从所述至少两个手部的手势中选取目标手部的手势,所述目标手部的权限优先级满足预设优先级条件。
9.根据权利要求1-8任一项所述的方法,其特征在于,所述对虚拟空间中显示的虚拟内容进行相应的控制,包括:
对虚拟空间中显示的虚拟内容进行移动、旋转、内容选取、内容添加、内容交互以及缩放比例调整中的至少一种。
10.根据权利要求1-8任一项所述的方法,其特征在于,所述获取所述手部的生物特征,包括:
通过图像采集装置采集所述手部的第一手部图像;
对所述第一手部图像中的生物特征进行识别,获得所述手部的生物特征。
11.根据权利要求1-8任一项所述的方法,其特征在于,在所述当检测到通过手部输入的手势时,获取所述手部的生物特征之前,所述方法还包括:
当获取到手部特征设置指令时,采集第二手部图像;
对所述第二手部图像中的生物特征进行识别,获得预设手部特征,并将所述预设手部特征进行存储。
12.一种虚拟内容的控制装置,其特征在于,所述装置包括:特征获取模块、特征匹配模块以及内容控制模块,其中,
所述特征获取模块用于当检测到通过手部输入的手势时,获取所述手部的生物特征;
所述特征匹配模块用于将所述生物特征与预设手部特征进行匹配,获得匹配结果;
所述内容控制模块用于如果所述匹配结果满足预设匹配条件,响应所述手势,对虚拟空间中显示的虚拟内容进行相应的控制。
13.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行如权利要求1-11任一项所述的方法。
14.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1-11任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010086990.0A CN111273777A (zh) | 2020-02-11 | 2020-02-11 | 虚拟内容的控制方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010086990.0A CN111273777A (zh) | 2020-02-11 | 2020-02-11 | 虚拟内容的控制方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111273777A true CN111273777A (zh) | 2020-06-12 |
Family
ID=70997035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010086990.0A Pending CN111273777A (zh) | 2020-02-11 | 2020-02-11 | 虚拟内容的控制方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111273777A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112379776A (zh) * | 2020-11-23 | 2021-02-19 | 南京科盈信息科技有限公司 | 一种提高展厅手势识别系统识别准确度的控制方法 |
CN113031464A (zh) * | 2021-03-22 | 2021-06-25 | 北京市商汤科技开发有限公司 | 设备控制方法、装置、电子设备及存储介质 |
CN113158845A (zh) * | 2021-04-02 | 2021-07-23 | 歌尔光学科技有限公司 | 手势识别方法、头戴显示设备及非易失性存储介质 |
CN114115530A (zh) * | 2021-11-08 | 2022-03-01 | 深圳市雷鸟网络传媒有限公司 | 虚拟对象控制方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324274A (zh) * | 2012-03-22 | 2013-09-25 | 联想(北京)有限公司 | 一种人机交互方法和装置 |
CN103761466A (zh) * | 2014-02-14 | 2014-04-30 | 上海云享科技有限公司 | 一种身份验证的方法及装置 |
CN103995998A (zh) * | 2014-05-19 | 2014-08-20 | 华为技术有限公司 | 一种非接触手势命令的认证方法以及用户设备 |
CN104748746A (zh) * | 2013-12-29 | 2015-07-01 | 刘进 | 智能机姿态测定及虚拟现实漫游方法 |
CN105095882A (zh) * | 2015-08-24 | 2015-11-25 | 珠海格力电器股份有限公司 | 手势识别的识别方法和装置 |
CN106529249A (zh) * | 2016-10-31 | 2017-03-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种信息交互的方法及虚拟现实眼镜 |
US20180053056A1 (en) * | 2016-08-22 | 2018-02-22 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
CN109299595A (zh) * | 2018-09-08 | 2019-02-01 | 太若科技(北京)有限公司 | 基于手部皮肤纹理信息解锁ar设备的方法、装置及ar设备 |
-
2020
- 2020-02-11 CN CN202010086990.0A patent/CN111273777A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324274A (zh) * | 2012-03-22 | 2013-09-25 | 联想(北京)有限公司 | 一种人机交互方法和装置 |
CN104748746A (zh) * | 2013-12-29 | 2015-07-01 | 刘进 | 智能机姿态测定及虚拟现实漫游方法 |
CN103761466A (zh) * | 2014-02-14 | 2014-04-30 | 上海云享科技有限公司 | 一种身份验证的方法及装置 |
CN103995998A (zh) * | 2014-05-19 | 2014-08-20 | 华为技术有限公司 | 一种非接触手势命令的认证方法以及用户设备 |
CN105095882A (zh) * | 2015-08-24 | 2015-11-25 | 珠海格力电器股份有限公司 | 手势识别的识别方法和装置 |
US20180053056A1 (en) * | 2016-08-22 | 2018-02-22 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
CN106529249A (zh) * | 2016-10-31 | 2017-03-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种信息交互的方法及虚拟现实眼镜 |
CN109299595A (zh) * | 2018-09-08 | 2019-02-01 | 太若科技(北京)有限公司 | 基于手部皮肤纹理信息解锁ar设备的方法、装置及ar设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112379776A (zh) * | 2020-11-23 | 2021-02-19 | 南京科盈信息科技有限公司 | 一种提高展厅手势识别系统识别准确度的控制方法 |
CN113031464A (zh) * | 2021-03-22 | 2021-06-25 | 北京市商汤科技开发有限公司 | 设备控制方法、装置、电子设备及存储介质 |
CN113031464B (zh) * | 2021-03-22 | 2022-11-22 | 北京市商汤科技开发有限公司 | 设备控制方法、装置、电子设备及存储介质 |
CN113158845A (zh) * | 2021-04-02 | 2021-07-23 | 歌尔光学科技有限公司 | 手势识别方法、头戴显示设备及非易失性存储介质 |
CN114115530A (zh) * | 2021-11-08 | 2022-03-01 | 深圳市雷鸟网络传媒有限公司 | 虚拟对象控制方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111273777A (zh) | 虚拟内容的控制方法、装置、电子设备及存储介质 | |
US8223147B1 (en) | Method and system for vision-based interaction in a virtual environment | |
CN106249882B (zh) | 一种应用于vr设备的手势操控方法与装置 | |
CN111580652B (zh) | 视频播放的控制方法、装置、增强现实设备及存储介质 | |
EP2956882B1 (en) | Managed biometric identity | |
EP2371434B1 (en) | Image generation system, image generation method, and information storage medium | |
TW201814438A (zh) | 基於虛擬實境場景的輸入方法及裝置 | |
KR101083408B1 (ko) | 인터렉티브 모드를 지원하는 증강현실 구현 장치 및 방법 | |
CN108288306A (zh) | 虚拟对象的显示方法及装置 | |
WO2019150269A1 (en) | Method and system for 3d graphical authentication on electronic devices | |
CN113826058A (zh) | 具有自触觉虚拟键盘的人工现实系统 | |
CN111383345B (zh) | 虚拟内容的显示方法、装置、终端设备及存储介质 | |
WO2011087887A2 (en) | Tracking groups of users in motion capture system | |
JP6514376B1 (ja) | ゲームプログラム、方法、及び情報処理装置 | |
CN113785262A (zh) | 具有手指映射自触觉输入方法的人工现实系统 | |
WO2014194148A2 (en) | Systems and methods involving gesture based user interaction, user interface and/or other features | |
US20220270302A1 (en) | Content distribution system, content distribution method, and content distribution program | |
US20210117070A1 (en) | Computer-readable recording medium, computer apparatus, and method of controlling | |
CN110866940A (zh) | 虚拟画面的控制方法、装置、终端设备及存储介质 | |
CN106909219B (zh) | 基于三维空间的交互控制方法和装置、智能终端 | |
CN112973110A (zh) | 云游戏控制方法、装置、网络电视及计算机可读存储介质 | |
CN110688018B (zh) | 虚拟画面的控制方法、装置、终端设备及存储介质 | |
CN111651054A (zh) | 音效控制方法、装置、电子设备及存储介质 | |
JP2019126741A (ja) | ゲームプログラム、方法、及び情報処理装置 | |
JP7291106B2 (ja) | コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200612 |