CN113190106B - 手势识别方法、装置及电子设备 - Google Patents

手势识别方法、装置及电子设备 Download PDF

Info

Publication number
CN113190106B
CN113190106B CN202110282821.9A CN202110282821A CN113190106B CN 113190106 B CN113190106 B CN 113190106B CN 202110282821 A CN202110282821 A CN 202110282821A CN 113190106 B CN113190106 B CN 113190106B
Authority
CN
China
Prior art keywords
gesture
target
scene category
instruction
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110282821.9A
Other languages
English (en)
Other versions
CN113190106A (zh
Inventor
吴涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Xiaoniao Kankan Technology Co Ltd
Original Assignee
Qingdao Xiaoniao Kankan Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Xiaoniao Kankan Technology Co Ltd filed Critical Qingdao Xiaoniao Kankan Technology Co Ltd
Priority to CN202110282821.9A priority Critical patent/CN113190106B/zh
Publication of CN113190106A publication Critical patent/CN113190106A/zh
Priority to PCT/CN2021/123609 priority patent/WO2022193632A1/zh
Priority to US17/881,130 priority patent/US20220374086A1/en
Application granted granted Critical
Publication of CN113190106B publication Critical patent/CN113190106B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种手势识别方法、装置及电子设备,该方法包括:接收用户输入的第一手势轨迹;根据所述第一手势轨迹,获得目标场景类别,其中,所述目标场景类别表征所述用户所处的交互场景的类别;根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令。该方法可以快速、准确的识别用户手势,以获得目标手势指令,进而使得电子设备可以根据该指令执行对应的响应处理。

Description

手势识别方法、装置及电子设备
技术领域
本公开涉及手势识别技术领域,更具体地,涉及一种手势识别方法、装置及一种电子设备。
背景技术
在用户使用虚拟现实(VR,Virtual Reality)、增强现实(AR,Augmented Reality)以及混合显示(MR,Mixed Reality)等电子设备的过程中,为增强用户沉浸感,一般可以通过接收用户手势并进行手势识别,来接收输入指令,进而实现人机交互。
目前的电子设备在实现手势识别时,一般是固定几种定义手势,并让用户学习这几种手势,以在用户使用电子设备时,通过识别该几种手势,实现用户在各个场景中的交互。
然而,在实现本申请的过程中,发明人发现,现有的基于固定定义手势的手势识别方法,若定义手势种类太多,则在用户手势动作记错或者存在相近手势的情况下,电子设备存在识别错误、准确性不够的问题;而若定义手势种类太少,又可能难以满足多数交互场景,导致用户体验不佳。
发明内容
本公开实施例的一个目的是提供一种用于手势识别的新技术方案,以快速、准确的识别用户手势。
根据本公开的第一方面,提供了一种手势识别方法,该方法包括:
接收用户输入的第一手势轨迹;
根据所述第一手势轨迹,获得目标场景类别,其中,所述目标场景类别表征所述用户所处的交互场景的类别;
根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令。
可选地,所述根据所述第一手势轨迹,获得所目标场景类别,包括:
获取所述用户在当前时刻之前的、预设历史时间内输入的第二手势轨迹;
根据所述第一手势轨迹和所述第二手势轨迹,获得所述用户对应的手势轨迹行为特征;
根据所述手势轨迹行为特征,获得所述目标场景类别。
可选地,所述根据所述手势轨迹行为特征,获得所述目标场景类别,包括:
根据所述手势轨迹行为特征,获得待匹配手势指令,其中,所述待匹配手势指令的数量为至少一个;
根据所述待匹配手势指令,在预设的场景类别和手势指令对应关系中查询,获得满足预设条件的场景类别作为所述目标场景类别。
可选地,所述根据所述待匹配手势指令,在场景类别和手势指令对应关系中查询,获得满足预设条件的场景类别作为所述目标场景类别,包括:
根据所述场景类别和手势指令对应关系,获取至少一个手势指令集合,其中,每一手势指令集合与一场景类别对应;
分别计算所述手势指令集合中与所述待匹配手势指令匹配的指令的数量,获得至少一个匹配数量,其中,每一匹配数量与一场景类别对应;
从所述至少一个匹配数量中,选取数值满足预设数值条件的目标匹配数量,并将所述目标匹配数量对应的场景类别作为所述目标场景类别。
可选地,所述根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令,包括:
将所述第一手势轨迹输入到手势识别模型中,获得预测手势指令;
根据所述预测手势指令和所述目标场景类别,获得所述目标手势指令。
可选地,所述预测手势指令的数量为多个,所述手势识别模型在输出所述预测手势指令时,还同时输出每一预测手势指令对应的置信度;
所述根据所述预测手势指令和所述目标场景类别,获得所述目标手势指令,包括:
从所述预测手势指令中,选取对应场景类别为所述目标场景类别,并且对应置信度满足预设置信度条件的指令作为所述目标手势指令。
可选地,所述手势识别模型通过以下步骤训练获得:
获取样本数据,其中,所述样本数据为采集预设手势动作获得的数据,所述预设手势动作通过统计预设的场景类别下的手势动作获得;
使用所述样本数据训练原始手势识别模型,获得满足预设收敛条件的所述手势识别模型。
可选地,所述方法应用于电子备,所述目标手势指令的数量为多个,在获得所述目标手势指令之后,所述方法还包括:
展示所述目标手势指令;
接收所述用户在所述目标手势指令中选择的手势指令;
根据所述手势指令,执行对应的响应处理。
根据本公开的第二方面,本公开还提供了一种手势识别装置,包括:
手势轨迹接收模块,用于接收用户输入的第一手势轨迹;
场景类别获得模块,用于根据所述第一手势轨迹,获得目标场景类别,其中,所述目标场景类别表征所述用户所处的交互场景的类别;
目标手势指令获得模块,用于根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令。
根据本公开的第三方面,还提供了一种电子设备,其包括根据本公开第二方面所述的装置;或者,
所述电子设备包括:存储器,用于存储可执行的指令;处理器,用于根据所述指令的控制运行所述电子设备执行本公开第一方面所述的方法。
本公开的有益效果在于,根据本公开的实施例,电子设备在接收到用户输入的第一手势轨迹之后,可以先根据该第一手势轨迹,确定表征用户当前所处的交互场景的目标场景类别,进而根据该目标场景类别和该第一手势轨迹,进行手势识别,以获得目标手势指令。该方法在进行手势识别时,通过确定用户当前所处的交互场景的类别,以根据该类别结合用户当前输入的第一手势轨迹,准确的识别出该手势轨迹所对应的目标手势指令,以使得电子设备可以根据该指令做出相应的响应,进而提升人机交互体验。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且连同其说明一起用于解释本公开的原理。
图1是本公开实施例提供的手势识别方法的流程示意图。
图2是本公开实施例提供的手势识别装置的原理框图。
图3是本公开实施例提供的电子设备的硬件结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<方法实施例>
请参看图1,其为本公开实施例提供的手势识别方法的流程示意图。该方法可以应用于电子设备中,使得电子设备可以快速、准确的识别用户手势,以获得对应的手势指令并根据该手势指令做出相应的响应,其中,该电子设备可以为服务器,该服务器用于接收终端设备采集并发送的用户手势轨迹,并根据该手势轨迹,得到目标手势指令,进而根据该指令控制终端设备执行相应的响应;或者,该电子设备也可以直接为终端设备,例如,可以为VR设备、AR设备以及MR设备等设备,此处不做特殊限定。需要说明的是,本实施例中,如无特殊说明,以应用该方法的电子设备为VR设备为例进行说明。
如图1所示,本实施例的方法可以包括步骤S1100-S1300,以下予以详细说明。
步骤S1100,接收用户输入的第一手势轨迹。
在本实施例中,第一手势轨迹,可以是与当前时刻、用户做出的手势动作对应的轨迹,该手势动作可以为电子设备内预先设置的手势动作,用于向电子设备输入对应的手势指令。例如,针对“确认”指令,手势动作可以为一握拳动作。
在具体实施时,用户输入的手势轨迹,可以由电子设备先通过与其连接的图像采集装置,例如,摄像机采集用户手部图像,并通过分析该图像获得,例如,在VR设备中,可以通过分析VR设备内置的一个或者多个单色鱼眼追踪相机采集的图像获得该手势轨迹;当然,在具体实施时,也可以通过其他方法获得用户输入的手势轨迹,例如,可以在用户手部设置相应的传感器,并通过该传感器采集的位置信息,分析获得用户输入的手势轨迹,此处不再赘述。
步骤S1200,根据所述第一手势轨迹,获得目标场景类别,其中,所述目标场景类别表征所述用户所处的交互场景的类别。
在实现本申请的过程中,发明人分析发现,目前用户在基于手势与电子设备,例如VR设备之间进行人机交互时,从应用层面一般包括以下交互场景中的至少一种:1、启动(Launcher)场景,该场景一般用于选择意向应用程序,其对应的手势动作主要为“选择”和“确认”,例如,在VR设备中,用户在VR系统主菜单界面下,一般仅需要表征“选择”的手势动作和表征“确认”的手势动作选择意向应用程序;2、系统设置场景,该场景一般用于浏览系统设置以及点击确定设置内容,其对应的手势动作主要为“下拉”、“上翻滑动”和“确认”;3、视频观影场景,该场景一般用于对观影的视频进行确定以及播放控制,其对应的手势动作主要有选择播放视频的“确认”动作、用于“暂停”、“播放”、“快进”、“后退”、“画面缩放”等进行播放控制的动作;4、网页浏览场景,该场景一般用于对网页内容进行控制,其对应的手势动作可以有“下拉”、“上翻”、“确认”等网页浏览动作,以及“复制”、“粘贴”等内容编辑动作;5、游戏场景,该场景主要是在用户进行游戏时,通过相应手势动作进行游戏操作;6、拍照场景,该场景可以包含一些用于控制拍照的手势动作。
根据上述分析可知,用户在通过手势动作与电子设备之间进行人机交互是,在不同的交互场景下,常用的手势动作往往是可以确定的,因此,在本实施例中,为了准确的识别用户手势,可以不必限制预先定义的手势动作的数量,而是通过对不同交互场景下的手势动作进行统计和归类总结,并在电子设备,例如,VR设备中预先设置分别与不同场景类别对应的手势动作,并在用户基于手势与电子设备之间进行人机交互时,通过先确定当前时刻用户所处的交互场景的目标场景类别,再根据该目标场景类别,进一步的识别获得目标手势指令,以下针对如何获得目标场景类别进行说明。
在一个实施例中,所述根据所述第一手势轨迹,获得所目标场景类别,包括:获取所述用户在当前时刻之前的、预设历史时间内输入的第二手势轨迹;根据所述第一手势轨迹和所述第二手势轨迹,获得所述用户对应的手势轨迹行为特征;根据所述手势轨迹行为特征,获得所述目标场景类别。
在本实施例中,手势轨迹行为特征,是通过综合分析用户当前时刻的第一手势轨迹和历史时长内的第二手势轨迹,以得到一定时长范围内用户的手势轨迹状态,进而根据该手势轨迹状态,得到的、表征其行为或意图的数据。
例如,在当前时刻的第一手势轨迹为与“握拳”动作对应的轨迹,同时,在该时刻之前的一分钟时长内的第二手势轨迹为“下拉”、“上翻”等动作对应的轨迹的情况下,则可以确定用户是在浏览内容,则当前的交互场景可能为网页浏览场景或者视频观影场景。
在具体实施时,为了确定当前时刻、用户所处的交互场景的类别,即,为了准确的获得目标场景类别,所述根据所述手势轨迹行为特征,获得所述目标场景类别,可以包括:根据所述手势轨迹行为特征,获得待匹配手势指令,其中,所述待匹配手势指令的数量为至少一个;根据所述待匹配手势指令,在预设的场景类别和手势指令对应关系中查询,获得满足预设条件的场景类别作为所述目标场景类别。
其中,所述根据所述待匹配手势指令,在场景类别和手势指令对应关系中查询,获得满足预设条件的场景类别作为所述目标场景类别,包括:根据所述场景类别和手势指令对应关系,获取至少一个手势指令集合,其中,每一手势指令集合与一场景类别对应;分别计算所述手势指令集合中与所述待匹配手势指令匹配的指令的数量,获得至少一个匹配数量,其中,每一匹配数量与一场景类别对应;从所述至少一个匹配数量中,选取数值满足预设数值条件的目标匹配数量,并将所述目标匹配数量对应的场景类别作为所述目标场景类别,其中,与每一手势指令集合对应的场景类别可以为预设的场景类别中的场景类别。
具体来讲,在根据第一手势轨迹和第二手势轨迹,获得表征用户手势轨迹行为的手势轨迹行为特征之后,可以获得一些与该轨迹行为对应的手势指令作为待匹配指令,例如,“上翻”、“下拉”和“确认”指令等;在获得待匹配指令之后,可以分别获取每一场景类别对应的手势指令集合,并分别统计每一手势指令集合中与待匹配指令匹配的手势指令的数量,进而可以将匹配数量最多的手势指令集合所对应的场景类别作为目标场景类别。需要说明的是,此处是以预设数值条件为匹配数量的数值最大进行举例说明,在具体实施时,该预设数值条件也可以根据需要进行设置,此处不做特殊限定。
还需要说明的是,以上仅为本实施例提供的一种获取目标场景类别的实施例,在具体实施时,当然也可以通过其他方法获得该目标场景类别,例如,也可以预先训练用于根据手势轨迹行为特征,获得目标场景类别的卷积神经模型,此处不再赘述。
在步骤S1200之后,执行步骤S1300,根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令。
在经过以上步骤确定用户当前时刻所处的交互场景的场景类别之后,即可根据该场景类别,即目标场景类别结合当前时刻输入的第一手势轨迹,获得与该第一手势轨迹对应的目标手势指令,以下予以详细说明。
在一个实施例中,所述根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令,包括:将所述第一手势轨迹输入到手势识别模型中,获得预测手势指令;根据所述预测手势指令和所述目标场景类别,获得所述目标手势指令。
在本实施例中,该手势识别模型,用于根据输入的手势轨迹,预测与该手势轨迹对应的手势指令,即,预测手势指令。在具体实施时,所述手势识别模型可以通过以下步骤训练获得:获取样本数据,其中,所述样本数据为采集预设手势动作获得的数据,所述预设手势动作通过统计预设的场景类别下的手势动作获得;使用所述样本数据训练原始手势识别模型,获得满足预设收敛条件的所述手势识别模型。
具体来讲,在本实施例中,可以根据不同的交互场景,例如,上述六种交互场景,设定与每一交互场景对应的手势动作,以形成若干手势动作;之后,通过采集若干用户做出的该若干手势动作的图像或视频,得到用于训练手势识别模型的训练数据集;再之后,基于该训练数据集中的样本数据,训练原始手势识别模型,以根据该原始手势识别模型,获得满足预设收敛条件的手势识别模型,其中,该原始手势识别模型与该手势识别模型对应,其可以为基于卷积神经网络的模型,其具体训练方法此处不再赘述。
在一个实施例中,所述手势识别模型在输出所述预测手势指令时,还同时输出每一预测手势指令对应的置信度;所述根据所述预测手势指令和所述目标场景类别,获得所述目标手势指令,包括:从所述预测手势指令中,选取对应场景类别为所述目标场景类别,并且对应置信度满足预设置信度条件的指令作为所述目标手势指令。
具体来讲,在本实施例中,上述预测手势指令的数量可以为多个,即,手势识别模型在根据输入的手势轨迹,预测该手势轨迹对应的手势指令时,可以同时输出多个,例如,20个识别结果,以及,同时输出每一识别结果对应的置信度,其中,置信度,用于表征一个识别结果的置信区间(Confidence interval),即,用于表征其对应的识别结果的正确程度,其取值范围一般在0~1之间,通常,其数值越大,则表征其对应的识别结果的正确程度越大;在获得该多个预测手势指令之后,可以再与步骤S1200获得的目标场景类别结合,从该多个预测手势指令中,选择隶属于该目标场景类别且对应置信度满足预设置信度条件,例如,数值最大的指令作为目标手势指令。
需要说明的是,在具体实施时,为了进一步提升目标手势指令的准确度,在具体实施时,该预设置信度条件也可以为:置信度的数值满足预设排序,例如,在所有结果中的前5。
具体来讲,在一个实施例中,目标手势指令的数量可以为多个,在经过上述步骤获得目标手势指令之后,为了进一步提升该手势指令的准确度,在获得所述目标手势指令之后,所述方法还包括:展示所述目标手势指令;接收所述用户在所述目标手势指令中选择的手势指令;根据所述手势指令,执行对应的响应处理。
即,在获得数量为多个的目标手势指令之后,通过增加用户确认模块,以进一步提升目标手势指令的准确度。
需要说明的是,以上是以先根据手势识别模型获得预测手势指令,再将预测手势指令与目标场景类别结合,获得目标手势指令,在具体实施时,在训练手势识别模型时,样本数据中也可以同时包含手势动作对应的场景类别,以训练得到根据手势轨迹和场景类别,预测目标手势指令的模型;这样,在具体应用时,即可将当前时刻用户输入的第一手势轨迹和目标场景类别同时输入到手势识别模型中,从而可以直接得到目标手势指令;当然,也可以通过其他方法获得目标手势指令,此处不再赘述。
综上所述,本实施例提供的手势识别方法,电子设备在接收到用户输入的第一手势轨迹之后,可以先根据该第一手势轨迹,确定表征用户当前所处的交互场景的目标场景类别,进而根据该目标场景类别和该第一手势轨迹,进行手势识别,以获得目标手势指令。该方法在进行手势识别时,通过确定用户当前所处的交互场景的类别,以根据该类别结合用户当前输入的第一手势轨迹,准确的识别出该手势轨迹所对应的目标手势指令,以使得电子设备可以根据该指令做出相应的响应,进而提升人机交互体验。
<装置实施例>
与上述方法实施例中提供的手势识别方法对应,本实施例还提供一种手势识别装置,如图2所示,该装置2000可以应用于电子设备中,具体可以包括手势轨迹接收模块2100、场景类别获得模块2200、目标手势指令获得模块2300。
该手势轨迹接收模块2100,用于接收用户输入的第一手势轨迹。
该场景类别获得模块2200,用于根据所述第一手势轨迹,获得目标场景类别,其中,所述目标场景类别表征所述用户所处的交互场景的类别。
在一个实施例中,该场景类别获得模块2200在根据所述第一手势轨迹,获得目标场景类别时,可以用于:获取所述用户在当前时刻之前的、预设历史时间内输入的第二手势轨迹;根据所述第一手势轨迹和所述第二手势轨迹,获得所述用户对应的手势轨迹行为特征;根据所述手势轨迹行为特征,获得所述目标场景类别。
在一个实施例中,该场景类别获得模块2200在根据所述手势轨迹行为特征,获得所述目标场景类别时,可以用于:根据所述手势轨迹行为特征,获得待匹配手势指令,其中,所述待匹配手势指令的数量为至少一个;根据所述待匹配手势指令,在预设的场景类别和手势指令对应关系中查询,获得满足预设条件的场景类别作为所述目标场景类别。
在一个实施例中,该场景类别获得模块2200在根据所述待匹配手势指令,在场景类别和手势指令对应关系中查询,获得满足预设条件的场景类别作为所述目标场景类别时,可以用于:根据所述场景类别和手势指令对应关系,获取至少一个手势指令集合,其中,每一手势指令集合与一场景类别对应;分别计算所述手势指令集合中与所述待匹配手势指令匹配的指令的数量,获得至少一个匹配数量,其中,每一匹配数量与一场景类别对应;从所述至少一个匹配数量中,选取数值满足预设数值条件的目标匹配数量,并将所述目标匹配数量对应的场景类别作为所述目标场景类别。
该目标手势指令获得模块2300,用于根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令。
在一个实施例中,该目标手势指令获得模块2300在根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令时,可以用于:将所述第一手势轨迹输入到手势识别模型中,获得预测手势指令;根据所述预测手势指令和所述目标场景类别,获得所述目标手势指令。
在一个实施例中,所述预测手势指令的数量为多个,所述手势识别模型在输出所述预测手势指令时,还同时输出每一预测手势指令对应的置信度;该目标手势指令获得模块2300在根据所述预测手势指令和所述目标场景类别,获得所述目标手势指令时,可以用于:从所述预测手势指令中,选取对应场景类别为所述目标场景类别,并且对应置信度满足预设置信度条件的指令作为所述目标手势指令。
在一个实施例中,所述目标手势指令的数量为多个,该装置2000还包括指令确认模块,用于在获得所述目标手势指令之后,展示所述目标手势指令;接收所述用户在所述目标手势指令中选择的手势指令;根据所述手势指令,执行对应的响应处理。
<设备实施例>
与上述方法实施例中提供的手势识别方法相对应,在本实施例中,还提供一种电子设备,其可以包括根据本公开任意实施例的手势识别装置2000,用于实施本公开任意实施例的手势识别方法。
如图3所示,该电子设备3000还可以包括处理器3200和存储器3100,该存储器3100用于存储可执行的指令;该处理器3200用于根据指令的控制运行电子设备以执行根据本公开任意实施例的手势识别方法。
以上装置2000的各个模块可以由处理器3200运行该指令以执行根据本公开任意实施例的手势识别方法来实现。
该电子设备3000例如可以是VR、AR以及MR设备等设备,此处不做特殊限定。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本公开的范围由所附权利要求来限定。

Claims (9)

1.一种手势识别方法,包括:
接收用户输入的第一手势轨迹;
根据所述第一手势轨迹,获得目标场景类别,其中,所述目标场景类别表征所述用户所处的交互场景的类别;
根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令,
其中,所述根据所述第一手势轨迹,获得目标场景类别,包括:
获取所述用户在当前时刻之前的、预设历史时间内输入的第二手势轨迹;
根据所述第一手势轨迹和所述第二手势轨迹,获得所述用户对应的手势轨迹行为特征;
根据所述手势轨迹行为特征,获得所述目标场景类别。
2.根据权利要求1所述的方法,所述根据所述手势轨迹行为特征,获得所述目标场景类别,包括:
根据所述手势轨迹行为特征,获得待匹配手势指令,其中,所述待匹配手势指令的数量为至少一个;
根据所述待匹配手势指令,在预设的场景类别和手势指令对应关系中查询,获得满足预设条件的场景类别作为所述目标场景类别。
3.根据权利要求2所述的方法,所述根据所述待匹配手势指令,在场景类别和手势指令对应关系中查询,获得满足预设条件的场景类别作为所述目标场景类别,包括:
根据所述场景类别和手势指令对应关系,获取至少一个手势指令集合,其中,每一手势指令集合与一场景类别对应;
分别计算所述手势指令集合中与所述待匹配手势指令匹配的指令的数量,获得至少一个匹配数量,其中,每一匹配数量与一场景类别对应;
从所述至少一个匹配数量中,选取数值满足预设数值条件的目标匹配数量,并将所述目标匹配数量对应的场景类别作为所述目标场景类别。
4.根据权利要求1所述的方法,所述根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令,包括:
将所述第一手势轨迹输入到手势识别模型中,获得预测手势指令;
根据所述预测手势指令和所述目标场景类别,获得所述目标手势指令。
5.根据权利要求4所述的方法,所述预测手势指令的数量为多个,所述手势识别模型在输出所述预测手势指令时,还同时输出每一预测手势指令对应的置信度;
所述根据所述预测手势指令和所述目标场景类别,获得所述目标手势指令,包括:
从所述预测手势指令中,选取对应场景类别为所述目标场景类别,并且对应置信度满足预设置信度条件的指令作为所述目标手势指令。
6.根据权利要求4所述的方法,所述手势识别模型通过以下步骤训练获得:
获取样本数据,其中,所述样本数据为采集预设手势动作获得的数据,所述预设手势动作通过统计预设的场景类别下的手势动作获得;
使用所述样本数据训练原始手势识别模型,获得满足预设收敛条件的所述手势识别模型。
7.根据权利要求1所述的方法,所述方法应用于电子设备,所述目标手势指令的数量为多个,在获得所述目标手势指令之后,所述方法还包括:
展示所述目标手势指令;
接收所述用户在所述目标手势指令中选择的手势指令;
根据所述手势指令,执行对应的响应处理。
8.一种手势识别装置,包括:
手势轨迹接收模块,用于接收用户输入的第一手势轨迹;
场景类别获得模块,用于根据所述第一手势轨迹,获得目标场景类别,其中,所述目标场景类别表征所述用户所处的交互场景的类别;
目标手势指令获得模块,用于根据所述目标场景类别和所述第一手势轨迹,获得目标手势指令,
其中,所述场景类别获得模块在根据所述第一手势轨迹,获得目标场景类别时,还用于:
获取所述用户在当前时刻之前的、预设历史时间内输入的第二手势轨迹;
根据所述第一手势轨迹和所述第二手势轨迹,获得所述用户对应的手势轨迹行为特征;
根据所述手势轨迹行为特征,获得所述目标场景类别。
9.一种电子设备,包括权利要求8所述的装置;或者,
所述电子设备包括:
存储器,用于存储可执行的指令;
处理器,用于根据所述指令的控制运行所述电子设备执行如权利要求1-7任意一项所述的方法。
CN202110282821.9A 2021-03-16 2021-03-16 手势识别方法、装置及电子设备 Active CN113190106B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110282821.9A CN113190106B (zh) 2021-03-16 2021-03-16 手势识别方法、装置及电子设备
PCT/CN2021/123609 WO2022193632A1 (zh) 2021-03-16 2021-10-13 手势识别方法、装置及电子设备
US17/881,130 US20220374086A1 (en) 2021-03-16 2022-08-04 Method, device for gesture recognition and electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110282821.9A CN113190106B (zh) 2021-03-16 2021-03-16 手势识别方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN113190106A CN113190106A (zh) 2021-07-30
CN113190106B true CN113190106B (zh) 2022-11-22

Family

ID=76973320

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110282821.9A Active CN113190106B (zh) 2021-03-16 2021-03-16 手势识别方法、装置及电子设备

Country Status (3)

Country Link
US (1) US20220374086A1 (zh)
CN (1) CN113190106B (zh)
WO (1) WO2022193632A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113190106B (zh) * 2021-03-16 2022-11-22 青岛小鸟看看科技有限公司 手势识别方法、装置及电子设备
CN116761040B (zh) * 2023-08-22 2023-10-27 超级芯(江苏)智能科技有限公司 Vr云平台交互方法及交互系统
CN117765617B (zh) * 2024-02-22 2024-05-17 深圳腾信百纳科技有限公司 基于用户手势行为的指令生成方法、系统及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302434A (zh) * 2015-06-16 2016-02-03 深圳市腾讯计算机系统有限公司 游戏场景中锁定目标的方法和装置
CN105988583A (zh) * 2015-11-18 2016-10-05 乐视致新电子科技(天津)有限公司 手势控制方法及虚拟现实显示输出设备
WO2018098862A1 (zh) * 2016-11-29 2018-06-07 歌尔科技有限公司 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
CN111273769A (zh) * 2020-01-15 2020-06-12 Oppo广东移动通信有限公司 一种设备控制方法、装置、电子设备及存储介质
WO2020147434A1 (zh) * 2019-01-16 2020-07-23 深圳壹账通智能科技有限公司 基于手势识别的测试方法、装置、存储介质及终端设备
CN111626168A (zh) * 2020-05-20 2020-09-04 中移雄安信息通信科技有限公司 手势识别方法、装置、设备和介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8631355B2 (en) * 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US20120313847A1 (en) * 2011-06-09 2012-12-13 Nokia Corporation Method and apparatus for contextual gesture recognition
US9959296B1 (en) * 2014-05-12 2018-05-01 Google Llc Providing suggestions within a document
CN107885317A (zh) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置
CN113190106B (zh) * 2021-03-16 2022-11-22 青岛小鸟看看科技有限公司 手势识别方法、装置及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302434A (zh) * 2015-06-16 2016-02-03 深圳市腾讯计算机系统有限公司 游戏场景中锁定目标的方法和装置
CN105988583A (zh) * 2015-11-18 2016-10-05 乐视致新电子科技(天津)有限公司 手势控制方法及虚拟现实显示输出设备
WO2018098862A1 (zh) * 2016-11-29 2018-06-07 歌尔科技有限公司 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
WO2020147434A1 (zh) * 2019-01-16 2020-07-23 深圳壹账通智能科技有限公司 基于手势识别的测试方法、装置、存储介质及终端设备
CN111273769A (zh) * 2020-01-15 2020-06-12 Oppo广东移动通信有限公司 一种设备控制方法、装置、电子设备及存储介质
CN111626168A (zh) * 2020-05-20 2020-09-04 中移雄安信息通信科技有限公司 手势识别方法、装置、设备和介质

Also Published As

Publication number Publication date
CN113190106A (zh) 2021-07-30
WO2022193632A1 (zh) 2022-09-22
US20220374086A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
CN113190106B (zh) 手势识别方法、装置及电子设备
US11487503B2 (en) Interactive control method and device for voice and video communications
CN109240576B (zh) 游戏中的图像处理方法及装置、电子设备、存储介质
CN108830235B (zh) 用于生成信息的方法和装置
CN106303723B (zh) 视频处理方法和装置
CN109257645B (zh) 视频封面生成方法及装置
CN110837761B (zh) 多模型知识蒸馏方法及装置、电子设备和存储介质
JP2020514892A (ja) マルチメディアの再生中に対話属性を表示するための方法および装置
CN107995536A (zh) 一种提取视频预览的方法、装置、设备和计算机存储介质
CN107172454A (zh) 一种视频推荐方法、介质、装置和计算设备
EP3188034A1 (en) Display terminal-based data processing method
US11455836B2 (en) Dynamic motion detection method and apparatus, and storage medium
CN106960014B (zh) 关联用户推荐方法及装置
US20200007948A1 (en) Video subtitle display method and apparatus
CN109145970B (zh) 基于图像的问答处理方法和装置、电子设备及存储介质
EP4376423A1 (en) Virtual object interaction method and device, and storage medium and computer program product
CN111209417A (zh) 一种信息展示方法、服务器、终端及存储介质
GB2598015A (en) Action recognition method and device for target object, and electronic apparatus
CN111770376A (zh) 信息展示方法、装置、系统、电子设备及存储介质
CN110248235B (zh) 软件教学方法、装置、终端设备及介质
CN113269781A (zh) 数据生成方法、装置及电子设备
CN110673886A (zh) 用于生成热力图的方法和装置
CN113190107B (zh) 手势识别方法、装置及电子设备
CN107818584B (zh) 用户手指位置信息的确定方法及装置、投影仪、投影系统
CN111784772B (zh) 基于域随机化的姿态估计模型训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant