CN110308795A - 一种动态手势识别方法及系统 - Google Patents
一种动态手势识别方法及系统 Download PDFInfo
- Publication number
- CN110308795A CN110308795A CN201910604878.9A CN201910604878A CN110308795A CN 110308795 A CN110308795 A CN 110308795A CN 201910604878 A CN201910604878 A CN 201910604878A CN 110308795 A CN110308795 A CN 110308795A
- Authority
- CN
- China
- Prior art keywords
- data
- gesture
- acceleration
- value
- gesture motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种动态手势识别方法及系统,该方法包括以下步骤:获取手部运动数据,包括三轴加速度和角速度数据;对手部运动数据进行处理,截取有效的手势动作数据;对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;获取待测手势动作数据,基于BP神经网络算法与K‑means算法对待测手势动作数据进行动态手势识别。
Description
技术领域
本公开涉及人机交互技术领域,具体涉及一种基于单运动传感器的动态手势识别方法及系统。
背景技术
人机交互(Human-Computer Interaction,HCI)是人工智能重要的一个方面,人机交互是用户与计算机联系的中介,是用户与各种设备对话的一种方式。以鼠标键盘为主的交互方式,已经满足不了人工智能的需求。人机交互方式变得多种多样,比如智能手机等设备的触屏方式、语音交互方式等,但随着需求越来越高,这些交互方式出现了一定的局限性,往往受软件和硬件的限制。随着技术的进一步提高,人机交互方式得到了快速发展,新型的人机交互方式出现,例如,手势交互方式、头部交互方式、视觉交互方式。其中手势交互得到了广泛研究与应用。
手势交互方式,与传统的交互方式相比,它更加方便、简洁、便捷。实现手势交互方式,重点就是实现不同手势的识别。手势识别是人机交互重要的一部分,它关系到人机交互的自然性与灵活性。以手势作为交互方式有大量的优势,控制人手的大脑部分面积很大,说明手可以做出各种精细动作,人可以做出大量的手势来代表不同的指令。另外,以手势作为交互方式,不在需要像鼠标键盘这样的交互中介,人机对话更加方便快捷。
手势识别实现主要有两种方式,第一种是基于摄像头对照片或视频进行处理的手势识别,另一种基于传感器的穿戴式设备手势识别。发明人在研发过程中发现,基于图像处理的手势识别方式需要在特定场景下才能实现,普遍性不高,对坏境依赖性大,不适合大规模的应用。而传感器体积小,可以嵌入各种穿戴式设备,如手表,腕带等。与基于图像处理的手势识别比较,基于传感器的手势识别更加方便、高效,并且不受环境的影响。
发明内容
针对现有动态手势识别算法识别率低,本公开提供了一种基于单运动传感器的动态手势识别方法及系统,实现了高效、准确地手势识别。
本公开一方面提供的一种动态手势识别方法的技术方案是:
一种动态手势识别方法,该方法包括以下步骤:
获取手部运动数据,包括三轴加速度和角速度数据;
对手部运动数据进行处理,截取有效的手势动作数据;
对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;
获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
本公开另一方面提供的一种动态手势识别系统的技术方案是:
一种动态手势识别系统,该系统包括:
数据获取模块,用于获取手部运动数据,包括三轴加速度数据和三轴角速度数据;
数据处理模块,用于对手部运动数据进行处理,截取有效的手势动作数据;
特征提取模块,用于对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;
手势识别模块,用于获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
本公开另一方面提供的一种计算机可读存储介质的技术方案是:
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如下步骤:
获取手部运动数据,包括三轴加速度和角速度数据;
对手部运动数据进行处理,截取有效的手势动作数据;
对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;
获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
本公开另一方面提供的一种处理装置的技术方案是:
一种处理装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如下步骤:
获取手部运动数据,包括三轴加速度和角速度数据;
对手部运动数据进行处理,截取有效的手势动作数据;
对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;
获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
通过上述技术方案,本公开的有益效果是:
(1)本公开使用单运动传感器,系统结构简单,可在智能手机、智能手环、智能手表等多种产品中应用;
(2)本公开提取运动信息的手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点作为特征值,便于进行动态手势识别;
(3)本公开基于BP神经网络算法与K-means算法进行动态手势识别,识别结果准确。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本申请,并不构成对本公开的不当限定。
图1是实施例一动态手势识别方法的流程图;
图2是实施例一数据预处理的流程图;
图3是实施例一BP神经网络算法的流程图;
图4是实施例一K-means算法的流程图。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本公开使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
本实施例提供一种基于单运动传感器的动态手势识别方法,首先,利用运动传感器采集手部运动信息,包括三轴加速度信息和三轴角速度信息;其次,对运动信息进行数据处理,使得数据去除噪声。然后,对运动信息提取特征值;最后,采用K-means聚类算法与BP神经网络算法进行动态手势识别。
请参阅附图1,所述动态手势识别方法包括以下步骤:
S101,获取加速度传感器采集的手部运动数据,包括三轴加速度数据和三轴角速度数据。
具体地,加速度传感器采集的手部运动数据的过程为:
(1-1)手势动作开始前,手部静止3秒,通过加速度传感器采集手势动作开始前的手部运动数据;
(1-2)做手势动作,通过加速度传感器采集手势动作时的手部运动数据,包括三轴加速度数据和三轴角速度数据;
(1-3)手势动作结束后,手部静止3秒,通过加速度传感器采集手势动作结束时刻的手部运动数据。
S102,对得到的手部运动数据进行处理,包括去除跳点,平滑滤波,截取有效的手势动作数据。
请参阅附图2,所述步骤102,对得到的手部运动数据进行处理的具体方法为:
(2-1)根据相邻三轴加速度数据之间的差值以及相邻三轴角速度数据之间的差值去除跳点。
具体地,根据相邻三轴加速度数据之间的差值去除跳点的方法为:
判断第i个三轴加速度数据和前后相邻的三轴加速度数据的关系,如果相邻三轴加速度数据之间的差值大于0.2g,则将当前加速度值替换成相邻5个加速度数据的平均值。
具体地,根据相邻三轴角速度数据之间的差值去除跳点的方法为:
判断第i个三轴角速度数据和前后三轴角速度数据的关系,如果相邻三轴角速度数据之间的差值大于0.2g,则将当前角速度值替换成相邻5个角速度数据的平均值。
(2-2)采用移动平均法对去除跳点后的三轴加速度数据和三轴角速度数据进行平滑滤波,去除干扰,得到光滑的三轴加速度和三轴角速度数据。
假设输入为x,则滤波后输出y为:
其中,m为加速度或角速度的横坐标;M为移动平均滤波器窗口宽度。
(2-3)确定动作开始的加速度与角速度的阈值,截取有效的手势动作数据。
为了精确的进行手势的识别,本实施例将有效手势截取出来,因此在有效手势前后要有一个提示动作,静止时三轴加速度和角速度都为0,因此把静止作为提示动作,阈值容易确定,因手的抖动和传感器本身等因素,做提示动作时扣速度和角速度会略大于0,因此设一阈值略大于0为T。
当加速度数据满足|ai-5|<T,...,|ai-1|<T,|ai|>T,|ai+1|<T,...,|ai+5|<T时,i时刻则为有效手势开始时刻;当|aj-5|>T...|aj-1|>T|aj|<T|ai+1|<T...|aj+5|<T时,j时刻则为有效手势结束时刻。
S103,对截取的手势动作数据进行特征提取,得到手势信号的特征值。
为了反映不同手势之间运动信息的差异性,需要提取手势信号的特征值。在本实施例中,提取了四种特征值,分别为手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点。
具体地,所述步骤103中,对步骤102得到的手势动作数据进行特征提取的方法为:
(3-1)计算手势动作的长度。
在本实施例中,所述手势动作的长度为手势开始时刻与手势结束时刻之间的手势动作数据的个数。
(3-2)计算三轴加速度和角速度平均值。
在本实施例中,所述三轴加速度平均值的计算方法为:
其中,L为手势动作的长度;axi为X轴的第i个加速度;ayi为Y的第i个加速度;azi为Z轴的第i个加速度。
在本实施例中,所述三轴角速度平均值的计算方法为:
其中,L为手势动作的长度;wxi为X轴的第i个角速度;wyi为Y的第i个角速度;Wzi为Z轴的第i个角速度。
(3-3)计算三轴加速度的极值点。
具体地,所述三轴加速度的极值点的计算方法为:
先把X、Y、Z轴的加速度相加得到加速度值a,比较at,at-1和at+1,其中at-1和at+1分别为at的前后相邻加速度值,如果at>at-1且at>at+1,则t时刻的加速度值at为极大值,并记录取得极大值的时刻;如果at<at-1且at<at+1,则t时刻的加速度at为极小值,并记录取得极小值的时刻。
本实施例利用手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点四个特征值来代表手势动作信息,便于进行手势识别。
S104,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
具体地,所述步骤104,将待测手势动作数据使用已经训练好的BP神经网络进行识别,然后将BP神经网络的输出使用K-means算法进行聚类分析,得到最终手势识别结果。
具体地,动态手势识别的具体方法为:
(4-1)利用步骤102得到的手势动作数据训练BP神经网络。
在本实施例中,利用步骤102截取的有效手势动作数据训练BP神经网络。
BP神经网络首先要初始化权值和偏差,设权值为W,偏差为θ,设各层初始权值和偏差为ΔWl=0;Δθl=0,根据输入向量计算各神经层的输出,根据实际输出与期望输出计算全局误差,然后反馈误差,修正权值,BP神经网络的流程如图3。权值和偏差的更新公式为:
(4-2)获取待测手势动作数据,利用训练好的BP神经网络对待测手势动作数据进行一次识别。
待BP神经网络训练结束后,用BP神经网络检测待测手势动作数据,把BP神经网络的输出作为K-mean算法的输入,进行二次判别。
(4-3)利用K-means算法对BP神经网络的输出结果进行二次手势识别,得到最终识别结果。
K-mean算法的流程如图4所示,从数据集中随机的抽取K个样本作为聚类中心;计算所有样本到各个聚类中心的欧几里得距离,根据距离越小相似性越高的原则进行归类;得到初始的聚类结果后,求这一类别下所有样本的均值,作为新的聚类中心;得到新的聚类中心后,继续执行第二三步,直至满足终止条件(聚类中心不再变化或者满足最大迭代次数)。
本实施例提供的动态手势识别方法,利用运动传感器采集手部运动信息,包括三轴加速度信息和三轴角速度信息;并对运动信息进行去除跳点,平滑滤波处理,截取有效的手势动作,便于后续能够高效地进行手势识别,提取运动信息的手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点作为特征值,便于进行动态手势识别;基于BP神经网络算法与K-means算法进行动态手势识别,识别结果准确。
实施例二
本实施例提供一种动态手势识别系统,该系统包括:
数据获取模块,用于获取手部运动数据,包括三轴加速度数据和三轴角速度数据;
数据处理模块,用于对手部运动数据进行处理,截取有效的手势动作数据;
特征提取模块,用于对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;
手势识别模块,用于获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
实施例三
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如下步骤:
获取手部运动数据,包括三轴加速度和角速度数据;
对手部运动数据进行处理,截取有效的手势动作数据;
对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;
获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
实施例四
本实施例提供一种处理装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如下步骤:
获取手部运动数据,包括三轴加速度和角速度数据;
对手部运动数据进行处理,截取有效的手势动作数据;
对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;
获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。
Claims (10)
1.一种动态手势识别方法,其特征是,包括以下步骤:
获取手部运动数据,包括三轴加速度和角速度数据;
对手部运动数据进行处理,截取有效的手势动作数据;
对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;
获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
2.根据权利要求1所述的动态手势识别方法,其特征是,获取手势开始时刻的手部运动数据、手势动作时的手部运动数据和手势结束时刻的手部运动数据。
3.根据权利要求1所述的动态手势识别方法,其特征是,所述对手部运动数据进行处理的步骤包括:
根据相邻三轴加速度数据之间的差值以及相邻三轴角速度数据之间的差值去除跳点;
采用移动平均法对去除跳点后的三轴加速度和角速度数据进行平滑滤波,得到光滑的三轴加速度和角速度数据;
确定手势动作开始时和手势动作结束时的加速度与角速度的阈值,截取有效的手势动作数据。
4.根据权利要求3所述的动态手势识别方法,其特征是,所述去除跳点的方法为:
判断每个三轴加速度数据与其前后相邻的三轴加速度数据的关系,如果相邻三轴加速度数据之间的差值大于设定值,则将该三轴加速度值替换成与其相邻的多个三轴加速度数据的平均值;
判断每个三轴角速度数据与其前后相邻的三轴角速度数据的关系,如果相邻三轴角速度数据之间的差值大于设定值,则将该三轴角速度值替换成与其相邻的多个三轴角速度数据的平均值。
5.根据权利要求1所述的动态手势识别方法,其特征是,所述对手势动作数据进行特征提取的步骤包括:
计算手势开始时刻与手势结束时刻之间的手势动作数据的个数;
利用手势动作数据,计算三轴加速度和角速度平均值;
将每个三轴加速度数据相加,得到相应的加速度值,比较每个加速度值与其前后相邻的加速度值的大小;若该加速度值分别大于前后相邻的加速度值,则将该加速度值作为加速度的极大值;若该加速度值分别小于前后相邻的加速度值,则将该加速度值作为加速度的极小值。
6.根据权利要求1所述的动态手势识别方法,其特征是,所述基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别的步骤包括:
利用截取的手势动作数据BP神经网络;
获取待测手势动作数据,利用训练后的BP神经网络对待测手势动作数据进行识别,输出识别结果至K-means算法;
利用K-means算法对BP神经网络的输出识别结果进行再次识别,得到最终识别结果。
7.根据权利要求6所述的动态手势识别方法,其特征是,所述利用训练后的BP神经网络对待测手势动作数据进行识别的步骤包括:
输入待测手势动作数据和期望输出值;
计算各神经层的实际输出值;
根据实际输出值和期望输出值,计算全局误差;
计算反向误差;
更新网络的权值和偏差;
进一步的,所述利用K-means算法对BP神经网络的输出识别结果进行再次识别的步骤包括:
将BP神经网络的输出结果作为样本,设置聚类数;
随机的抽取K个样本作为聚类中心;
计算所有样本到各个聚类中心的欧几里得距离,根据距离越小相似性越高的原则进行归类,得到初始的聚类结果,计算该聚类结果中所有样本的均值,作为新的聚类中心;
重复执行上述步骤,直至满足终止条件。
8.一种动态手势识别系统,其特征是,包括:
数据获取模块,用于获取手部运动数据,包括三轴加速度数据和三轴角速度数据;
数据处理模块,用于对手部运动数据进行处理,截取有效的手势动作数据;
特征提取模块,用于对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;
手势识别模块,用于获取待测手势动作数据,基于BP神经网络算法与K-means算法对待测手势动作数据进行动态手势识别。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征是,该程序被处理器执行时实现如权利要求1-7中任一项所述的动态手势识别方法中的步骤。
10.一种处理装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征是,所述处理器执行所述程序时实现如权利要求1-7中任一项所述的动态手势识别方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910604878.9A CN110308795B (zh) | 2019-07-05 | 2019-07-05 | 一种动态手势识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910604878.9A CN110308795B (zh) | 2019-07-05 | 2019-07-05 | 一种动态手势识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110308795A true CN110308795A (zh) | 2019-10-08 |
CN110308795B CN110308795B (zh) | 2022-10-11 |
Family
ID=68079146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910604878.9A Active CN110308795B (zh) | 2019-07-05 | 2019-07-05 | 一种动态手势识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110308795B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461059A (zh) * | 2020-04-21 | 2020-07-28 | 哈尔滨拓博科技有限公司 | 一种多区域多分类可扩展手势识别控制装置及控制方法 |
CN111580664A (zh) * | 2020-05-11 | 2020-08-25 | 清华大学 | 一种抬起手势的识别方法、系统、电子设备及存储介质 |
CN111580666A (zh) * | 2020-05-11 | 2020-08-25 | 清华大学 | 一种设备控制方法、电子设备、设备控制系统及存储介质 |
CN112148128A (zh) * | 2020-10-16 | 2020-12-29 | 哈尔滨工业大学 | 一种实时手势识别方法、装置及人机交互系统 |
CN116578910A (zh) * | 2023-07-13 | 2023-08-11 | 成都航空职业技术学院 | 一种训练动作识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070171202A1 (en) * | 2006-01-24 | 2007-07-26 | Samsung Electronics Co., Ltd. | Trajectory estimation apparatus, method, and medium for estimating two-dimensional trajectory of gesture |
CN105630161A (zh) * | 2015-12-23 | 2016-06-01 | 西北工业大学 | 基于Android系统的手势控制指环及其使用方法 |
CN105677039A (zh) * | 2016-02-16 | 2016-06-15 | 北京博研智通科技有限公司 | 一种基于手势检测驾驶状态的方法、装置及可穿戴设备 |
-
2019
- 2019-07-05 CN CN201910604878.9A patent/CN110308795B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070171202A1 (en) * | 2006-01-24 | 2007-07-26 | Samsung Electronics Co., Ltd. | Trajectory estimation apparatus, method, and medium for estimating two-dimensional trajectory of gesture |
CN105630161A (zh) * | 2015-12-23 | 2016-06-01 | 西北工业大学 | 基于Android系统的手势控制指环及其使用方法 |
CN105677039A (zh) * | 2016-02-16 | 2016-06-15 | 北京博研智通科技有限公司 | 一种基于手势检测驾驶状态的方法、装置及可穿戴设备 |
Non-Patent Citations (2)
Title |
---|
李文生等: "粒子群优化神经网络在动态手势识别中的应用", 《计算机工程与科学》 * |
贾维闯等: "基于佩戴式输入设备的手语识别方法", 《黑龙江科技信息》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461059A (zh) * | 2020-04-21 | 2020-07-28 | 哈尔滨拓博科技有限公司 | 一种多区域多分类可扩展手势识别控制装置及控制方法 |
CN111580664A (zh) * | 2020-05-11 | 2020-08-25 | 清华大学 | 一种抬起手势的识别方法、系统、电子设备及存储介质 |
CN111580666A (zh) * | 2020-05-11 | 2020-08-25 | 清华大学 | 一种设备控制方法、电子设备、设备控制系统及存储介质 |
CN111580666B (zh) * | 2020-05-11 | 2022-04-29 | 清华大学 | 一种设备控制方法、电子设备、设备控制系统及存储介质 |
CN112148128A (zh) * | 2020-10-16 | 2020-12-29 | 哈尔滨工业大学 | 一种实时手势识别方法、装置及人机交互系统 |
CN112148128B (zh) * | 2020-10-16 | 2022-11-25 | 哈尔滨工业大学 | 一种实时手势识别方法、装置及人机交互系统 |
CN116578910A (zh) * | 2023-07-13 | 2023-08-11 | 成都航空职业技术学院 | 一种训练动作识别方法及系统 |
CN116578910B (zh) * | 2023-07-13 | 2023-09-15 | 成都航空职业技术学院 | 一种训练动作识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110308795B (zh) | 2022-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110308795A (zh) | 一种动态手势识别方法及系统 | |
Materzynska et al. | The jester dataset: A large-scale video dataset of human gestures | |
Barros et al. | A dynamic gesture recognition and prediction system using the convexity approach | |
CN110232308B (zh) | 基于手部速度与轨迹分布的跟随机器人手势轨迹识别方法 | |
CN103593680A (zh) | 一种基于隐马尔科夫模型自增量学习的动态手势识别方法 | |
Nakamura | Real-time 3-D object tracking using Kinect sensor | |
CN105787478A (zh) | 基于神经网络和灵敏度参数的人脸转向识别方法 | |
CN112149557B (zh) | 一种基于人脸识别的人物身份跟踪方法及系统 | |
CN109955257A (zh) | 一种机器人的唤醒方法、装置、终端设备和存储介质 | |
Wang et al. | Gesture recognition by using kinect skeleton tracking system | |
Liu et al. | Hand Gesture Recognition Based on Single‐Shot Multibox Detector Deep Learning | |
CN108108015A (zh) | 一种基于手机陀螺仪和动态时间规整的动作手势识别方法 | |
Oh et al. | Using binary decision tree and multiclass SVM for human gesture recognition | |
Hu et al. | Trajectory image based dynamic gesture recognition with convolutional neural networks | |
Mao et al. | Fast and efficient non-contact ball detector for picking robots | |
Abdullahi et al. | IDF-Sign: addressing inconsistent depth features for dynamic sign word recognition | |
CN107346207A (zh) | 一种基于隐马尔科夫模型的动态手势切分识别方法 | |
Huang et al. | Transfer learning with efficient convolutional neural networks for fruit recognition | |
CN110490165B (zh) | 一种基于卷积神经网络的动态手势跟踪方法 | |
Cao | Application of support vector machine algorithm based gesture recognition technology in human-computer interaction | |
Enikeev et al. | Recognition of sign language using leap motion controller data | |
Pradhan et al. | Design of intangible interface for mouseless computer handling using hand gestures | |
Baranwal et al. | Implementation of MFCC based hand gesture recognition on HOAP-2 using Webots platform | |
Hu et al. | Gesture detection from RGB hand image using modified convolutional neural network | |
Huu et al. | Two-stream convolutional network for dynamic hand gesture recognition using convolutional long short-term memory networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |