CN110348323B - 一种基于神经网络优化的穿戴式设备手势识别方法 - Google Patents
一种基于神经网络优化的穿戴式设备手势识别方法 Download PDFInfo
- Publication number
- CN110348323B CN110348323B CN201910532990.6A CN201910532990A CN110348323B CN 110348323 B CN110348323 B CN 110348323B CN 201910532990 A CN201910532990 A CN 201910532990A CN 110348323 B CN110348323 B CN 110348323B
- Authority
- CN
- China
- Prior art keywords
- neural network
- gesture
- clustering
- data
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000005457 optimization Methods 0.000 title claims abstract description 18
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 71
- 238000012549 training Methods 0.000 claims abstract description 33
- 230000002068 genetic effect Effects 0.000 claims abstract description 21
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 12
- 230000003068 static effect Effects 0.000 claims abstract description 10
- 230000035772 mutation Effects 0.000 claims description 12
- 210000003811 finger Anatomy 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 9
- 238000007621 cluster analysis Methods 0.000 claims description 6
- 238000003064 k means clustering Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 238000011524 similarity measure Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 210000003813 thumb Anatomy 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000349 chromosome Anatomy 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经网络优化的穿戴式设备手势识别方法,包括以下步骤:采集手势运动数据;进行预处理得到训练样本手势数据;确定静态手势的手势模板;利用聚类融合算法对训练样本手势数据进行聚类融合;建立RBF神经网络并优化,将聚类处理后的训练样本手势数据分别输入到优化后的RBF神经网络学习和训练得到对应的分类器,根据分类器的输出结果判断对应的静态手势,计算分类误差;构建混合聚类群集,利用混合聚类群集训练优化后的RBF神经网络;利用训练完毕RBF神经网络进行手势识别测试。本发明通过聚类融合算法对手势数据分别聚类处理减少了训练数据集,缩减了训练时间,提高了手势识别效率,通过遗传算法对神经网络优化,提高了识别的准确度。
Description
技术领域
本发明涉及智能识别领域,更具体地,涉及一种基于神经网络优化的穿戴式设备手势识别方法。
背景技术
随着当今科学技术的发展,计算机已经渗透于生产和生活的各个方面,人机交互技术也在日臻完善。手势,作为人类最常用的表达方式,是一种自然、直观、高效、易于学习的人机交互手段。手势识别技术在人机交互领域是一个关键的技术,通过数学算法实现人类手势识别。常用的手势识别算法分为三类:一是基于神经网络的识别算法,对数据有强分析能力;二是基于隐马尔科夫模型(HMM)的识别算法,该方法对不同的数据选择专门的函数进行处理,将数据的维度分解,降低数据处理的复杂性;三是基于几何特征的识别算法,这种方法采用对搜集好的数据模板进行相识度的匹配,是传统直接的手势识别技术。手势识别技术已经渗透到人们的方方面面,为了实现更好的人机交互方式,设计出高精度,高效率的手势识别方法也日益成为该科研领域的核心。
目前的手势识别技术分为基于数据手套和基于计算机视觉两大类。基于计算机视觉采集一般还细分为静态图像采集和动态图像采集,采集的方式有拍摄图片或视频,目的是为了获取某个时刻的图像片段,再将采集图像经计算机处理,根据手势特征和手势定义来实现人机交互。基于数据手套通常是在智能穿戴式设备传感器采集到的数据进行归一化处理,处理后与定义的手势模板进行识别和匹配,进而实现人机交互。计算机视觉的手势识别技术易受干扰,数据量大,相对的实时性较差,识别周期长,识别效率低。
发明内容
本发明为克服上述现有技术中手势识别方法训练数据量大,识别的周期长,识别效率低的缺陷,提供一种基于神经网络优化的穿戴式设备手势识别方法。
本发明的首要目的是为解决上述技术问题,本发明的技术方案如下:
一种基于神经网络优化的穿戴式设备手势识别方法,包括以下步骤:
S1:利用穿戴式设备采集手势运动数据;
S2:手势运动数据进行归一化处理后并滤波去噪得到用于神经网络训练的训练样本手势数据;
S3:从训练样本手势数据中提取每一种手势的手形特征,结合现有的手势特征点集,确定出每一种静态手势的手势模板;
S4:利用聚类融合算法对训练样本手势数据进行聚类融合处理,所述聚类融合算法包括若干种聚类算法;
S5:建立四个RBF神经网络,分别记为第一RBF神经网络、第二RBF神经网络、第三RBF神经网络、第四RBF神经网络,确定四个RBF神经网络的基函数中心,利用遗传算法确定四个RBF神经网络的初始权值并进行优化;
S6:将聚类融合算法聚类处理后的训练样本手势数据分别输入到优化后的第一RBF神经网络、第二RBF神经网络、第三RBF神经网络进行学习和训练得到对应的分类器,根据每个分类器的输出结果判断对应的静态手势,计算出每个分类器的分类误差;
S7:根据每个分类器的分类误差,构建混合聚类群集,选择分类误差最小对应的聚类算法产生的集群结果进入混合聚类群集,利用混合聚类群集训练优化后的第四RBF神经网络;
S8:将待识别的手势数据输入至训练完毕的第四RBF神经网络,将第四RBF神经网络神经输出结果与手势模板比对得到手势识别结果。
进一步地,所述手势运动数据[x0i,y0i]进行归一化处理即将手势运动数据映射到[0,1]区间得到归一化处理后数据[xi,yi],即:
式中,x0i,min,x0i,max分别表示随机代表样本数据中x0i的最小值和最大值,式中,y0i,min,y0i,max也是分别表示随机代表样本数据中y0i的最小值和最大值。
进一步地,所述若干种聚类算法包括:期望最大化聚类算法、K-means聚类算法、X-means聚类算法。
进一步地,所述K-means聚类算法以欧氏距离作为相似度测度,采用误差平方和准则函数作为聚类准则函数,即:
式中,k是初始群集个数,ni是群集Ai中的数据点个数,mi是群集Ai的几何中心。
进一步地,X-means聚类算法包括以下步骤:
第一步:给定初始群集,对初始集群中全部的数据集进行K-means聚类分析直到收敛;
第二步:将第一步获得的群集中心分离成两个子集,然后对每一个群集及子集进行局部的K-means聚类分析;
第三步:对每一个群集,比较父集的贝叶斯信息准则值和两个子集的总的贝叶斯信息准则值,然后保存贝叶斯信息准则值大的那个群集;
第四步:重复执行第一步。
进一步地,所述RBF神经网络的传递函数为高斯函数,径向基函数hi为:
式中x代表输入向量,x=(x1,x2,...,xi)T,ci表示基函数的中心,r为基宽量。
进一步地,采用指数函数作为遗传算法的适应度函数,表达式如下:
fitness(i)=e-E(i=1,2,...,sizepop)
式中fitness(i)为第i个样本对应的适应度值。
进一步地,所述遗传算法中包括有交叉运算,所述交叉运算的方法是通过交叉个体的等位信息互换增强算法的全局搜索能力,保证算法的搜索精度,确定交叉参数之前要对交叉系数ri进行选择计算,其选择表达式为:
进一步地,所述遗传算法还包括变异运算,所述变异运算采用多项式变异规则,其表达式为:
xi=pi+δΔmax
其中,Δmax表示最大的变异范围。
进一步地,步骤S8所述RBF神经网络的输出结果为单手除拇指外四个手指的伸展状态,当四指伸直时,输出结果为1,当四指弯曲时,输出结果为0。
与现有技术相比,本发明技术方案的有益效果是:
本发明通过聚类融合算法对手势数据分别聚类处理减少了训练数据集,缩减了训练时间,提高了手势识别效率,通过遗传算法对神经网络进行优化,提高识别的准确度。
附图说明
图1为本发明方法流程图。
图2为聚类融合系统框架图。
图3为遗传算法流程图。
图4为遗传算法优化RBF神经网络流程图。
具体实施方式
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种基于神经网络优化的穿戴式设备手势识别方法,包括以下步骤:
S1:利用穿戴式设备采集手势运动数据;需要说明的是,本实施例中采用数据手套作为智能穿戴式设备用于采集数据;在进行数据采集的时对每个静态手势动作时稍微的移动以产生噪声。
S2:手势运动数据进行归一化处理后并滤波去噪得到用于神经网络训练的训练样本手势数据;本实施例中是将手势运动数据将数据映射到[0,1]区间进行归一化处理。
所述手势运动数据[x0i,y0i]进行归一化处理即将手势运动数据映射到[0,1]区间得到归一化处理后数据[xi,yi],即:
式中,x0i,min,x0i,max分别表示随机代表样本数据中x0i的最小值和最大值,式中,y0i,min,y0i,max也是分别表示随机代表样本数据中y0i的最小值和最大值。
S3:从训练样本手势数据中提取每一种手势的手形特征,结合现有的手势特征点集,确定出每一种静态手势的手势模板;
S4:利用聚类融合算法对训练样本手势数据进行聚类融合处理,所述聚类融合算法包括若干种聚类算法;
所述若干种聚类算法包括:期望最大化聚类算法、K-means聚类算法、X-means聚类算法。如图2所示,根据聚类融合系统框架图,对获取的手势数据进行统计学检验,以便选取合适的聚类融合算法。经过对数据的统计学分析,将期望最大化聚类算法(EM)作为聚类融合算法的核心。
期望最大化聚类算法是一种迭代算法,从非完整数据集中对参数进行极大似然估计,假定集合Z=(X,Y)由观测数据X和未观测数据Y组成,分别称为不完整数据和完整数据。假设Z=(X,Y)的联合概率密度被参数化地定义为P(X,Y|θ),EM算法包括两个步骤,是通过迭代地最大化完整数据的对数似然函数Lc(X;θ)的期望来最大化不完整数据的对数似然函数,其中:
Lc(X;θ)=logP(X,Y|θ)
假设在第k次迭代θ后获得的估计记为θ(t),则在t+1次迭代时,执行下列两个步骤:
步骤1:计算完整数据的对数似然函数的期望,记为
Q(θ|θ(t))=E[Lc(θ;Z)|X;θ(t)]
步骤2:通过最大化Q(θ|θ(t))来获取新的θ。
通过交替使用这两个步骤,EM算法逐步改进模型的参数,使参数和训练样本的似然概率逐渐增大,最后终止于一个极大点。
所述K-means聚类算法以欧氏距离作为相似度测度,通过求对应某一初始聚类中心向量V最优分类,使得评价指标最小。采用误差平方和准则函数作为聚类准则函数,即:
式中,k是初始群集个数,ni是群集Ai中的数据点个数,mi是群集Ai的几何中心。
X-means聚类算法包括以下步骤:
第一步:给定初始群集,对初始集群中全部的数据集进行K-means聚类分析直到收敛;
第二步:将第一步获得的群集中心分离成两个子集,然后对每一个群集及子集进行局部的K-means聚类分析;
第三步:对每一个群集,比较父集的贝叶斯信息准则值和两个子集的总的贝叶斯信息准则值,然后保存贝叶斯信息准则值大的那个群集;
第四步:重复执行第一步。
S5:建立四个RBF神经网络,分别记为第一RBF神经网络、第二RBF神经网络、第三RBF神经网络、第四RBF神经网络,确定四个RBF神经网络的基函数中心,利用遗传算法确定四个RBF神经网络的初始权值并进行优化;
S6:将聚类融合算法聚类处理后的训练样本手势数据分别输入到优化后的第一RBF神经网络、第二RBF神经网络、第三RBF神经网络进行学习和训练得到对应的分类器,根据每个分类器的输出结果判断对应的静态手势,计算出每个分类器的分类误差;
S7:根据每个分类器的分类误差,构建混合聚类群集,选择分类误差最小对应的聚类算法产生的集群结果进入混合聚类群集,利用混合聚类群集训练优化后的第四RBF神经网络;
S8:将待识别的手势数据输入至训练完毕的第四RBF神经网络,将第四RBF神经网络神经输出结果与手势模板比对得到手势识别结果。
需要说明的是,所述RBF神经网络的传递函数为高斯函数,径向基函数hi为:
式中x代表输入向量,x=(x1,x2,...,xi)T,ci表示基函数的中心,r为基宽量。需要说明的是,当r的取值越小,基函数越具有择优性。基函数中心ci和基宽度r采用最近邻聚类算法进行确定,对经预处理的输入数据进行聚类,确定出各个隐含层的神经元基函数中心,接着根据集类的结果选取适当的基宽度。
进一步地,采用指数函数作为遗传算法的适应度函数,表达式如下:
fitness(i)=e-E(i=1,2,...,sizepop)
式中fitness(i)为第i个样本对应的适应度值。
如图3所示,遗传算法的基本操作步骤如下:需要说明的是,遗传算法中的个体为RBF神经网络权值。
a.初始化:设置进化代数计数器t=0,设置最大进化代数T,RBF神经网络权值数目为种族规模,利用等概率随机法对每个种群进行0,1赋值,形成初始化染色体组。
b.个体评价:计算群体个体的适应度。
c.选择运算:将选择算子作用于群体。选择操作是建立在群体中个体的适应度评估基础上的。
d.交叉运算:将交叉算子作用于群体。
e.变异运算:将变异算子作用于群体。即是对群体中的个体串的某些基因座上的基因值作变动。群体P(t)经过选择、交叉、变异运算之后得到下一代群体P(t+1)。
f.终止条件判断:若t=T,则以进化过程中所得到的具有最大适应度个体作为最优解输出,终止计算。
需要说明的是,所述交叉运算的方法是通过交叉个体的等位信息互换增强算法的全局搜索能力,保证算法的搜索精度,确定交叉参数之前要对交叉系数ri进行选择计算,其选择表达式为:
需要说明的是,选择运算的方法,选择赌轮盘选择法挑选下一代遗传个体,即最优量的个体直接作为下一代个体,余下种群个体依据赌轮盘选择法进行选择操作,其选择表达式为:
需要说明的是,所述变异运算采用多项式变异规则,其表达式为:
xi=pi+δΔmax
其中,Δmax表示最大的变异范围。
如图4所示为遗传算法优化RBF神经网络的流程。
步骤S8所述RBF神经网络的输出结果为单手除拇指外四个手指的伸展状态,当四指伸直时,输出结果为1,当四指弯曲时,输出结果为0。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种基于神经网络优化的穿戴式设备手势识别方法,其特征在于,包括以下步骤:
S1:利用穿戴式设备采集手势运动数据;
S2:手势运动数据进行归一化处理后并滤波去噪得到用于神经网络训练的训练样本手势数据;
S3:从训练样本手势数据中提取每一种手势的手形特征,结合现有的手势特征点集,确定出每一种静态手势的手势模板;
S4:利用聚类融合算法对训练样本手势数据进行聚类融合处理,所述聚类融合算法包括若干种聚类算法;
S5:建立四个RBF神经网络,分别记为第一RBF神经网络、第二RBF神经网络、第三RBF神经网络、第四RBF神经网络,确定四个RBF神经网络的基函数中心,利用遗传算法确定四个RBF神经网络的初始权值并进行优化;
S6:将聚类融合算法聚类处理后的训练样本手势数据分别输入到优化后的第一RBF神经网络、第二RBF神经网络、第三RBF神经网络进行学习和训练得到对应的分类器,根据每个分类器的输出结果判断对应的静态手势,计算出每个分类器的分类误差;
S7:根据每个分类器的分类误差,构建混合聚类群集,选择分类误差最小对应的聚类算法产生的集群结果进入混合聚类群集,利用混合聚类群集训练优化后的第四RBF神经网络;
S8:将待识别的手势数据输入至训练完毕的第四RBF神经网络,将第四RBF神经网络神经输出结果与手势模板比对得到手势识别结果。
3.根据权利要求1所述的一种基于神经网络优化的穿戴式设备手势识别方法,其特征在于,所述若干种聚类算法包括:期望最大化聚类算法、K-means聚类算法、X-means聚类算法。
5.据权利要求3述的一种基于神经网络优化的穿戴式设备手势识别方法,其特征在于,X-means聚类算法包括以下步骤:
第一步:给定初始群集,对初始集群中全部的数据集进行K-means聚类分析直到收敛;
第二步:将第一步获得的群集中心分离成两个子集,然后对每一个群集及子集进行局部的K-means聚类分析;
第三步:对每一个群集,比较父集的贝叶斯信息准则值和两个子集的总的贝叶斯信息准则值,然后保存贝叶斯信息准则值大的那个群集;
第四步:重复执行第一步。
7.根据权利要求1所述的一种基于神经网络优化的穿戴式设备手势识别方法,其特征在于,采用指数函数作为遗传算法的适应度函数,表达式如下:
fitness(i)=e-E(i=1,2,...,sizepop)
式中fitness(i)为第i个样本对应的适应度值。
10.根据权利要求1所述的一种基于神经网络优化的穿戴式设备手势识别方法,其特征在于,步骤S8所述RBF神经网络的输出结果为单手除拇指外四个手指的伸展状态,当四指伸直时,输出结果为1,当四指弯曲时,输出结果为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910532990.6A CN110348323B (zh) | 2019-06-19 | 2019-06-19 | 一种基于神经网络优化的穿戴式设备手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910532990.6A CN110348323B (zh) | 2019-06-19 | 2019-06-19 | 一种基于神经网络优化的穿戴式设备手势识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110348323A CN110348323A (zh) | 2019-10-18 |
CN110348323B true CN110348323B (zh) | 2022-12-16 |
Family
ID=68182419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910532990.6A Expired - Fee Related CN110348323B (zh) | 2019-06-19 | 2019-06-19 | 一种基于神经网络优化的穿戴式设备手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110348323B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368762A (zh) * | 2020-03-09 | 2020-07-03 | 金陵科技学院 | 基于改进的K-means聚类算法的机器人手势识别方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102904A (zh) * | 2014-07-14 | 2014-10-15 | 济南大学 | 一种静态手势识别方法 |
CN106354262A (zh) * | 2016-09-09 | 2017-01-25 | 哈尔滨理工大学 | 基于gl优化的神经网络手势识别人机交互方法 |
CN107506749A (zh) * | 2017-09-12 | 2017-12-22 | 广东技术师范学院 | 一种手语识别方法 |
CN107808143A (zh) * | 2017-11-10 | 2018-03-16 | 西安电子科技大学 | 基于计算机视觉的动态手势识别方法 |
CN108073851A (zh) * | 2016-11-08 | 2018-05-25 | 株式会社理光 | 一种抓取手势识别的方法、装置及电子设备 |
CN108717524A (zh) * | 2018-04-28 | 2018-10-30 | 天津大学 | 一种基于双摄手机和人工智能系统的手势识别系统及方法 |
CN109032337A (zh) * | 2018-06-28 | 2018-12-18 | 济南大学 | 一种基于数据手套的kem手势识别算法 |
CN109190443A (zh) * | 2018-06-27 | 2019-01-11 | 济南大学 | 一种误识手势检测和纠错方法 |
CN109325454A (zh) * | 2018-09-28 | 2019-02-12 | 合肥工业大学 | 一种基于YOLOv3的静态手势实时识别方法 |
CN109635706A (zh) * | 2018-12-04 | 2019-04-16 | 武汉灏存科技有限公司 | 基于神经网络的手势识别方法、设备、存储介质及装置 |
-
2019
- 2019-06-19 CN CN201910532990.6A patent/CN110348323B/zh not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102904A (zh) * | 2014-07-14 | 2014-10-15 | 济南大学 | 一种静态手势识别方法 |
CN106354262A (zh) * | 2016-09-09 | 2017-01-25 | 哈尔滨理工大学 | 基于gl优化的神经网络手势识别人机交互方法 |
CN108073851A (zh) * | 2016-11-08 | 2018-05-25 | 株式会社理光 | 一种抓取手势识别的方法、装置及电子设备 |
CN107506749A (zh) * | 2017-09-12 | 2017-12-22 | 广东技术师范学院 | 一种手语识别方法 |
CN107808143A (zh) * | 2017-11-10 | 2018-03-16 | 西安电子科技大学 | 基于计算机视觉的动态手势识别方法 |
CN108717524A (zh) * | 2018-04-28 | 2018-10-30 | 天津大学 | 一种基于双摄手机和人工智能系统的手势识别系统及方法 |
CN109190443A (zh) * | 2018-06-27 | 2019-01-11 | 济南大学 | 一种误识手势检测和纠错方法 |
CN109032337A (zh) * | 2018-06-28 | 2018-12-18 | 济南大学 | 一种基于数据手套的kem手势识别算法 |
CN109325454A (zh) * | 2018-09-28 | 2019-02-12 | 合肥工业大学 | 一种基于YOLOv3的静态手势实时识别方法 |
CN109635706A (zh) * | 2018-12-04 | 2019-04-16 | 武汉灏存科技有限公司 | 基于神经网络的手势识别方法、设备、存储介质及装置 |
Non-Patent Citations (2)
Title |
---|
基于神经网络多分类器融合系统的人脸识别方法;周健等;《南通大学学报(自然科学版)》;20110320;第10卷(第01期);第1-4页 * |
廖佳培;基于深度学习的手势识别算法研究;《中国优秀硕士学位论文全文数据库 信息科技辑》;20220315(第03期);第I138-1016页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110348323A (zh) | 2019-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109800648B (zh) | 基于人脸关键点校正的人脸检测识别方法及装置 | |
CN108960140B (zh) | 基于多区域特征提取和融合的行人再识别方法 | |
CN107273845B (zh) | 一种基于置信区域和多特征加权融合的人脸表情识别方法 | |
Stuhlsatz et al. | Feature extraction with deep neural networks by a generalized discriminant analysis | |
CN111414849B (zh) | 一种基于演化卷积神经网络的人脸识别方法 | |
CN108427921A (zh) | 一种基于卷积神经网络的人脸识别方法 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN110097060B (zh) | 一种面向树干图像的开集识别方法 | |
CN110781829A (zh) | 一种轻量级深度学习的智慧营业厅人脸识别方法 | |
CN111126482A (zh) | 一种基于多分类器级联模型的遥感影像自动分类方法 | |
CN110543906B (zh) | 基于Mask R-CNN模型的肤质自动识别方法 | |
CN106682606A (zh) | 一种人脸确认方法及安全认证装置 | |
CN109344856B (zh) | 一种基于多层判别式特征学习的脱机签名鉴别方法 | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN113269647B (zh) | 基于图的交易异常关联用户检测方法 | |
CN113032613B (zh) | 一种基于交互注意力卷积神经网络的三维模型检索方法 | |
CN112529638B (zh) | 基于用户分类和深度学习的服务需求动态预测方法及系统 | |
CN109376790B (zh) | 一种基于渗流分析的二元分类方法 | |
CN110580510A (zh) | 一种聚类结果评价方法和系统 | |
CN116110089A (zh) | 一种基于深度自适应度量学习的面部表情识别方法 | |
Ahlawat et al. | A genetic algorithm based feature selection for handwritten digit recognition | |
CN108520201A (zh) | 一种基于加权混合范数回归的鲁棒人脸识别方法 | |
CN110348323B (zh) | 一种基于神经网络优化的穿戴式设备手势识别方法 | |
CN113887509B (zh) | 一种基于图像集合的快速多模态视频人脸识别方法 | |
Cai et al. | Motion recognition for 3D human motion capture data using support vector machines with rejection determination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20221216 |