CN107480652A - 一种手势检测方法及设备 - Google Patents
一种手势检测方法及设备 Download PDFInfo
- Publication number
- CN107480652A CN107480652A CN201710754293.6A CN201710754293A CN107480652A CN 107480652 A CN107480652 A CN 107480652A CN 201710754293 A CN201710754293 A CN 201710754293A CN 107480652 A CN107480652 A CN 107480652A
- Authority
- CN
- China
- Prior art keywords
- input picture
- feature
- grader
- sample
- small images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种手势检测方法及设备,涉及图像检测领域,解决了现有技术中手势检测的准确率低和虚警率高的技术问题。本申请的手势检测方法,包括如下步骤:步骤S1、对输入图像做直方图均衡化预处理,设置输入图像的尺寸;步骤S2、提取输入图像的不同特征,并用分类器模型中的强分类器进行判断,直至扫描完整个输入图像;步骤S3、对输入图像按照比例缩放,对缩放后的图像按照步骤S2进行扫描判断;循环对输入图像按照比例缩放,对缩放后的图像按照步骤S2进行扫描判断这一操作,得到最终的小块图像;步骤S4、将所有检测到的最终的小块图像位置进行合并处理,得到最终的目标外接矩形。本申请主要用于检测手势。
Description
技术领域
本申请涉及图像检测领域,具体涉及一种手势检测方法及设备。
背景技术
虚拟现实头戴显示器设备,简称VR眼镜,是利用仿真技术/计算机图像图形学/人机接口技术/多媒体技术/传感技术等多种技术结合的产品,是借助计算机最新传感器技术创造的一种崭新的人机交互手段。其中,手势的检测识别作为人机交互的重要方法,越来越多的被应用到VR眼镜人机交互中。基于adaboost级联分类器的方法是模式识别中应用广泛的一种算法,adaboost算法(迭代算法)的一个应用就是进行视频图像的手势检测。
目前采用adaboost算法主要是基于灰度图像进行单一特征的弱分类器训练,然后将所训练的弱分类器组合成强分类器,再将强分类级联作为最终的检测器。常用的特征为方向梯度直方图(Histogram of Oriented Gradient,HOG)、类哈尔(Haar-like)、局部二值模式(Local Binary Pattern,LBP)等。
但是在现实应用环境中,手势背景异常复杂。单一的特征无法充分表达手势图像,进而无法有效区分手势图像和复杂的背景,造成手势检测的准确率难以达到实用要求。另外,单一特征想要得到较高的准确率和较低的虚警率,需要级联分类器的级数设置很高,这样对硬件配置和训练样本的数量提出了很高的要求,很难实用化。
发明内容
本申请的目的在于提出一种手势检测方法及设备,用于解决现有技术中手势检测的准确率低和虚警率高的技术问题。
本申请的手势检测方法,包括如下步骤:
步骤S1、对输入图像做直方图均衡化预处理,设置输入图像的尺寸;
步骤S2、提取输入图像的不同特征,并用分类器模型中的强分类器进行判断,直至扫描完整个输入图像;
步骤S3、对输入图像按照比例缩放,对缩放后的图像按照步骤S2进行扫描判断,循环对输入图像按照比例缩放,对缩放后的图像按照步骤S2进行扫描判断这一操作,得到最终的小块图像;
步骤S4、将所有检测到的最终的小块图像位置进行合并处理,得到最终的目标外接矩形。
优选地,分类器模型的建立,包括如下步骤:
步骤R1、采集手势图像的正负样本集,并将正样本归一化;
步骤R2、对归一化的样本使用迭代算法训练级联分类器,训练结束后得到强分类器。
优选地,步骤R2中级联分类器分为分类器一、分类器二和分类器三,三种级联分类器的级数相同,训练结束后分别得到强分类器一、强分类器二和强分类器三。
可选地,正样本的尺寸为W1*H1和W2*H2,W1*H1的样本用于训练分类器一,W2*H2的样本用于分类器二和分类器三;负样本的尺寸大于W1*H1。
优选地,步骤S2包括如下子步骤:
S21、构造滑动窗口,设置滑动步长为X;
S22、滑动滑动窗口的步长X,获取尺寸为W1*H1的小块图像,提取小块图像的第一特征;
S23、缩放该小块图像的尺寸至W2*H2,提取该小块图像的第二特征和第三特征;
S24、用分类器模型中的强分类器依次判断上述获得的特征;
S25、重复步骤S22-S24,直至扫描完整个输入图像。
本申请的手势检测方法,一方面,融合了不同的特征,经过不同特征强分类器的判断,由于每种特征表征了图像的不同特性,更容易抽取到与背景相区分的特征,使得每一级的准确率更大,虚警率更小;另一方面,降低了分类器训练对硬件和样本数量的要求。
本申请还提出一种手势检测设备,包括:
接收器,用于接收输入图像;
控制器,控制器包括以下部件:
输入模块,用于对输入图像做直方图均衡化预处理,设置输入图像的尺寸;
分类模块,用于提取输入图像的不同特征,并用分类器模型中的强分类器进行判断,直至扫描完整个输入图像;
扫描模块,用于对输入图像按照比例缩放,对缩放后的图像按照分类模块的操作进行扫描判断;循环对输入图像按照比例缩放,对缩放后的图像按照分类模块的操作进行扫描判断这一操作,得到最终的小块图像;
合并模块,用于将所有检测到的小块图像位置进行合并处理,得到最终的目标外接矩形。
优选地,控制器还包括分类器模型建立模块,分类器模型建立模块包括:
样本采集单元,用于采集手势图像的正负样本集,并将正样本归一化;
级联分类器训练单元,用于对归一化的样本使用迭代算法训练级联分类器,训练结束后得到强分类器。
优选地,级联分类器分为分类器一、分类器二和分类器三,三个级联分类器的级数相同,训练结束后分别得到强分类器一、强分类器二和强分类器三。
可选地,正样本的尺寸为W1*H1和W2*H2,W1*H1样本用于训练分类器一,W2*H2的样本用于分类器二和分类器三;负样本的尺寸大于W1*H1。
优选地,分类模块包括:
构造滑动窗口单元,用于构造滑动窗口,设置滑动步长为X;
第一特征提取单元,用于滑动滑动窗口的步长X,获取尺寸为W1*H1的小块图像,提取小块图像的第一特征;
第二特征和第三特征提取单元,用于缩放该小块图像的尺寸至W2*H2,提取该小块图像的第二特征和第三特征;
判断单元,用于用分类器模型中的强分类器依次判断上述获得的特征;
扫描单元,用于控制方向第一特征提取单元、第二特征和第三特征提取单元以及判断单元执行扫描,直至扫描完整个输入图像。
本申请的手势检测设备与本申请的手势检测方法具有相同的技术效果,在此就不一一赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本申请的手势检测方法的流程图;
图2是本申请的手势检测依据的分类器模型的建立流程图;
图3是本申请的扫描整个输入图像的流程图;
图4是本申请的对输入图像进行缩放得到小块图像时的流程图;
图5是本申请的手势检测设备的结构框图;
图6是本申请的手势检测设备的控制器的结构框图;
图7是本申请的手势检测设备的分类器模型建立模块的结构框图;
图8是本申请的手势检测设备的分类模块的结构框图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本申请提出一种手势检测方法。图1是本申请的手势检测方法的流程图,如图1所示,本申请的手势检测方法,包括如下步骤:
步骤S1、对输入图像做直方图均衡化预处理,设置输入图像的尺寸。
可选地,设置输入图像尺寸为W*H,此处的图像及下文中的提及的图像的尺寸单位均为像素。其中的W和H分别代表长和宽,其大小符合本领域常见的图像长宽比即可,下文对长和宽的限定也遵循此规定。
步骤S2、提取输入图像的不同特征,并用分类器模型中的强分类器进行判断,直至扫描完整个输入图像。
具体地,图2是步骤S2扫描输入图像的流程图。如图2所示,步骤S2包括如下子步骤:
S21、构造滑动窗口,设置滑动步长为X;
可选地,构造W1*H1的滑动窗口,用滑动窗口在输入图像上进行步长为X的滑动。示例性地,X为正整数。
S22、滑动滑动窗口的步长X,获取尺寸为W1*H1的小块图像,提取小块图像的第一特征;
示例性地,第一特征为方向梯度直方图特征,提取输入图像的方向梯度直方图特征的方法为,用W1*H1的滑动窗口在输入图像上进行步长为X的滑动,每滑动一次取出滑窗对应的W1*H1的小块图像,提取该小块图像的方向梯度直方图(HOG)特征。
S23、缩放该小块图像的尺寸至W2*H2,提取该小块图像的第二特征和第三特征;
示例性地,第二特征为类哈尔特征,第三特征为局部二值模式特征,将提取第一特征后的小块图像缩放为W2*H2,提取类哈尔(Haar-like)特征和/或局部二值模式(LBP)特征。
其中,W1*H1的尺寸大于W2*H2的尺寸,经反复试验,W1*H1的尺寸为64*96,W2*H2的尺寸为20*30,步长设定为4时,提取小块图像的效果较好。
需要解释的是,提取输入图像的第一特征、第二特征和第三特征,即提取输入图像的方向梯度直方图特征、类哈尔特征和局部二值模式特征,其中,方向梯度直方图特征表征了图像的轮廓边缘特征,类哈尔特征表征了图像整体及局部的灰度变化情况,局部二值模式特征表征了图像的局部纹理特征。每种特征表征了输入图像的不同特性,更容易抽取到与背景相区分的特征。
S24、用分类器模型中的强分类器依次判断上述获得的特征;
下文将会对分类器模型的建立以特征的判断做详细的解释。
S25、重复步骤S22-S24,直至扫描完整个输入图像。
需要说明的是,图3是本申请的手势检测依据的分类器模型的建立流程图。如图3所示,分类器模型建立的过程包括如下步骤:
步骤R1、采集手势图像的正负样本集,并将正样本归一化;
可选地,采集大量的正样本和负样本,正样本为手势样本,负样本为非手势样本;采集大量的手势样本和非手势样本,并将手势样本归一化处理,手势样本尺寸归一化为W1*H1和W2*H2。非手势样本的尺寸不小于W1*H1。其中,W1*H1的样本用于训练第一特征,W2*H2的样本用于训练第二特征和第三特征,即W1*H1的样本用于训练方向梯度直方图特征,W2*H2的样本用于训练类哈尔特征和局部二值模式特征。
步骤R2、对归一化的正样本使用迭代算法训练级联分类器,训练结束后得到强分类器。
可选地,级联分类器分为分类器一、分类器二和分类器三,使用的迭代算法为adaboost算法,利用该迭代算法分别训练分类器一、分类器二和分类器三,三种级联分类器训练级数都设定为n,n为正整数。分类器一用于训练第一特征,分类器二用于训练第二特征,分类器三用于训练第三特征。
以类哈尔特征为例,每一级的准确率和虚警率分别设为minHitRate_haar,maxFalseAlarmRate_haar。其中,虚警率为检测系统错误发现目标的概率。三个特征训练结束后将得到3n个强分类器,分类器一得到强分类器一,分类器二得到强分类器二,分类器三得到强分类器三。当分类器一训练方向梯度直方图特征,分类器二训练类哈尔特征,分类器三训练局部二值模式特征时,得到的强分类器也可以表示为,如下所示:
hog_c_0,hog_c_1,...,hog_c_n-1(n级方向梯度直方图强分类器);
haar_c_0,haar_c_1,...,haar_c_n-1(n级类哈尔强分类器);
lbp_c_0,lbp_c_1,...,lbp_c_n-1(n级局部二值模式强分类器)。
采用这种分类器模型,将三个特征融合,每次训练都要提取三次不同特征并做判断,每一级的准确率可以设置更大,虚警率可以设置更小。因此得到与单一特征分类器相同的准确率和虚警率,n可以设置较小,降低了分类器训练对硬件和样本数量的要求。
示例性地,步骤S24中,用训练模型中的强分类器依次判断滑动窗口第一次获取的小块图像的三种特征。具体为,先用三种特征对应的第一级强分类器进行依次判断,若任一失败则返回,否则进入第二级强分类器的判断,直至三种特征的第n级强分类器(例如,haar_c_n-1,lbp_c_n-1,hog_c_n-1)判断完毕。
其中,第一次获取的小块图像判断完毕后,执行步骤S25,滑动滑动窗口的步长X,重复步骤S22-S24,直至扫描完整个输入图像。若输入图像的边缘尺寸小于设定的步数的值,则不进行处理,输入图像结束。若某一小块图像通过了所有的强分类器,则记录该小块图像位置及尺寸。
需要解释的是,强分类器的判断三种特征时,用第一级强分类器一判断是否为第一特征,用第一级强分类器二判断是否为第二特征,用第一级强分类器三判断是否为第三特征,若同一级的任一个强分类器判断不属于所属特征,则返回滑动窗口,继续向下滑动;若同一级的所有强分类器均判断属于所属特征,则用第二级的所有强分类器按照第一级强分类器的判断方法判断是否属于所属特征。直至n级强分类器训练完成。,n级分类器中的n为0~n-1之间的任一整数。其中,强分类器进行特征判断时,可以按照强分类器一、类哈尔强分类器二、局部二值模式强分类器三的顺序依次判断特征,也可按照强分类器二、强分类器三、强分类器一的顺序依次进行判断,此处不进行限定。
步骤S3、对输入图像按照比例缩放,对缩放后的图像按照步骤S2进行扫描判断;循环对输入图像按照比例缩放,对缩放后的图像按照步骤S2进行扫描判断这一操作,得到最终的小块图像。
优选地,步骤S3中图像的缩放尺寸比例为1.1。缩放尺寸太大时,图像的精度差,图像的缩放尺寸太小时,缩放的次数太多,经实践数据表明,缩放尺寸比例为1.1时,图像的缩放效果较好。
图4是本申请的对输入图像进行缩放得到最终的小块图像时的流程图。如图4所示,输入图像(401),将输入图像按比例缩放(402),将图像缩放后,按照步骤S2进行扫描判断(403),判断缩放后的图像尺寸是否小于滑动窗口(404),若缩放后的图像小于滑动窗口,缩放结束,得到小块图像(405);若缩放后的图像不小于滑动窗口,则继续执行步骤402,将图像按比例缩放,直至得到小于滑动窗口的小块图像,也即得到与分类器模型匹配的最终的小块图像。
步骤S4、将所有检测到的最终的小块图像位置进行合并处理,得到最终的目标外接矩形。
可选地,将所有检测到的最终的小块图像位置进行合并处理后,得到的目标外接矩形,即为检测出的手势图像。
本申请的手势检测方法,当第一特征为方向梯度直方图特征,第二特征为类哈尔特征,第三特征为局部二值模式特征时,一方面,融合了方向梯度直方图特征、类哈尔特征和局部二值模式特征,方向梯度直方图特征表征了图像的轮廓边缘特征,类哈尔特征表征了图像整体及局部的灰度变化情况,局部二值模式特征表征了图像的局部纹理特征,每个滑窗需要经过n级强分类器一、强分类器二和强分类器三的判断,由于每种特征表征了图像的不同特性,更容易抽取到与背景相区分的特征,使得每一级的准确率更大,虚警率更小;另一方面,检测时,根据以上方法,得到与单一特征强分类器相同的准确率和虚警率,n值可以较小,降低了分类器训练对硬件和样本数量的要求。
实施例二
本申请还提出一种手势检测设备,执行如实施例一所述的手势检测方法。图5是本申请的手势检测设备的结构框图,如图5所示,手势检测设备包括:
接收器51,用于接收输入图像;
控制器52,图6是本申请的手势检测设备的控制器52的结构框图。如图6所示,控制器52包括以下部件:
输入模块521,用于对输入图像做直方图均衡化预处理,设置输入图像的尺寸;
分类模块522,用于提取输入图像的不同特征,并用分类器模型中的强分类器进行判断,直至扫描完整个输入图像;
扫描模块523,用于对输入图像按照比例缩放,对缩放后的图像按照分类模块的操作进行扫描判断;循环对输入图像按照比例缩放,对缩放后的图像按照分类模块的操作进行扫描判断这一操作,得到最终的小块图像;
合并模块524,用于将所有检测到的最终的小块图像位置进行合并处理,得到最终的目标外接矩形。
优选地,控制器52还包括分类器模型建立模块,图7是本申请的手势检测设备的分类器模型建立模块的结构框图。如图7所示,分类器模型建立模块包括:样本采集单元71和级联分类器训练单元72。
样本采集单元71,用于采集手势图像的正负样本集,并将正样本归一化;
可选地,正样本的尺寸为W1*H1和W2*H2,W1*H1样本用于训练分类器一,W2*H2的样本用于训练分类器二和分类器三;负样本的尺寸大于W1*H1。
需要说明的是,W1*H1的尺寸大于W2*H2的尺寸,经反复试验,W1*H1的尺寸为64*96,W2*H2的尺寸为20*30,步长设定为4时,提取小块图像的效果较好,最终检测的手势图像的正确率高。
级联分类器训练单元72,用于对归一化的样本像使用迭代算法训练级联分类器,训练结束后得到强分类器。
其中,级联分类器分为分类器一、分类器二和分类器三,三个级联分类器的级数相同,训练结束后分别得到强分类器一、强分类器二和强分类器三。
具体地,图8是本申请的手势检测设备的分类模块的结构框图。如图8所示,分类模块522包括:
构造滑动窗口单元5221,用于构造滑动窗口,设置滑动步长为X;
第一特征提取单元5222,用于滑动滑动窗口的步长X,获取尺寸为W1*H1的小块图像,提取小块图像的第一特征;
第二特征和第三特征提取单元5223,用于缩放该小块图像的尺寸至W2*H2,提取该小块图像的第二特征和第三特征;
判断单元5224,用于用分类器模型中的强分类器依次判断上述获得的特征;
扫描单元5225,用于控制方向第一特征提取单元、第二特征和第三特征提取单元以及判断单元执行扫描,直至扫描完整个输入图像。
示例性地,手势检测设备中的第一特征为方向梯度直方图特征,第二特征为类哈尔特征,第三特征为局部二值模式特征。
本申请的手势检测设备,执行如本申请的实施例一所述的检测方法,本申请的手势检测设备与本申请的手势检测方法具有相同的技术效果,在此就不一一赘述。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种手势检测方法,其特征在于,包括如下步骤:
步骤S1、对输入图像做直方图均衡化预处理,设置输入图像的尺寸;
步骤S2、提取输入图像的不同特征,并用分类器模型中的强分类器进行判断,直至扫描完整个输入图像;
步骤S3、对输入图像按照比例缩放,对缩放后的图像按照步骤S2进行扫描判断;循环对输入图像按照比例缩放,对缩放后的图像按照步骤S2进行扫描判断这一操作,得到最终的小块图像;
步骤S4、将所有检测到的最终的小块图像位置进行合并处理,得到最终的目标外接矩形。
2.如权利要求1所述的手势检测方法,其特征在于,分类器模型的建立,包括如下步骤:
步骤R1、采集手势图像的正负样本集,并将正样本归一化;
步骤R2、对归一化的样本使用迭代算法训练级联分类器,训练结束后得到强分类器。
3.如权利要求2所述的手势检测方法,其特征在于,步骤R2中级联分类器分为分类器一、分类器二以及分类器三,三种级联分类器的训练级数相同,训练结束后分别得到强分类器一、强分类器二以及强分类器三。
4.如权利要求2所述的手势检测方法,其特征在于,正样本的尺寸为W1*H1和W2*H2,W1*H1样本用于训练分类器一,W2*H2的样本用于训练分类器二和分类器三;负样本的尺寸大于W1*H1。
5.如权利要求4所述的手势检测方法,其特征在于,步骤S2,包括如下子步骤:
S21、构造滑动窗口,设置滑动步长为X;
S22、滑动滑动窗口的步长X,获取尺寸为W1*H1的小块图像,提取小块图像的第一特征;
S23、缩放该小块图像的尺寸至W2*H2,提取该小块图像的第二特征和第三特征;
S24、用分类器模型中的强分类器依次判断上述获得的特征;
S25、重复步骤S22-S24,直至扫描完整个输入图像。
6.一种手势检测设备,其特征在于,包括:
接收器,用于接收输入图像;
控制器,控制器包括以下部件:
输入模块,用于对输入图像做直方图均衡化预处理,设置输入图像的尺寸;
分类模块,用于提取输入图像的不同特征,并用分类器模型中的强分类器进行判断,直至扫描完整个输入图像;
扫描模块,用于对输入图像按照比例缩放,对缩放后的图像按照分类模块的操作进行扫描判断;循环对输入图像按照比例缩放,对缩放后的图像按照分类模块的操作进行扫描判断这一操作,得到最终的小块图像;
合并模块,用于将所有检测到的最终的小块图像位置进行合并处理,得到最终的目标外接矩形。
7.如权利要求6所述的手势检测设备,其特征在于,控制器还包括分类器模型建立模块,分类器模型建立模块包括:
样本采集单元,用于采集手势图像的正负样本集,并将正样本归一化;
级联分类器训练单元,用于对归一化的样本使用迭代算法训练级联分类器,训练结束后得到强分类器。
8.如权利要求7所述的手势检测设备,其特征在于,级联分类器分为分类器一、分类器二和分类器三,三个级联分类器的级数相同,训练结束后分别得到强分类器一、强分类器二和强分类器三。
9.如权利要求7所述的手势检测设备,其特征在于,正样本的尺寸为W1*H1和W2*H2,W1*H1样本用于训练分类器一,W2*H2的样本用于训练分类器二和分类器三;负样本的尺寸大于W1*H1。
10.如权利要求9所述的手势检测设备,其特征在于,分类模块包括:
构造滑动窗口单元,用于构造滑动窗口,设置滑动步长为X;
第一特征提取单元,用于滑动滑动窗口的步长X,获取尺寸为W1*H1的小块图像,提取小块图像的第一特征;
第二特征和第三特征提取单元,用于缩放该小块图像的尺寸至W2*H2,提取该小块图像的第二特征和第三特征;
判断单元,用于用分类器模型中的强分类器依次判断上述获得的特征;
扫描单元,用于控制方向第一特征提取单元、第二特征和第三特征提取单元以及判断单元执行扫描,直至扫描完整个输入图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710754293.6A CN107480652A (zh) | 2017-08-29 | 2017-08-29 | 一种手势检测方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710754293.6A CN107480652A (zh) | 2017-08-29 | 2017-08-29 | 一种手势检测方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107480652A true CN107480652A (zh) | 2017-12-15 |
Family
ID=60604172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710754293.6A Pending CN107480652A (zh) | 2017-08-29 | 2017-08-29 | 一种手势检测方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107480652A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009533784A (ja) * | 2006-04-17 | 2009-09-17 | 本田技研工業株式会社 | 物体との相互作用を含む複合動作の分類 |
CN101655914A (zh) * | 2008-08-18 | 2010-02-24 | 索尼(中国)有限公司 | 训练装置、训练方法及检测方法 |
CN103336967A (zh) * | 2013-05-27 | 2013-10-02 | 东软集团股份有限公司 | 一种手部运动轨迹检测方法及装置 |
CN104036284A (zh) * | 2014-05-12 | 2014-09-10 | 沈阳航空航天大学 | 基于Adaboost算法的多尺度行人检测方法 |
CN104268514A (zh) * | 2014-09-17 | 2015-01-07 | 西安交通大学 | 一种基于多特征融合的手势检测方法 |
CN106022211A (zh) * | 2016-05-04 | 2016-10-12 | 北京航空航天大学 | 一种利用手势控制多媒体设备的方法 |
-
2017
- 2017-08-29 CN CN201710754293.6A patent/CN107480652A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009533784A (ja) * | 2006-04-17 | 2009-09-17 | 本田技研工業株式会社 | 物体との相互作用を含む複合動作の分類 |
CN101655914A (zh) * | 2008-08-18 | 2010-02-24 | 索尼(中国)有限公司 | 训练装置、训练方法及检测方法 |
CN103336967A (zh) * | 2013-05-27 | 2013-10-02 | 东软集团股份有限公司 | 一种手部运动轨迹检测方法及装置 |
CN104036284A (zh) * | 2014-05-12 | 2014-09-10 | 沈阳航空航天大学 | 基于Adaboost算法的多尺度行人检测方法 |
CN104268514A (zh) * | 2014-09-17 | 2015-01-07 | 西安交通大学 | 一种基于多特征融合的手势检测方法 |
CN106022211A (zh) * | 2016-05-04 | 2016-10-12 | 北京航空航天大学 | 一种利用手势控制多媒体设备的方法 |
Non-Patent Citations (1)
Title |
---|
肖斌: "手势检测与跟踪算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084292B (zh) | 基于DenseNet和多尺度特征融合的目标检测方法 | |
CN107871124B (zh) | 一种基于深度神经网络的遥感图像目标检测方法 | |
CN106960195B (zh) | 一种基于深度学习的人群计数方法及装置 | |
CN103390164B (zh) | 基于深度图像的对象检测方法及其实现装置 | |
CN102496001B (zh) | 一种视频监控目标自动检测的方法和系统 | |
CN107103613B (zh) | 一种三维手势姿态估计方法 | |
CN109829467A (zh) | 图像标注方法、电子装置及非暂态电脑可读取储存媒体 | |
CN108932500A (zh) | 一种基于深度神经网络的动态手势识别方法及系统 | |
CN107784291A (zh) | 基于红外视频的目标检测跟踪方法和装置 | |
CN105574550A (zh) | 一种车辆识别方法及装置 | |
CN107180226A (zh) | 一种基于组合神经网络的动态手势识别方法 | |
CN107710228A (zh) | 半自动图像分割 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN105260749B (zh) | 基于方向梯度二值模式和软级联svm的实时目标检测方法 | |
CN109190561B (zh) | 一种视频播放中的人脸识别方法及系统 | |
CN109242884A (zh) | 基于JCFNet网络的遥感视频目标跟踪方法 | |
CN105608456A (zh) | 一种基于全卷积网络的多方向文本检测方法 | |
CN111401293B (zh) | 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法 | |
CN105608446A (zh) | 一种视频流异常事件的检测方法及装置 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
JP6095817B1 (ja) | 物体検出装置 | |
CN106325485A (zh) | 一种手势检测识别方法及系统 | |
CN109961037A (zh) | 一种考场视频监控异常行为特征识别方法 | |
CN109902576B (zh) | 一种头肩图像分类器的训练方法及应用 | |
CN103105924A (zh) | 人机交互方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171215 |
|
RJ01 | Rejection of invention patent application after publication |