CN102592115B - 一种人手定位方法及系统 - Google Patents
一种人手定位方法及系统 Download PDFInfo
- Publication number
- CN102592115B CN102592115B CN201110443686.8A CN201110443686A CN102592115B CN 102592115 B CN102592115 B CN 102592115B CN 201110443686 A CN201110443686 A CN 201110443686A CN 102592115 B CN102592115 B CN 102592115B
- Authority
- CN
- China
- Prior art keywords
- upper limbs
- region
- area
- extracting
- skin color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 210000001364 upper extremity Anatomy 0.000 claims abstract description 105
- 238000000605 extraction Methods 0.000 claims description 60
- 239000000284 extract Substances 0.000 claims description 50
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 8
- 238000002386 leaching Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明于图像识别技术领域,提供了一种人手定位方法及系统。其中的方法包括:接收视频图像,并提取接收到的视频图像中的人脸区域;根据提取出的人脸区域建立肤色模型;根据建立的肤色模型提取视频图像中的肤色区域;在提取到的肤色区域中提取人手区域。本发明实施例提供的人手定位方法是利用人脸与人手的关联性,将人脸识别技术与肤色识别技术相结合,从而该方法不受光线变化的影响,灵活性强,定位可靠性高。另外,本发明实施例提供的人手定位方法还在单纯应用人脸与人手的关联性无法提取出人手区域的情况下,利用上肢与人手的关联性进一步在提取出的肤色区域中提取出人手区域,进一步提高了人手定位的可靠性。
Description
技术领域
本发明属于图像识别技术领域,尤其涉及一种人手定位方法及系统。
背景技术
随着技术的发展,人手识别作为人机交互必不可少的一环而备受重视。而人手运动的定位和跟踪是准确提取和识别人手手势的先决条件,传统的人手定位方式需要附加特定的传感器(如:手柄、遥控器、数据手套等)来实现,操作繁琐。
为此,现有技术提供的一种人手定位方法是利用人手手型模板进行人手定位的,通过预存若干人手手型模板,在采集到的视频图像中提取模板相应的人手。由于人手的活动自由度较大,形状变化大,因此该方法无法适应复杂自然场景下的人手定位,定位可靠性差。
针对此情况,现有技术提供的另一种人手定位方法是利用人手肤色模型进行人手定位的,通过预存人手肤色模型,在采集到的视频图像中提取模型范围内的肤色区域即为人手区域。该方法在光线变化较大的环境下,无法准确的提取出人手区域,同样存在定位可靠性差的问题。
在本背景技术本部分所公开的上述信息仅仅用于增加对本发明背景技术的理解,因此其可能包括不构成对该国的本领域普通技术人员已知的现有技术。
发明内容
本发明实施例的目的在于提供一种人手定位方法,旨在解决现有技术提供的人手定位方法利用人手肤色模型实现对人手的定位,在光线变化较大的环境下,定位可靠性差的问题。
本发明实施例是这样实现的,一种人手定位方法,所述方法包括以下步骤:
接收视频图像,并提取接收到的所述视频图像中的人脸区域;
根据提取出的所述人脸区域建立肤色模型;
根据建立的所述肤色模型提取所述视频图像中的肤色区域;
在提取到的所述肤色区域中提取人手区域,当无法在提取到的肤色区域中提取人手区域时,在提取到的所述肤色区域中提取上肢区域,根据上肢区域进行上肢轮廓提取,得到上肢轮廓图像,对得到的所述上肢图像轮廓上的点集进行最小二乘法直线拟合,得到所述上肢轮廓的主方向直线;计算所述主方向直线与所述上肢轮廓的交点,之后将以所述交点为中心的一预设边长的矩形区域确定为人手区域。。
本发明实施例的另一目的在于提供一种人手定位系统,所述系统包括:
人脸区域提取模块,用于接收视频图像,并提取接收到的所述视频图像中的人脸区域;
肤色模型建立模块,用于根据所述人脸区域提取模块提取出的所述人脸区域建立肤色模型;
肤色区域提取模块,用于根据所述肤色模型建立模块建立的肤色模型提取所述视频图像中的肤色区域;
第一人手区域提取模块,用于在提取到的所述肤色区域中提取人手区域,当无法在提取到的肤色区域中提取人手区域时,在提取到的所述肤色区域中提取上肢区域,根据上肢区域进行上肢轮廓提取,得到上肢轮廓图像,对得到的所述上肢图像轮廓上的点集进行最小二乘法直线拟合,得到所述上肢轮廓的主方向直线;计算所述主方向直线与所述上肢轮廓的交点,之后将以所述交点为中心的一预设边长的矩形区域确定为人手区域。
本发明实施例提供的人手定位方法是利用人脸与人手的关联性,将人脸识别技术与肤色识别技术相结合,在采集的视频图像中提取出人脸后建立人脸肤色模型,并利用该人脸肤色模型在采集的视频图像中提取出人手区域。相对于现有技术,该方法不受光线变化的影响,灵活性强,定位可靠性高。
附图说明
图1是本发明实施例提供的人手定位方法的流程图;
图2是本发明实施例提供的人手定位系统的原理结构图;
图3是图2所示第二人手区域提取模块的详细原理结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明实施例提供的人手定位方法是利用人脸与人手的关联性,将人脸识别技术与肤色识别技术相结合,在采集的视频图像中提取出人脸后建立人脸肤色模型,并利用该人脸肤色模型在采集的视频图像中提取出人手区域。
图1示出了本发明实施例提供的人手定位方法的流程。
在步骤S101中,接收视频图像,并提取接收到的该视频图像中的人脸区域。
优选地,本发明实施例采用Adaboost人脸检测算法实现对人脸区域的提取,此时,提取该视频图像中的人脸区域的步骤可以包括以下步骤:计算该视频图像的积分图,提取类矩形特征;对提取的类矩形特征进行训练,得到人脸分类器特征库;根据人脸分类器特征库,在接收到的视频图像中提取人脸区域。
进一步地,对提取的类矩形特征进行训练,得到人脸分类器特征库的步骤可以包括以下步骤:分别计算若干视频图像的积分图,提取该积分图中的类矩形特征;根据Adaboost算法,在提取出的类矩形特征中筛选出有效的特征,构成多个弱分类器;将构成的多个弱分类器进行组合,构成多个强分类器;将构成的多个强分类器进行级联,得到人脸分类器特征库。
在步骤S102中,根据提取出的人脸区域建立肤色模型。
优选地,本发明实施例采用RGB颜色模型建立肤色模型,此时,该根据提取出的人脸区域建立肤色模型的步骤可以包括以下步骤:计算提取出的人脸区域中,图像像素的RGB颜色值;通过对该RGB颜色值的计算得到颜色值分布的阈值参数,进而统计得到RGB平均值的分布范围作为肤色模型。
举例来说,假设提取出的人脸区域中,任意位置上的R通道亮度值是R(x,y),任意位置上的G通道亮度值是G(x,y),任意位置上的B通道亮度值是B(x,y),颜色值分布的阈值参数是TH1、TH2、TH3、TH4,则得到的RGB平均值的分布范围可以表示为:
TH1<B(x,y)<TH2
TH3<R(x,y)-G(x,y)<TH4
当然,在实际应用时,还可以采用其它的颜色模型建立肤色模型,例如:采用YCbCr颜色模型建立肤色模型、利用高斯分布模型建立肤色模型等。
在步骤S103中,根据建立的肤色模型提取该视频图像中的肤色区域,以滤除提取的视频图像中的大量背景区域。
其中,当采用RGB颜色模型建立肤色模型时,根据建立的肤色模型提取该视频图像中的肤色区域的步骤具体是:将接收到的视频图像中每一像素的R通道、G通道、B通道的亮度值与得到的RGB平均值的分布范围进行比较,若像素的R通道、G通道、B通道的亮度值在RGB平均值的分布范围内,则确定相应像素属于肤色区域。
在步骤S104中,在提取到的肤色区域中提取人手区域。
优选地,本发明实施例采用Adaboost目标检测算法实现对人手区域的提取,此时,在提取到的肤色区域中提取人手区域的步骤可以包括以下步骤:计算提取出的肤色区域的积分图,以提取类矩形特征;对提取的类矩形特征进行训练,得到人手分类器特征库;根据人手分类器特征库,在提取出的肤色区域中提取人脸区域。
进一步地,对提取的类矩形特征进行训练,得到人手分类器特征库的步骤可以包括以下步骤:分别计算若干提取出的肤色区域的积分图,提取该积分图中的类矩形特征;根据Adaboost算法,在提取出的类矩形特征中筛选出有效的特征,构成多个弱分类器;将构成的多个弱分类器进行组合,构成多个强分类器;将构成的多个强分类器进行级联,得到人手分类器特征库。
更进一步地,若无法在提取到的肤色区域中提取人手区域,则本发明实施例在步骤S104之后,还可以包括以下步骤:在提取到的肤色区域中提取上肢区域;在提取出的上肢区域中进行上肢轮廓提取,得到上肢轮廓图像;对得到的上肢图像轮廓上的点集进行最小二乘法直线拟合,得到该上肢轮廓的主方向直线,该主方向直线即上肢的自然延伸方向;计算该上肢轮廓的主方向直线与该上肢轮廓的交点,该交点即为上肢末端,之后将以该交点为中心的一预设边长的矩形区域确定为人手区域。
为了提高人手区域的确定精度,本发明实施例中,在得到上肢轮廓图像的步骤以及对得到的上肢图像轮廓上的点集进行最小二乘法直线拟合的步骤之间,还可以包括以下步骤:对得到上肢轮廓图像进行形态学开、闭、腐蚀、膨胀计算,以去掉得到的上肢轮廓图像中的孤立轮廓点,使得轮廓圆滑连贯。
其中,优选地,本发明实施例采用Adaboost目标检测算法或人体区域分割方法实现对上肢区域的提取的。当采用Adaboost目标检测算法实现对上肢区域提取时,在提取到的肤色区域中提取上肢区域的步骤可以包括以下步骤:计算提取出的肤色区域的积分图,以提取类矩形特征;对提取的类矩形特征进行训练,得到上肢分类器特征库;根据上肢分类器特征库,在提取出的肤色区域中提取上肢区域。而对提取的类矩形特征进行训练,得到上肢分类器特征库的步骤与对提取的类矩形特征进行训练,得到人手分类器特征库的步骤相似,在此不再赘述。当采用人体区域分割方法实现对上肢区域提取时,在提取到的肤色区域中提取上肢区域的步骤具体是将提取到的肤色区域进行人体分割,以得到人体的头部、左上肢、右上肢、躯干、左腿、右腿五个区域,从而确定上肢区域。
其中,在提取出的上肢区域中进行上肢轮廓提取,得到上肢轮廓图像的步骤具体包括以下步骤:根据提取到的上肢区域以及肤色区域,计算上肢区域的肤色比例;判断该肤色比例是否大于预设阈值,是则进行上肢轮廓提取,得到上肢轮廓图像,从而去除提取出的上肢区域中可能存在的错误提取区域,提高提取精度。其中计算上肢区域的肤色比例的步骤可以表示为:上肢区域的肤色比例=上肢区域肤色像素个数/上肢区域像素总个数。
其中,对得到的上肢图像轮廓上的点集进行最小二乘法直线拟合,得到该上肢轮廓的主方向直线的步骤具体包括以下步骤:将得到的上肢图像轮廓上的点集的实际坐标分别代入一预存的误差公式并求和,得到一总误差;通过求解使得该总误差最小化,以得到相应的拟合直线方程的待定系数,进而确定表征主方向直线的拟合直线方程。例如:假设拟合直线方程为F(x)=ax+b,误差公式为yi-F(xi),总误差为e=∑(yi-F(xi))^2,其中i为正整数,则将得到的上肢图像轮廓上的点集的实际坐标{(xi,yi)|i=1,2,...n}分别代入误差公式,进而求得总误差e,通过求解使得总误差e最小化时,相应的待定系数a和b即可确定,从而得到表征主方向直线的拟合直线方程。
图2示出了本发明实施例提供的人手定位系统的原理结构,为了便于说明,仅示出了与本发明实施例相关的部分。
本发明实施例提供的人手定位系统包括:人脸区域提取模块11,用于接收视频图像,并提取接收到的该视频图像中的人脸区域;肤色模型建立模块12,用于根据人脸区域提取模块11提取出的人脸区域建立肤色模型;肤色区域提取模块13,用于根据肤色模型建立模块12建立的肤色模型提取该视频图像中的肤色区域;第一人手区域提取模块14,用于在肤色区域提取模块13提取到的肤色区域中提取人手区域。
其中,人脸区域提取模块11优选是采用Adaboost人脸检测算法实现对人脸区域的提取的,具体的提取过程如上所述,在此不再赘述。
其中,肤色模型建立模块12优选是采用RGB颜色模型建立肤色模型的,具体的建立过程如上所述,在此不再赘述。
其中,肤色区域提取模块13提取肤色区域的过程如上所述,在此不再赘述。
其中,第一人手区域提取模块14优选是采用Adaboost目标检测算法实现对人手区域的提取的,具体的提取过程如上所述,在此不再赘述。
本发明实施例提供的人手定位系统还可以包括第二人手区域提取模块15,图3示出了第二人手区域提取模块15的结构。
具体地,第二人手区域提取模块15可以包括:上肢区域提取模块151,用于当第一人手区域提取模块14无法在肤色区域提取模块13提取到的肤色区域中提取到人手区域时,在肤色区域提取模块13提取到的肤色区域中提取上肢区域;上肢轮廓提取模块152,用于在上肢区域提取模块151提取出的上肢区域中进行上肢轮廓提取,得到上肢轮廓图像;拟合模块153,用于对上肢轮廓提取模块152得到的上肢图像轮廓上的点集进行最小二乘法直线拟合,得到该上肢轮廓的主方向直线;交点计算模块154,用于计算拟合模块153得到的上肢轮廓的主方向直线与上肢轮廓提取模块152提取出的上肢轮廓的交点;人手确认模块155,用于将以交点计算模块154计算得到的交点为中心的一预设边长的矩形区域确定为人手区域。
其中,上肢区域提取模块151优选是采用Adaboost目标检测算法或人体区域分割方法实现对上肢区域的提取的,具体提取过程如上所述,在此不再赘述。
其中,上肢轮廓提取模块152的提取过程如上所述,在此不再赘述。
其中,拟合模块153的拟合过程如上所述,在此不再赘述。
本发明实施例提供的人手定位方法是利用人脸与人手的关联性,将人脸识别技术与肤色识别技术相结合,在采集的视频图像中提取出人脸后建立人脸肤色模型,并利用该人脸肤色模型在采集的视频图像中提取出人手区域。相对于现有技术,该方法不受光线变化的影响,灵活性强,定位可靠性高。另外,本发明实施例提供的人手定位方法还在单纯应用人脸与人手的关联性无法提取出人手区域的情况下,利用上肢与人手的关联性进一步在提取出的肤色区域中提取出人手区域,进一步提高了人手定位的可靠性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来控制相关的硬件完成,所述的程序可以在存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘、光盘等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种人手定位方法,其特征在于,所述方法包括以下步骤:
接收视频图像,并提取接收到的所述视频图像中的人脸区域;
根据提取出的所述人脸区域建立肤色模型;
根据建立的所述肤色模型提取所述视频图像中的肤色区域;
在提取到的所述肤色区域中提取人手区域,当无法在提取到的肤色区域中提取人手区域时,在提取到的所述肤色区域中提取上肢区域,根据上肢区域进行上肢轮廓提取,得到上肢轮廓图像,对得到的所述上肢图像轮廓上的点集进行最小二乘法直线拟合,得到所述上肢轮廓的主方向直线;计算所述主方向直线与所述上肢轮廓的交点,之后将以所述交点为中心的一预设边长的矩形区域确定为人手区域。
2.如权利要求1所述的人手定位方法,其特征在于,所述提取接收到的所述视频图像中的人脸区域的步骤具体包括以下步骤:
计算所述视频图像的积分图,提取类矩形特征;
对提取的所述类矩形特征进行训练,得到人脸分类器特征库;
根据所述人脸分类器特征库,在所述视频图像中提取人脸区域。
3.如权利要求1所述的人手定位方法,其特征在于,所述根据提取出的所述人脸区域建立肤色模型的步骤具体包括以下步骤:
计算提取出的所述人脸区域中,图像像素的RGB颜色值;
通过对所述RGB颜色值的计算得到颜色值分布的阈值参数,进而统计得到所述RGB平均值的分布范围作为所述肤色模型。
4.如权利要求3所述的人手定位方法,其特征在于,所述RGB平均值的分布范围表示为:
TH1<B(x,y)<TH2
TH3<R(x,y)-G(x,y)<TH4
其中,R(x,y)是所述人脸区域一位置上的R通道亮度值,G(x,y)是所述人脸区域一位置上的G通道亮度值,B(x,y)是所述人脸区域一位置上的B通道亮度值,TH1、TH2、TH3、TH4分别是所述颜色值分布的阈值参数。
5.如权利要求3所述的人手定位方法,其特征在于,所述根据建立的所述肤色模型提取所述视频图像中的肤色区域的步骤具体是:
将所述视频图像中每一像素的R通道、G通道、B通道的亮度值与得到的所述RGB平均值的分布范围进行比较,若像素的所述R通道、G通道、B通道的亮度值在所述RGB平均值的分布范围内,则确定相应像素属于肤色区域。
6.如权利要求1所述的人手定位方法,其特征在于,所述在提取到的所述肤色区域中提取人手区域的步骤具体是采用Adaboost目标检测算法在提取到的所述肤色区域中提取人手区域,包括以下步骤:
计算提取出的所述肤色区域的积分图,以提取类矩形特征;
对提取的所述类矩形特征进行训练,得到人手分类器特征库;
根据所述人手分类器特征库,在提取出的肤色区域中提取人手区域。
7.如权利要求1所述的人手定位方法,其特征在于,在所述得到上肢轮廓图像的步骤和所述对得到的所述上肢图像轮廓上的点集进行最小二乘法直线拟合的步骤之间,所述方法还包括以下步骤:
对得到所述上肢轮廓图像进行形态学开、闭、腐蚀、膨胀计算,以去掉得到的所述上肢轮廓图像中的孤立轮廓点。
8.一种人手定位系统,其特征在于,所述系统包括:
人脸区域提取模块,用于接收视频图像,并提取接收到的所述视频图像中的人脸区域;
肤色模型建立模块,用于根据所述人脸区域提取模块提取出的所述人脸区域建立肤色模型;
肤色区域提取模块,用于根据所述肤色模型建立模块建立的肤色模型提取所述视频图像中的肤色区域;
第一人手区域提取模块,用于在提取到的所述肤色区域中提取人手区域,当无法在提取到的肤色区域中提取人手区域时,在提取到的所述肤色区域中提取上肢区域,根据上肢区域进行上肢轮廓提取,得到上肢轮廓图像,对得到的所述上肢图像轮廓上的点集进行最小二乘法直线拟合,得到所述上肢轮廓的主方向直线;计算所述主方向直线与所述上肢轮廓的交点,之后将以所述交点为中心的一预设边长的矩形区域确定为人手区域。
9.如权利要求8所述的人手定位系统,其特征在于,所述系统还包括第二人手区域提取模块,所述第二人手区域提取模块包括:
上肢区域提取模块,用于当所述第一人手区域提取模块无法在所述肤色区域提取模块提取到的所述肤色区域中提取到人手区域时,在所述肤色区域提取模块提取到的所述肤色区域中提取上肢区域;
上肢轮廓提取模块,用于在所述上肢区域提取模块提取出的所述上肢区域中进行上肢轮廓提取,得到上肢轮廓图像;
拟合模块,用于对所述上肢轮廓提取模块得到的所述上肢图像轮廓上的点集进行最小二乘法直线拟合,得到所述上肢轮廓的主方向直线;
交点计算模块,用于计算所述拟合模块得到的所述上肢轮廓的主方向直线与所述上肢轮廓提取模块提取出的所述上肢轮廓的交点;
人手确认模块,用于将以所述交点计算模块计算得到的所述交点为中心的一预设边长的矩形区域确定为人手区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110443686.8A CN102592115B (zh) | 2011-12-26 | 2011-12-26 | 一种人手定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110443686.8A CN102592115B (zh) | 2011-12-26 | 2011-12-26 | 一种人手定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102592115A CN102592115A (zh) | 2012-07-18 |
CN102592115B true CN102592115B (zh) | 2014-04-30 |
Family
ID=46480730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110443686.8A Expired - Fee Related CN102592115B (zh) | 2011-12-26 | 2011-12-26 | 一种人手定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102592115B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102854983B (zh) * | 2012-09-10 | 2015-12-02 | 中国电子科技集团公司第二十八研究所 | 一种基于手势识别的人机交互方法 |
CN102938060A (zh) * | 2012-12-07 | 2013-02-20 | 上海电机学院 | 动态手势识别系统及方法 |
CN105893926A (zh) * | 2015-12-15 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 手识别方法、系统及装置 |
CN107272899B (zh) * | 2017-06-21 | 2020-10-30 | 北京奇艺世纪科技有限公司 | 一种基于动态手势的vr交互方法、装置及电子设备 |
CN107491755B (zh) * | 2017-08-16 | 2021-04-27 | 京东方科技集团股份有限公司 | 用于手势识别的方法及装置 |
CN107846555A (zh) * | 2017-11-06 | 2018-03-27 | 深圳慧源创新科技有限公司 | 基于手势识别的自动拍摄方法、装置、用户终端及计算机存储介质 |
CN108280238B (zh) * | 2018-03-02 | 2019-04-19 | 上海棉联电子商务有限公司 | 计算机共享文件紧急备份方法 |
CN109325460B (zh) * | 2018-09-30 | 2019-10-22 | 华为技术有限公司 | 一种人脸识别方法、光心标定方法和终端 |
WO2021016896A1 (zh) * | 2019-07-30 | 2021-02-04 | 深圳市大疆创新科技有限公司 | 图像处理方法、系统、设备、可移动平台和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1457015A (zh) * | 2003-03-07 | 2003-11-19 | 北方交通大学 | 基于人脸识别和手形识别的双模态生物认证系统 |
CN101344816B (zh) * | 2008-08-15 | 2010-08-11 | 华南理工大学 | 基于视线跟踪和手势识别的人机交互方法及装置 |
CN101593022B (zh) * | 2009-06-30 | 2011-04-27 | 华南理工大学 | 一种基于指端跟踪的快速人机交互方法 |
-
2011
- 2011-12-26 CN CN201110443686.8A patent/CN102592115B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102592115A (zh) | 2012-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102592115B (zh) | 一种人手定位方法及系统 | |
CN104331682B (zh) | 一种基于傅里叶描述子的建筑物自动识别方法 | |
CN101593022B (zh) | 一种基于指端跟踪的快速人机交互方法 | |
CN102270308B (zh) | 一种基于五官相关aam模型的面部特征定位方法 | |
CN105426815A (zh) | 活体检测方法及装置 | |
CN103440645A (zh) | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 | |
CN103413120A (zh) | 基于物体整体性和局部性识别的跟踪方法 | |
CN103530599A (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
Perakis et al. | Feature fusion for facial landmark detection | |
CN104167006B (zh) | 一种任意手形的手势跟踪方法 | |
CN109063625A (zh) | 一种基于级联深度网络的人脸关键点检测方法 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及系统 | |
CN104281839A (zh) | 一种人体姿势识别方法和装置 | |
CN110334607B (zh) | 一种视频人体交互行为识别方法及系统 | |
CN105022999A (zh) | 一种人码伴随实时采集系统 | |
CN102831408A (zh) | 人脸识别方法 | |
Redondo-Cabrera et al. | All together now: Simultaneous object detection and continuous pose estimation using a hough forest with probabilistic locally enhanced voting | |
CN105138990A (zh) | 一种基于单目摄像头的手势凸包检测与掌心定位方法 | |
Mu | Ear detection based on skin-color and contour information | |
CN103106409A (zh) | 一种针对头肩检测的混合特征提取方法 | |
CN104463909A (zh) | 基于信度组合地图模型的视觉目标跟踪方法 | |
CN102799855B (zh) | 基于视频流的人手定位方法 | |
CN105261038A (zh) | 基于双向光流和感知哈希的指尖跟踪方法 | |
CN104898971A (zh) | 一种基于视线跟踪技术的鼠标指针控制方法及系统 | |
CN110969101A (zh) | 一种基于hog和特征描述子的人脸检测与跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140430 |