CN102266241B - 融合人脸和指纹视觉信息的协同性别识别方法 - Google Patents

融合人脸和指纹视觉信息的协同性别识别方法 Download PDF

Info

Publication number
CN102266241B
CN102266241B CN 201110223831 CN201110223831A CN102266241B CN 102266241 B CN102266241 B CN 102266241B CN 201110223831 CN201110223831 CN 201110223831 CN 201110223831 A CN201110223831 A CN 201110223831A CN 102266241 B CN102266241 B CN 102266241B
Authority
CN
China
Prior art keywords
model
decision
image
fingerprint
steps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201110223831
Other languages
English (en)
Other versions
CN102266241A (zh
Inventor
刘欢喜
吴哲
朱俊
李雄
赵杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN 201110223831 priority Critical patent/CN102266241B/zh
Publication of CN102266241A publication Critical patent/CN102266241A/zh
Application granted granted Critical
Publication of CN102266241B publication Critical patent/CN102266241B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

本发明涉及一种利用机器视觉和模式识别技术,基于人脸和指纹的性别识别方法。具体方法如下:1)基于词袋模型来表示图像特征,提出一种新的创建视觉词的监督方法,消除冗余的特征维数,加强了对性别分类有帮助的维度;2)提出改进的LDA模型,将分类间距最大化,来加强整个模型的识别能力;3)将人脸和指纹两种可视化形态的决策融合,分别训练模型,最终的决策通过最小化决策风险来得到。本方法具有很好的鲁棒性和区别能力,并在包含同一个人的人脸和指纹的大型的数据库进行验证,结果表明本方法能够很好的完成性别识别工作,能够应用于性别识别的各个方面。

Description

融合人脸和指纹视觉信息的协同性别识别方法
技术领域
本发明涉及性别识别方法,具体涉及一种融合人脸和指纹视觉信息的协同性别识别方法。
背景技术
近年来,性别识别逐渐吸引了计算机视觉和模式识别领域中越来越多的研究者的关注。生理学家和疑犯鉴别专家主要通过人类的生理特征来进行性别识别,其中,人脸的视觉信息是他们最常用的生理特征。目前,现有的许多方法也主要利用人脸信息来进行性别识别,通常,这些方法都是基于人脸的全局特征(如原始像素)和判别分类算法(如SVM,Boosting)。指纹的视觉信息也被广泛地应用于性别识别。与人脸相比,由于指纹采集设备的特殊的传感器结构,指纹对光照和姿态变化具有更强的鲁棒性,因此,使用指纹进行性别识别相对简单且鲁棒性好。然而,在以前的使用指纹进行性别识别的方法中,研究者们都利用指纹的某种具体特征来进行性别识别,如脊的密度、脊线数、脊和谷的宽度、手指大小,以及白线数等。与人脸特征相比,指纹的这些特征通常比较难提取并且缺乏判别能力。
除人脸和指纹外,其他生物特征的视觉信息也被广泛地应用于性别识别,如手的形状、脚的形状、牙齿、步态以及体型等。值得注意的是,融合不同的生物特征对提高性别识别的性能是非常有益的,这一事实已经得到证实。Shan等人在特征层(Feature Level)通过典型相关分析(Canonical Correlation Analysis)融合人脸和步态来进行性别识别,其识别性能得到了显著提高。Zhang等人通过融合人脸和多视角步态(Multi-view Gait)来进行性别识别。Shan等人和Zhang等人都使用SVM进行分类。在生物特征的视觉信息提取方面,Jain和Patr通过融合提取的人脸和指纹信息来进行身份识别,并且,他们使用的人脸—指纹对不是来自同一个人的,而是在如下假设下随便组合的,即假设同一个人的人脸图像和指纹在统计上是相互独立的。本发明应用了一个包含来自一个人的人脸和相关指纹的大型数据库,该数据库是国际上迄今为止第一个包含同一个人的指纹和人脸图像的数据库。
发明内容
本发明的目的在于对越来越被关注的性别识别问题,提出一种新的融合人脸和指纹信息的性别识别方法。该方法能获得有鲁棒性和很强识别能力的能够用于性别识别的特征表示。
为实现上述目的,本发明设计了一种新的用于创建视觉词来加强图像表示的识别能力的监督方法。使用该方法得到的视觉词消除了图像特征表达中冗余的特征维度,加强了对性别分类有帮助的维度,从而极大的加强了最终得到的图像特征表达的分类能力。
进一步地,这种图像特征表示可以自然的潜入到一个生成框架Latent Dirichlet Allocation(LDA)中,用来进行性别识别。目标的性别通过不同的由一组视觉词组成的潜在研究对象的结合决定。本方法对于男性和女性的类别都进行了生成模型的训练。一般的LDA方法单独作用于每个类别,而不利用类之间的联系。本方法利用类之间的联系来加强提出模型的识别能力,通过最大化类之间的组间距来实现。最后,在决策层,通过融合不同模态下得到的性别估计来获得最终的识别结果。
根据本发明的一个方面,提供一种融合人脸和指纹视觉信息的协同性别识别方法,其特征在于,包括如下步骤:
步骤A:基于词袋模型的图像特征表示步骤,其包括通过常规的图像网格获得图像块;通过在每个所述图像块中提取局特征获得特征集,使用训练样本中的男性和女性类别间决策超平面来得到标准向量,其中,所述标准向量的每个成分用来测量相关特征用于分类的贡献;重新按照所述贡献对特征的维数进行重新排列并得到新的特征;重新得到图像的词袋模型;
步骤B:使用识别性潜在狄利克雷分布(D-LDA)的性别识别针对人脸和指纹两种模态分别建立模型并进行模型推断得到模型参数,其中,所述模型推断步骤包括:对所述词袋模型最大的下界进行估计;将分类间距最大化;
步骤C:性别决策融合步骤,其包括针对给出的样本,分别得到两种模态的标签;建立融合两种模态的综合风险函数,最终的决策通过最小化综合决策风险来得到。
优选地,所述步骤A包括如下步骤:
步骤A1:对图像的每个所述图像块提取局部二值模式可以得到局部特征,并得到区分训练样本集中男性和女性的决策超平面的法向量;
步骤A2:根据所述法向量中的元素大小,重新排列图像全局特征的维度,从而得到新的图像特征,在此基础上,重新构造图像的视觉词集;
步骤A3:在得到所述视觉词集之后,通过规则的词袋模型(Bag-of –Words Model)得到最终的图像特征表达。
优选地,所述步骤B包括如下步骤:
步骤B1:对性别和指纹两种形式的男性和女性分别建立潜在狄利克雷分布的生成式模型所描述的后验概率模型;
步骤B2:使用变分推断对所述步骤B1中所描述的后验概率模型,由KL发散原理进行推断;
步骤B3:通过最大化模型对数似然概率的下界和类间最大分类阈值训练模型,得到所建立的各个模型的参数。
优选地,所述步骤C包括如下步骤:
步骤C1:对每个带有提取视觉词的测试样本,对两种性别和指纹两种模式的似然函数计算,通过变分推断分别得到两种模式的类别标签;
步骤C2:定义模式的决策值,建立对性别和指纹模式的融合的决策贝叶斯风险函数:
步骤C3:通过最小化融合风险函数,得到最终的决策。
本发明相对于现有的性别识别方法的显著效果在于,同时应用同一样本的人脸和指纹,并将两者融合来进行性别识别。本方法具有很好的鲁棒性和区别能力,并在包含同一个人的人脸和指纹的大型的数据库进行验证,结果表明本方法能够很好地完成性别识别工作,能够应用于性别识别的各个方面。
附图说明
图1为根据本发明提供的性别识别方法的流程图;
图2为在所有训练样本上分别由决策超平面的法向量生成的指纹图像;
图3为识别性潜在狄利克雷分布的模型的图形表示和参考模型示意图;
图4为在所有训练样本上分别由决策超平面的法向量生成的人脸图像。
具体实施方式
以下结合附图以及实施例对本发明的技术方案作进一步详细说明。以下实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和过程,但本发明的保护范围不限于下述的实施例。
在本发明的一个实施例中,根据本发明提供的性别识别方法的流程图如图1所示,本实施例具体实施包括如下步骤:
步骤A:基于词袋模型的图像特征表示:
假设图像为                                                
Figure 2011102238311100002DEST_PATH_IMAGE001
,图像块集为,则对每个图像块提取局部二值模式(Local Binary Pattern,LBP)可以得到局部特征
Figure DEST_PATH_IMAGE003
,其中
Figure 876810DEST_PATH_IMAGE004
。图像
Figure 388563DEST_PATH_IMAGE001
的全局特征可表示为
Figure DEST_PATH_IMAGE005
,其中,
Figure 7632DEST_PATH_IMAGE006
Figure DEST_PATH_IMAGE007
表示训练样本的总数。通过线性支持向量机,可以得到区分训练样本集中男性和女性的决策超平面的法向量
Figure 153355DEST_PATH_IMAGE008
,其中,支持向量
Figure DEST_PATH_IMAGE009
Figure 137360DEST_PATH_IMAGE010
Figure DEST_PATH_IMAGE011
表示支持向量的个数)和通过优化下面的目标函数得到,即
Figure DEST_PATH_IMAGE013
                 
式中,
Figure 418223DEST_PATH_IMAGE014
Figure DEST_PATH_IMAGE015
的类别标签,
Figure 615855DEST_PATH_IMAGE016
,并且
Figure DEST_PATH_IMAGE017
表示负样本(女性),否则表示正样本(男性);
Figure 827220DEST_PATH_IMAGE012
是由非零的组成的列向量。事实上,法向量
Figure DEST_PATH_IMAGE019
中的每个元素度量了
Figure 884223DEST_PATH_IMAGE015
中对应维度对分类的贡献,并且的对应于
Figure 75219DEST_PATH_IMAGE019
中绝对值越大元素的维度对视觉词构造越重要。因此,依据法向量
Figure 720964DEST_PATH_IMAGE019
中的元素大小,重新排列
Figure 95314DEST_PATH_IMAGE015
的维度,从而得到新的图像特征
Figure 142904DEST_PATH_IMAGE020
。在
Figure DEST_PATH_IMAGE021
上,我们重新构造图像
Figure 645473DEST_PATH_IMAGE001
的视觉词集
Figure 840831DEST_PATH_IMAGE022
,其中,
Figure DEST_PATH_IMAGE023
表示视觉词集中的第
Figure 18871DEST_PATH_IMAGE024
个视觉词,并且视觉词的长度为
Figure 983285DEST_PATH_IMAGE026
。注意,通常参数
Figure 881020DEST_PATH_IMAGE026
的选择要满足一定的约束条件,即
Figure DEST_PATH_IMAGE027
更进一步地,参数
Figure 925068DEST_PATH_IMAGE028
Figure 681671DEST_PATH_IMAGE026
的选择对分类性能有着至关重要的影响:
Figure 457866DEST_PATH_IMAGE026
选择得过小(即视觉词的长度过短),将会降低视觉词的判别能力和分类性能;
Figure 583078DEST_PATH_IMAGE026
选择得过大,在固定全局特征
Figure 102921DEST_PATH_IMAGE015
中得到的视觉词的数量就会减少,同样会降低分类性能的稳定性,因此参数
Figure 989023DEST_PATH_IMAGE026
的选择需要折衷考虑。为了处理这种情况,我们首先选择较大的
Figure 380690DEST_PATH_IMAGE026
值,并保持该
Figure 704224DEST_PATH_IMAGE026
值不变,然后每次在训练样本集中随机地选择一个样本子集来构造视觉词,重复这个过程,就会得到更多的视觉词,从而扩大了视觉词集的规模。但是这样做也有一个缺点,那就是每次得到的决策超平面会随着样本子集的变化而变化,这将会降低形成的视觉词集的分类性能。为了克服这个问题,我们将所有的决策超平面都调整成一个法向量为
Figure DEST_PATH_IMAGE029
的决策超平面,其中,
Figure 487284DEST_PATH_IMAGE030
表示决策超平面的维数。同样地,每一个训练子集中的训练样本也要作相应的变换,以保持其和该训练子集下得到的决策超平面之间不变的几何关系。假设随机选择了
Figure DEST_PATH_IMAGE031
个训练样本子集,则可以得到
Figure 995495DEST_PATH_IMAGE031
个决策超平面的向量
Figure 812141DEST_PATH_IMAGE032
,并且第
Figure DEST_PATH_IMAGE033
个训练样本子集的变换矩阵
Figure 736104DEST_PATH_IMAGE034
满足如下的约束条件:
 
Figure DEST_PATH_IMAGE035
在得到视觉词集之后,通过规则的“词袋模型”(Bag-of –Words Model)就可以得到最终的图像特征表达,如图1所示。图2通过指纹图像说明了图像特征表达中不同维度对分类的贡献,图4通过人脸图像说明了图像特征表达中不同维度对分类的贡献。图2和图4都与原始图像具有相同的维数,并且图中每个像素都直接采用对应的决策超平面的法向量
Figure 446440DEST_PATH_IMAGE019
中的值,为简单起见,直接将原始图像中的像素作为图像特征。
步骤B:使用LDA的性别识别模型:
对于类别
Figure 938601DEST_PATH_IMAGE036
,LDA描述了从
Figure DEST_PATH_IMAGE039
逐步的生成过程:
                          (1)
其中:
Figure DEST_PATH_IMAGE041
Figure 591497DEST_PATH_IMAGE042
Figure DEST_PATH_IMAGE043
其中Dir表示参数为
Figure 113614DEST_PATH_IMAGE044
的狄利克雷分布,Mult表示以矩阵为参数的多项式分布,并且
Figure DEST_PATH_IMAGE047
分别表示主题数以及编码本(Code Book)中的编码中心数。通过对中间变量
Figure 232934DEST_PATH_IMAGE037
Figure 793229DEST_PATH_IMAGE038
进行积分,可以得到式(1)的似然分布,即:
Figure 423930DEST_PATH_IMAGE048
对模型最大的下界进行估计,估计的模型有最大的下界L,这样KL发散
Figure DEST_PATH_IMAGE049
。有
Figure 957592DEST_PATH_IMAGE050
其中为可变分布。这个估计为线面的工作奠定了基础。改进LDA模型的参数估计过程能够满足KL的发散,通过1)初始化阶段,参数使用估计的LDA参数初始化,如图3所示;2)在估计的阶段,通过下面方程满足:
                        
Figure 151681DEST_PATH_IMAGE052
                     (2)
接下来将分类间距M最大化,可在训练阶段完成,总的间距M可以通过在训练阶段分别在样本上最大化和在
Figure DEST_PATH_IMAGE055
样本上最大化
Figure 820615DEST_PATH_IMAGE056
。这样有区别能力的信息就可以通过分类间距来表示。本方法通过对训练
Figure 400761DEST_PATH_IMAGE053
模型的第一项最大化和训练
Figure 883695DEST_PATH_IMAGE055
模型的第二项最大化就可以将分类间距引入本模型。然后本方法通过最大化对数似然比
Figure DEST_PATH_IMAGE057
和分类间距项
Figure 543216DEST_PATH_IMAGE058
来训练类别模型。并使用可变的方法用于参数的推断和估计,对图像概率上的参数
Figure DEST_PATH_IMAGE059
Figure 578037DEST_PATH_IMAGE060
,基于约束最大化方程(2),可得
Figure 690218DEST_PATH_IMAGE062
Figure DEST_PATH_IMAGE063
步骤C:性别决策融合:
人脸和指纹是本发明框架中的两种可视化形态,对于每种形态
Figure 101477DEST_PATH_IMAGE064
,为女性
Figure 559046DEST_PATH_IMAGE053
和男性
Figure 905714DEST_PATH_IMAGE055
分别训练模型。已知样本对于两种形态的的词组
Figure DEST_PATH_IMAGE065
,两种模型
Figure 505191DEST_PATH_IMAGE066
的似然比可以通过可变推断来对性别进行决策。定义对于形态m的决策值为
Figure DEST_PATH_IMAGE067
表示u的决策向量,那么最终决策的贝叶斯风险为
Figure DEST_PATH_IMAGE069
其中
Figure 885412DEST_PATH_IMAGE070
表示决策代价,
Figure DEST_PATH_IMAGE071
可以使用非参数方法从训练结果得到。最终的决策通过最小化决策风险来得到。
在本发明的另一个实施例中,所述融合人脸和指纹视觉信息的协同性别识别方法通过以下具体步骤实现:
步骤A:基于词袋模型的图像特征表示。本方法使用基于局部块来表示图像的方法,此方法能够方便的获取人脸用于性别识别的很有区别能力的部分。这些局部块通过常规的图像网格来获得,每个局部块用LBP特征来表述,该特征是迄今为止在人脸识别领域公认具有很好的表现。本方法通过考虑本地特征间的联系来获得相对于一般词袋模型更好的图像特征表示。对于一幅图像,本方法首先通过在每个局部块中提取局部而至特征来获得特征集。然后使用训练样本中的男性和女性类别间决策超平面来得到标准的向量。该标准向量的每个成分用来测量相关特征用于分类的贡献。接下来,本方法重新按照这个贡献对特征的维数进行重新排列并得到新的特征。并重新得到图像的词袋模型。
步骤B:使用LDA的性别识别模型。本方法首先对模型最大的下界进行估计。然后改进LDA模型的参数估计过程能够满足KL的发散。接下来将分类间距最大化,可在训练阶段完成。这样有区别能力的信息就可以通过分类间距来表示。本方法通过对我们提出的改进LDA模型进行优化就可以将分类间距引入本模型。然后本方法通过最大化对数似然比和分类间距来训练类别模型。并使用可变的方法用于参数的推断和估计。
步骤C:性别决策融合。人脸和指纹是本发明框架中的两种可视化形态,对于每种形态都分别训练模型。已知样本对于两种形态的的词组,两种模型的似然比可以通过可变推断来对性别进行决策。最终的决策通过最小化决策风险来得到。
新的创建视觉词的监督方法,消除冗余的特征维数,加强了对性别分类有帮助的维度,并建立新的LDA模型来加强整个模型的识别能力。可广泛用于性别识别的各个领域,具有较好的鲁棒性,属于模式识别的分类领域。
本实施例可以被理解为上述第一个实施例的一个具体实施方式或者一个优选例。

Claims (1)

1.一种融合人脸和指纹视觉信息的协同性别识别方法,其特征在于,包括如下步骤:
步骤A:基于词袋模型的图像特征表示步骤,其包括通过常规的图像网格获得图像块;通过在每个所述图像块中提取局部特征获得特征集,使用训练样本中的男性和女性类别间决策超平面来得到标准向量,其中,所述标准向量的每个成分用来测量相关特征用于分类的贡献;重新按照所述贡献对特征的维数进行重新排列并得到新的特征;重新得到图像的词袋模型;
步骤B:使用识别性潜在狄利克雷分布的性别识别针对人脸和指纹两种模态分别建立模型并进行模型推断得到模型参数,其中,所述模型推断步骤包括:对所述词袋模型最大的下界进行估计;将分类间距最大化;
步骤C:性别决策融合步骤,其包括针对给出的样本,分别得到两种模态的标签;建立融合两种模态的综合风险函数,最终的决策通过最小化综合决策风险来得到,
所述步骤A包括如下步骤:
步骤A1:对图像的每个所述图像块提取局部二值模式可以得到局部特征,并得到区分训练样本集中男性和女性的决策超平面的法向量;
步骤A2:根据所述法向量中的元素大小,重新排列图像全部局部特征,从而得到新的图像特征,在此基础上,重新构造图像的视觉词集;
步骤A3:在得到所述视觉词集之后,通过规则的词袋模型就可以得到最终的图像特征表达,
所述步骤B包括如下步骤:
步骤B1:对性别和指纹两种模态的男性和女性分别建立潜在狄利克雷分布的生成式模型所描述的后验概率模型;
步骤B2:使用变分推断对所述步骤B1中所描述的后验概率模型,由KL发散原理进行推断;
步骤B3:通过最大化模型对数似然概率的下界和类间最大分类阈值训练模型,得到所建立的各个模型的参数,
所述步骤C包括如下步骤:
步骤C1:对每个带有提取视觉词的测试样本,分别对性别和指纹两种模态的似然函数计算,通过变分推断分别得到两种模态的类别标签;
步骤C2:定义模态的决策值,建立对性别和指纹模态的融合的决策贝叶斯风险函数:
步骤C3:通过最小化融合风险函数,得到最终的决策。
CN 201110223831 2011-08-05 2011-08-05 融合人脸和指纹视觉信息的协同性别识别方法 Expired - Fee Related CN102266241B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110223831 CN102266241B (zh) 2011-08-05 2011-08-05 融合人脸和指纹视觉信息的协同性别识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110223831 CN102266241B (zh) 2011-08-05 2011-08-05 融合人脸和指纹视觉信息的协同性别识别方法

Publications (2)

Publication Number Publication Date
CN102266241A CN102266241A (zh) 2011-12-07
CN102266241B true CN102266241B (zh) 2013-04-17

Family

ID=45048834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110223831 Expired - Fee Related CN102266241B (zh) 2011-08-05 2011-08-05 融合人脸和指纹视觉信息的协同性别识别方法

Country Status (1)

Country Link
CN (1) CN102266241B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102622590B (zh) * 2012-03-13 2015-01-21 上海交通大学 基于人脸-指纹协同的身份识别方法
CN103971111B (zh) * 2013-02-04 2018-07-06 联想(北京)有限公司 图像处理方法以及终端设备
CN105528383B (zh) * 2014-10-27 2019-06-18 阿里巴巴集团控股有限公司 账号风险的识别方法及装置
CN108537137B (zh) * 2018-03-19 2021-08-20 安徽大学 基于标签鉴别相关分析的多模态生物特征融合识别方法
CN109117476B (zh) * 2018-07-12 2022-04-01 浙江鸿程计算机系统有限公司 一种基于多情境嵌入的个性化场所语义识别方法
CN109508692B (zh) * 2018-11-30 2020-06-16 深圳大学 一种基于3d指纹图像的性别识别方法及系统
CN109378007B (zh) * 2018-12-28 2022-09-13 浙江百应科技有限公司 一种基于智能语音对话实现性别识别的方法
CN111368628B (zh) * 2019-11-21 2022-09-16 武汉烽火众智数字技术有限责任公司 一种基于视频数据的身份认证方法与系统
CN114973727B (zh) * 2022-08-02 2022-09-30 成都工业职业技术学院 一种基于乘客特征的智能驾驶方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1020811A2 (en) * 1999-01-15 2000-07-19 Citicorp Development Center, Inc. Fast matching systems and methods for personal identification
CN101483652A (zh) * 2009-01-10 2009-07-15 五邑大学 生物特征识别系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7369685B2 (en) * 2002-04-05 2008-05-06 Identix Corporation Vision-based operating method and system
CA2571643C (en) * 2004-06-21 2011-02-01 Nevengineering, Inc. Single image based multi-biometric system and method
JP2010182287A (ja) * 2008-07-17 2010-08-19 Steven C Kays 適応型インテリジェント・デザイン

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1020811A2 (en) * 1999-01-15 2000-07-19 Citicorp Development Center, Inc. Fast matching systems and methods for personal identification
CN101483652A (zh) * 2009-01-10 2009-07-15 五邑大学 生物特征识别系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP特开2010-182287A 2010.08.19

Also Published As

Publication number Publication date
CN102266241A (zh) 2011-12-07

Similar Documents

Publication Publication Date Title
CN102266241B (zh) 融合人脸和指纹视觉信息的协同性别识别方法
CN105373777B (zh) 一种用于人脸识别的方法及装置
Tao et al. Ensemble manifold rank preserving for acceleration-based human activity recognition
CN102637251B (zh) 基于参考特征的人脸识别方法
Chen et al. Improving human action recognition using fusion of depth camera and inertial sensors
CN105975916B (zh) 基于多输出卷积神经网络和有序回归的年龄估计方法
CN103824051B (zh) 一种基于局部区域匹配的人脸搜索方法
CN101187927B (zh) 一种刑事案件的串并案智能分析方法
CN102938065B (zh) 基于大规模图像数据的人脸特征提取方法及人脸识别方法
CN103745200B (zh) 一种基于词袋模型的人脸图像识别方法
CN112818755B (zh) 一种基于主动学习的步态识别方法
CN106127197A (zh) 一种基于显著标签排序的图像显著性目标检测方法
CN104915658B (zh) 一种基于情感分布学习的情感成分分析方法及其系统
Guo Human age estimation and sex classification
CN106651978A (zh) 人脸图像预测方法及系统
Li et al. Bimodal gender recognition from face and fingerprint
CN104966075B (zh) 一种基于二维判别特征的人脸识别方法与系统
Kim et al. Group activity recognition with group interaction zone
CN102855488A (zh) 三维手势识别方法和系统
Wang et al. Graph-based safe support vector machine for multiple classes
CN111160119B (zh) 一种用于化妆人脸验证的多任务深度判别度量学习模型构建方法
CN102592150A (zh) 基于模糊理论决策的双向二维主成分分析的步态识别方法
CN104036291A (zh) 基于人种分类的多特征性别判断方法
Zhang et al. Multi-view dimensionality reduction via canonical random correlation analysis
Li et al. A global manifold margin learning method for data feature extraction and classification

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130417

Termination date: 20150805

EXPY Termination of patent right or utility model