CN103413153A - 基于svm学习的人脸图像磨皮取证方法 - Google Patents

基于svm学习的人脸图像磨皮取证方法 Download PDF

Info

Publication number
CN103413153A
CN103413153A CN2013103831290A CN201310383129A CN103413153A CN 103413153 A CN103413153 A CN 103413153A CN 2013103831290 A CN2013103831290 A CN 2013103831290A CN 201310383129 A CN201310383129 A CN 201310383129A CN 103413153 A CN103413153 A CN 103413153A
Authority
CN
China
Prior art keywords
svm
image
facial image
feature
evidence obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013103831290A
Other languages
English (en)
Other versions
CN103413153B (zh
Inventor
赖剑煌
赖永周
冯展祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou ziweiyun Technology Co.,Ltd.
Original Assignee
National Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Sun Yat Sen University filed Critical National Sun Yat Sen University
Priority to CN201310383129.0A priority Critical patent/CN103413153B/zh
Publication of CN103413153A publication Critical patent/CN103413153A/zh
Application granted granted Critical
Publication of CN103413153B publication Critical patent/CN103413153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于SVM学习的人脸图像磨皮取证方法,包括:(1)训练阶段:对训练集中每张人脸图像提取图像内容不相关特征,对特征进行规范化形成训练样本的特征集,然后将特征向量输入LIBSVM进行训练,从而建立SVM模型;(2)取证阶段:对于测试输入人脸图像,提取图像内容不相关特征,对特征进行规范化,然后送入训练好的SVM模型,得出取证结果。本发明充分利用磨皮处理的先验信息,还引进了一种图像质量失真评价标准,构造了图像内容不相关特征,设计了SVM分类器,SVM分类器不需要原始图像,能够利用人脸图像经过磨皮处理后留下的痕迹提取分类器特征,能够更加准确、全面地获得人脸图像磨皮取证结果。

Description

基于SVM学习的人脸图像磨皮取证方法
技术领域
本发明涉及数字图像篡改取证技术领域,尤其涉及一种基于SVM学习的人脸图像磨皮取证方法。
背景技术
目前有许多图像处理软件都使人们可以很容易修改人脸图像的外貌,人脸图像磨皮可说是无处不在,这些处理已经给我们建立了一个理想化和不切实际的外貌审美观,正是由于这些软件的便利性以及广泛的使用,我们在日常的生活中越来越难以区分真实人脸图像和磨皮人脸图像。随着人脸图像磨皮软件的广泛使用,磨皮处理后的人脸图像将会随处可见,充斥整个互联网,磨皮处理后的人脸图像与真实人脸图像混杂在一起,这将会欺骗人们的视觉感官,从而影响甚于扭曲人们的外貌审美观;另一方面,在实际应用中,磨皮处理后的人脸图像将会导致人脸识别准确率的下降,这将为我们应用人脸识别技术带来诸多的不便与问题。
数字图像取证技术是通过对数字图像进行分析、鉴别和认证来检测数字图像是否经过篡改的技术。数字图像取证技术的主要目的是鉴别数字图像的真实性和原始性。一般的,可以把数字图像取证技术分为主动取证技术和被动取证技术。目前有关人脸图像磨皮取证技术的研究在国内外都比较少,对于图像磨皮取证技术,基本都停留在对图像的人工模糊润饰操作的检测,并没有对图像磨皮取证技术进行深入的研究。近年,Hany Farid研究团队提出了图像磨皮程度的指示标准,该标准用几何变换和光学变换衡量图像磨皮的程度后用学习分类的方法把估计值与真实的磨皮程度值进行映射。该方法最大的不足之处是,若使用该方法必须同时拥有原始图像和磨皮图像,这也导致其在现实的应用中实用价值较差。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于SVM学习的人脸图像磨皮取证方法,该方法根据人脸图像磨皮前后产生的变化,提出了图像内容不相关特征,不需要提供原始图像,因此能够应用到实际的场合。
本发明的目的通过以下的技术方案实现:基于SVM学习的人脸图像磨皮取证方法,包括以下步骤:
(1)训练阶段:对训练集中每张人脸图像均分别提取图像内容不相关特征,然后对提取的特征进行规范化形成训练样本的特征集,然后将特征集中的特征向量输入SVM分类器进行训练,从而建立SVM模型;
其中,选取以下4个统计量作为图像内容不相关特征构造的基础:RGB颜色空间下,设位置为(i,j),第k个通道为Ck(i,j),i、j=1,2...N,k=1,2,3,设C(i,j)和
Figure BDA0000373589240000021
分别表示原图像以及参考图像的颜色像素向量,则
范数为: | | C ( i , j ) | | = C 1 ( i , j ) 2 + C 2 ( i , j ) 2 + C 3 ( i , j ) 2 ;
内积为: < C ( i , j ) , C ^ ( i , j ) > = C 1 ( i , j ) C ^ 1 ( i , j ) + C 2 ( i , j ) C ^ 2 ( i , j ) + C 3 ( i , j ) + C ^ 3 ( i , j ) ;
角相关度量的一阶统计量为
Figure BDA0000373589240000024
d 1 = u &theta; = 1 N 2 &Sigma; i , j = 0 N - 1 | cos ( &theta; ij ) | , d 2 = [ 1 N 2 &Sigma; i , j = 0 N - 1 ( cos ( &theta; ij ) - u &theta; ) 2 ] 1 / 2 ;
同理,Czenakowski度量的一阶统计量为
Figure BDA0000373589240000027
d 3 = u &chi; = 1 N 2 &Sigma; i , j = 0 N - 1 | &chi; ij | , d 4 = [ 1 N 2 &Sigma; i , j = 0 N - 1 ( &chi; ij - u &chi; ) 2 ] 1 / 2 ;
d1、d2、d3、d4这四个统计量,即为输入到SVM分类器的特征向量;
(2)取证阶段:对于测试输入人脸图像,提取该图像的图像内容不相关特征,对特征进行规范化,然后送入训练好的SVM模型,得出取证结果。
具体的,图像内容不相关特征计算方法为:设x为原始图像,x+ε为磨皮图像,y和y+η分别为参考图像和磨皮的参考图像,设两个图像x和y失真函数的一般形式为M(x,y),其中原始图像经过f操作产生参考图像,即y=f(x)=denoise(x),denoise为去噪处理,E(ε*η)≠0;设x和y间的距离为M(x,y),则向量xy和x(y+η)的距离为d=M(x,y)-M(x,y+η),向量(x+ε)y和(x+ε)(y+η)的距离为
d'=M(x+ε,y)-M(x+ε,y+η),然后计算d和d'之间的不同即构造出与图像内容不相关的量:
D=d'-d=M(x,y)-M(x,y+η)-M(x+ε,y)+M(x+ε,y+η);
其微分计算的结果为 &delta;D = M xy ( x , y ) &delta;x&delta;y + M x k y m ( x , y ) , 其中:
M x k y m ( x , y ) = &PartialD; k + m M ( x , y ) &PartialD; x k &PartialD; y m ;
当高阶偏微分为0或者其他常数时,则特征满足图像内容不相关的条件。
优选的,所述SVM分类器使用LIBSVM作为基础的SVM实现工具。
更进一步的,所述SVM分类器选择的核函数为高斯径向核函数 K ( x , y ) = e - &gamma; | | x - y | | 2 .
更进一步的,所述SVM分类器对于输入的训练样本集,采用交叉验证方法进行训练,并利用网格搜索方法寻找最优参数集{C,γ}。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明建立了一个系统的人脸图像磨皮取证框架,并充分利用磨皮处理的先验信息,提出了基于SVM学习的人脸图像磨皮取证方法。
2、本发明引进了一种新的图像质量失真评价标准,并构造了图像内容不相关特征,设计了SVM分类器。
3、本发明提出的方法不需要原始图像,能够利用人脸图像经过磨皮处理后留下的痕迹提取分类器特征。
4、本发明提出的方法能够更加准确、全面地获得人脸图像磨皮取证结果。
附图说明
图1为本发明方法的操作流程图。
图2为本发明计算图像内容不相关特征的向量间的关系图。
图3(a)为本实施例中一真实人脸图像的示例图。
图3(b)为基于图3(a)的磨皮人脸图像的示例图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
图1示出了本发明的操作过程,由图1可见,本实施例基于SVM学习的人脸图像磨皮取证方法,包括下述步骤:
(1)训练阶段,对训练集中每张人脸图像均分别提取图像内容不相关特征,对特征进行规范化形成训练样本的特征集,然后将特征向量输入LIBSVM进行训练,从而建立SVM模型。
(2)取证阶段,对于测试输入人脸图像,提取图像内容不相关特征,对特征进行规范化,然后送入训练好的SVM模型,得出取证结果。
其中,图像内容不相关特征计算方法为:设x为原始图像,x+ε为磨皮图像,y和y+η分别为参考图像和磨皮的参考图像,设两个图像x和y失真函数的一般形式为M(x,y),其中原始图像经过f操作产生参考图像,即y=f(x)=denoise(x),denoise为去噪处理,E(ε*η)≠0。为了衡量原始图像x与磨皮图像x+ε之间失真的程度,引进参考图像y和磨皮后的参考图像y+η,则x和y间的距离表示为M(x,y),通过几何关系可以推出向量xy和x(y+η)的距离为d=M(x,y)-M(x,y+η),而由对称性可得向量(x+ε)y和(x+ε)(y+η)的距离为d'=M(x+ε,y)-M(x+ε,y+η),然后通过计算d和d'之间的不同即可构造出与图像内容不相关的量D=d'-d=M(x,y)-M(x,y+η)-M(x+ε,y)+M(x+ε,y+η),它的微分计算为δD=-Mx(x,y)δx-My(x,y)δy+Mx(x,y)δx+My(x,y)δy+...,化简后的结果为 &delta;D = M xy ( x , y ) &delta;x&delta;y + M x k y m ( x , y ) , 其中 M x k y m ( x , y ) = &PartialD; k + m M ( x , y ) &PartialD; x k &PartialD; y m , 当高阶偏微分为0或者其他常数时,则特征满足内容不相关的条件。
本实施例基于图像质量评价标准(参考文献:Ismail Avcibas,Nasir Memon,Bulent Sankur.Steganalysis using image qualitymetrics.IEEE Transactions on ImageProcessing,2003,12(2):221-229)和图像内容不相关特征的条件,选择了四种评价标准作为图像内容不相关特征构造的基础,分别是两个一阶矩的角相关度量以及两个一阶矩的Czenakowski度量,RGB颜色空间下,位置为(i,j),第k个通道为Ck(i,j),i、j=1,2...N,k=1,2,3,设C(i,j)和
Figure BDA0000373589240000051
分别表示原图像以及参考图像的颜色像素向量,则其范数为 | | C ( i , j ) | | = C 1 ( i , j ) 2 + C 2 ( i , j ) 2 + C 3 ( i , j ) 2 , 内积为 < C ( i , j ) , C ^ ( i , j ) > = C 1 ( i , j ) C ^ 1 ( i , j ) + C 2 ( i , j ) C ^ 2 ( i , j ) + C 3 ( i , j ) + C ^ 3 ( i , j ) , 角相关度量的一阶统计量为 cos ( &theta; ij ) = < C ( i , j ) , C ^ ( i , j ) > | | C ( i , j ) | | | | C ^ ( i , j ) | | , d 1 = u &theta; = 1 N 2 &Sigma; i , j = 0 N - 1 | cos ( &theta; ij ) | , d 2 = [ 1 N 2 &Sigma; i , j = 0 N - 1 ( cos ( &theta; ij ) - u &theta; ) 2 ] 1 / 2 , 同理Czenakowski度量的一阶统计量为 &chi; ij = 2 < C ( i , j ) , C ^ ( i , j ) > | | C ( i , j ) | | + | | C ^ ( i , j ) | | , d 3 = u &chi; = 1 N 2 &Sigma; i , j = 0 N - 1 | &chi; ij | ,
Figure BDA0000373589240000059
这四个统计量(d1、d2、d3、d4),即为人脸图像磨皮取证分类器的特征向量,对人脸图像的训练样本集合进行上述特征提取后,再对其规范化即可以输入SVM分类器进行训练或取证。
本实施例中训练SVM模型使用LIBSVM(参考文献:Chih-Chung Chang,Chih-Jen Lin. LIBSVM: A LIBrary for support vector machines.ACM Transactionson Intelligent Systems and Technology (TIST), 2011, 2(3): 27)作为基础的SVM实现工具,在模型选择方面,选择的是高斯径向核函数(RBF)对于输入的训练样本集,采用交叉验证提高分类器的推广能力,并利用网格搜索方法寻找最优参数集{C,γ}。
本实施例通过以下实验对本发明的效果进行说明:本实验有两方面的内容:一方面为图像内容不相关特征有效性的验证,另一方面为本发明方法与基于噪声估计的人脸图像磨皮取证方法的效果对比。
关于图像内容不相关特征有效性的验证,选择的测试图片如图3(a)和图3(b),特征提取结果如下表1,由真实人脸图像与磨皮人脸图像的图像内容不相关特征提取结果的对比可以得出,在真实人脸图像与磨皮人脸图像之间,提取出来的图像内容不相关特征的区分度比较明显,这也说明了本文所提的图像内容不相关特征可以准确地表示磨皮篡改后留下的痕迹。
表1图像内容不相关特征提取结果
Figure BDA0000373589240000061
关于对比实验,首先,建立人脸图像数据库,包括真实人脸图像以及磨皮人脸图像,在实验的过程中,在人脸图像数据库中随机选择出人脸图像训练集,其中真实人脸图像和磨皮人脸图像各200张,然后在剩余的人脸图像数据库中随机选择出测试集,其中真实人脸图像和磨皮人脸图像各为300张。在初步训练SVM分类器模型时,需要对训练样本集进行特征提取,并记真实人脸图像的类标为+1,磨皮人脸图像的类标为-1,特征提取结果见表2。
表2特征提取结果
Figure BDA0000373589240000062
为了避免一些特征值过大或者过小以及在计算核函数内积时带来的数值问题,经过提取的特征向量还要经过适度的规范化,本实验将特征值缩放到区间[-1,1],其规范化的结果见表3。
表3经过规范化处理后的结果
在进行SVM模型训练开始之前,需要对SVM进行模型选择,即如何确定高斯径向核函数(RBF)的最优参数集{C,γ}。在实验中,把训练集分成4组,在这4组训练集之间进行交叉验证,然后在网格C=20,21,.…25和γ=2-6,2-5,...2-1中进行最优参数集寻找,最后得到惩罚系数C为2,高斯径向参数γ为0.125,最后根据以上参数,对整个训练集进行训练,获得最终的SVM分类器模型。然后,用训练得到的SVM模型对测试集进行人脸图像磨皮取证并与基于噪声估计的人脸图像磨皮取证方法进行比较,记正例样本为真实人脸图像,负例样本为磨皮人脸图像,实验结果如表4。
表4基于噪声估计方法与本发明的实验结果比对
Figure BDA0000373589240000072
由表4可见,不管是TP率还是TN率,基于SVM学习的人脸图像磨皮取证方法都优于基于噪声估计的人脸图像磨皮取证方法,且前者的准确率较于后者提高了5.02%,准确率达到了94%以上,基本满足了实际应用中人脸图像磨皮取证的要求。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.基于SVM学习的人脸图像磨皮取证方法,其特征在于,包括以下步骤:
(1)训练阶段:对训练集中每张人脸图像均分别提取图像内容不相关特征,然后对提取的特征进行规范化形成训练样本的特征集,然后将特征集中的特征向量输入SVM分类器进行训练,从而建立SVM模型;
其中,选取以下4个统计量作为图像内容不相关特征构造的基础:RGB颜色空间下,设位置为(i,j),第k个通道为Ck(i,j),i、j=1,2...N,k=1,2,3,设C(i,j)和
Figure FDA0000373589230000011
分别表示原图像以及参考图像的颜色像素向量,则
范数为: | | C ( i , j ) | | = C 1 ( i , j ) 2 + C 2 ( i , j ) 2 + C 3 ( i , j ) 2 ;
内积为: < C ( i , j ) , C ^ ( i , j ) > = C 1 ( i , j ) C ^ 1 ( i , j ) + C 2 ( i , j ) C ^ 2 ( i , j ) + C 3 ( i , j ) + C ^ 3 ( i , j ) ;
角相关度量的一阶统计量为
Figure FDA0000373589230000014
d 1 = u &theta; = 1 N 2 &Sigma; i , j = 0 N - 1 | cos ( &theta; ij ) | , d 2 = [ 1 N 2 &Sigma; i , j = 0 N - 1 ( cos ( &theta; ij ) - u &theta; ) 2 ] 1 / 2 ;
同理,Czenakowski度量的一阶统计量为
Figure FDA0000373589230000017
d 3 = u &chi; = 1 N 2 &Sigma; i , j = 0 N - 1 | &chi; ij | , d 4 = [ 1 N 2 &Sigma; i , j = 0 N - 1 ( &chi; ij - u &chi; ) 2 ] 1 / 2 ;
d1、d2、d3、d4这四个统计量,即为输入到SVM分类器的特征向量;
(2)取证阶段:对于测试输入人脸图像,提取该图像的图像内容不相关特征,对特征进行规范化,然后送入训练好的SVM模型,得出取证结果。
2.根据权利要求1所述的基于SVM学习的人脸图像磨皮取证方法,其特征在于,图像内容不相关特征计算方法为:设x为原始图像,x+ε为磨皮图像,y和y+η分别为参考图像和磨皮的参考图像,设两个图像x和y失真函数的一般形式为M(x,y),其中原始图像经过f操作产生参考图像,即y=f(x)=denoise(x),denoise为去噪处理,E(ε*η)≠0;设x和y间的距离为M(x,y),则向量xy和x(y+η)的距离为d=M(x,y)-M(x,y+η),向量(x+ε)y和(x+ε)(y+η)的距离为d'=M(x+ε,y)-M(x+ε,y+η),然后计算d和d'之间的不同即构造出与图像内容不相关的量:
D=d'-d=M(x,y)-M(x,y+η)-M(x+ε,y)+M(x+ε,y+η);
其微分计算的结果为 &delta;D = M xy ( x , y ) &delta;x&delta;y + M x k y m ( x , y ) , 其中:
M x k y m ( x , y ) = &PartialD; k + m M ( x , y ) &PartialD; x k &PartialD; y m ;
当高阶偏微分为常数时,则特征满足图像内容不相关的条件。
3.根据权利要求1所述的基于SVM学习的人脸图像磨皮取证方法,其特征在于,所述SVM分类器使用LIBSVM作为基础的SVM实现工具。
4.根据权利要求3所述的基于SVM学习的人脸图像磨皮取证方法,其特征在于,所述SVM分类器选择的核函数为高斯径向核函数
Figure FDA0000373589230000022
5.根据权利要求4所述的基于SVM学习的人脸图像磨皮取证方法,其特征在于,所述SVM分类器对于输入的训练样本集,采用交叉验证方法进行训练,并利用网格搜索方法寻找最优参数集{C,γ}。
CN201310383129.0A 2013-08-28 2013-08-28 基于svm学习的人脸图像磨皮取证方法 Active CN103413153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310383129.0A CN103413153B (zh) 2013-08-28 2013-08-28 基于svm学习的人脸图像磨皮取证方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310383129.0A CN103413153B (zh) 2013-08-28 2013-08-28 基于svm学习的人脸图像磨皮取证方法

Publications (2)

Publication Number Publication Date
CN103413153A true CN103413153A (zh) 2013-11-27
CN103413153B CN103413153B (zh) 2016-09-14

Family

ID=49606160

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310383129.0A Active CN103413153B (zh) 2013-08-28 2013-08-28 基于svm学习的人脸图像磨皮取证方法

Country Status (1)

Country Link
CN (1) CN103413153B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105243371A (zh) * 2015-10-23 2016-01-13 厦门美图之家科技有限公司 一种人脸美颜程度的检测方法、系统及拍摄终端
CN105469384A (zh) * 2015-10-13 2016-04-06 南京邮电大学 车牌图像质量的综合评价方法
CN107369133A (zh) * 2016-05-13 2017-11-21 炬芯(珠海)科技有限公司 一种人脸图像美化方法和装置
CN109165677A (zh) * 2018-07-27 2019-01-08 首都医科大学附属北京友谊医院 分类方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441720A (zh) * 2008-11-18 2009-05-27 大连理工大学 一种利用协方差矩阵检测照片来源的数字图像取证方法
US20130129234A1 (en) * 2011-11-22 2013-05-23 The Trustees Of Dartmouth College Perceptual Rating Of Digital Image Retouching

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441720A (zh) * 2008-11-18 2009-05-27 大连理工大学 一种利用协方差矩阵检测照片来源的数字图像取证方法
US20130129234A1 (en) * 2011-11-22 2013-05-23 The Trustees Of Dartmouth College Perceptual Rating Of Digital Image Retouching

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHIH-CHUNG CHANG ET AL.: "LIBSVM: a Library for Support Vector Machines", 《ACM TRANSACTIONS ON INTELLIGENT SYSTEMS AND TECHNOLOGY》 *
ISMAIL AVCIBAS ET AL.: "Steganalysis Using Image Quality Metrics", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *
S.GEETHA ET AL.: "Close Color Pair Signature Ensemble Adaptive Threshold based Steganalysis for LSB Embedding in Digital Images", 《TRANSACTIONS ON DATA PRIVACY》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469384A (zh) * 2015-10-13 2016-04-06 南京邮电大学 车牌图像质量的综合评价方法
CN105469384B (zh) * 2015-10-13 2018-09-25 南京邮电大学 车牌图像质量的综合评价方法
CN105243371A (zh) * 2015-10-23 2016-01-13 厦门美图之家科技有限公司 一种人脸美颜程度的检测方法、系统及拍摄终端
CN105243371B (zh) * 2015-10-23 2018-12-11 厦门美图之家科技有限公司 一种人脸美颜程度的检测方法、系统及拍摄终端
CN107369133A (zh) * 2016-05-13 2017-11-21 炬芯(珠海)科技有限公司 一种人脸图像美化方法和装置
CN107369133B (zh) * 2016-05-13 2020-04-07 炬芯(珠海)科技有限公司 一种人脸图像美化方法和装置
CN109165677A (zh) * 2018-07-27 2019-01-08 首都医科大学附属北京友谊医院 分类方法及装置

Also Published As

Publication number Publication date
CN103413153B (zh) 2016-09-14

Similar Documents

Publication Publication Date Title
CN101520894B (zh) 基于区域显著性的显著对象提取方法
CN100356388C (zh) 生物特征融合的身份识别和认证方法
CN102651073B (zh) 基于稀疏动态集成选择的sar图像地物分类方法
CN102184537B (zh) 基于小波变换和主成分分析的图像区域篡改检测方法
CN105956582A (zh) 一种基于三维数据的人脸识别系统
CN102136062B (zh) 一种基于多分辨lbp的人脸检索方法
CN106530200A (zh) 一种基于深度学习模型的隐写图像检测方法及系统
CN102831411B (zh) 一种快速人脸检测方法
CN101930549B (zh) 基于第二代曲线波变换的静态人体检测方法
CN100385451C (zh) 基于局部三角结构特征集的形变指纹识别方法
CN103778409A (zh) 基于人脸特征数据挖掘的人脸识别方法与装置
CN107103270A (zh) 一种基于idf的动态计算分块加权系数的人脸识别系统
CN106203492A (zh) 一种图像隐写分析的系统及方法
CN102332084A (zh) 基于掌纹和人脸特征提取的身份识别方法
CN102254188A (zh) 掌纹识别方法及装置
CN105718866A (zh) 一种视觉目标检测与识别方法
CN103413153A (zh) 基于svm学习的人脸图像磨皮取证方法
CN104134061A (zh) 一种基于特征融合的支持向量机的数字手势识别方法
CN109241951A (zh) 色情图片识别方法、识别模型构建方法及识别模型和计算机可读存储介质
CN102768732B (zh) 融合稀疏保持映射和多类别属性Bagging的人脸识别方法
CN103679161A (zh) 一种人脸识别方法和装置
Kruthi et al. Offline signature verification using support vector machine
CN103310235A (zh) 一种基于参数识别与估计的隐写分析方法
CN101957912B (zh) 基于多尺度各向异性扩散的人脸光照不变图像的获取方法
CN109741351A (zh) 一种基于深度学习的类别敏感型边缘检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210827

Address after: 510700 room 2001-1, floor 20, building F, No. 98, Xiangxue 8th Road, Huangpu District, Guangzhou, Guangdong Province (office only)

Patentee after: Guangzhou ziweiyun Technology Co.,Ltd.

Address before: 510275 No. 135 West Xingang Road, Guangzhou, Guangdong, Haizhuqu District

Patentee before: SUN YAT-SEN University