CN113343920A - 人脸识别照片的分类方法、装置、电子设备和存储介质 - Google Patents

人脸识别照片的分类方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN113343920A
CN113343920A CN202110744865.9A CN202110744865A CN113343920A CN 113343920 A CN113343920 A CN 113343920A CN 202110744865 A CN202110744865 A CN 202110744865A CN 113343920 A CN113343920 A CN 113343920A
Authority
CN
China
Prior art keywords
background image
face recognition
classified
background
clustering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110744865.9A
Other languages
English (en)
Inventor
李俊儒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ccx Credit Technology Co ltd
Original Assignee
Ccx Credit Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ccx Credit Technology Co ltd filed Critical Ccx Credit Technology Co ltd
Priority to CN202110744865.9A priority Critical patent/CN113343920A/zh
Publication of CN113343920A publication Critical patent/CN113343920A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供了一种人脸识别照片的分类方法、装置、电子设备和存储介质,本发明实施例提供的人脸识别照片的分类方法,首先获取多个待分类的人脸识别照片,并获取各待分类人脸识别照片的背景图像,并计算各人脸识别照片的背景图像之间的相似度,再基于计算出的各待分类人脸识别照片的背景图像的相似度,对各背景图像进行聚类,并基于该聚类结果,获取对应的各人脸识别照片的分类结果。本发明实施例提供的人脸识别照片的分类方法,通过机器基于各人脸识别照片的背景图像对人脸识别照片进行分类,提高了对人脸识别照片的分类效率,便于人工针对各类人脸识别照片进行群体异常申请的识别。

Description

人脸识别照片的分类方法、装置、电子设备和存储介质
技术领域
本发明涉及图像处理技术领域,特别是涉及一种人脸识别照片的分类方法、装置、电子设备和存储介质。
背景技术
目前,很多领域都使用人脸识别技术对用户进行身份认证。例如:用户可以使用金融类的手机APP,进行线上贷款申请。在对用户的线上贷款申请行为进行审核时,可以通过对用户进行人脸识别,来对其进行身份验证,以避免用户冒用他人身份进行贷款。
然而,这种方式只能基于人脸识别照片对个人进行身份认证,无法对群体的恶意申请行为进行识别。为了对群体恶意申请进行识别,目前只能采用人工对人脸识别照片进行比对和分类。而由于图像数量庞大,这种人工分类的方式,人工成本高,分类效率较低。
发明内容
本发明实施例的目的在于提供一种人脸识别照片的分类方法、装置、电子设备及存储介质,以提高对人脸识别照片的分类效率,具体技术方案如下:
在本发明实施的一个方面,提供了一种人脸识别照片的分类方法,上述方法包括:
获取多个待分类人脸识别照片;
对每个待分类人脸识别照片进行背景图像提取,得到所有待分类人脸识别照片的背景图像;
针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度;
基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果;
基于所述聚类结果,获得所述多个待分类人脸识别照片的分类结果。
在本发明实施例的一种实施方式中,所述对每个待分类人脸识别照片进行背景图像提取,得到所有待分类人脸识别照片的背景图像的步骤,包括:
采用GrabCut算法对每个待分类人脸识别照片进行前景和背景分割,得到所有待分类人脸识别照片的背景图像。
在本发明实施例的一种实施方式中,所述针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度的步骤,包括:
采用预设的第一局部特征提取算法,对每个背景图像进行特征提取,得到每个背景图像的第一局部特征;
针对每个背景图像,将其第一局部特征与其他各个背景图像的第一局部特征进行匹配,获得该背景图像与其他各个背景图像的匹配结果;其中,匹配结果包括第一局部特征的匹配对数,该匹配对数用于表征背景图像之间的相似程度;
将匹配对数大于预设匹配对数阈值的两个背景图像,作为第一相似背景图像;
所述基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果的步骤,包括:
基于所述第一相似背景图像,构建关系图,该关系图中的各个顶点为各个相似背景图像对应的待分类人脸识别照片;顶点间的边为各个相似背景图像之间的第一局部特征的匹配对数;
基于所述关系图,采用图聚类的方式,对背景图像进行聚类,得到第一聚类结果;
所述基于所述聚类结果,获得所述多个待分类人脸识别照片的分类结果的步骤,包括:
将第一聚类结果中,每个类的背景图像对应的待分类人脸识别照片,作为一个分类。
在本发明实施例的一种实施方式中,所述针对每个背景图像,将其第一局部特征与其他各个背景图像的第一局部特征进行匹配,获得该背景图像与其他各个背景图像的匹配结果的步骤,包括:
将该背景图像作为第一待匹配背景图像构造KD树,该树中的每个节点为所述第一待匹配背景图像的第一局部特征的描述子;其中,描述子为对所述第一局部特征的属性描述;
将其他各个背景图像分别作为第二待匹配背景图像,针对各第二待匹配背景图像的每个第一局部特征的描述子,在所述KD树中查找该描述子的N近邻;
获得该背景图像与其他各个背景图像的第一局部特征匹配对数,作为匹配结果。
在本发明实施例的一种实施方式中,所述针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度的步骤,包括:
获得每个背景图像的全局特征;所述全局特征用向量表示;
针对每个背景图像,计算其与其他各个背景图像的全局特征向量之间的欧式距离,作为与其他各个待分类人脸识别照片的背景图像之间的相似度;
所述基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果步骤,包括:
基于所述全局特征向量之间的欧式距离,采用预设的基于特征的聚类算法,对背景图像的全局特征进行聚类,得到第二聚类结果;
所述基于聚类结果,获得多个待分类人脸识别照片的分类结果的步骤,包括:
将所述第二聚类结果中,每个类的背景图像对应的待分类人脸识别照片,作为一个分类。
在本发明实施例的一种实施方式中,所述获得每个背景图像的全局特征的步骤,包括:
采用预设的第二局部特征提取算法,对每个背景图像进行特征提取,得到每个背景图像的第二局部特征;
针对每个背景图像,将该背景图像的各个第二局部特征进行特征聚合,得到预设维度的全局特征。
在本发明实施例的一种实施方式中,在所述针对每个背景图像,计算其与其他各个背景图像的全局特征向量之间的欧式距离,作为与其他各个待分类人脸识别照片的背景图像之间的相似度的步骤之前,所述方法还包括:
降低所述各待分类人脸识别照片的背景图像的全局特征向量的维度,得到各降维全局特征向量;
所述针对每个背景图像,计算其与其他各个背景图像的全局特征向量之间的欧式距离的步骤,包括:
针对每个背景图像,计算其降维全局特征向量与其他各个背景图像的降维全局特征向量之间的欧式距离。
在本发明实施的第二方面,提供了一种人脸识别照片的分类装置,上述装置包括:
人脸识别照片获取模块,用于获取多个待分类人脸识别照片;
背景图像获取模块,用于对每个待分类人脸识别照片进行背景图像提取,得到所有待分类人脸识别照片的背景图像;
相似度计算模块,用于针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度;
聚类结果获取模块,用于基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果;
分类结果获取模块,用于基于所述聚类结果,获得所述多个待分类人脸识别照片的分类结果。
在本发明实施例的又一方面,提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一所述的人脸识别照片的分类方法步骤。
本发明实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的人脸识别照片的分类方法。
本发明实施例有益效果:
本发明实施例提供的人脸识别照片的分类方法,首先获取多个待分类的人脸识别照片,并获取各待分类人脸识别照片的背景图像,并计算各人脸识别照片的背景图像之间的相似度,再基于计算出的各待分类人脸识别照片的背景图像的相似度,对各背景图像进行聚类,并基于该聚类结果,获取对应的各人脸识别照片的分类结果。本发明实施例提供的人脸识别照片的分类方法,通过机器基于各人脸识别照片的背景图像对人脸识别照片进行分类,提高了对人脸识别照片的分类效率,便于人工针对各类人脸识别照片进行群体异常申请的识别。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的实施例。
图1为本发明实施例提供的人脸识别照片的分类方法的一种流程图;
图2为本发明实施例中采取的图像分割算法的过程示意图;
图3为本发明实施例提供的人脸识别照片的分类方法的第二种流程图;
图4a为本发明实施例中一种局部特征提取算法中构建高斯差分金字塔过程的示意图;
图4b为图4a中的局部特征提取算法中确定局部特征过程的一种示意图
图5为本发明实施例中获取局部特征匹配对的流程示意图;
图6为本发明实施例中基于关系图进行聚类的过程示意图;
图7为本发明实施例提供的人脸识别照片的分类方法的第三种流程图;
图8a为本发明实施例中计算全局特征向量之间的距离的一种示意图;
图8b为本发明实施例中计算全局特征向量之间的距离的又一种示意图;
图9为本发明实施例提供的人脸识别照片的分类方法的第四种流程图;
图10为本发明实施例提供的人脸识别照片的装置的一种结构示意图;
图11为本发明实施例提供的电子设备的一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本发明保护的范围。
为了提高对人脸识别照片的分类效率,本发明实施例提供了一种人脸识别照片的分类方法、装置、电子设备及存储介质。
下面首先对本发明实施例提供的人脸识别照片的分类方法进行详细介绍。
如图1所示,图1为本发明实施例提供的人脸识别照片的分类方法的一种流程图,具体可以包括以下步骤:
步骤101,获取多个待分类人脸识别照片;
步骤102,对每个待分类人脸识别照片进行背景图像提取,得到所有待分类人脸识别照片的背景图像;
步骤103,针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度;
步骤104,基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果;
步骤105,基于所述聚类结果,获得所述多个待分类人脸识别照片的分类结果。
本发明实施例提供的人脸识别照片的分类方法,首先获取多个待分类的人脸识别照片,并获取各待分类人脸识别照片的背景图像,并计算各人脸识别照片的背景图像之间的相似度,再基于计算出的各待分类人脸识别照片的背景图像的相似度,对各背景图像进行聚类,并基于该聚类结果,获取对应的各人脸识别照片的分类结果。本发明实施例提供的人脸识别照片的分类方法,通过机器基于各人脸识别照片的背景图像对人脸识别照片进行分类,提高了对人脸识别照片的分类效率,便于人工针对各类人脸识别照片进行群体异常申请的识别。
本发明实施例中,在获取待分类人脸识别照片时,可以是在用户进行在线贷款申请时,在身份验证环节使用手机摄像头等图像采集工具获取的,此处不作具体限定。
作为本发明实施例的一种具体实施方式,在对各待分类人脸识别照片进行背景图像提取时,可以采用GrabCut算法对人脸识别照片的前景和背景进行分割,从而得到上述各人脸识别照片的背景图像。
GrabCut算法是基于Graph Cuts(图分割)实现的图像分割算法,它综合考虑了传统图片分割算法中常用的颜色信息和边缘信息,定义了一个能量函数,能量函数可以看作一种损失,并将该能量函数最小化,分割出的前景和背景内部颜色分布概率越高,以及边缘平滑程度越低,损失越小。
如图2所示,针对一个人脸识别照片,采用GrabCut算法对其进行分割可以是,先人为定义一个初始掩膜(mask),该初始掩膜可以定义任意形状的背景或前景边界,如,该掩膜可以定义一个方框外的区域是背景图像。计算机基于该掩膜标记一些像素点为确定的前景像素点和/或背景像素点,将另一些像素点标记为可能的前景像素点和/或背景像素点,并用高斯混合模型(GMM)基于上述前景像素点以及背景像素点进行建模。具体的,可以是基于上述确定的前景像素点以及可能的前景像素点一起训练前景模型,基于上述确定的背景像素点以及可能的背景像素点一起训练背景模型,使用上述模型对上述可能的前景像素点和/或背景像素点进行标记,上述确定的前景像素点以及背景像素点在GMM迭代时,标记保持固定,如图2中的(a)所示,B表示背景像素点,O表示前景像素点。如图2中的(b)所示(p、q、r、w、v为像素点),上述人脸识别照片中的每一个像素点都可以被看作是通过虚拟边与周围像素连接,该周围像素点指的是一个像素点上下左右的4个像素点。同时,GrabCut算法中还定义出了背景像素终点(图2中T)以及前景像素终点(图2中S),所有的像素点都需通过虚拟边与这两个终点相连。每条与上述两个终点相连的虚拟边都有其属于前景图像或背景图像的概率,该概率是基于其与同属前景或同属背景的像素颜色上的相似性获得的。像素点与周围像素之间的虚拟边的权重是基于上述像素边缘信息(边缘平滑程度)确定的。在对各像素(即,节点)进行连接完成后,若上述节点之间的虚拟边属于不同的终端,即一个虚拟边的两个端点(节点),一个属于前景另一个属于背景,则会切断这个虚拟边,同时,对于每一像素,它会与上述背景像素终点以及前景像素终点通过虚拟边连接,这两条边中有且只有一条虚拟边被切断,如果是和T之间的边被切断,表示像素点被分为前景点,如图2中的(c)所示,从而将图像的前景图像与背景图像分割出来,如图2中的(d)所示。上述能量函数最小化,就是使得上述切断的虚拟边权重之和最小化。
如上所述,对各待分类的人脸识别照片进行分割后,即可分割出各人脸识别照片的前景图像和背景图像,在获取到上述各人脸识别照片的背景图像后,可以基于各人脸识别照片的背景图像计算各人脸识别照片之间的相似度。
上述获取的人脸识别照片中,可能会出现,即使用户是在同一背景下进行的贷款申请,但由于角度、前景的遮挡等不同而导致不能很好地将在同一背景下进行贷款申请的用户识别出来。因此,作为本发明实施例的一种具体实施方式,基于图1,如图3所示,图3为本发明实施例提供的人脸识别照片的分类方法的第二种流程图,上述图1中的步骤103,针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度,具体可以包括以下步骤:
步骤303,采用预设的第一局部特征提取算法,对每个背景图像进行特征提取,得到每个背景图像的第一局部特征。
作为本发明实施例的一种具体实施方式,上述第一局部特征提取算法可以是SIFT(Scale Invariant Feature Transform,尺度不变特征变换)算法,SIFT算法主要可以分为特征点检测以及特征点描述两个部分,使用上述SIFT算法提取第一局部特征的过程具体可以包括以下步骤:
步骤1、构建尺度空间,检测极值点,获得尺度不变性;
在为各背景图像构建尺度空间时,可以是背景图像与一个可变尺度的高斯函数进行卷积运算得到的。对于一个背景图像来说,可以用多个不同尺度的高斯函数对其做卷积运算,从而得到多个不同的尺度空间。
在建立好上述不同的尺度空间后,即可在相邻尺度空间之间做差分,得到高斯差分(Difference of Gaussian,DOG)金字塔。
作为本发明实施例的一种具体实施方式,在建立好上述不同尺度空间,即可基于该不同的尺度空间得到一个高斯金字塔,该高斯金字塔可以分为多组,每一组中包含多层,每一层都是不同尺度空间的图像,具体的,针对一层图像,可以是对该组中,该层图像的上一层图像做高斯卷积得到。一组中的第一层图像,可以是对上一组倒数第三层图像做比例因子为2的降采样得到,此处不作具体限定。如图4a所示,上述DOG金字塔的第1组第1层是由高斯金字塔的第1组第2层减第1组第1层得到的。以此类推,逐组逐层生成每一个差分图像,所有差分图像构成差分金字塔。
针对每一背景图像,构建好对应的高斯差分金字塔后,即可检测高斯差分金字塔中各尺度空间的极值点。在检测极值点时,可以是针对各尺度空间中的每一个像素点,将该像素点与其相邻像素点相比较,如图4b所示,上述一个像素点的相邻像素点包括:该像素点所在尺度空间中相邻的预设数量个像素点,例如,该预设数量可以是8,以及该像素点所在的尺度空间的上下相邻尺度空间对应的点,上述预设数量是8时,上下尺度空间对应的点数量为18。若一个像素点在上述18+8个相邻点中是最大或最小值,则可认为该像素点是其所在尺度空间的一个特征点。
步骤2、特征点精确定位并过滤;
作为本发明实施例的一种具体实施方式,由于离散化,即构建上述尺度空间的参数不是连续变化的,而是几个离散的取值,而找到的极值点是在这几个离散取值上的极值点,但实际的极值点要在连续的空间里找,也就是说,上述高斯差分金字塔上找到的点(x,y,σ)并非真正的极值点,(x,y是位置,σ是尺度)。因此,可先对上述极值点进行精确定位。具体的,可以是采用DOG函数对(x,y,σ)做三元二阶泰勒展开,令导数为0,找到真正的极值点。DOG函数是由背景图像与相应尺度的高斯函数进行卷积以及差分计算得到的。
由于各尺度空间值对噪声和边缘比较敏感,因此,在得到上述精确定位的极值点后,还需对各极值点进行进一步过滤,才能将上述极值点定义为特征点。
具体的,可以是去除低对比度的特征点以及不稳定的边缘响应点,得到最终的特征点。
步骤3、为特征点匹配方向值;
针对一个背景图像,精确定位上述各特征点后,可以为各特征点计算一个方向,具体的,可以是利用各特征点邻域像素的梯度方向分布特性为每个特征点指定方向参数,使算子具备旋转不变性。可以是在以特征点为中心的邻域窗口内采样,并用直方图统计邻域像素的梯度方向。直方图的峰值对应的方向则代表了该特征点处邻域梯度的主方向,即作为该特征点的方向。
步骤4、生成描述子。
得到特征点后,需要以某种方式描述这些特征点的属性。这些属性的输出称为该特征点的描述子(Feature Descriptors),在生成描述子时,是以关键点(特征点)为中心,取16*16的邻域作为采样窗口,并将该采样区域分成4*4个子区域,每个子区域大小为4*4,后针对各子区域,将采样点与特征点的相对方向通过高斯加权后归入包含8个bin的方向直方图,最后获得4*4*8的128维特征描述子。
当然,作为本发明实施例的一种具体实施方式,上述第一局部特征算法也可以是SURF(Speeded Up Robust Features,加速稳健特征)算法,或ORB(Oriented Fast andRotated Brief)算法。
SURF算法是对SIFT算法在执行速度上的一种改进,具体可以包括特征点侦测以及特征点描述。在进行特征点侦测时,与上述SIFT算法的过程类似,也是在首先构建尺度空间、检测极值点,之后进行特征点定位。在进行特征点描述时,也是首先选定特征点的方向,之后以特征点为中心,构造一个20s*20s的正方形窗口(s为特征点的尺度值),将该窗口划分为更小的4X4个子区域,在每个子区域内按照5sX5s的大小进行取样,计算子区域内的x、y方向(此时以平行特征点方向为x、垂直特征点方向为y)的哈尔小波响应总和sum dx、sumdy与其向量长度总和sum|dx|、sum|dy|共四个量值,共可产生一个4*4*4=64维的描述子。
与上述SIFT算法以及SURF算法类似,ORB算法也包括特征点提取和特征点描述两部分,其最后得到的是32维的局部特征描述子。
与上述算法相似,ORB算法首先要对背景图像的特征点进行检测,ORB算法采用FAST算法来检测特征点。这个定义基于特征点周围的图像灰度值,检测候选特征点周围一圈的像素值,如果候选点周围领域内有足够多的像素点与该候选点的灰度值差别够大,则可以认为该候选点为一个特征点。候选点周围的圆的选取半径是一个很重要的参数,为了简单高效,可以采用半径为3,共有16个周边像素需要比较。圆周上如果有连续n个像素点的灰度值比P点的灰度值大或者小,则认为P为特征点。
ORB采用BRIEF算法来计算一个特征点的描述子。BRIEF算法计算出来的是一个二进制串的特征描述符。它是在每一个特征点的邻域内,选择n对像素点pi、qi(i=1,2,…,n)。然后比较每个点对的灰度值的大小。如果I(pi)>I(qi),则生成二进制串中的1,否则为0。所有的点对都进行比较,则生成长度为n的二进制串。一般n取128、256或512,通常取256。ORB在计算BRIEF描述子时建立的坐标系是以特征点为圆心,以特征点和取点区域的形心的连线为X轴建立2维坐标系。这样一来,无论图像如何旋转,ORB选取点对的坐标系是固定的。在不同的旋转角度下,以同一取点模式取出来的点是一致的。
当然,本发明实施例中,在提取各背景图像的第一局部特征时,也可以使用其他的特征提取算法,此处不作具体限定。
如图3所示,步骤304,针对每个背景图像,将其第一局部特征与其他各个背景图像的第一局部特征进行匹配,获得该背景图像与其他各个背景图像的匹配结果;其中,匹配结果包括第一局部特征的匹配对数,该匹配对数用于表征背景图像之间的相似程度。
作为本发明实施例的一种具体实施方式,如图5所示,图5为本发明实施例中获取各背景图像局部特征匹配对的流程图,具体可以包括以下步骤:
步骤501,将该背景图像作为第一待匹配背景图像构造KD树,该树中的每个节点为上述第一待匹配背景图像的第一局部特征的描述子;其中,所述描述子为对所述第一局部特征的属性描述;
如上所述,上述第一局部特征提取算法可以包括SIFT算法、SURF算法、ORB算法。相应的,各第一局部特征提取算法对应不同的特征描述子。例如,上述SIFT算法,是用方向直方图得到的128维的描述子、SURF算法对应的特征描述子是64维,ORB算法对应的特征描述子是32维。
在针对上述第一待匹配背景图像构建上述KD树时,首先需要对K维空间进行切分,一轮切分指的是必须依照K个维度,对每个维度进行一次切分,对于本发明实施例来说,K为描述子的维数。
KD树的每轮中的切分域的选择是,计算待切分空间内的点此轮未被切分维度上的方差,找方差最大的维度作为此次的切分域,方差较大,表明在该维度上的点的分散度较高,按该维度切分分辨率比较高。是将待切分平面上的所有数据点按照切分域的维度进行大小排序,选择正中间的点作为切分点。重复上述过程,直至所有的第一局部特征点都被切分到。
构建KD树时,第一个根节点就是第一次的切分点,作为一种具体实施方式,左、右子树可以是根据根节点对应的切分方向确定。例如,若第一次切分方向为沿Y轴,切分点坐标为(10,5),则可以是左子树在Y轴方向上的值均小于5,右子树在Y轴上的值均大于5。本发明实施例中,KD树中的各节点即为上述第一局部特征的描述子。
步骤502,将其他各个背景图像分别作为第二待匹配背景图像,针对各第二待匹配背景图像的每个第一局部特征的描述子,在所述KD树中查找该描述子的N近邻;
从上述各第二待匹配背景图像中取其各个第一局部特征的描述子在KD树中查找其N近邻,本发明实施例中,此处的N可以为2,即只需查找到最近节点以及次近节点。在查找时,可以先从根节点走到叶节点,再回溯到根节点。例如,对于背景图像A、B,在B中查找与A中一个第一局部特征点相似的特征点时,可以首先根据上述切分方向确定可能的相似节点所在的子树,例如,基于上述步骤501中的举例,该第一局部特征点的y值为6,则可在右子树中寻找其相似节点,重复上述步骤,按照从根节点到叶节点的顺序,得到上述第一局部特征可能的相似点对应的叶节点,计算该叶节点对应的第一局部特征描述子与上述A中的第一局部特征描述子之间的距离作为当前最小距离,再向上回溯确定是否有与A中特征点距离更小的节点,具体的,计算和父节点的切分平面的距离,如果当前最小距离已经小于和父节点的切分平面的距离,就是已经找到了最小距离,可以停止回溯,否则还需查找父节点另一分支中的特征点是否与上述A中特征点的距离小于上述当前最小距离。
步骤503,获得该背景图像与其他各个背景图像的第一局部特征匹配对数,作为匹配结果。
作为一种具体实施方式,在执行完上述步骤502后,可以得到各第二待匹配背景图像的第一局部特征的描述子的最近点和次近点,对其做ratio test(比率测试),即只保留最近距离除以次近距离小于某个阈值的匹配结果,认定其为匹配对,作为本发明的一种具体实施例,上述阈值可以为0.6、0.7等,阈值越大得到的匹配点对越多,阈值越小得到的匹配点对越精确。
对于两张背景图像来说,用上述KD树匹配完两张图中的第一局部特征点后,得到了多个匹配对,但其中的一些匹配对可能是错误的,因此,作为本发明实施例的一种具体实施方式,可以使用RANSAC(RANdom SAmple Consensus,随机抽样一致)算法对得到的各特征匹配对进行筛选。
上述RANSAC算法可以从一组包含“局外点”的观测数据集中,通过迭代方式估计模型的参数,避免受局外点的影响。RANSAC算法可以找到将一张图片投影到另一张图片上的最佳单应性矩阵(Homography),使得满足该矩阵的映射关系的数据点对最多。匹配上的局部特征用RANSAC算法做几何验证,过滤掉投影误差过大的误匹配对。作为一种具体实施方式,可以设定最少的匹配点对的数量,比如设定至少需要6组匹配点对,才能用RANSAC算法,求单应性矩阵至少需要4组匹配点对,因此设定的阈值不能小于4。设定投影的误差阈值,如5个像素,投影误差在阈值以下作为局内点。
上述RANSAC算法的具体实现步骤可以包括:从匹配数据集中随机抽出4个样本(此4个样本之间不能共线),计算出单应性矩阵H,记为模型M。计算各匹配对的投影误差,若误差小于阈值,就加入内点集I。如果当前内点集I元素个数大于最优内点集I_best,则更新I_best=I。更新迭代次数k,如果迭代次数大于设定的最大迭代次数,则退出,否则重复上述步骤。
如图3所示,步骤305,将匹配对数大于预设匹配对数阈值的两个背景图像,作为第一相似背景图像;
作为本发明实施例的一种具体实施方式,可以预先设置一个匹配对数阈值,将匹配对数大于该阈值的两张图像作为相似图像,如上所述,求单应性矩阵至少需要4组匹配对,因此,此处设置的匹配对数阈值可以是5对、6对等,相应的,匹配的对象可以是经过上述RANSAC算法过滤后的匹配对数。
相应的,作为本发明实施例的一种具体实施方式,上述图1中的步骤104,基于所述每个背景图像与其他各背景图像之间的相似度,对背景图像进行聚类,得到聚类结果,具体可以包括以下步骤:
步骤306,基于所述第一相似背景图像,构建关系图,该关系图中的各个顶点为各个相似背景图像对应的待分类人脸识别照片;顶点间的边为各个相似背景图像之间的第一局部特征的匹配对数;
作为本发明实施例的另一种具体实施方式,在构建关系图时,关于各顶点间的边可以按照背景图像第一局部特征之间的匹配对数是否大于预设匹配对数的标准设置。例如,对于待分类人脸识别照片A、B、C、D来说,A、B对应的背景图像的第一局部特征的匹配对数为10对,C、D对应的背景图像的第一局部特征匹配对数是4对,上述匹配对数阈值为6对,则构建关系图时,上述待分类人脸识别照片对应的顶点A、B之间有边,上述人脸识别照片C、D之间没有边。
步骤307,基于所述关系图,采用图聚类的方式,对背景图像进行聚类,得到第一聚类结果;
对上述关系图进行聚类是可以采用社区发现算法,例如,GN(Girvan-Newman)算法、Louvain算法、LPA(Label Propagation Algorithm,标签传播算法)等。
对上述关系图来说,社区即为节点的子集,同一子集中的节点彼此紧密相连,而与上述关系图中其他社区的节点松散连接。
GN算法是分裂的层次聚类算法,具体可以包括以下步骤,首先计算每一条边的边介数,边介数为关系图中所有最短路径中经过该边的路径的数目,如果某两个节点间最短路径不止一条,假设有k条,则每条最短路径赋予权重1/k;之后删除边介数最大的边,重新计算关系图中剩下的边的边介数;重复上述步骤,直到网络中的任一顶点作为一个社区为止。
如图6所示,点1~7中,3与7之间,以及6与7之间的边是边介数最大的边;点8~14中,9与8之间,以及12与8之间的边是边介数最大的边,因此将上述边介数最大的边删除,得到步骤2所示的关系图,步骤2中的各边的边介数相同,因此,对于步骤2中的关系图来说,如步骤3所示,去除边介数最大的边后,各节点均作为独立的社区,因此最终得到的社区聚类结果如分层网络分解所示。
作为本发明实施例的另一种具体实施方式,如上所述,还可以使用Louvain算法进行聚类,Louvain是凝聚的层次聚类(自下而上),用模块度作为社区评价指标,衡量社区划分结果好坏。
使用上述Louvain算法进行聚类的过程可以是:首先将每一个点作为一个社区,之后基于上述关系图,将各社区的邻居节点合并到社区中,并计算deltaQ。DeltaQ(模块度增量),即把一个孤立的点放入一个社区C后,计算Modularity(模块度,描述社区内紧密程度的值Q)的变化,其中计算过程的要点是,首先计算1个点的Modularity,和社区C的Modularity,再计算合并后新社区的Modularity,新社区的Modularity减去前两个Modularity就是delta Q。找到最大的正delta Q,合并点到社区;多进行几轮,直至模块度不再增加。
作为本发明的另一种实施例,如上所述,上述聚类算法可以是LPA(LabelPropagation Algorithm,标签传播算法),LPA算法通过统计邻居节点的标签来迭代本节点的标签,其基本思想是通过标记节点的标签信息预测未标记节点的标签情况。节点之间的标签传播主要依照标签相似度进行,在传播过程中,未标记的节点根据邻接点的标签情况来迭代更新自身的标签信息,如果其邻接点与其相似度越相近,则表示对其所标注的影响权值就越大,邻接点的标签就更容易进行传播。具体步骤可以包括:
第一步:先给每个节点分配对应标签,即节点1对应标签1,节点i对应标签i;
第二步:遍历N个节点(for i=1:N),找到对应节点邻居,获取此节点邻居标签,找到出现次数最大标签,若出现次数最多标签不止一个,则随机选择一个标签替换成此节点标签;
第三步:若本轮标签重标记后,节点标签不再变化(或者达到设定的最大迭代次数),则迭代停止,否则重复第二步。
相应的,如图3所示,上述图1中的步骤105,具体可以包括以下步骤:
步骤308,将第一聚类结果中,每个类的背景图像对应的待分类人脸识别照片,作为一个分类。
由于上述聚类结果是基于各待分类人脸识别照片的背景图像进行聚类得到的,因此可以将各背景图像对应的待分类人脸识别照片作为一类图像,使得审核人员在审核时,可以针对各不同的背景图像进行审核,来发现同一背景图像中是否有异常的群体申请行为。
作为本发明实施例的一种具体实施方式,基于图1,如图7所示,图7为本发明实施例提供的人脸识别照片分类的方法的第三种流程图,上述图1中的步骤103,针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度,具体可以包括以下步骤:
步骤703,获得每个背景图像的全局特征;所述全局特征用向量表示。
在提取全局特征时可以首先提取各背景图像的第二局部特征,再针对一个背景图像,将各第二局部特征进行聚合来得到全局特征。
提取第二局部特征时,可以采用第二局部特征提取算法对各背景图像进行特征提取,该过程与上述采用第一局部特征提取算法对各背景图像进行特征提取的过程完全相同,使用的算法也完全相同,此处不再赘述。
得到各背景图像的第二局部特征之后,由于各背景图像局部特征(关键点)的个数是不同的,因此上述第二局部特征的描述子的个数也是不同的,可以对上述各背景图像的第二局部特征进行聚合,来得到统一的预设维度的全局特征。进行聚合时可以采用的算法有BoF(Bag of Features)算法,VLAD(Vector of Locally Aggregated Descriptors,局部聚合描述子向量)算法等。
BOF算法可以包括以下步骤:第一步、图像特征提取。用SIFT或其他算法提取特征,作为视觉词汇,并构造单词表。假设有N张图像,第i张图像可由n(i)个图像块组成,即由n(i)个特征向量表达,则总共能得到Σn(i)个特征向量(即单词)。第二步、特征聚类生成码本。将所有Σn(i)个向量用聚类算法(如k-means)合并词义相近的视觉词汇,构造一个包含K个词汇的单词表,用聚类中心代表BoF中的一个视觉词。K的取值在几百到上千。第三步、投票生成直方图。对每张图片,计算该图片的每个“单词”应该属于码本中的“哪一类”单词,统计每一类单词的数量,从而得到该图片对应于该码本的K维直方图向量,归一化,并用TF-IDF加权,得到BoF表示。上述TF-IDF(term frequency–inverse document frequency,词频-逆文本频率指数)是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。
如上所述,作为另一种具体实施方式,对上述第二局部特征进行聚合可以使用VLAD算法。
与上述BoF算法类似,使用VLAD算法将上述第二局部特征进行聚合时,首先也需要使用K-means算法基于所有图像的第二局部特征训练得到一个码本(codebook),该码本中,聚类得到的簇数可以是64-256或更大,簇数越大检索精度越高。之后,针对每个上述第二局部特征,找到与其距离最近的码本聚类中心,将每个簇的簇内特征与簇的聚类中心的残差做累加,得到一个K*d的VLAD矩阵,d是局部特征维数,即每一聚类中心上都有一个d维残差累加和向量,比如对于使用SIFT算法得到的128维的特征向量,各聚类中心上都有一个128维残差累加和向量。之后,将矩阵拉平成向量,并进行归一化处理,就得到(K*d)维的VLAD向量,该向量即为背景图像的全局特征向量。
VLAD算法编码出的特征向量不仅包含了描述子的数量信息,还包含了描述子到聚类中心的距离信息,比BoF算法反映了更多信息。同维度下,VLAD算法优于BoF算法。
如图7所示,步骤704,针对每个背景图像,计算其与其他各个背景图像的全局特征向量之间的欧式距离,作为与其他各个待分类人脸识别照片的背景图像之间的相似度。
上述欧式距离越小的两个全局特征向量之间的相似度越高。在计算各全局特征之间的距离时,若上述待分类的人脸识别照片的数量不是很多,则可以直接针对上述全局特征向量进行距离计算。但对于百万级以上的数据库,为了加速计算,可以使用乘积量化的检索算法进行距离的近似计算。
乘积量化先将D维空间切分成M份,对于K*d维全局特征向量来说,即将K*d维的空间切分成M个D/M维的子空间。之后,可以针对各子空间单独训练一个码本(上述BoF),从而得到M个码本。接下来,对每个子空间的数据进行量化,量化的过程就是计算每个短向量距离最近的聚类中心,该距离指的是L2范数距离。
基于上述D维的全局特征向量,它被切分成了M个D/M维的短向量,同时每个短向量都对应一个量化的索引值,索引值即该短向量距离最近的聚类中心的编号,因此上述全局特征向量就可以压缩成M个索引值构成的压缩向量。
基于上述压缩向量进行距离计算时,可以使用的距离计算方式包括:“对称距离计算”和“非对称距离计算”等。
如图8a所示,对称距离计算是直接使用两个向量x,y的索引值所对应的码字q(x),q(y)之间的距离代替上述全局特征向量之间的距离,而q(x),q(y)之间的距离可以离线计算,因此可以把q(x),q(y)之间的距离制作成查找表,只要按照压缩向量的索引值进行对应的查找就可以了,所以速度非常快;
如图8b所示,非对称距离计算是使用x,q(y)之间的距离代替x,y之间的距离,其中x是测试向量。虽然y的个数可能有上百万个,但是q(y)的个数只有k个,对于每个x,只需要在输入x之后先计算一遍x和k个q(y)的距离,制成查找表(因为只有k个,所以速度是非常快的),然后按照y对应的压缩向量索引值进行取值操作就可以。
上述对称距离计算的期望误差上界是非对称的两倍,因此非对称距离计算得到的结果更加精确。
乘积量化通过压缩向量和聚类中心实现数据的压缩和距离的快速计算。而由于可能存在量化误差,通过这种算法返回的结果还可以再重排序,得到比较准确的结果。
相应的,上述图1中的步骤104,基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果,具体可以包括以下步骤:
步骤705,基于所述全局特征向量之间的欧式距离,采用预设的基于特征的聚类算法,对背景图像的全局特征进行聚类,得到第二聚类结果;
在对上述各背景图像的全局特征进行聚类时,可以采用K-means、层次聚类、密度聚类等算法。
K-means是原型聚类,需指定簇数K,初始化后迭代形成簇。层次聚类分为分裂式和凝聚式,可以指定距离阈值代替簇数。密度聚类(如DBSCAN算法)将簇定义为密度相连样本的最大集合,簇数由邻域半径和邻域内样本数的阈值决定从而无需指定,但对参数较敏感需调参,能将密度足够高的区域划分为簇,可在有噪声的数据集中发现任意形状的簇。可以根据需要选取聚类算法,如不指定簇数可以选择层次聚类,设定距离阈值。
如图7所示,上述图1中的步骤105,基于聚类结果,获得多个待分类人脸识别照片的分类结果,具体可以包括:
步骤706,将所述第二聚类结果中,每个类的背景图像对应的待分类人脸识别照片,作为一个分类。
作为本发明实施例的一种具体实施方式,在基于上述全局特征对各背景图像进行聚类后,可以针对各背景图像,计算其全局特征与哪个场景类别的距离最近,来判断各背景图像属于的环境场景分类,上述场景类别可以是根据第二聚类结果人为设定的。
作为本发明实施例的一种具体实施方式,在得到上述背景图像具体属于哪个环境场景分类的结果后,可以将该环境场景信息作为风控建模时的变量,使得风控模型可以自动根据人脸识别照片所在的簇判断风险水平。
作为本发明实施例的一种具体实施方式,如上所述,对各背景图像进行VLAD编码后会得到各背景图像对应的各k*d维的超长向量,直接针对这些超长向量计算距离的话,会使得计算过于缓慢,因此,为了降低存储空间以及加快距离计算的速度,可以对上述全局特征进行降维,基于图7,如图9所示,上述步骤704之前,所述方法还可以包括:
步骤903,降低所述各待分类人脸识别照片的背景图像的全局特征向量的维度,得到各降维全局特征向量;
通常使用的降维算法有PCA(Principal Component Analysis,主成分分析)算法。
PCA算法是通过线性变换将上述全局特征向量变换为一组各维度线性无关的表示,并且最大化投影点间的方差。
上述PCA算法具体可以包括:步骤1、数据中心化,主要包括去除均值;步骤2、求解协方差矩阵;步骤3、利用特征值分解,求解特征值以及特征向量;步骤4、利用特征向量构造投影矩阵;步骤5、利用投影矩阵,得出降维的数据。
相应的,上述步骤704可以包括以下步骤:
步骤904,针对每个背景图像,计算其降维全局特征向量与其他各个背景图像的降维全局特征向量之间的欧式距离,作为与其他各个待分类人脸识别照片的背景图像之间的相似度。
基于与上述人脸识别照片的分类方法相同的技术构思,本发明实施例还提供了一种人脸识别照片的分类装置,如图10所示,上述装置可以包括:
人脸识别照片获取模块1001,用于获取多个待分类人脸识别照片;
背景图像获取模块1002,用于对每个待分类人脸识别照片进行背景图像提取,得到所有待分类人脸识别照片的背景图像;
相似度计算模块1003,用于针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度;
聚类结果获取模块1004,用于基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果;
分类结果获取模块1005,用于基于所述聚类结果,获得所述多个待分类人脸识别照片的分类结果。
本发明实施例提供的人脸识别照片的分类方法,首先获取多个待分类的人脸识别照片,并获取各待分类人脸识别照片的背景图像,并计算各人脸识别照片的背景图像之间的相似度,再基于计算出的各待分类人脸识别照片的背景图像的相似度,对各背景图像进行聚类,并基于该聚类结果,获取对应的各人脸识别照片的分类结果。本发明实施例提供的人脸识别照片的分类方法,通过机器基于各人脸识别照片的背景图像对人脸识别照片进行分类,提高了对人脸识别照片的分类效率,便于人工针对各类人脸识别照片进行群体异常申请的识别。
本发明实施例还提供了一种电子设备,如图11所示,包括处理器1101、通信接口1102、存储器1103和通信总线1104,其中,处理器1101,通信接口1102,存储器1103通过通信总线1104完成相互间的通信,
存储器1103,用于存放计算机程序;
处理器1101,用于执行存储器1103上所存放的程序时,实现如下步骤:
获取多个待分类人脸识别照片;
对每个待分类人脸识别照片进行背景图像提取,得到所有所述待分类人脸识别照片的背景图像;
针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度;
基于所述每个背景图像与其他各背景图像之间的相似度,对背景图像进行聚类,得到聚类结果;
基于所述聚类结果,获取所述多个待分类人脸识别照片的分类结果。
本发明实施例提供的人脸识别照片的分类方法,首先获取多个待分类的人脸识别照片,并获取各待分类人脸识别照片的背景图像,并计算各人脸识别照片的背景图像之间的相似度,再基于计算出的各待分类人脸识别照片的背景图像的相似度,对各背景图像进行聚类,并基于该聚类结果,获取对应的各人脸识别照片的分类结果。本发明实施例提供的人脸识别照片的分类方法,通过机器基于各人脸识别照片的背景图像对人脸识别照片进行分类,提高了对人脸识别照片的分类效率,便于人工针对各类人脸识别照片进行群体异常申请的识别。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一人脸识别照片的分类方法的步骤。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一人脸识别照片的分类方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、存储介质以及程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (10)

1.一种人脸识别照片的分类方法,其特征在于,所述方法包括:
获取多个待分类人脸识别照片;
对每个待分类人脸识别照片进行背景图像提取,得到所有待分类人脸识别照片的背景图像;
针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度;
基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果;
基于所述聚类结果,获得所述多个待分类人脸识别照片的分类结果。
2.根据权利要求1所述的方法,其特征在于,
所述对每个待分类人脸识别照片进行背景图像提取,得到所有待分类人脸识别照片的背景图像的步骤,包括:
采用GrabCut算法对每个待分类人脸识别照片进行前景和背景分割,得到所有待分类人脸识别照片的背景图像。
3.根据权利要求1所述的方法,其特征在于,
所述针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度的步骤,包括:
采用预设的第一局部特征提取算法,对每个背景图像进行特征提取,得到每个背景图像的第一局部特征;
针对每个背景图像,将其第一局部特征与其他各个背景图像的第一局部特征进行匹配,获得该背景图像与其他各个背景图像的匹配结果;其中,匹配结果包括第一局部特征的匹配对数,该匹配对数用于表征背景图像之间的相似程度;
将匹配对数大于预设匹配对数阈值的两个背景图像,作为第一相似背景图像;
所述基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果的步骤,包括:
基于所述第一相似背景图像,构建关系图,该关系图中的各个顶点为各个相似背景图像对应的待分类人脸识别照片;顶点间的边为各个相似背景图像之间的第一局部特征的匹配对数;
基于所述关系图,采用图聚类的方式,对背景图像进行聚类,得到第一聚类结果;
所述基于所述聚类结果,获得所述多个待分类人脸识别照片的分类结果的步骤,包括:
将第一聚类结果中,每个类的背景图像对应的待分类人脸识别照片,作为一个分类。
4.根据权利要求3所述的方法,其特征在于,
所述针对每个背景图像,将其第一局部特征与其他各个背景图像的第一局部特征进行匹配,获得该背景图像与其他各个背景图像的匹配结果的步骤,包括:
将该背景图像作为第一待匹配背景图像构造KD树,该树中的每个节点为所述第一待匹配背景图像的第一局部特征的描述子;其中,描述子为对所述第一局部特征的属性描述;
将其他各个背景图像分别作为第二待匹配背景图像,针对各第二待匹配背景图像的每个第一局部特征的描述子,在所述KD树中查找该描述子的N近邻;
获得该背景图像与其他各个背景图像的第一局部特征匹配对数,作为匹配结果。
5.根据权利要求1所述的方法,其特征在于,
所述针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度的步骤,包括:
获得每个背景图像的全局特征;所述全局特征用向量表示;
针对每个背景图像,计算其与其他各个背景图像的全局特征向量之间的欧式距离,作为与其他各个待分类人脸识别照片的背景图像之间的相似度;
所述基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果步骤,包括:
基于所述全局特征向量之间的欧式距离,采用预设的基于特征的聚类算法,对背景图像的全局特征进行聚类,得到第二聚类结果;
所述基于聚类结果,获得多个待分类人脸识别照片的分类结果的步骤,包括:
将所述第二聚类结果中,每个类的背景图像对应的待分类人脸识别照片,作为一个分类。
6.根据权利要求5所述的方法,其特征在于,
所述获得每个背景图像的全局特征的步骤,包括:
采用预设的第二局部特征提取算法,对每个背景图像进行特征提取,得到每个背景图像的第二局部特征;
针对每个背景图像,将该背景图像的各个第二局部特征进行特征聚合,得到预设维度的全局特征。
7.根据权利要求5所述的方法,其特征在于,
在所述针对每个背景图像,计算其与其他各个背景图像的全局特征向量之间的欧式距离,作为与其他各个待分类人脸识别照片的背景图像之间的相似度的步骤之前,所述方法还包括:
降低所述各待分类人脸识别照片的背景图像的全局特征向量的维度,得到各降维全局特征向量;
所述针对每个背景图像,计算其与其他各个背景图像的全局特征向量之间的欧式距离的步骤,包括:
针对每个背景图像,计算其降维全局特征向量与其他各个背景图像的降维全局特征向量之间的欧式距离。
8.一种人脸识别照片的分类装置,其特征在于,所述装置包括:
人脸识别照片获取模块,用于获取多个待分类人脸识别照片;
背景图像获取模块,用于对每个待分类人脸识别照片进行背景图像提取,得到所有待分类人脸识别照片的背景图像;
相似度计算模块,用于针对各背景图像,计算其与其他各个待分类人脸识别照片的背景图像之间的相似度;
聚类结果获取模块,用于基于每个背景图像与其他各个背景图像之间的相似度,对背景图像进行聚类,得到聚类结果;
分类结果获取模块,用于基于所述聚类结果,获得所述多个待分类人脸识别照片的分类结果。
9.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-7任一所述的方法步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-7任一所述的方法步骤。
CN202110744865.9A 2021-07-01 2021-07-01 人脸识别照片的分类方法、装置、电子设备和存储介质 Pending CN113343920A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110744865.9A CN113343920A (zh) 2021-07-01 2021-07-01 人脸识别照片的分类方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110744865.9A CN113343920A (zh) 2021-07-01 2021-07-01 人脸识别照片的分类方法、装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN113343920A true CN113343920A (zh) 2021-09-03

Family

ID=77482018

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110744865.9A Pending CN113343920A (zh) 2021-07-01 2021-07-01 人脸识别照片的分类方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN113343920A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114398633A (zh) * 2021-12-29 2022-04-26 北京永信至诚科技股份有限公司 一种蜜罐攻击者的画像分析方法及装置
CN115052160A (zh) * 2022-04-22 2022-09-13 江西中烟工业有限责任公司 基于云数据自动下载的图像编码方法、装置及电子设备

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103324912A (zh) * 2013-05-30 2013-09-25 苏州福丰科技有限公司 一种应用于atm机的人脸识别系统及方法
CN103544505A (zh) * 2013-07-31 2014-01-29 天津大学 面向无人机航拍图像的船只识别系统及方法
CN103886611A (zh) * 2014-04-08 2014-06-25 西安煤航信息产业有限公司 一种适合于航空摄影飞行质量自动检查的影像匹配方法
CN104318259A (zh) * 2014-10-20 2015-01-28 北京齐尔布莱特科技有限公司 一种识别目标图片的设备、方法以及计算设备
CN106886599A (zh) * 2017-02-28 2017-06-23 北京京东尚科信息技术有限公司 图像检索方法以及装置
CN107895166A (zh) * 2017-04-24 2018-04-10 长春工业大学 基于特征描述子的几何哈希法实现目标鲁棒识别的方法
CN109086437A (zh) * 2018-08-15 2018-12-25 重庆大学 一种融合Faster-RCNN和Wasserstein自编码器的图像检索方法
CN110807110A (zh) * 2019-09-30 2020-02-18 奇安信科技集团股份有限公司 结合局部和全局特征的图片搜索方法、装置及电子设备
US20200184278A1 (en) * 2014-03-18 2020-06-11 Z Advanced Computing, Inc. System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform
CN111832346A (zh) * 2019-04-17 2020-10-27 北京嘀嘀无限科技发展有限公司 人脸识别方法、装置、电子设备及可读存储介质
CN111914890A (zh) * 2020-06-23 2020-11-10 北京迈格威科技有限公司 图像之间的图像块匹配方法、图像配准方法和产品
CN112069915A (zh) * 2020-08-14 2020-12-11 武汉轻工大学 一种具有人脸识别系统的atm机
CN112270710A (zh) * 2020-11-16 2021-01-26 Oppo广东移动通信有限公司 位姿确定方法、位姿确定装置、存储介质与电子设备
CN112418167A (zh) * 2020-12-10 2021-02-26 深圳前海微众银行股份有限公司 图像的聚类方法、装置、设备和存储介质
CN112749350A (zh) * 2021-01-14 2021-05-04 Oppo广东移动通信有限公司 推荐对象的信息处理方法、装置、存储介质与电子设备
CN112927783A (zh) * 2021-03-30 2021-06-08 泰康保险集团股份有限公司 图像检索方法及装置

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103324912A (zh) * 2013-05-30 2013-09-25 苏州福丰科技有限公司 一种应用于atm机的人脸识别系统及方法
CN103544505A (zh) * 2013-07-31 2014-01-29 天津大学 面向无人机航拍图像的船只识别系统及方法
US20200184278A1 (en) * 2014-03-18 2020-06-11 Z Advanced Computing, Inc. System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform
CN103886611A (zh) * 2014-04-08 2014-06-25 西安煤航信息产业有限公司 一种适合于航空摄影飞行质量自动检查的影像匹配方法
CN104318259A (zh) * 2014-10-20 2015-01-28 北京齐尔布莱特科技有限公司 一种识别目标图片的设备、方法以及计算设备
CN106886599A (zh) * 2017-02-28 2017-06-23 北京京东尚科信息技术有限公司 图像检索方法以及装置
CN107895166A (zh) * 2017-04-24 2018-04-10 长春工业大学 基于特征描述子的几何哈希法实现目标鲁棒识别的方法
CN109086437A (zh) * 2018-08-15 2018-12-25 重庆大学 一种融合Faster-RCNN和Wasserstein自编码器的图像检索方法
CN111832346A (zh) * 2019-04-17 2020-10-27 北京嘀嘀无限科技发展有限公司 人脸识别方法、装置、电子设备及可读存储介质
CN110807110A (zh) * 2019-09-30 2020-02-18 奇安信科技集团股份有限公司 结合局部和全局特征的图片搜索方法、装置及电子设备
CN111914890A (zh) * 2020-06-23 2020-11-10 北京迈格威科技有限公司 图像之间的图像块匹配方法、图像配准方法和产品
CN112069915A (zh) * 2020-08-14 2020-12-11 武汉轻工大学 一种具有人脸识别系统的atm机
CN112270710A (zh) * 2020-11-16 2021-01-26 Oppo广东移动通信有限公司 位姿确定方法、位姿确定装置、存储介质与电子设备
CN112418167A (zh) * 2020-12-10 2021-02-26 深圳前海微众银行股份有限公司 图像的聚类方法、装置、设备和存储介质
CN112749350A (zh) * 2021-01-14 2021-05-04 Oppo广东移动通信有限公司 推荐对象的信息处理方法、装置、存储介质与电子设备
CN112927783A (zh) * 2021-03-30 2021-06-08 泰康保险集团股份有限公司 图像检索方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114398633A (zh) * 2021-12-29 2022-04-26 北京永信至诚科技股份有限公司 一种蜜罐攻击者的画像分析方法及装置
CN115052160A (zh) * 2022-04-22 2022-09-13 江西中烟工业有限责任公司 基于云数据自动下载的图像编码方法、装置及电子设备

Similar Documents

Publication Publication Date Title
Tabia et al. Covariance descriptors for 3D shape matching and retrieval
Ibrahim et al. Cluster representation of the structural description of images for effective classification
Tabia et al. Covariance-based descriptors for efficient 3D shape matching, retrieval, and classification
Tasse et al. Cluster-based point set saliency
Madan et al. Modified balanced iterative reducing and clustering using hierarchies (m-BIRCH) for visual clustering
CN113343920A (zh) 人脸识别照片的分类方法、装置、电子设备和存储介质
CN112163114B (zh) 一种基于特征融合的图像检索方法
Mohamed et al. Algorithm BOSS (Bag-of-Salient local Spectrums) for non-rigid and partial 3D object retrieval
Sivakumar et al. An efficient deep learning-based content-based image retrieval framework.
Chakraborty et al. Application of daisy descriptor for language identification in the wild
Li et al. A non-rigid 3D model retrieval method based on scale-invariant heat kernel signature features
Guo et al. Substation equipment 3D identification based on KNN classification of subspace feature vector
Nanni et al. Ensemble of shape descriptors for shape retrieval and classification
JP2019028700A (ja) 検証装置、方法、及びプログラム
Kashyap et al. A density invariant approach to clustering
Zhang et al. Saliency detection via sparse reconstruction errors of covariance descriptors on Riemannian manifolds
CN115203408A (zh) 一种多模态试验数据智能标注方法
Rao et al. Texture classification using Minkowski distance measure-based clustering for feature selection
Wong et al. Automatic target recognition based on cross-plot
Lin et al. Efficient shape classification using region descriptors
Shahbaba et al. Signature test as statistical testing in clustering
Yakubchyk et al. RESEARCH OF CONTENT-BASED IMAGE RETRIEVAL ALGORITHMS
Nayef et al. Efficient symbol retrieval by building a symbol index from a collection of line drawings
CN108764262B (zh) 一种共生图像模式挖掘方法
CN108830313B (zh) 一种共生模式图像挖掘方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination