CN116403252A - 基于双向动态分组的多目标特征选择的人脸识别分类方法 - Google Patents
基于双向动态分组的多目标特征选择的人脸识别分类方法 Download PDFInfo
- Publication number
- CN116403252A CN116403252A CN202310094410.6A CN202310094410A CN116403252A CN 116403252 A CN116403252 A CN 116403252A CN 202310094410 A CN202310094410 A CN 202310094410A CN 116403252 A CN116403252 A CN 116403252A
- Authority
- CN
- China
- Prior art keywords
- features
- feature
- group
- population
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000002457 bidirectional effect Effects 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000005516 engineering process Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000011156 evaluation Methods 0.000 claims description 24
- 238000012360 testing method Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000035772 mutation Effects 0.000 claims description 6
- 238000002790 cross-validation Methods 0.000 claims description 5
- 230000014759 maintenance of location Effects 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 6
- 238000004364 calculation method Methods 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- RGEMJCLUPGZKTQ-WAUHAFJUSA-N (3s,8r,9s,10r,13s,14s)-3-[2-(dimethylamino)ethoxy]-10,13-dimethyl-1,2,3,4,7,8,9,11,12,14,15,16-dodecahydrocyclopenta[a]phenanthren-17-one Chemical compound C([C@@H]12)C[C@]3(C)C(=O)CC[C@H]3[C@@H]1CC=C1[C@]2(C)CC[C@H](OCCN(C)C)C1 RGEMJCLUPGZKTQ-WAUHAFJUSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Physiology (AREA)
- Genetics & Genomics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于双向动态分组的多目标特征选择的人脸识别分类方法,在获取待识别分类的人脸图像后,对其进行预处理;在预处理后对颜色特征、形状特征、纹理特征和灰度特征进行提取,并基于双向动态分组多目标算法对提取到的特征进行特征选择;将选择后的特征组合输入到分类器中,然后对需要进行识别分类的人脸图像使用K近邻分类技术得到未知人脸的标签,并将此标签作为最终结果;最后输出待识别分类的人脸图像的分类结果。本发明的人脸识别分类的准确度高,人脸分类鲁棒性强且图像分类速度快;选取出真正相关的特征,能够进一步简化模型,易于从业人员操作;也能剔除不相关特征,可以进一步缩短模型训练时间,提升其实际应用价值。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于双向动态分组的多目标特征选择的人脸识别分类方法。
背景技术
随着社会数字化,信息化和网络化的快速发展,如何对身份进行快速便捷的识别并且保证身份信息的安全性是一个值得关注的研究。而以人体的生物特征为代表的身份识别,例如虹膜、指纹和人脸等取得了重大的进步。这些新兴的身份识别方法相比于传统的以身份证件为代表的检验方法,具有稳定性高、识别能力强和难以伪造等优点。其中人脸识别已经是生活中不可缺少的身份识别技术,其凭借便利性、用户友好性和非接触性等优点,已经广泛的应用到安防、反恐、教育和银行等领域。例如公安利用人脸识别系统对罪犯进行认证和抓捕,日常生活中解锁认证和手机的人脸支付以及校园管理利用人脸识别对考生进行身份认证或者校外人员进行监督管理。
人脸识别是通过给定的图片和系统存储的图片进行匹配,由于现实环境中的光照、角度、面部表情以及墨镜等都会影响系统的判别,因此对于人脸部特征的提取非常重要。但是一些图片所提取的特征数量巨大,这将导致高维数据的出现。这一问题将导致在人脸识别分类时候需要消耗大量的运算资源并且运行缓慢。同时对于高维小样本数据也存在观测样本不足,难以预测和过拟合现象。而数据中的特征并非全部非常重要,其中只有稀疏的特征提供了非常有价值的信息,所以需要对此进行降维处理。
特征选择作为一项有效的数据预处理技术,可以通过从原始的特征集中去除冗余特征和不相关特征进行降维处理,从而提高了分类精度、降低了过拟合的风险并且缩短了构建分类模型的训练时间。目前,特征选择已经广泛应用到生物、文本分类、语音识别和图片分类以及计算机视觉领域当中,并且取得了非常好的效果。迄今为止,已经开发了大量方法来处理特征选择问题,并且通常分为三类:过滤型、包装型和嵌入式型。其中,过滤型通过评估每个特征进行选择,而特征之间的相互作用被忽略,但其优点是计算效率较高。包装型可以利用许多优秀的搜索算法获得特征子集,该子集可以通过学习算法建立和评估。因此,与过滤型相比,包装型可以获得更高的分类精度。与过滤型和包装型相比,嵌入式型将特征选择作为训练模型的一部分,并考虑到分类精度和计算效率,以实现两者之间的相对平衡。
发明内容
为了解决上述问题,本发明提供了一种基于双向动态分组的多目标特征选择的人脸识别分类方法。
本发明采用的技术方案为:一种基于双向动态分组的多目标特征选择的人脸识别分类方法,包括如下步骤:
S1、获取待识别分类的人脸图像;
S2、对待识别分类的人脸图像进行预处理,包括归一化和降噪;
S3、对预处理后的待识别分类人脸图像进行特征提取,包括:提取颜色特征、形状特征、纹理特征和灰度特征;
S4、基于双向动态分组多目标算法对提取到的特征进行特征选择;
S5、将选择后的特征组合输入到分类器中,然后对需要进行识别分类的人脸图像使用K近邻分类技术得到未知人脸的标签,并将此标签作为最终结果;
S6、输出待识别分类的人脸图像的分类结果。
进一步,所述步骤S4中,基于双向动态分组多目标算法对提取到的特征进行特征选择的具体步骤包括:
S4-1、将数据集分为训练集和测试集,其中训练集占70%,测试集占30%;将训练集输入进行特征选择。
S4-2、设置特征选择进化算法参数:种群大小P为100、迭代次数N为100,特征数量为D,分组总数gNum设置为10*log2D,选择K近邻分类器,K近邻分类器的距离值K为5。
S4-3、设置种群中每个个体的编码方式为二值化编码方式,其中1代表选择此组特征,0代表不选。
S4-4、分组初始化:首先对分组初始化,即将特征进行SU和ReliefF评价,并且根据这两个评价指标的排名投影到二维坐标轴上;然后将投影后的特征平均划分为四个象限,每个象限的对角线长度为L,并根据每个象限的重要程度不同为各象限设置不同的阈值,如公式(1);接着按照公式(2)和(3)为不同象限设置不同的分组数量;最后以每个象限的左下角为圆心对每个象限的特征进行1/4圆弧的扇形分组,其中第一个圆弧的半径为L/G,G代表此象限的分组数量,第二个圆弧的半径为2*L/G,以此类推;每个圆弧与象限边界或者两个相邻圆弧之间的区域代表一个特征组。
S4-5、种群初始化:由于个体的一位代表一组特征,因此随机生成一个P行D列矩阵,矩阵中的每个值是0到1之间随机生成的,其中每一行代表一个个体,个体的每一列代表一个特征;若生成的值大于设定的阈值则设置为1,否则为0。
S4-6、评价初始化种群:按照5折交叉验证评价方法,利用公式(1)的适应度函数评价出初始化种群中每个个体的分类错误率和所选特征与特征总数的比例,得到初始化种群的目标值,其中分类错误率为目标值的第一列,所选择的指标特征比例为目标值的第二列。
其中ferror表示分类错误率,fratio表示所选特征比例;c表示类别数,FPi表示在类别i中预测错误的个数,Si代表类别i的样本个数。
S4-7、识别种群中的最优解集:对于Pareto非支配排序方法将多目标种群的目标值排序,取第一前沿面的解集为多目标种群的最优解集,并且将最优解集进行存档操作,存档的大小为100,如果超过100则按照距离对量选择前100的个体。
S4-8、交叉:对于步骤S4-5中的种群中的每一个个体执行交叉操作,首先对于父本的选择采用二元锦标赛法进行挑选;然后考虑到对重要特征进行保留,在进行交叉时将会出现三种情况:
S4-8-1、若两个父代在某一位的值都为1,生成两个子代对于此位的值仍为1。
S4-8-2、若两个父代在某一位的值都为0,生成两个子代对于此位的值仍为0。
S4-8-2、若一个父代在某一位的选择情况为1,而另一个父代选择情况为0,则考虑到对SU和ReliefF排名靠前的特征保留概率更高,排名靠后的保留概率低,设计如下概率Pc进行选择:
S4-9、变异:将步骤4-8中得到的子代进行从1到0的翻转,翻转概率Pm将从公式(3)得到;对于从0翻转到1的概率,将此设置为1/D;
S4-10、评价:5折交叉验证评价方法,以步骤S4-6为例评价出步骤S4-9中变异后生成的新子代种群中每个个体的分类错误率和所选择的特征比例,得到新子代种群的目标值,其中分类错误率为目标值的第一列,所选择的特征比例为目标值的第二列。
S4-11、选择:Pareto非支配排序方法将生成的子代与父代集合的所有个体的目标值进行排序得到所有个体的序号,按序号取前100个个体为下一代的多目标种群。
S4-12、识别下一代多目标与单目标种群中的最优解集:操作同步骤S4-7。
S4-13、组内纵向动态细化:当种群进化到Tr=10代结束后,对所有特征组进行组内细化,使得每一个特征组所携带的特征个数更少,以便于更加详细的搜索;该操作从每个象限的圆心引出一条射线将步骤S4-4中每个1/4圆弧划分为两个1/8圆弧,从而将初始扇形区域平均分成两个区域,每个区域的所有特征代表细化后新的一组;细化前的组选择情况是1或者0,则细化后的两组仍是1或者0。
S4-14、组间横向动态调整:在组内细化后,对于所有个体都没有选择的特征组作为交换组Ge,将错误率最低的个体Pbest没有选择的特征组作为被交换组Ged;然后从Ge中随机挑选一定数量的特征与Ged中随机选择的特征进行调换;接着生成两个个体C1和C2,其中C1有50%的概率重新选择组G1;若C1选择,则C2不选择,反之亦然;最后将交换后生成的个体以步骤S4-6为例进行评价,并与交换前的个体集合后所有个体按照步骤S4-11进行选择。
S4-16、迭代:每执行完一次步骤S4-12或者步骤S4-14之后,迭代次数加一,然后重新回到步骤S4-8执行操作。
S4-17、终止:当迭代次数达到步骤S4-2中的迭代次数N即100时,特征选择进化算法终止,并将最后一代的多目标种群与其目标值输出。
S4-18、将步骤S4-17输出的所有个体的目标值进行Pareto非支配排序,得到排序后的帕累托第一前沿面的个体;记录得到的第一前沿面中分类精度最高的对应个体,即为特征选择进化算法在步骤S3特征提取后得到所有特征中最关键的一组指标特征组合。
与现有技术相比,本发明的优点在于:
1、人脸识别分类的准确度高,人脸分类鲁棒性强且图像分类速度快;
2、具有实施简单、所选特征少和节省计算资源等优点;
3、选取出真正相关的特征,能够进一步简化模型,易于从业人员操作;
4、剔除不相关特征,可以进一步缩短模型训练时间,提升其实际应用价值。
附图说明
图1为本发明的工作流程图。
具体实施方式
下面结合附图对本发明作进一步的说明。
如图1所示,本发明是一种基于双向动态分组的多目标特征选择的人脸识别分类方法,包括如下步骤:
S1、获取待识别分类的人脸图像;
S2、对待识别分类的人脸图像进行预处理,包括归一化和降噪;
S3、对预处理后的待识别分类人脸图像进行特征提取,包括:提取颜色特征、形状特征、纹理特征和灰度特征;
S4、基于双向动态分组多目标算法对提取到的特征进行特征选择;
S5、将选择后的特征组合输入到分类器中,然后对需要进行识别分类的人脸图像使用公知的K近邻分类技术得到未知人脸的标签,并将此标签作为最终结果。
S6、输出待识别分类的人脸图像的分类结果。
进一步,所述步骤S4中,基于双向动态分组多目标算法对提取到的特征进行特征选择的具体步骤包括:
S4-1、将数据集分为训练集和测试集,其中训练集占70%,测试集占30%;将训练集输入进行特征选择。
S4-2、设置特征选择进化算法参数:种群大小P为100、迭代次数N为100,特征数量为D,分组总数gNum设置为10*log2D,选择K近邻分类器,K近邻分类器的距离值K为5。
S4-3、设置种群中每个个体的编码方式为二值化编码方式,其中1代表选择此组特征,0代表不选。
S4-4、分组初始化:首先对分组初始化,即将特征进行SU和ReliefF评价,并且根据这两个评价指标的排名投影到二维坐标轴上;然后将投影后的特征平均划分为四个象限,每个象限的对角线长度为L,并根据每个象限的重要程度不同为各象限设置不同的阈值,如公式(1);接着按照公式(2)和(3)为不同象限设置不同的分组数量;最后以每个象限的左下角为圆心对每个象限的特征进行1/4圆弧的扇形分组,其中第一个圆弧的半径为L/G,G代表此象限的分组数量,第二个圆弧的半径为2*L/G,以此类推;每个圆弧与象限边界或者两个相邻圆弧之间的区域代表一个特征组。
S4-5、种群初始化:由于个体的一位代表一组特征,因此随机生成一个P行D列矩阵,矩阵中的每个值是0到1之间随机生成的,其中每一行代表一个个体,个体的每一列代表一个特征;若生成的值大于设定的阈值则设置为1,否则为0。
S4-6、评价初始化种群:按照5折交叉验证评价方法,利用公式(1)的适应度函数评价出初始化种群中每个个体的分类错误率和所选特征与特征总数的比例,得到初始化种群的目标值,其中分类错误率为目标值的第一列,所选择的指标特征比例为目标值的第二列。
其中ferror表示分类错误率,fratio表示所选特征比例;c表示类别数,FPi表示在类别i中预测错误的个数,Si代表类别i的样本个数。
S4-7、识别种群中的最优解集:对于Pareto非支配排序方法将多目标种群的目标值排序,取第一前沿面的解集为多目标种群的最优解集,并且将最优解集进行存档操作,存档的大小为100,如果超过100则按照距离对量选择前100的个体。
S4-8、交叉:对于步骤S4-5中的种群中的每一个个体执行交叉操作,首先对于父本的选择采用二元锦标赛法进行挑选;然后考虑到对重要特征进行保留,在进行交叉时将会出现三种情况:
S4-8-1、若两个父代在某一位的值都为1,生成两个子代对于此位的值仍为1。
S4-8-2、若两个父代在某一位的值都为0,生成两个子代对于此位的值仍为0。
S4-8-2、若一个父代在某一位的选择情况为1,而另一个父代选择情况为0,则考虑到对SU和ReliefF排名靠前的特征保留概率更高,排名靠后的保留概率低,设计如下概率Pc进行选择:
S4-9、变异:将步骤4-8中得到的子代进行从1到0的翻转,翻转概率Pm将从公式(3)得到;对于从0翻转到1的概率,将此设置为1/D;
S4-10、评价:5折交叉验证评价方法,以步骤S4-6为例评价出步骤S4-9中变异后生成的新子代种群中每个个体的分类错误率和所选择的特征比例,得到新子代种群的目标值,其中分类错误率为目标值的第一列,所选择的特征比例为目标值的第二列。
S4-11、选择:Pareto非支配排序方法将生成的子代与父代集合的所有个体的目标值进行排序得到所有个体的序号,按序号取前100个个体为下一代的多目标种群。
S4-12、识别下一代多目标与单目标种群中的最优解集:操作同步骤S4-7。
S4-13、组内纵向动态细化:当种群进化到Tr=10代结束后,对所有特征组进行组内细化,使得每一个特征组所携带的特征个数更少,以便于更加详细的搜索;该操作从每个象限的圆心引出一条射线将步骤S4-4中每个1/4圆弧划分为两个1/8圆弧,从而将初始扇形区域平均分成两个区域,每个区域的所有特征代表细化后新的一组;细化前的组选择情况是1或者0,则细化后的两组仍是1或者0。
S4-14、组间横向动态调整:在组内细化后,对于所有个体都没有选择的特征组作为交换组Ge,将错误率最低的个体Pbest没有选择的特征组作为被交换组Ged;然后从Ge中随机挑选一定数量的特征与Ged中随机选择的特征进行调换;接着生成两个个体C1和C2,其中C1有50%的概率重新选择组Ge;若C1选择,则C2不选择,反之亦然;最后将交换后生成的个体以步骤S4-6为例进行评价,并与交换前的个体集合后所有个体按照步骤S4-11进行选择。
S4-16、迭代:每执行完一次步骤S4-12或者步骤S4-14之后,迭代次数加一,然后重新回到步骤S4-8执行操作。
S4-17、终止:当迭代次数达到步骤S4-2中的迭代次数N即100时,特征选择进化算法终止,并将最后一代的多目标种群与其目标值输出。
S4-18、将步骤S4-17输出的所有个体的目标值进行Pareto非支配排序,得到排序后的帕累托第一前沿面的个体;记录得到的第一前沿面中分类精度最高的对应个体,即为特征选择进化算法在步骤S3特征提取后得到所有特征中最关键的一组指标特征组合。
关于测试结果的评估,本发明采用Yale、warpPIE10P、olivettifaces、UMIST和orlraws10P这5个人脸识别数据集进行测试。首先本发明与使用的人脸图像数据集所有特征进行识别分类的效果进行了对比。由表1中的对比可知,本发明可以使用远远少于所有特征的小特征组合且得到更高的分类精度,虽然在UMIST数据集上分类精度有所下降,但是原始维度过高,在实际中需要消耗较高的计算成本。该实验证明,本发明可以有效的对原始数据进行降维处理,剔除掉原始特征中的无关特征和冗余特征,使用少部分有用的特征进行更加准确的人脸识别分类。在表2和表3中,分别与目前几种先进的高维多目标特征选择进化算法(NSGA-2、MOEA/D、MOFS-BDE、DAEA、SM-MOEA、VGS-MOEA)在分类精度和分类成本上进行了比较。从表中可知,相比于其他算法本发明可以通过选择较少的特征数量得到较高的分类精度。虽然对于SM-MOEA和VGS-MOEA在大部分数据集上选择相对较多的特征,但是在可接受所选特征数量情况下所有数据集上的分类精度有了明显的提高,而在人脸识别中分类精度相比于所选特征数量更加重要。并且对于warpPIE10P数据集可以得到100%的分类准确度。这表明本发明可以快速有效的进行人脸识别的分类,提高人脸识别的准确率,并且提高人脸识别的速度。在人脸识别的各个领域,特别是安防等,可以有效的进行人脸识别,帮助从业人员有效的进行身份的判断。
表1使用所有病理特征与使用本发明输出病理特征组合分类精度(正确率)对比结果
表2本发明与其它进化算法对癌症识别分类的分类精度对比结果(%)
表3本发明与其它进化算法所选择的癌症识别分类的特征数目(个)对比结果
Claims (2)
1.一种基于双向动态分组的多目标特征选择的人脸识别分类方法,其特征在于,包括如下步骤:
S1、获取待识别分类的人脸图像;
S2、对待识别分类的人脸图像进行预处理,包括归一化和降噪;
S3、对预处理后的待识别分类人脸图像进行特征提取,包括:提取颜色特征、形状特征、纹理特征和灰度特征;
S4、基于双向动态分组多目标算法对提取到的特征进行特征选择;
S5、将选择后的特征组合输入到分类器中,然后对需要进行识别分类的人脸图像使用K近邻分类技术得到未知人脸的标签,并将此标签作为最终结果;
S6、输出待识别分类的人脸图像的分类结果。
2.根据权利要求1所述的一种基于双向动态分组的多目标特征选择的人脸识别分类方法,其特征在于:所述步骤S4中,基于双向动态分组多目标算法对提取到的特征进行特征选择的具体步骤包括:
S4-1、将数据集分为训练集和测试集,其中训练集占70%,测试集占30%;将训练集输入进行特征选择;
S4-2、设置特征选择进化算法参数:种群大小P为100、迭代次数N为100,特征数量为D,分组总数gNum设置为10*log2D,选择K近邻分类器,K近邻分类器的距离值K为5;
S4-3、设置种群中每个个体的编码方式为二值化编码方式,其中1代表选择此组特征,0代表不选;
S4-4、分组初始化:首先对分组初始化,即将特征进行SU和ReliefF评价,并且根据这两个评价指标的排名投影到二维坐标轴上;然后将投影后的特征平均划分为四个象限,每个象限的对角线长度为L,并根据每个象限的重要程度不同为各象限设置不同的阈值,如公式(1);接着按照公式(2)和(3)为不同象限设置不同的分组数量;最后以每个象限的左下角为圆心对每个象限的特征进行1/4圆弧的扇形分组,其中第一个圆弧的半径为L/G,G代表此象限的分组数量,第二个圆弧的半径为2*L/G,以此类推;每个圆弧与象限边界或者两个相邻圆弧之间的区域代表一个特征组;
其中ri 1和ri 2表示第i象限的特征在两个评价指标下排名的平均值;numi表示第i象限的特征数量;G24表示第2和第4象限的特征组数,G13表示第1和第3象限的特征组数;
S4-5、种群初始化:由于个体的一位代表一组特征,因此随机生成一个P行D列矩阵,矩阵中的每个值是0到1之间随机生成的,其中每一行代表一个个体,个体的每一列代表一个特征;若生成的值大于设定的阈值则设置为1,否则为0;
S4-6、评价初始化种群:按照5折交叉验证评价方法,利用公式(1)的适应度函数评价出初始化种群中每个个体的分类错误率和所选特征与特征总数的比例,得到初始化种群的目标值,其中分类错误率为目标值的第一列,所选择的指标特征比例为目标值的第二列;
其中ferror表示分类错误率,fratio表示所选特征比例;c表示类别数,FPi表示在类别i中预测错误的个数,Si代表类别i的样本个数;
S4-7、识别种群中的最优解集:对于Pareto非支配排序方法将多目标种群的目标值排序,取第一前沿面的解集为多目标种群的最优解集,并且将最优解集进行存档操作,存档的大小为100,如果超过100则按照距离对量选择前100的个体;
S4-8、交叉:对于步骤S4-5中的种群中的每一个个体执行交叉操作,首先对于父本的选择采用二元锦标赛法进行挑选;然后考虑到对重要特征进行保留,在进行交叉时将会出现三种情况:
S4-8-1、若两个父代在某一位的值都为1,生成两个子代对于此位的值仍为1;
S4-8-2、若两个父代在某一位的值都为0,生成两个子代对于此位的值仍为0;
S4-8-2、若一个父代在某一位的选择情况为1,而另一个父代选择情况为0,则考虑到对SU和ReliefF排名靠前的特征保留概率更高,排名靠后的保留概率低,设计如下概率Pc进行选择:
S4-9、变异:将步骤4-8中得到的子代进行从1到0的翻转,翻转概率Pm将从公式(3)得到;对于从0翻转到1的概率,将此设置为1/D;
S4-10、评价:5折交叉验证评价方法,以步骤S4-6为例评价出步骤S4-9中变异后生成的新子代种群中每个个体的分类错误率和所选择的特征比例,得到新子代种群的目标值,其中分类错误率为目标值的第一列,所选择的特征比例为目标值的第二列;
S4-11、选择:Pareto非支配排序方法将生成的子代与父代集合的所有个体的目标值进行排序得到所有个体的序号,按序号取前100个个体为下一代的多目标种群;
S4-12、识别下一代多目标与单目标种群中的最优解集:操作同步骤S4-7;
S4-13、组内纵向动态细化:当种群进化到Tr=10代结束后,对所有特征组进行组内细化,使得每一个特征组所携带的特征个数更少,以便于更加详细的搜索;该操作从每个象限的圆心引出一条射线将步骤S4-4中每个1/4圆弧划分为两个1/8圆弧,从而将初始扇形区域平均分成两个区域,每个区域的所有特征代表细化后新的一组;细化前的组选择情况是1或者0,则细化后的两组仍是1或者0;
S4-14、组间横向动态调整:在组内细化后,对于所有个体都没有选择的特征组作为交换组Ge,将错误率最低的个体Pbest没有选择的特征组作为被交换组Ged;然后从Ge中随机挑选一定数量的特征与Ged中随机选择的特征进行调换;接着生成两个个体C1和C2,其中C1有50%的概率重新选择组Ge;若C1选择,则C2不选择,反之亦然;最后将交换后生成的个体以步骤S4-6为例进行评价,并与交换前的个体集合后所有个体按照步骤S4-11进行选择;
S4-16、迭代:每执行完一次步骤S4-12或者步骤S4-14之后,迭代次数加一,然后重新回到步骤S4-8执行操作;
S4-17、终止:当迭代次数达到步骤S4-2中的迭代次数N即100时,特征选择进化算法终止,并将最后一代的多目标种群与其目标值输出;
S4-18、将步骤S4-17输出的所有个体的目标值进行Pareto非支配排序,得到排序后的帕累托第一前沿面的个体;记录得到的第一前沿面中分类精度最高的对应个体,即为特征选择进化算法在步骤S3特征提取后得到所有特征中最关键的一组指标特征组合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310094410.6A CN116403252A (zh) | 2023-02-10 | 2023-02-10 | 基于双向动态分组的多目标特征选择的人脸识别分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310094410.6A CN116403252A (zh) | 2023-02-10 | 2023-02-10 | 基于双向动态分组的多目标特征选择的人脸识别分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116403252A true CN116403252A (zh) | 2023-07-07 |
Family
ID=87014891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310094410.6A Pending CN116403252A (zh) | 2023-02-10 | 2023-02-10 | 基于双向动态分组的多目标特征选择的人脸识别分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116403252A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116975830A (zh) * | 2023-09-25 | 2023-10-31 | 中建八局第三建设有限公司 | 架桥机操作人员身份验证方法、系统及计算机可读介质 |
-
2023
- 2023-02-10 CN CN202310094410.6A patent/CN116403252A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116975830A (zh) * | 2023-09-25 | 2023-10-31 | 中建八局第三建设有限公司 | 架桥机操作人员身份验证方法、系统及计算机可读介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106372581B (zh) | 构建及训练人脸识别特征提取网络的方法 | |
CN108960833B (zh) | 一种基于异构金融特征的异常交易识别方法,设备及存储介质 | |
CN105138993A (zh) | 建立人脸识别模型的方法及装置 | |
Zois et al. | A comprehensive study of sparse representation techniques for offline signature verification | |
Jian et al. | Densely connected convolutional network optimized by genetic algorithm for fingerprint liveness detection | |
CN111414862A (zh) | 基于神经网络融合关键点角度变化的表情识别方法 | |
CN110826618A (zh) | 一种基于随机森林的个人信用风险评估方法 | |
CN111325237B (zh) | 一种基于注意力交互机制的图像识别方法 | |
CN113094596A (zh) | 一种基于双向传播图的多任务谣言检测方法 | |
Souza et al. | A white-box analysis on the writer-independent dichotomy transformation applied to offline handwritten signature verification | |
CN116403252A (zh) | 基于双向动态分组的多目标特征选择的人脸识别分类方法 | |
Diaz et al. | Investigating the common authorship of signatures by off-line automatic signature verification without the use of reference signatures | |
CN113569920B (zh) | 基于自动编码的第二近邻异常检测方法 | |
Zhang et al. | Multi-path siamese convolution network for offline handwritten signature verification | |
CN108596245A (zh) | 一种基于多视图协同完整鉴别子空间学习的人脸识别方法 | |
Narvaez et al. | Painting authorship and forgery detection challenges with ai image generation algorithms: Rembrandt and 17th century dutch painters as a case study | |
CN113361346A (zh) | 一种替换调节参数的尺度参数自适应的人脸识别方法 | |
CN111209850B (zh) | 一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法 | |
CN112818774A (zh) | 一种活体检测方法及装置 | |
Singh et al. | Fingerprint identification using modified capsule network | |
CN112200260A (zh) | 一种基于丢弃损失函数的人物属性识别方法 | |
Gona et al. | Multimodal biometric reorganization system using deep learning convolutional neural network | |
Xiao et al. | An improved siamese network model for handwritten signature verification | |
Akinyemi et al. | An individualized face pairing model for age-invariant face recognition | |
Muhtar et al. | A Survey of Offline Handwritten Signature Verification Based on Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |