CN116403250A - 存在遮挡的人脸识别方法及装置 - Google Patents

存在遮挡的人脸识别方法及装置 Download PDF

Info

Publication number
CN116403250A
CN116403250A CN202211724158.4A CN202211724158A CN116403250A CN 116403250 A CN116403250 A CN 116403250A CN 202211724158 A CN202211724158 A CN 202211724158A CN 116403250 A CN116403250 A CN 116403250A
Authority
CN
China
Prior art keywords
feature
layer
module
face recognition
recognition model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211724158.4A
Other languages
English (en)
Inventor
蒋召
黄泽元
祁晓婷
杨战波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Longzhi Digital Technology Service Co Ltd
Original Assignee
Beijing Longzhi Digital Technology Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Longzhi Digital Technology Service Co Ltd filed Critical Beijing Longzhi Digital Technology Service Co Ltd
Priority to CN202211724158.4A priority Critical patent/CN116403250A/zh
Publication of CN116403250A publication Critical patent/CN116403250A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及人脸识别技术领域,提供了一种存在遮挡的人脸识别方法及装置。该方法包括:基于残差网络构建多尺度特征提取模块;利用卷积层、激活层和归一化层构建掩码模块,利用掩码模块和激活层构建注意力模块;利用多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;对人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别。采用上述技术手段,解决现有技术中,只能通过大规模的训练数据提升遮挡场景下人脸识别模型的精度的问题。

Description

存在遮挡的人脸识别方法及装置
技术领域
本公开涉及人脸识别技术领域,尤其涉及一种存在遮挡的人脸识别方法及装置。
背景技术
随着深度学习的发展,通用场景下的人脸精度越来越高,但是当面对遮挡场景时,比如口罩遮挡或者眼镜遮挡,往往会造成误识别现象,从而影响了人脸识别算法在现实场景下的应用。为了解决遮挡场景下人脸识别模型精度受限的问题,现有的算法往往从数据角度出发,通过生成大规模的遮挡人脸数据,来提升遮挡场景下的人脸识别效果,但是这种做法使得人脸识别模型的精度非常依赖训练数据的数据量。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下技术问题:只能通过大规模的训练数据提升遮挡场景下人脸识别模型的精度的问题。
发明内容
有鉴于此,本公开实施例提供了一种存在遮挡的人脸识别方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,只能通过大规模的训练数据提升遮挡场景下人脸识别模型的精度的问题。
本公开实施例的第一方面,提供了一种存在遮挡的人脸识别方法,包括:基于残差网络构建多尺度特征提取模块;利用卷积层、激活层和归一化层构建掩码模块,利用掩码模块和激活层构建注意力模块;利用多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;对人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别。
本公开实施例的第二方面,提供了一种存在遮挡的人脸识别装置,包括:第一构建模块,被配置为基于残差网络构建多尺度特征提取模块;第二构建模块,被配置为利用卷积层、激活层和归一化层构建掩码模块,利用掩码模块和激活层构建注意力模块;第三构建模块,被配置为利用多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;模型模块,被配置为对人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别。
本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:因为本公开实施例通过基于残差网络构建多尺度特征提取模块;利用卷积层、激活层和归一化层构建掩码模块,利用掩码模块和激活层构建注意力模块;利用多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;对人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别,因此,采用上述技术手段,可以解决现有技术中,只能通过大规模的训练数据提升遮挡场景下人脸识别模型的精度的问题,进而提高遮挡场景下人脸识别模型的精度。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例的应用场景的场景示意图;
图2是本公开实施例提供的一种存在遮挡的人脸识别方法的流程示意图;
图3是本公开实施例提供的一种存在遮挡的人脸识别装置的结构示意图;
图4是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
下面将结合附图详细说明根据本公开实施例的一种存在遮挡的人脸识别方法和装置。
图1是本公开实施例的应用场景的场景示意图。该应用场景可以包括终端设备101、102和103、服务器104以及网络105。
终端设备101、102和103可以是硬件,也可以是软件。当终端设备101、102和103为硬件时,其可以是具有显示屏且支持与服务器104通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等;当终端设备101、102和103为软件时,其可以安装在如上的电子设备中。终端设备101、102和103可以实现为多个软件或软件模块,也可以实现为单个软件或软件模块,本公开实施例对此不作限制。进一步地,终端设备101、102和103上可以安装有各种应用,例如数据处理应用、即时通信工具、社交平台软件、搜索类应用、购物类应用等。
服务器104可以是提供各种服务的服务器,例如,对与其建立通信连接的终端设备发送的请求进行接收的后台服务器,该后台服务器可以对终端设备发送的请求进行接收和分析等处理,并生成处理结果。服务器104可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本公开实施例对此不作限制。
需要说明的是,服务器104可以是硬件,也可以是软件。当服务器104为硬件时,其可以是为终端设备101、102和103提供各种服务的各种电子设备。当服务器104为软件时,其可以是为终端设备101、102和103提供各种服务的多个软件或软件模块,也可以是为终端设备101、102和103提供各种服务的单个软件或软件模块,本公开实施例对此不作限制。
网络105可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,蓝牙(Bluetooth)、近场通信(Near FieldCommunication,NFC)、红外(Infrared)等,本公开实施例对此不作限制。
用户可以通过终端设备101、102和103经由网络105与服务器104建立通信连接,以接收或发送信息等。需要说明的是,终端设备101、102和103、服务器104以及网络105的具体类型、数量和组合可以根据应用场景的实际需求进行调整,本公开实施例对此不作限制。
图2是本公开实施例提供的一种存在遮挡的人脸识别方法的流程示意图。图2的存在遮挡的人脸识别方法可以由图1的计算机或服务器,或者计算机或服务器上的软件执行。如图2所示,该存在遮挡的人脸识别方法包括:
S201,基于残差网络构建多尺度特征提取模块;
S202,利用卷积层、激活层和归一化层构建掩码模块,利用掩码模块和激活层构建注意力模块;
S203,利用多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;
S204,对人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别。
本公开实施例通过改进残差网络,得到了多尺度特征提取模块,该多尺度特征提取模块提取图片特征更丰富;归一化层是BN层,利用卷积层、激活层和归一化层三种网络层构建的掩码模块,用于调整特征图中的特征值的权重,也就是增大非遮挡区域对应特征值的权重以及减小遮挡区域对应特征值的权重,通过掩码模块降低了图片上遮挡区域的权重,提高了图片上非遮挡区域的权重,进而利用掩码模块和激活层构建的注意力模块可以提升遮挡场景下人脸识别模型的准确率。
根据本公开实施例提供的技术方案,基于残差网络构建多尺度特征提取模块;利用卷积层、激活层和归一化层构建掩码模块,利用掩码模块和激活层构建注意力模块;利用多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;对人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别,因此,采用上述技术手段,可以解决现有技术中,只能通过大规模的训练数据提升遮挡场景下人脸识别模型的精度的问题,进而提高遮挡场景下人脸识别模型的精度。
基于残差网络构建多尺度特征提取模块,包括:残差网络内部从前到后依次为第零阶段网络、第一阶段网络、第二阶段网络、第三阶段网络和第四阶段网络,将第二阶段网络、第三阶段网络和第四阶段网络的输出分别记作第一特征、第二特征和第三特征;在残差网络的基础上,将第三特征经过二倍上采样后与第二特征相加,得到第四特征,将第四特征经过二倍上采样后与第一特征相加,得到第五特征;其中,第三特征、第四特征和第五特征为多尺度特征提取模块的输出。
残差神经网络,比如ResNet50,网络内部从前到后依次为第零阶段网络Stage0、第一阶段网络Stage1、第二阶段网络Stage2、第三阶段网络Stage3和第四阶段网络Stage4。
本公开实施例在残差网络的基础上,将第三特征也就是第四阶段网络的输出经过二倍上采样后与第二特征也就是第三阶段网络的输出相加,得到第四特征,将第四特征经过二倍上采样后与第一特征也就是第二阶段网络的输出相加,得到第五特征。多尺度特征提取模块最终输出第三特征、第四特征和第五特征。
对第三特征进行二倍上采样的作用是扩大第三特征的维度,使得第三特征与第二特征的维度一样,然后相加(之所以是二倍,这和残差网络相邻阶段网络的输出有关,残差网络上一个阶段网络的输出的维度是和下一个阶段网络的输出的维度的2倍);对第四特征进行二倍上采样的作用也是如此。
利用卷积层、激活层和归一化层构建掩码模块,包括:依次连接卷积层、激活层、归一化层和卷积层,得到掩码模块。
利用掩码模块和激活层构建注意力模块,包括:分别将第四特征和第五特征输入掩码模块,输出第六特征和第七特征;将第六特征和第七特征相加,得到第八特征;将第八特征输入激活层,输出第九特征;将第九特征和第三特征相乘,得到第十特征;其中,第三特征、第四特征和第五特征为多尺度特征提取模块的输出,第十特征为注意力模块的输出。
为了便于理解,本公开实施例是从注意力模块运行的过程的角度来说明注意力模块的结构的,实际上注意力模块的结构可以理解如下:一个掩码模块用于接收并处理第四特征,为第一分支;另一个掩码模块用于接收并处理第五特征,为第二分支;第一分支与第二分支后接相加网络层,用于对第一分支与第二分支的输出加和(将第六特征和第七特征相加);相加网络层后接激活层,激活层可以是sigmoid;激活层后接相乘网络层,用于对激活层的输出(也就是第九特征)和第三特征相乘;相乘的结果为第十特征,第十特征为注意力模块的输出。
掩码模块用于调整第四特征和第五特征中特征值的权重,包括:增大非遮挡区域对应特征值的权重以及减小遮挡区域对应特征值的权重;其中,第四特征和第五特征均包括多个特征值,第四特征和第五特征中均存在非遮挡区域和遮挡区域对应的特征值。
需要说明的是,本公开中的特征均可以理解为特征图,每个特征图是由多个特征值构成的。增大非遮挡区域对应特征值的权重以及减小遮挡区域对应特征值的权重,就可以提高对非遮挡区域的注意力,降低遮挡区域的注意力,进而利用有用的信息(非遮挡区域的信息是可以用的,遮挡区域的信息是不可以用),提高识别的准确率。
利用多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型,包括:依次连接多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层,得到人脸识别模型。
对人脸识别模型进行训练,包括:获取训练数据集,将训练数据集中的样本输入人脸识别模型,其中,样本存在遮挡;利用多尺度特征提取模块提取样本的第三特征、第四特征和第五特征;利用注意力模块处理样本的第三特征、第四特征和第五特征,得到样本的第十特征;将样本的第十特征依次经过全局平均池化层、全连接层和Softmax层处理,得到识别结果;利用人脸识别模型的损失函数计算样本的标签和识别结果之间的损失值,依据损失值更新人脸识别模型的模型参数,以完成对人脸识别模型的训练。
注意力模块处理样本的第三特征、第四特征和第五特征,其中,注意力模块中的掩码模块降低了第三特征、第四特征和第五特征中遮挡区域的权重,提高了第三特征、第四特征和第五特征中非遮挡区域的权重,最终注意力模块输出样本的第十特征。
利用训练好的人脸识别模型进行人脸识别,具体地:
将待识别的图片输入人脸识别模型;利用多尺度特征提取模块提取待识别的图片的第三特征、第四特征和第五特征;利用注意力模块处理待识别的图片的第三特征、第四特征和第五特征,得到待识别的图片的第十特征;将待识别的图片的第十特征依次经过全局平均池化层、全连接层和Softmax层处理,得到识别结果。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图3是本公开实施例提供的一种存在遮挡的人脸识别装置的示意图。如图3所示,该存在遮挡的人脸识别装置包括:
第一构建模块301,被配置为基于残差网络构建多尺度特征提取模块;
第二构建模块302,被配置为利用卷积层、激活层和归一化层构建掩码模块,利用掩码模块和激活层构建注意力模块;
第三构建模块303,被配置为利用多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;
模型模块304,被配置为对人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别。
本公开实施例通过改进残差网络,得到了多尺度特征提取模块,该多尺度特征提取模块提取图片特征更丰富;归一化层是BN层,利用卷积层、激活层和归一化层三种网络层构建的掩码模块,用于调整特征图中的特征值的权重,也就是增大非遮挡区域对应特征值的权重以及减小遮挡区域对应特征值的权重,通过掩码模块降低了图片上遮挡区域的权重,提高了图片上非遮挡区域的权重,进而利用掩码模块和激活层构建的注意力模块可以提升遮挡场景下人脸识别模型的准确率。
根据本公开实施例提供的技术方案,基于残差网络构建多尺度特征提取模块;利用卷积层、激活层和归一化层构建掩码模块,利用掩码模块和激活层构建注意力模块;利用多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;对人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别,因此,采用上述技术手段,可以解决现有技术中,只能通过大规模的训练数据提升遮挡场景下人脸识别模型的精度的问题,进而提高遮挡场景下人脸识别模型的精度。
可选地,第一构建模块301还被配置为将第二阶段网络、第三阶段网络和第四阶段网络的输出分别记作第一特征、第二特征和第三特征;在残差网络的基础上,将第三特征经过二倍上采样后与第二特征相加,得到第四特征,将第四特征经过二倍上采样后与第一特征相加,得到第五特征;其中,第三特征、第四特征和第五特征为多尺度特征提取模块的输出。
残差神经网络,比如ResNet50,网络内部从前到后依次为第零阶段网络Stage0、第一阶段网络Stage1、第二阶段网络Stage2、第三阶段网络Stage3和第四阶段网络Stage4。
本公开实施例在残差网络的基础上,将第三特征也就是第四阶段网络的输出经过二倍上采样后与第二特征也就是第三阶段网络的输出相加,得到第四特征,将第四特征经过二倍上采样后与第一特征也就是第二阶段网络的输出相加,得到第五特征。多尺度特征提取模块最终输出第三特征、第四特征和第五特征。
对第三特征进行二倍上采样的作用是扩大第三特征的维度,使得第三特征与第二特征的维度一样,然后相加(之所以是二倍,这和残差网络相邻阶段网络的输出有关,残差网络上一个阶段网络的输出的维度是和下一个阶段网络的输出的维度的2倍);对第四特征进行二倍上采样的作用也是如此。
可选地,第二构建模块302还被配置为依次连接卷积层、激活层、归一化层和卷积层,得到掩码模块。
可选地,第二构建模块302还被配置为分别将第四特征和第五特征输入掩码模块,输出第六特征和第七特征;将第六特征和第七特征相加,得到第八特征;将第八特征输入激活层,输出第九特征;将第九特征和第三特征相乘,得到第十特征;其中,第三特征、第四特征和第五特征为多尺度特征提取模块的输出,第十特征为注意力模块的输出。
为了便于理解,本公开实施例是从注意力模块运行的过程的角度来说明注意力模块的结构的,实际上注意力模块的结构可以理解如下:一个掩码模块用于接收并处理第四特征,为第一分支;另一个掩码模块用于接收并处理第五特征,为第二分支;第一分支与第二分支后接相加网络层,用于对第一分支与第二分支的输出加和(将第六特征和第七特征相加);相加网络层后接激活层,激活层可以是sigmoid;激活层后接相乘网络层,用于对激活层的输出(也就是第九特征)和第三特征相乘;相乘的结果为第十特征,第十特征为注意力模块的输出。
掩码模块用于调整第四特征和第五特征中特征值的权重,包括:增大非遮挡区域对应特征值的权重以及减小遮挡区域对应特征值的权重;其中,第四特征和第五特征均包括多个特征值,第四特征和第五特征中均存在非遮挡区域和遮挡区域对应的特征值。
需要说明的是,本公开中的特征均可以理解为特征图,每个特征图是由多个特征值构成的。增大非遮挡区域对应特征值的权重以及减小遮挡区域对应特征值的权重,就可以提高对非遮挡区域的注意力,降低遮挡区域的注意力,进而利用有用的信息(非遮挡区域的信息是可以用的,遮挡区域的信息是不可以用),提高识别的准确率。
可选地,第三构建模块303还被配置为依次连接多尺度特征提取模块、注意力模块、全局平均池化层、全连接层和Softmax层,得到人脸识别模型。
可选地,模型模块304还被配置为获取训练数据集,将训练数据集中的样本输入人脸识别模型,其中,样本存在遮挡;利用多尺度特征提取模块提取样本的第三特征、第四特征和第五特征;利用注意力模块处理样本的第三特征、第四特征和第五特征,得到样本的第十特征;将样本的第十特征依次经过全局平均池化层、全连接层和Softmax层处理,得到识别结果;利用人脸识别模型的损失函数计算样本的标签和识别结果之间的损失值,依据损失值更新人脸识别模型的模型参数,以完成对人脸识别模型的训练。
注意力模块处理样本的第三特征、第四特征和第五特征,其中,注意力模块中的掩码模块降低了第三特征、第四特征和第五特征中遮挡区域的权重,提高了第三特征、第四特征和第五特征中非遮挡区域的权重,最终注意力模块输出样本的第十特征。
可选地,模型模块304还被配置为,将待识别的图片输入人脸识别模型;利用多尺度特征提取模块提取待识别的图片的第三特征、第四特征和第五特征;利用注意力模块处理待识别的图片的第三特征、第四特征和第五特征,得到待识别的图片的第十特征;将待识别的图片的第十特征依次经过全局平均池化层、全连接层和Softmax层处理,得到识别结果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图4是本公开实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。

Claims (10)

1.一种存在遮挡的人脸识别方法,其特征在于,包括:
基于残差网络构建多尺度特征提取模块;
利用卷积层、激活层和归一化层构建掩码模块,利用所述掩码模块和所述激活层构建注意力模块;
利用所述多尺度特征提取模块、所述注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;
对所述人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别。
2.根据权利要求1所述的方法,其特征在于,基于残差网络构建多尺度特征提取模块,包括:
所述残差网络内部从前到后依次为第零阶段网络、第一阶段网络、第二阶段网络、第三阶段网络和第四阶段网络,将所述第二阶段网络、所述第三阶段网络和所述第四阶段网络的输出分别记作第一特征、第二特征和第三特征;
在所述残差网络的基础上,将所述第三特征经过二倍上采样后与所述第二特征相加,得到第四特征,将所述第四特征经过二倍上采样后与所述第一特征相加,得到第五特征;
其中,所述第三特征、所述第四特征和所述第五特征为所述多尺度特征提取模块的输出。
3.根据权利要求1所述的方法,其特征在于,利用卷积层、激活层和归一化层构建掩码模块,包括:
依次连接所述卷积层、所述激活层、所述归一化层和所述卷积层,得到所述掩码模块。
4.根据权利要求1所述的方法,其特征在于,利用所述掩码模块和所述激活层构建注意力模块,包括:
分别将第四特征和第五特征输入所述掩码模块,输出第六特征和第七特征;
将所述第六特征和所述第七特征相加,得到第八特征;
将所述第八特征输入所述激活层,输出第九特征;
将所述第九特征和第三特征相乘,得到第十特征;
其中,所述第三特征、所述第四特征和所述第五特征为所述多尺度特征提取模块的输出,所述第十特征为所述注意力模块的输出。
5.根据权利要求4所述的方法,其特征在于,所述掩码模块用于调整所述第四特征和所述第五特征中特征值的权重,包括:增大非遮挡区域对应特征值的权重以及减小遮挡区域对应特征值的权重;
其中,所述第四特征和所述第五特征均包括多个特征值,所述第四特征和所述第五特征中均存在非遮挡区域和遮挡区域对应的特征值。
6.根据权利要求1所述的方法,其特征在于,利用所述多尺度特征提取模块、所述注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型,包括:
依次连接所述多尺度特征提取模块、所述注意力模块、所述全局平均池化层、所述全连接层和所述Softmax层,得到所述人脸识别模型。
7.根据权利要求1所述的方法,其特征在于,对所述人脸识别模型进行训练,包括:
获取训练数据集,将所述训练数据集中的样本输入所述人脸识别模型,其中,所述样本存在遮挡;
利用所述多尺度特征提取模块提取所述样本的第三特征、第四特征和第五特征;
利用所述注意力模块处理所述样本的第三特征、第四特征和第五特征,得到所述样本的第十特征;
将所述样本的第十特征依次经过所述全局平均池化层、所述全连接层和所述Softmax层处理,得到识别结果;
利用所述人脸识别模型的损失函数计算所述样本的标签和识别结果之间的损失值,依据所述损失值更新所述人脸识别模型的模型参数,以完成对所述人脸识别模型的训练。
8.一种存在遮挡的人脸识别装置,其特征在于,包括:
第一构建模块,被配置为基于残差网络构建多尺度特征提取模块;
第二构建模块,被配置为利用卷积层、激活层和归一化层构建掩码模块,利用所述掩码模块和所述激活层构建注意力模块;
第三构建模块,被配置为利用所述多尺度特征提取模块、所述注意力模块、全局平均池化层、全连接层和Softmax层构建人脸识别模型;
模型模块,被配置为对所述人脸识别模型进行训练,利用训练好的人脸识别模型进行人脸识别。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
CN202211724158.4A 2022-12-30 2022-12-30 存在遮挡的人脸识别方法及装置 Pending CN116403250A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211724158.4A CN116403250A (zh) 2022-12-30 2022-12-30 存在遮挡的人脸识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211724158.4A CN116403250A (zh) 2022-12-30 2022-12-30 存在遮挡的人脸识别方法及装置

Publications (1)

Publication Number Publication Date
CN116403250A true CN116403250A (zh) 2023-07-07

Family

ID=87006312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211724158.4A Pending CN116403250A (zh) 2022-12-30 2022-12-30 存在遮挡的人脸识别方法及装置

Country Status (1)

Country Link
CN (1) CN116403250A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116912633A (zh) * 2023-09-12 2023-10-20 深圳须弥云图空间科技有限公司 目标追踪模型的训练方法及装置
CN116912636A (zh) * 2023-09-12 2023-10-20 深圳须弥云图空间科技有限公司 目标识别方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116912633A (zh) * 2023-09-12 2023-10-20 深圳须弥云图空间科技有限公司 目标追踪模型的训练方法及装置
CN116912636A (zh) * 2023-09-12 2023-10-20 深圳须弥云图空间科技有限公司 目标识别方法及装置
CN116912636B (zh) * 2023-09-12 2023-12-12 深圳须弥云图空间科技有限公司 目标识别方法及装置
CN116912633B (zh) * 2023-09-12 2024-01-05 深圳须弥云图空间科技有限公司 目标追踪模型的训练方法及装置

Similar Documents

Publication Publication Date Title
CN116403250A (zh) 存在遮挡的人脸识别方法及装置
CN109829432B (zh) 用于生成信息的方法和装置
CN116385328A (zh) 基于为图像添加噪声的图像数据增强方法及装置
CN116524206B (zh) 目标图像的识别方法及装置
CN115953803A (zh) 人体识别模型的训练方法及装置
CN116030520A (zh) 存在遮挡的人脸识别方法及装置
CN116129501A (zh) 人脸位姿估计方法及装置
CN111709784B (zh) 用于生成用户留存时间的方法、装置、设备和介质
CN115984783B (zh) 人群计数方法及装置
CN116258915B (zh) 多个目标部位联合检测的方法及装置
CN107368597B (zh) 信息输出方法和装置
CN115862117A (zh) 存在遮挡的人脸识别方法及装置
CN116912633B (zh) 目标追踪模型的训练方法及装置
CN116912631B (zh) 目标识别方法、装置、电子设备及存储介质
CN117392731B (zh) 表情识别模型的训练方法和装置
CN115937929A (zh) 针对难例样本的人脸识别模型的训练方法及装置
CN116912518B (zh) 图像的多尺度特征处理方法及装置
CN116911313B (zh) 一种语义漂移文本的识别方法及装置
CN117474037B (zh) 基于空间距离对齐的知识蒸馏方法及装置
CN115359274A (zh) 行人图像的匹配方法及装置
CN115661899A (zh) 针对难例样本的人脸识别模型的训练方法及装置
CN115760791A (zh) 图片质量评估方法及装置
CN115830692A (zh) 人脸识别模型的训练方法及装置
CN115995030A (zh) 目标检测中大规模数据集的生成方法及装置
CN115186757A (zh) 自注意力模型的训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination