CN117315755A - 一种异常图像识别方法、装置、电子设备及存储介质 - Google Patents
一种异常图像识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117315755A CN117315755A CN202311298431.6A CN202311298431A CN117315755A CN 117315755 A CN117315755 A CN 117315755A CN 202311298431 A CN202311298431 A CN 202311298431A CN 117315755 A CN117315755 A CN 117315755A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- classification
- face image
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002159 abnormal effect Effects 0.000 title claims abstract description 111
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000000605 extraction Methods 0.000 claims abstract description 95
- 238000013145 classification model Methods 0.000 claims abstract description 90
- 238000011176 pooling Methods 0.000 claims abstract description 69
- 230000004913 activation Effects 0.000 claims abstract description 42
- 238000012545 processing Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 54
- 238000012795 verification Methods 0.000 claims description 54
- 238000003062 neural network model Methods 0.000 claims description 50
- 238000012549 training Methods 0.000 claims description 47
- 238000004891 communication Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 6
- 230000036541 health Effects 0.000 abstract description 16
- 238000004364 calculation method Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Public Health (AREA)
- Biodiversity & Conservation Biology (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种异常图像识别方法、装置、电子设备及存储介质,涉及图像处理技术领域。异常图像识别方法包括:获得待识别人脸图像;将待识别人脸图像输入图像分类模型的卷积特征提取层,获得卷积特征提取层输出的识别人脸图像的图像特征;将图像特征输入池化层,获得池化层输出的第一中间特征;将第一中间特征输入全连接层,获得全连接层基于第一激活函数对第一中间特征进行计算后输出的第二中间特征;将第二中间特征输入分类层,获得分类层基于第二激活函数对第二中间特征进行计算后输出的分类结果;基于分类结果,确定待识别人脸图像是否为异常图像。应用本发明实施例提供的方案能够了解被识别人的身体健康状态。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种异常图像识别方法、装置、电子设备及存储介质。
背景技术
随着时代发展,人们对自己身体健康状况越来越关注。一个人的神态、体态可以反映一个人的健康状态,当人们的身体健康状况发送改变时,其神态、体态往往也会随之变化。因此,可以根据一个人的神态、体态的图像了解这个人的身体健康状况。
由于人们希望能够即时了解自己的健康状况的变化,鉴于此,需要提供一种异常图像识别方案。
发明内容
本发明实施例的目的在于提供一种异常图像识别方法、装置、电子设备及存储介质,以实现能够了解被识别人的身体健康状态。具体技术方案如下:
根据本发明实施例的第一方面,提供了一种异常图像识别方法,所述方法包括:
获得待识别人脸图像;
将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征,其中,所述图像分类模型还包括:池化层、全连接层、分类层;
将所述图像特征输入所述池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征;
将所述第一中间特征输入所述全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征;
将所述第二中间特征输入所述分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果;
基于所述分类结果,确定所述待识别人脸图像是否为异常图像。
可选的,所述将所述待识别人脸图像输入图像分类模型的卷积特征提取层,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征,包括:
将所述待识别人脸图像输入多个图像分类模型的卷积特征提取层,获得各卷积特征提取层输出的所述识别人脸图像的图像特征;
所述将所述图像特征输入所述池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征,包括:
将每一卷积特征提取层输出的图像特征输入该卷积特征提取层对应的池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征;
所述将所述第一中间特征输入所述全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征,包括:
将每一池化层输出的第一中间特征输入该池化层对应的全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征;
所述将所述第二中间特征输入所述分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果,包括:
将每一全连接层输出的第二中间特征输入该全连接层对应的分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果;
所述基于所述分类结果,确定所述待识别人脸图像是否为异常图像,包括:
基于各图像分类模型对应的权重,融合各图像分类模型的分类层输出的分类结果,基于融合结果,确定所述待识别人脸图像是否为异常图像。
可选的,所述图像分类模型通过以下方式训练得到:
将样本图像分为第一数量个数据集,其中,所述样本图像包括非异常图像与异常图像,各数据集中非异常图像的数量相等,各数据集中异常图像的数量相等;
从所述数据集中选择预设数量个数据集,作为验证集,将所述验证集之外的数据集作为训练集;
将所述训练集依次输入神经网络模型;
基于每一输入的训练集对应的神经网络模型的输出结果,调整所述神经网络模型的参数;
将所述验证集输入调整参数后的神经网络模型,基于所述验证集对应的输出结果,得到所述调整参数后的神经网络模型的可靠程度;
在所述可靠程度小于预设可靠程度,且存在数据集未被选择作为验证集的情况下,选择预设数量个未被选择作为验证集的数据集作为验证集,将所述验证集之外的数据集作为训练集,并执行将所述训练集依次输入神经网络模型的步骤;
在所述可靠程度不小于预设可靠程度,或不存在数据集未被选择作为验证集的情况下,将所述调整参数后的神经网络模型作为训练好的图像分类模型。
可选的,所述将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征,包括:
将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像的蓝色通道进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征
可选的,所述获得待识别人脸图像,包括:
基于所获得的人脸图像对应的人脸三维信息,调整所述人脸图像中的人脸姿态,得到待识别人脸图像,其中,所述待识别人脸图像中的人脸朝向正前方。
根据本发明实施例的第二方面,提供了一种异常图像识别装置,所述装置包括:
图像获得模块,用于获得待识别人脸图像;
第一特征提取模块,用于将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征,其中,所述图像分类模型还包括:池化层、全连接层、分类层;
第二特征提取模块,用于将所述图像特征输入所述池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征;
第三特征提取模块,用于将所述第一中间特征输入所述全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征;
分类结果获得模块,用于将所述第二中间特征输入所述分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果;
图像确定模块,用于基于所述分类结果,确定所述待识别人脸图像是否为异常图像。
可选的,所述第一特征提取模块,具体用于将所述待识别人脸图像输入多个图像分类模型的卷积特征提取层,获得各卷积特征提取层输出的所述识别人脸图像的图像特征;
所述第二特征提取模块,具体用于将每一卷积特征提取层输出的图像特征输入该卷积特征提取层对应的池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征;
所述第三特征提取模块,具体用于将每一池化层输出的第一中间特征输入该池化层对应的全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征;
所述分类结果获得模块,具体用于将每一全连接层输出的第二中间特征输入该全连接层对应的分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果;
所述图像确定模块,具体用于基于各图像分类模型对应的权重,融合各图像分类模型的分类层输出的分类结果,基于融合结果,确定所述待识别人脸图像是否为异常图像。
可选的,所述图像分类模型通过以下方式训练得到:
将样本图像分为第一数量个数据集,其中,所述样本图像包括非异常图像与异常图像,各数据集中非异常图像的数量相等,各数据集中异常图像的数量相等;
从所述数据集中选择预设数量个数据集,作为验证集,将所述验证集之外的数据集作为训练集;
将所述训练集依次输入神经网络模型;
基于每一输入的训练集对应的神经网络模型的输出结果,调整所述神经网络模型的参数;
将所述验证集输入调整参数后的神经网络模型,基于所述验证集对应的输出结果,得到所述调整参数后的神经网络模型的可靠程度;
在所述可靠程度小于预设可靠程度,且存在数据集未被选择作为验证集的情况下,选择预设数量个未被选择作为验证集的数据集作为验证集,将所述验证集之外的数据集作为训练集,并执行将所述训练集依次输入神经网络模型的步骤;
在所述可靠程度不小于预设可靠程度,或不存在数据集未被选择作为验证集的情况下,将所述调整参数后的神经网络模型作为训练好的图像分类模型。
可选的,所述第一特征提取模块,具体用于将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像的蓝色通道进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征。
可选的,所述图像获得模块,具体用于基于所获得的人脸图像对应的人脸三维信息,调整所述人脸图像中的人脸姿态,得到待识别人脸图像,其中,所述待识别人脸图像中的人脸朝向正前方。
根据本发明实施例的第三方面,提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面所述的异常图像识别方法。
根据本发明实施例的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的异常图像识别方法。
本发明实施例有益效果:
本发明实施例提供的异常图像识别方案,可以将待识别人脸图像输入图像分类模型获得图像分类模型输出的待识别人脸图像的分类结果,从而基于分类结果确定待识别人脸图像为异常图像还是非异常图像。由于图像分类模型是基于待识别人脸图像提取得到的图像特征进行图像分类的,也就是,是依对待识别人脸图像对待识别人脸图像进行分类。如果待识别人脸图像为异常图像,说明其图像特征与非异常图像的图像特征存在差异,即待识别人脸图像对应的待识别人的面部仪态与非异常图像对应的人的面部仪态存在差异,由于人的面部仪态可以反映人的健康状况,因此,被识别人的健康状况与非异常图像对应的人的健康状况存在差异。这样,被识别人可以根据其人脸图像是否为异常图像来了解自己的健康状态。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的实施例。
图1为本发明实施例提供的一种图像分类模型的结构示意图;
图2为本发明实施例提供的第一种异常图像识别方法的流程示意图;
图3为本发明实施例提供的第二种异常图像识别方法的流程示意图;
图4为本发明实施例提供的一种模型训练方法的流程示意图;
图5为发明实施例提供的一种异常图像识别装置的结构示意图;
图6为发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本发明保护的范围。
下面对本发明实施例的执行主体进行说明。
本发明实施例的执行主体可以为电子设备,例如台式机、服务器等。
下面对本发明实施例涉及的图像分类模型进行说明。
参见图1,提供了一种图像分类模型的结构示意图。
可以看出,图像分类模型包括卷积特征提取层、池化层、全连接层和分类层。
具体的,上述卷积特征提取层、池化层、全连接层和分类层的功能将在后文图2所示的方法实施例中的步骤S202-步骤S205进行进一步说明。
下面通过具体实施例对本发明实施例提供的异常图像识别方法进行说明。
参见图2,提供了第一种异常图像识别方法的流程示意图,该方法包括以下步骤S201-步骤S206。
步骤S201:获得待识别人脸图像。
电子设备可以获得与其通信连接的图像采集设备所采集的人脸图像,作为待识别人脸图像。电子设备也可以获得用户输入的人脸图像,作为待识别人脸图像。
一种情况下,电子设备还可以获得人脸图像对应的人脸三维信息。例如,电子设备可以通过双目相机获得人脸图像对应的人脸三维信息,或通过三维扫描仪获得人脸图像对应的人脸三维信息。
本情况下,电子设备在获得人脸图像后,可以基于所获得的人脸图像对应的人脸三维信息,调整人脸图像中的人脸姿态,得到待识别人脸图像。
其中,待识别人脸图像中的人脸朝向正前方。
具体的,电子设备可以根据人脸三维信息,基于所获得的人脸图像,生成鼻尖位于图像中心、人脸朝向正前方的人脸图像,作为待识别人脸图像。
这样获得待识别人脸图像,可以保证所获得的待识别人脸图像中人脸的姿态一致,降低了人脸姿态差异对待识别人脸图像进行异常图像识别的影响,提高了异常图像识别的准确度。
电子设备还可以对所生成的人脸图像进行裁剪与缩放,例如,电子设备可以裁去人脸以外的多余背景,并将人脸图像缩放至合适大小,该大小可以是224×224像素,也可以是其他大小,本发明实施例对此并不进行限定。
步骤S202:将待识别人脸图像输入图像分类模型的卷积特征提取层,对待识别人脸图像进行特征提取,获得卷积特征提取层输出的待识别人脸图像的图像特征。
上述图像分类模型可以为对深度卷积神经网络进行训练得到的模型,深度卷积神经网络可以采用Xception、ResNet50、VGG19或EfficientNet B1等。对于不同的深度卷积神经网络,其提取图像特征的方式也有所差异。
对于深度卷积神经网络的训练将在后文图3对应的实施例中进一步说明,此处暂不详述。
上述图像特征的形式可以是向量、矩阵也可以是待识别人脸图像的特征图,特征图的数量可以为多个。
一种实现方式中,电子设备可以将待识别人脸图像输入图像分类模型的卷积特征提取层,对待识别人脸图像的蓝色通道进行特征提取,获得卷积特征提取层输出的待识别人脸图像的图像特征。
这样提取得到的图像特征会能够更好地表征人脸图像的蓝色通道,从而使后续图像分类模型在分类时能够基于人脸图像的蓝色通道进行分类。
另一种实现方式中,电子设备可以将待识别人脸图像输入图像分类模型的卷积特征提取层,对待识别人脸图像的RGB(Red Green Blue,红绿蓝)三色通道进行特征提取,获得卷积特征提取层输出的待识别人脸图像的图像特征。
步骤S203:将图像特征输入池化层,获得池化层对图像特征进行全局平均池化处理后输出的第一中间特征。
具体的,池化层将计算每一维度的图像特征的特征值,作为第一中间特征。例如,以特征图为例,池化层会针对每一特征图,计算该特征图内像素值的均值,将所计算得到的各特征图的均值作为第一中间特征。
上述计算得到的各特征图的均值可以组合为向量形式。
对于不同的图像分类模型,其卷积特征提取层和池化层进行的卷积-池化操作的组合和迭代次数可以不同。
步骤S204:将第一中间特征输入全连接层,获得全连接层基于第一激活函数对第一中间特征进行计算后输出的第二中间特征。
上述第一激活函数可以为ReLu(Linear rectification function,线性整流函数),也可以为其他激活函数,例如sigmoid(S型生长曲线)函数、tanh(hyperbolic tangentfunction,双曲正切函数)函数等,本发明实施例对此并不进行限定。
上述全连接层会基于第一激活函数对第一中间特征进行计算,得到的计算结果为第二中间特征。
步骤S205:将第二中间特征输入分类层,获得分类层基于第二激活函数对第二中间特征进行计算后输出的分类结果。
上述第二激活函数可以为softmax函数(归一化指数函数),也可以为sigmoid(S型生长曲线)函数等,本发明实施例对此并不进行限定。
将上述第二中间特征输入分类层后,分类层可以基于第二激活函数计算分类结果,具体的,分类层可以基于第二激活函数计算得到待识别人脸图像属于异常图像的概率。
步骤S206:基于分类结果,确定待识别人脸图像是否为异常图像。
如步骤S205的说明,分类层计算得到的分类结果是待识别人脸图像属于异常图像的概率。因此,可以基于所得到的概率与概率阈值的大小关系,确定待识别人脸图像是否为异常图像。
具体的,可以将所得到的概率大于概率阈值的识别人脸图像确定为异常图像,将所得到的概率不大于概率阈值的识别人脸图像确定为非异常图像。
上述概率阈值可以为40%、50%、60%等,本发明实施例对此并不进行限定。
应用本发明实施例提供的方案,可以基于图像分类模型对待识别人脸图像的分类结果,确定待识别人脸图像为异常图像还是非异常图像。由于图像分类模型是基于待识别人脸图像提取得到的图像特征进行图像分类的,这样,根据图像分类模型的分类结果,确定为异常图像的待识别人脸图像。其图像特征与非异常图像的图像特征存在差异,说明待识别人脸图像对应的人面部仪态与非异常图像对应的人面部仪态存在差异,由于人的面部仪态可以反映人的健康状况,从而可以反映被确定为异常图像的待识别人脸图像对应的人的健康状况与非异常图像对应的人的健康状况存在差异。因此,当被识别人可以根据其人脸图像是否为异常图像来了解自己的健康状态。
对于被确定为异常图像的待识别人脸图像,将其蓝色通道的每个像素点的值与非异常图像的蓝色通道的每个像素点的值进行曼-惠特尼U检验,并对显著的像素点进行可视化,可以发现,异常图像的人脸的鼻子和嘴部区域的像素点具有更高的数值。
本发明的一个实施例中,参见图3,提供了第二种异常图像识别方法的流程示意图。本实施例中,电子设备可以基于多个图像分类模型输出的待识别人脸图像的分类结果,确定待识别人脸图像是否为异常图像。
进一步的,为了提高异常图像识别的准确度,电子设备可以使用不同的深度卷积神经网络训练得到的图像分类模型。
具体的,本实施例中,上述步骤S202-步骤S206可以通过以下步骤S202A-步骤S206A完成。
步骤S202A:将待识别人脸图像输入多个图像分类模型的卷积特征提取层,获得各卷积特征提取层输出的识别人脸图像的图像特征。
与对步骤S202的说明相类似,上述图像分类模型可以为对深度卷积神经网络进行训练得到的模型,深度卷积神经网络可以采用Xception、ResNet50、VGG19或EfficientNetB1等。对于不同的深度卷积神经网络,其提取图像特征的方式也有所差异。
上述图像特征的形式可以是向量、矩阵也可以是待识别人脸图像的特征图,特征图的数量可以为多个。
步骤S203A:将每一卷积特征提取层输出的图像特征输入该卷积特征提取层对应的池化层,获得池化层对图像特征进行全局平均池化处理后输出的第一中间特征。
与对步骤S203的说明相类似,池化层将计算每一维度的图像特征的特征值,作为第一中间特征。例如,以特征图为例,池化层会针对每一特征图,计算该特征图内像素值的均值,将所计算得到的各特征图的均值作为第一中间特征。
上述计算得到的各特征图的均值可以组合为向量形式。
步骤S204A:将每一池化层输出的第一中间特征输入该池化层对应的全连接层,获得全连接层基于第一激活函数对第一中间特征进行计算后输出的第二中间特征。
与对步骤S204的说明相类似,上述第一激活函数可以为ReLu(Linearrectification function,线性整流函数),也可以为其他激活函数,例如sigmoid(S型生长曲线)函数、tanh(hyperbolic tangent function,双曲正切函数)函数等,本发明实施例对此并不进行限定。
上述全连接层会基于第一激活函数对第一中间特征进行计算,得到的计算结果为第二中间特征。
步骤S205A:将每一全连接层输出的第二中间特征输入该全连接层对应的分类层,获得分类层基于第二激活函数对第二中间特征进行计算后输出的分类结果。
与对步骤S205的说明相类似,上述第二激活函数可以为softmax函数(归一化指数函数),也可以为sigmoid(S型生长曲线)函数等,本发明实施例对此并不进行限定。
将上述第二中间特征输入分类层后,分类层可以基于第二激活函数计算分类结果,具体的,分类层可以基于第二激活函数计算得到待识别人脸图像属于异常图像的概率。
步骤S206A:基于各图像分类模型对应的权重,融合各图像分类模型的分类层输出的分类结果,基于融合结果,确定待识别人脸图像是否为异常图像。
具体的,电子设备可以根据各图像分类模型对应的权重,对各图像分类模型输出的待识别人脸图像属于异常图像的概率进行加权平均计算,并将计算结果与概率阈值进行比较。
与对步骤S206的说明相类似,电子设备可以基于所得到的计算结果与概率阈值的大小关系,确定待识别人脸图像是否为异常图像。
具体的,可以将所得到的计算结果大于概率阈值的识别人脸图像确定为异常图像,将所得到的计算结果不大于概率阈值的识别人脸图像确定为非异常图像。
上述概率阈值可以为40%、50%、60%等,本发明实施例对此并不进行限定。
下面对各图像分类模型对应的权重的确定方式进行说明。
一种情况下,各图像分类模型对应的权重可以为预设的权重,例如,可以都为1,或为1、0.8、0.6……等。
另一种情况下,可以基于各图像分类模型的ROC(receiver operatingcharacteristic curve,接受者操作特性曲线)曲线,计算各图像分类模型的AUC(AreaUnder Curve,ROC曲线下与坐标轴围成的面积)值,将计算得到的AUC值确定为对应的图像分类模型的权重。
这样通过多个图像分类模型的分类结果,确定待识别人脸图像是否为异常图像,可以考虑到不同的深度卷积神经网络训练得到的图像分类模型的分类结果,提高了识别待识别人脸图像是否为异常图像的准确度。
下面对图像分类模型的训练方法进行说明。
本发明的一个实施例中,参见图4,提供了一种模型训练方法的流程示意图。本实施例中,该模型训练方法包括以下步骤S401-步骤S407。
步骤S401:将样本图像分为第一数量个数据集。
其中,样本图像包括非异常图像与异常图像,各数据集中非异常图像的数量相等,各数据集中异常图像的数量相等。
上述样本图像是电子设备获得的人脸图像。与对步骤S201的说明相类似,一种情况下,电子设备可以获得人脸图像对应的人脸三维信息,并基于所获得的人脸图像对应的人脸三维信息,调整人脸图像中的人脸姿态,得到样本图像。
具体的,电子设备可以根据人脸三维信息,基于所获得的人脸图像,生成鼻尖位于图像中心、人脸朝向正前方的人脸图像,作为样本图像。
下面以举例方式对数据集中非异常图像与异常图像的数量进行说明。
假设样本图像中存在200个异常图像与600个非异常图像,第一数量为10,那么,每个数据集中将会包括20个异常图像与60个非异常图像。
步骤S402:从数据集中选择预设数量个数据集,作为验证集,将验证集之外的数据集作为训练集。
上述预设数量小于第一数量,例如,当第一数量为10时,预设数量可以为1,也可以为2。
步骤S403:将训练集依次输入神经网络模型。
步骤S404:基于每一输入的训练集对应的神经网络模型的输出结果,调整神经网络模型的参数。
具体的,神经网络模型的模型优化器可以为Adam(Adaptive Moment Estimation,自适应矩估计),也可以为SGD(stochastic gradient descent,随机梯度下降),本发明实施例对此并不进行限定。
神经网络模型的学习率可以为预设的学习率,例如,学习率可以为0.0001。
步骤S405:将验证集输入调整参数后的神经网络模型,基于验证集对应的输出结果,得到调整参数后的神经网络模型的可靠程度。
具体的,电子设备可以基于验证集对应的输出结果,得到调整参数后的神经网络模型的ROC曲线,从而计算得到调整参数后的神经网络模型的AUC值,作为调整参数后的神经网络模型的可靠程度。
步骤S406:在可靠程度小于预设可靠程度,且存在数据集未被选择作为验证集的情况下,选择预设数量个未被选择作为验证集的数据集作为验证集,将验证集之外的数据集作为训练集,并执行步骤S403。
上述预设可靠程度可以为预设的AUC值,预设的AUC值可以为0.8、0.85等,本发明实施例对此并不进行限定。
下面以举例方式对步骤S406进行说明。
假设存在数据集1、数据集2、数据集3、数据集4与数据集5,其中,数据集1为验证集,数据集2-数据集5为训练集,可以看出,预设数量为1。经过训练后,调整参数后的神经网络模型的可靠程度小于预设可靠程度,数据集2、数据集3曾被选择作为验证集,数据集4、数据集5未被选择作为验证集。此时,电子设备将选择数据集4或数据集5作为验证集,其他数据集作为训练集,对神经网络模型继续进行训练。
步骤S407:在可靠程度不小于预设可靠程度,或不存在数据集未被选择作为验证集的情况下,将调整参数后的神经网络模型作为训练好的图像分类模型。
这样训练得到图像分类模型,可以保证得到的图像分类模型的可靠程度,从而保证了使用训练得到的图像分类模型对待识别人脸图像进行异常图像识别时的准确度。
本发明的一个实施例中,在对神经网络模型进行训练前,可以利用ImageNet(图像网络)的预训练权重对神经网络模型进行初始化。
与上述异常图像识别方法相对应,本发明实施例还提供了一种异常图像识别装置。
参见图5,提供了一种异常图像识别装置的结构示意图,上述装置包括:
图像获得模块501,用于获得待识别人脸图像;
第一特征提取模块502,用于将待识别人脸图像输入图像分类模型的卷积特征提取层,对待识别人脸图像进行特征提取,获得卷积特征提取层输出的识别人脸图像的图像特征,其中,图像分类模型还包括:池化层、全连接层、分类层;
第二特征提取模块503,用于将图像特征输入池化层,获得池化层对图像特征进行全局平均池化处理后输出的第一中间特征;
第三特征提取模块504,用于将第一中间特征输入全连接层,获得全连接层基于第一激活函数对第一中间特征进行计算后输出的第二中间特征;
分类结果获得模块505,用于将第二中间特征输入分类层,获得分类层基于第二激活函数对第二中间特征进行计算后输出的分类结果;
图像确定模块506,用于基于分类结果,确定待识别人脸图像是否为异常图像。
应用本发明实施例提供的方案,可以基于图像分类模型对待识别人脸图像的分类结果,确定待识别人脸图像为异常图像还是非异常图像。由于图像分类模型是基于待识别人脸图像提取得到的图像特征进行图像分类的,这样,根据图像分类模型的分类结果,确定为异常图像的待识别人脸图像,其图像特征与非异常图像的图像特征存在差异,说明待识别人脸图像对应的人面部仪态与非异常图像对应的人面部仪态存在差异,由于人的面部仪态可以反映人的健康状况,从而可以反映被确定为异常图像的待识别人脸图像对应的人的健康状况与非异常图像对应的人的健康状况存在差异。因此,当被识别人可以根据其人脸图像是否为异常图像来了解自己的健康状态。
本发明的一个实施例中,第一特征提取模块502,具体用于将待识别人脸图像输入多个图像分类模型的卷积特征提取层,获得各卷积特征提取层输出的识别人脸图像的图像特征;
第二特征提取模块503,具体用于将每一卷积特征提取层输出的图像特征输入该卷积特征提取层对应的池化层,获得池化层对图像特征进行全局平均池化处理后输出的第一中间特征;
第三特征提取模块504,具体用于将每一池化层输出的第一中间特征输入该池化层对应的全连接层,获得全连接层基于第一激活函数对第一中间特征进行计算后输出的第二中间特征;
分类结果获得模块505,具体用于将每一全连接层输出的第二中间特征输入该全连接层对应的分类层,获得分类层基于第二激活函数对第二中间特征进行计算后输出的分类结果;
图像确定模块506,具体用于基于各图像分类模型对应的权重,融合各图像分类模型的分类层输出的分类结果,基于融合结果,确定待识别人脸图像是否为异常图像。
这样通过多个图像分类模型的分类结果,确定待识别人脸图像是否为异常图像,可以考虑到不同的深度卷积神经网络训练得到的图像分类模型的分类结果,提高了识别待识别人脸图像是否为异常图像的准确度。
本发明的一个实施例中,图像分类模型通过以下方式训练得到:
将样本图像分为第一数量个数据集,其中,样本图像包括非异常图像与异常图像,各数据集中非异常图像的数量相等,各数据集中异常图像的数量相等;
从数据集中选择预设数量个数据集,作为验证集,将验证集之外的数据集作为训练集;
将训练集依次输入神经网络模型;
基于每一输入的训练集对应的神经网络模型的输出结果,调整神经网络模型的参数;
将验证集输入调整参数后的神经网络模型,基于验证集对应的输出结果,得到调整参数后的神经网络模型的可靠程度;
在可靠程度小于预设可靠程度,且存在数据集未被选择作为验证集的情况下,选择预设数量个未被选择作为验证集的数据集作为验证集,将验证集之外的数据集作为训练集,并执行将训练集依次输入神经网络模型的步骤;
在可靠程度不小于预设可靠程度,或不存在数据集未被选择作为验证集的情况下,将调整参数后的神经网络模型作为训练好的图像分类模型。
这样训练得到图像分类模型,可以保证得到的图像分类模型的可靠程度,从而保证了使用训练得到的图像分类模型对待识别人脸图像进行异常图像识别时的准确度。
本发明的一个实施例中,第一特征提取模块502,具体用于将待识别人脸图像输入图像分类模型的卷积特征提取层,对待识别人脸图像的蓝色通道进行特征提取,获得卷积特征提取层输出的识别人脸图像的图像特征。
这样提取得到的图像特征会能够更好地表征人脸图像的蓝色通道,从而使后续图像分类模型在分类时能够基于人脸图像的蓝色通道进行分类。
本发明的一个实施例中,图像获得模块501,具体用于基于所获得的人脸图像对应的人脸三维信息,调整人脸图像中的人脸姿态,得到待识别人脸图像,其中,待识别人脸图像中的人脸朝向正前方。
这样获得待识别人脸图像,可以保证所获得的待识别人脸图像中人脸的姿态一致,降低了人脸姿态差异对待识别人脸图像进行异常图像识别的影响,提高了异常图像识别的准确度。
本发明实施例还提供了一种电子设备,如图6所示,包括处理器601、通信接口602、存储器603和通信总线604,其中,处理器601,通信接口602,存储器603通过通信总线604完成相互间的通信,
存储器603,用于存放计算机程序;
处理器601,用于执行存储器603上所存放的程序时,实现上述第一方面所述的异常图像识别方法。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的异常图像识别方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备和存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (12)
1.一种异常图像识别方法,其特征在于,所述方法包括:
获得待识别人脸图像;
将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征,其中,所述图像分类模型还包括:池化层、全连接层、分类层;
将所述图像特征输入所述池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征;
将所述第一中间特征输入所述全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征;
将所述第二中间特征输入所述分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果;
基于所述分类结果,确定所述待识别人脸图像是否为异常图像。
2.根据权利要求1所述的方法,其特征在于,所述将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征,包括:
将所述待识别人脸图像输入多个图像分类模型的卷积特征提取层,获得各卷积特征提取层输出的所述识别人脸图像的图像特征;
所述将所述图像特征输入所述池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征,包括:
将每一卷积特征提取层输出的图像特征输入该卷积特征提取层对应的池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征;
所述将所述第一中间特征输入所述全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征,包括:
将每一池化层输出的第一中间特征输入该池化层对应的全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征;
所述将所述第二中间特征输入所述分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果,包括:
将每一全连接层输出的第二中间特征输入该全连接层对应的分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果;
所述基于所述分类结果,确定所述待识别人脸图像是否为异常图像,包括:
基于各图像分类模型对应的权重,融合各图像分类模型的分类层输出的分类结果,基于融合结果,确定所述待识别人脸图像是否为异常图像。
3.根据权利要求1或2所述的方法,其特征在于,所述图像分类模型通过以下方式训练得到:
将样本图像分为第一数量个数据集,其中,所述样本图像包括非异常图像与异常图像,各数据集中非异常图像的数量相等,各数据集中异常图像的数量相等;
从所述数据集中选择预设数量个数据集,作为验证集,将所述验证集之外的数据集作为训练集;
将所述训练集依次输入神经网络模型;
基于每一输入的训练集对应的神经网络模型的输出结果,调整所述神经网络模型的参数;
将所述验证集输入调整参数后的神经网络模型,基于所述验证集对应的输出结果,得到所述调整参数后的神经网络模型的可靠程度;
在所述可靠程度小于预设可靠程度,且存在数据集未被选择作为验证集的情况下,选择预设数量个未被选择作为验证集的数据集作为验证集,将所述验证集之外的数据集作为训练集,并执行将所述训练集依次输入神经网络模型的步骤;
在所述可靠程度不小于预设可靠程度,或不存在数据集未被选择作为验证集的情况下,将所述调整参数后的神经网络模型作为训练好的图像分类模型。
4.根据权利要求1所述的方法,其特征在于,所述将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征,包括:
将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像的蓝色通道进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征。
5.根据权利要求1所述的方法,其特征在于,所述获得待识别人脸图像,包括:
基于所获得的人脸图像对应的人脸三维信息,调整所述人脸图像中的人脸姿态,得到待识别人脸图像,其中,所述待识别人脸图像中的人脸朝向正前方。
6.一种异常图像识别装置,其特征在于,所述装置包括:
图像获得模块,用于获得待识别人脸图像;
第一特征提取模块,用于将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征,其中,所述图像分类模型还包括:池化层、全连接层、分类层;
第二特征提取模块,用于将所述图像特征输入所述池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征;
第三特征提取模块,用于将所述第一中间特征输入所述全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征;
分类结果获得模块,用于将所述第二中间特征输入所述分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果;
图像确定模块,用于基于所述分类结果,确定所述待识别人脸图像是否为异常图像。
7.根据权利要求6所述的装置,其特征在于,所述第一特征提取模块,具体用于将所述待识别人脸图像输入多个图像分类模型的卷积特征提取层,获得各卷积特征提取层输出的所述识别人脸图像的图像特征;
所述第二特征提取模块,具体用于将每一卷积特征提取层输出的图像特征输入该卷积特征提取层对应的池化层,获得所述池化层对所述图像特征进行全局平均池化处理后输出的第一中间特征;
所述第三特征提取模块,具体用于将每一池化层输出的第一中间特征输入该池化层对应的全连接层,获得所述全连接层基于第一激活函数对所述第一中间特征进行计算后输出的第二中间特征;
所述分类结果获得模块,具体用于将每一全连接层输出的第二中间特征输入该全连接层对应的分类层,获得所述分类层基于第二激活函数对所述第二中间特征进行计算后输出的分类结果;
所述图像确定模块,具体用于基于各图像分类模型对应的权重,融合各图像分类模型的分类层输出的分类结果,基于融合结果,确定所述待识别人脸图像是否为异常图像。
8.根据权利要求6或7所述的装置,其特征在于,所述图像分类模型通过以下方式训练得到:
将样本图像分为第一数量个数据集,其中,所述样本图像包括非异常图像与异常图像,各数据集中非异常图像的数量相等,各数据集中异常图像的数量相等;
从所述数据集中选择预设数量个数据集,作为验证集,将所述验证集之外的数据集作为训练集;
将所述训练集依次输入神经网络模型;
基于每一输入的训练集对应的神经网络模型的输出结果,调整所述神经网络模型的参数;
将所述验证集输入调整参数后的神经网络模型,基于所述验证集对应的输出结果,得到所述调整参数后的神经网络模型的可靠程度;
在所述可靠程度小于预设可靠程度,且存在数据集未被选择作为验证集的情况下,选择预设数量个未被选择作为验证集的数据集作为验证集,将所述验证集之外的数据集作为训练集,并执行将所述训练集依次输入神经网络模型的步骤;
在所述可靠程度不小于预设可靠程度,或不存在数据集未被选择作为验证集的情况下,将所述调整参数后的神经网络模型作为训练好的图像分类模型。
9.根据权利要求6所述的装置,其特征在于,所述第一特征提取模块,具体用于:
将所述待识别人脸图像输入图像分类模型的卷积特征提取层,对所述待识别人脸图像的蓝色通道进行特征提取,获得所述卷积特征提取层输出的所述识别人脸图像的图像特征。
10.根据权利要求6所述的装置,其特征在于,所述图像获得模块,具体用于基于所获得的人脸图像对应的人脸三维信息,调整所述人脸图像中的人脸姿态,得到待识别人脸图像,其中,所述待识别人脸图像中的人脸朝向正前方。
11.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-5任一所述的方法步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-5任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311298431.6A CN117315755A (zh) | 2023-10-09 | 2023-10-09 | 一种异常图像识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311298431.6A CN117315755A (zh) | 2023-10-09 | 2023-10-09 | 一种异常图像识别方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117315755A true CN117315755A (zh) | 2023-12-29 |
Family
ID=89260058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311298431.6A Pending CN117315755A (zh) | 2023-10-09 | 2023-10-09 | 一种异常图像识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117315755A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108052861A (zh) * | 2017-11-08 | 2018-05-18 | 北京卓视智通科技有限责任公司 | 一种神经网络系统及基于该神经网络系统的车型识别方法 |
CN108596039A (zh) * | 2018-03-29 | 2018-09-28 | 南京邮电大学 | 一种基于3d卷积神经网络的双模态情感识别方法及系统 |
CN108898112A (zh) * | 2018-07-03 | 2018-11-27 | 东北大学 | 一种近红外人脸活体检测方法及系统 |
CN111259831A (zh) * | 2020-01-20 | 2020-06-09 | 西北工业大学 | 基于重组颜色空间的虚假人脸判别方法 |
CN113610180A (zh) * | 2021-08-17 | 2021-11-05 | 湖南工学院 | 基于深度学习的可见光图像和红外图像融合的船舶分类方法与装置 |
CN114373185A (zh) * | 2022-01-06 | 2022-04-19 | 中国工商银行股份有限公司 | 票据图像的分类方法及其装置、电子设备及存储介质 |
-
2023
- 2023-10-09 CN CN202311298431.6A patent/CN117315755A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108052861A (zh) * | 2017-11-08 | 2018-05-18 | 北京卓视智通科技有限责任公司 | 一种神经网络系统及基于该神经网络系统的车型识别方法 |
CN108596039A (zh) * | 2018-03-29 | 2018-09-28 | 南京邮电大学 | 一种基于3d卷积神经网络的双模态情感识别方法及系统 |
CN108898112A (zh) * | 2018-07-03 | 2018-11-27 | 东北大学 | 一种近红外人脸活体检测方法及系统 |
CN111259831A (zh) * | 2020-01-20 | 2020-06-09 | 西北工业大学 | 基于重组颜色空间的虚假人脸判别方法 |
CN113610180A (zh) * | 2021-08-17 | 2021-11-05 | 湖南工学院 | 基于深度学习的可见光图像和红外图像融合的船舶分类方法与装置 |
CN114373185A (zh) * | 2022-01-06 | 2022-04-19 | 中国工商银行股份有限公司 | 票据图像的分类方法及其装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7058373B2 (ja) | 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体 | |
WO2020239015A1 (zh) | 一种图像识别、分类方法、装置、电子设备及存储介质 | |
US10726244B2 (en) | Method and apparatus detecting a target | |
WO2019233166A1 (zh) | 一种表面缺陷检测方法、装置及电子设备 | |
CN112766279B (zh) | 一种基于联合注意力机制的图像特征提取方法 | |
WO2019200735A1 (zh) | 牲畜特征向量的提取方法、装置、计算机设备和存储介质 | |
CN110738235B (zh) | 肺结核判定方法、装置、计算机设备及存储介质 | |
CN112464809A (zh) | 一种人脸关键点检测方法、装置、电子设备及存储介质 | |
CN113095370B (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN107564020B (zh) | 一种图像区域确定方法及装置 | |
CN112132206A (zh) | 图像识别方法及相关模型的训练方法及相关装置、设备 | |
CN111325067B (zh) | 违规视频的识别方法、装置及电子设备 | |
CN109102885B (zh) | 基于卷积神经网络与随机森林组合的白内障自动分级方法 | |
CN110956615A (zh) | 图像质量评估模型训练方法、装置、电子设备及存储介质 | |
CN111339884A (zh) | 图像识别方法以及相关设备、装置 | |
CN111915567A (zh) | 一种图像质量评估方法、装置、设备及介质 | |
CN111626379B (zh) | 肺炎x光图像检测方法 | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
EP4343616A1 (en) | Image classification method, model training method, device, storage medium, and computer program | |
CN113065593A (zh) | 模型训练方法、装置、计算机设备和存储介质 | |
CN113902944A (zh) | 模型的训练及场景识别方法、装置、设备及介质 | |
CN111353597B (zh) | 一种目标检测神经网络训练方法和装置 | |
CN112784494A (zh) | 假阳性识别模型的训练方法、目标识别方法及装置 | |
CN115294405B (zh) | 农作物病害分类模型的构建方法、装置、设备及介质 | |
CN115346125B (zh) | 一种基于深度学习的目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |