CN113869282B - 人脸识别方法、超分模型训练方法及相关设备 - Google Patents
人脸识别方法、超分模型训练方法及相关设备 Download PDFInfo
- Publication number
- CN113869282B CN113869282B CN202111234680.XA CN202111234680A CN113869282B CN 113869282 B CN113869282 B CN 113869282B CN 202111234680 A CN202111234680 A CN 202111234680A CN 113869282 B CN113869282 B CN 113869282B
- Authority
- CN
- China
- Prior art keywords
- layer
- feature map
- sub
- feature
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000012549 training Methods 0.000 title claims abstract description 49
- 238000009877 rendering Methods 0.000 claims description 81
- 238000000605 extraction Methods 0.000 claims description 65
- 238000012545 processing Methods 0.000 claims description 60
- 230000001537 neural effect Effects 0.000 claims description 25
- 238000009499 grossing Methods 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 13
- 238000007499 fusion processing Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请公开了一种人脸识别方法、超分模型训练方法及相关设备。该方法包括:获取目标视频的图像帧;将所述图像帧输入至人脸检测器,获得人脸图像;将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图;将所述第一特征图输入至预先训练的人脸识别模型,获得人脸识别结果。由于利用超分模型提高了待识别图像的分辨率,从而提高了待识别图像的清晰度,进而可以提高人脸识别的准确度。因此,本申请实施例可以针对分辨率较低的视频图像,实现视频身份识别。
Description
技术领域
本申请属于图像检测技术领域,具体涉及一种人脸识别方法、超分模型训练方法及相关设备。
背景技术
随着人工智能(Artificial Intelligence,AI)的发展,人脸识别的应用越来越广泛。目前针对人脸识别的实现方案,通常是通过摄像头拍摄一张高清图像,基于拍摄的高清图像,实现人脸识别的应用。为了提高人脸识别的应用范围,考虑基于视频进行人脸识别,然而由于视频中的图像的清晰度较低,无法直接实现进行人脸识别操作。如何基于视频实现人脸识别,成为亟需解决的技术问题。
发明内容
本申请实施例的目的是提供一种人脸识别方法、超分模型训练方法及相关设备,能够基于视频实现人脸识别。
第一方面,本申请实施例提供了一种人脸识别方法,包括:
获取目标视频的图像帧;
将所述图像帧输入至人脸检测器,获得人脸图像;
将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图;
将所述第一特征图输入至预先训练的人脸识别模型,获得人脸识别结果。
第二方面,本申请实施例提供了一种超分模型训练方法,包括:
将样本图像输入到待训练超分模型进行迭代训练,得到所述超分模型;
其中,所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中,所述N个密集网络层依次串联,N为大于1的整数;所述浅层特征提取层用于对所述样本图像进行浅层特征提取,获得第九子特征图;所述N个密集网络层用于对所述第九子特征图进行中高频信息提取处理;所述第一合并层用于对各密集网络层输出的特征进行特征融合处理得到第十子特征图;所述第一卷积层用于对所述第十子特征图进行降维处理后,与所述第九子特征图进行残差学习,得到第十一子特征图;所述渲染模块用于对所述第十一子特征图进行渲染处理得到所述第三特征图。
第三方面,本申请实施例提供了一种人脸识别装置,包括:
获取模块,用于获取目标视频的图像帧;
第一输入模块,用于将所述图像帧输入至人脸检测器,获得人脸图像;
第二输入模块,用于将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图;
第三输入模块,用于将所述第一特征图输入至预先训练的人脸识别模型,获得人脸识别结果。
第四方面,本申请实施例提供了一种超分模型训练装置,其特征在于,包括:
训练模块,用于将样本图像输入到待训练超分模型进行迭代训练,得到所述超分模型;
其中,所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中,所述N个密集网络层依次串联,N为大于1的整数;所述浅层特征提取层用于对所述样本图像进行浅层特征提取,获得第九子特征图;所述N个密集网络层用于对所述第九子特征图进行中高频信息提取处理;所述第一合并层用于对各密集网络层输出的特征进行特征融合处理得到第十子特征图;所述第一卷积层用于对所述第十子特征图进行降维处理后,与所述第九子特征图进行残差学习,得到第十一子特征图;所述渲染模块用于对所述第十一子特征图进行渲染处理得到所述第三特征图。
第五方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤,或者,时实现如第二方面所述的方法的步骤。
第六方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤,或者,时实现如第二方面所述的方法的步骤。
第七方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的方法,或者,时实现如第二方面所述的方法的步骤。
本申请实施例通过设置超分模型对检测的人脸图像进行分辨率放大处理,得到第一特征图,然后基于第一特征图进行人脸识别,由于利用超分模型提高了待识别图像的分辨率,从而提高了待识别图像的清晰度,进而可以提高人脸识别的准确度。因此,本申请实施例可以针对分辨率较低的视频图像,实现视频身份识别。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的人脸识别方法的流程图;
图2是本申请实施例提供的人脸识别方法中超分模型的网络结构图;
图3是本申请实施例提供的人脸识别方法中神经渲染层的网络结构图;
图4是本申请实施例提供的超分模型训练方法的流程图;
图5是本申请实施例提供的超分模型训练方法中待训练超分模型的网络结构图;
图6是本申请实施例提供的人脸识别装置的结构图;
图7是本申请实施例提供的超分模型训练装置的结构图;
图8是本申请实施例提供的一种电子设备的结构图;
图9是本申请实施例提供的另一种电子设备的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
近年来,随着计算机技术的迅速发展,人脸自动识别技术得到广泛研究与开发,人脸识别成为近30年里模型识别和图像处理中最热门的研究主题之一。人脸识别的目的是从人脸图像中获取人的个性化特征,并以此来识别人的身份。一个简单的自动人脸识别系统,包括以下4个方面的内容:
(1)人脸检测(Detection):即从各种不同的场景中检测出人脸的存在并确定其位置。
(2)人脸规范化(Normalization):校正人脸在尺度、光照和旋转等方面的变化。或者叫做对齐(alignment)、人脸对齐或人脸校准。
(3)人脸校验(Face verification):采取某种方式表示检测出人脸和数据库中的已知人脸,确认两张脸是否是同一个人。
(4)人脸识别(Recognition):将待识别的人脸与数据库中的已知人脸比较,得出给你的脸是库里的谁。
在人脸识别中,特征的分类能力、算法复杂度和可实现性是确定特征提取时需要考虑的因素。所提取特征对最终分类结果有着决定性的影响。分类器所能实现的分辨率上限就是各类特征间最大可区分度。因此,人脸识别的实现需要综合考虑特征选择、特征提取和分类器设计。
随着摄像装置的广泛化,视频身份比对变的尤为重要,无论是对于警察还是生活需要。由于视频拍摄时,通常由于拍摄对象或者拍摄装置处于运动状态,导致拍摄的清晰度较低,无法直接利用身份识别算法(即人脸识别模型)对视频中的人脸进行身份识别。为此本申请提出一种人脸识别方法,以基于视频实现人脸识别,从而实现视频身份识别。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的人脸识别方法进行详细地说明。
参见图1,图1是本申请实施例提供的一种人脸识别方法的流程图,如图1所示,包括以下步骤:
步骤101,获取目标视频的图像帧;
本申请实施例中,上述目标视频可以为正在录制的视频、或者为已经完成录制的视频,或者是正在下载或已经下载的视频。可选的,上述获取目标视频的图像帧可以理解为,仅对目标视频的特定的一个图像帧进行获取,也可以获取多个图像帧进行人脸识别,还可以周期性图像帧进行识别,或者获取目标视频的每一图像帧进行人脸识别,在此不做进一步的限定,以下各实施例中,以获取的一个图像帧的识别处理过程为例进行说明。
步骤102,将所述图像帧输入至人脸检测器,获得人脸图像;
本申请实施例中,上述人脸检测器可以采用retinaface检测器对图像进行人脸检测,并将根据检测出人脸的四个坐标将人脸扣取出来,得到人脸图像。
需要说明的是,若当前检测图像帧不存在人脸的情况下,可以结束当前图像帧的检测流程,执行下一图像帧的检测。
可选地,可以通过预设样本数据对上述人脸检测器进行训练,例如可以使用清洗后的widerface数据集,再将数据进行3个角度(90,180,270)的翻转,这样可以检测不同角度的人脸,从而提高人脸检测的应用范围。
步骤103,将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图;
本申请实施例中,上述超分模型可以称之为人脸超分网络。具体可以预先通过包含人脸的图像对超分模型进行训练,使得超分模型可以对输入的人脸图像进行分辨率放大。其中分辨率放大的倍数可以根据实际需要进行设置,在此不做进一步的限定。由于对人脸图像进行了分辨率放大处理,得到第一特征图,因此,提高了第一特征图的清晰度,从而基于提高清晰度的第一特征图进行人脸识别时,可以提高人脸识别的准确率。
步骤104,将所述第一特征图输入至预先训练的人脸识别模型,获得人脸识别结果。
本申请实施例中,上述人脸识别模块可以采用Arcface人脸比对算法构建的人脸识别网络,通过该人脸识别模块可以对第一特征图进行人脸特征提取,最后与预设数据库中人脸特征进行比对,从而获得用户的身份信息。
本申请实施例通过设置超分模型对检测的人脸图像进行分辨率放大处理,得到第一特征图,然后基于第一特征图进行人脸识别,由于利用超分模型提高了待识别图像的分辨率,从而提高了待识别图像的清晰度,进而可以提高人脸识别的准确度。因此,本申请实施例可以针对分辨率较低的视频图像,实现视频身份识别。
需要说明的是上述超分模型的网络结构可以根据实际需要进行设置,例如,在一些实施例中,如图2所示,该超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块201;其中,所述N个密集网络层依次串联,N为大于1的整数;
所述将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图包括:
将所述人脸图像输入到所述浅层特征提取层进行浅层特征提取,获得第一子特征图;
利用所述N个密集网络层对所述第一子特征图进行中高频信息提取处理;
利用所述第一合并层各密集网络层输出的特征进行特征融合处理得到第二子特征图;
利用所述第一卷积层对所述第二子特征图进行降维处理后,与所述第一子特征图进行残差学习,得到第三子特征图;
利用所述渲染模块对所述第三子特征图进行渲染处理得到所述第一特征图。
应理解上述渲染模块的具体网络结构可以根据实际需要进行设置,例如,在一些实施例中,如图2所示,所述渲染模块201包括第二卷积层、上采样层和神经渲染层,其中,所述利用所述渲染模块对所述第三子特征图进行渲染处理得到所述第一特征图,包括:
利用所述第二卷积层对所述第三子特征图进行平滑处理,得到第四子特征图;
利用所述上采样层对所述第四子特征图进行反卷积上采样处理,得到第五子特征图;
利用所述神经渲染层基于预设图像对所述第五子特征图进行渲染,得到所述第一特征图,所述预设图像的清晰度高于所述图像帧的清晰度。
本申请实施例中,上述浅层特征提取层可以为2层3*3的卷积层。上述密集网络层也可以称之为dense模块,综合考虑速度和性能,可以采用4个dense模块进行高频信息提取处理,即上述N的取值为4。上述第一合并层为concat层,用于对各密集网络层输出的特征进行通道间的融合。上述第一卷积层可以为1*1的卷积,上述第二卷积层可以为2层3*3的卷积,上采样层可以为deconv层,用于进行反卷积上采样。由于多个密集网络层进行深度学习后,通常会丢失较多的高频信息特征,因此通过第一卷积层对所述第二子特征图进行降维处理后,与所述第一子特征图进行残差学习可以补充丢失的表征属性等信息。
需要说明的是,上述各网络层的卷积核的大小可以根据实际需要进行设置,以上仅是举例说明,并不限定具体的卷积结构。上述通道与卷积核的大小对应,例如某一网络层的卷积核为3,则该网络层输出3个通道的特征图;某一网络层的卷积核为64,则对应输出64个通道的特征图。
可选地,上述密集网络层可以由5层卷积密集链接组成,相邻两层卷积之间通过concat层进行连接,前面4层卷积主要用于进行高频信息的提取,第5层卷积的作用是瓶颈层,对前面提取的特征进行降维处理。
应理解,上述神神经渲染层具有2个输入,其中,第一输入为预设图像,第二输入为第一特征图,其中,上述预设图像的清晰度高于所述图像帧的清晰度,例如,该预设图像可以为任意包含人脸的高清图像。上述第五子特征图表示超分辨率的高清图像,该第五子特征图的清晰度高于所述图像帧的清晰度。由于经过超分算法后会造成虚假的纹理,本申请实施例中,神经渲染层可以借鉴预设图像的特征对所述第五子特征图进行渲染,从而可以剔除部分虚假的纹理,,进而进一步提高后续人脸识别的准确性。
可选地,上述神经渲染层的结构可以根据实际需要进行设置,例如,在一些实施例中,如图3所示,所述神经渲染层包括mobilenetv2网络层、第三卷积层、第四卷积层、多尺度特征提取层、第二合并层、第五卷积层、注意力模块和第六卷积层;其中,所述mobilenetv2网络层用于对所述预设图像进行特征提取,得到第二特征图;所述第三卷积层用于对所述第五子特征图进行通道升维处理后,与所述第二特征图进行特征匹配;所述第四卷积层用于对匹配度最高的特征进行平滑及融合处理得到第六子特征图;所述多尺度提取层用于对所述第六子特征图进行不同尺度纹理特征的提取;所述第二合并层用于对所述多尺度提取层输出的特征进行特征融合得到第七子特征图;所述第五卷积层用于对所述第七子特征图进行通道降维处理,得到第八子特征图;所述注意力模块用于对所述第八子特征图进行加权处理;所述第六卷积层用于对加权后的所述第八子特征图进行降维处理,得到所述第一特征图。
本申请实施例中,mobilenetv2网络层为预训练的网络结构,可以对预设图像进行特征提取。第三卷积层可以为一个1*1*16的卷积,上述第四卷积层可以为一个3*3*64的卷积。多尺度特征提取层可以由多个不同大小的卷积核构成,例如,可以包括3*3,5*5,7*7…56*56等多个卷积核进行不同尺度特征的提取,其中,不同大小卷积核的卷积提取的特征尺度不同,且不同尺度特征用于表示不同感受野中的纹理特征。基于多尺度特征提取层可以最大限度的保存不同感受野中的完整纹理特征。
可选地,上述第二合并层可以为concat层,用于对不同尺度的特征进行平滑及融合处理。上述第五卷积层可以为一个1*1*64的卷积。上述第六卷积层可以为一个3*3*3的卷积。
上述注意力模块可以通过全局池化以及sigmoid层组成,用于提取或计算每一通道对应的第八子特征图的权重值,再将权重值通过scale加权到卷积中,使得网络能更好的定位到完整正确的纹理特征。
可选地,在特征匹配时,可以以通道为单位,确定每一通道对匹配度最高的特征。其中,第四卷积层可以基于每一通道对匹配度最高的特征进行平滑及融合处理得到每一通道对应的第六子特征图。上述特征匹配是在第五子特征图以及预设图像的特征空间中进行的,使用第五子特征图提取的特征Pi(SR)以及mobilenetv2提取的特征Pj(ref)进行内积计算相似度:
因为在第五子特征图以及预设图像的特征空间中密集采样,所以每个位置都对应多个不同的卷积核的卷积结果,对应多个不同相似性的纹理特征。基于内积的值,选择第五子特征图每个位置的相似性最高的参考特征(Ref patch)。
需要说明的是,上述各网络层的卷积核的大小可以根据实际需要进行设置,以上仅是举例说明,并不限定具体的卷积结构。
进一步地,参照图4,本申请实施例还提供一种超分模型训练方法,包括:
步骤401,将样本图像输入到待训练超分模型进行迭代训练,得到所述超分模型;
其中,所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中,所述N个密集网络层依次串联,N为大于1的整数;所述浅层特征提取层用于对所述样本图像进行浅层特征提取,获得第九子特征图;所述N个密集网络层用于对所述第九子特征图进行中高频信息提取处理;所述第一合并层用于对各密集网络层输出的特征进行特征融合处理得到第十子特征图;所述第一卷积层用于对所述第十子特征图进行降维处理后,与所述第九子特征图进行残差学习,得到第十一子特征图;所述渲染模块用于对所述第十一子特征图进行渲染处理得到所述第三特征图。
可选地,上述样本图像可以来源于样本数据集,该样本数据集可以将已有的人脸数据集,具体地,可以将样本数据集中的待训练图片切割成56*56的小块作为样本图像,将样本数据集中的预设标注图像切割成56*56的小块作为样本图像对应的标注图像。本申请实施例中,可以将批量大小(batchsize)设置为32(即每次送进去32个56*56的小块),epoch设置为100,对待训练超分模型进行训练,训练到epoch或者损失(Loss)不再变化。本申请实施例中,上述待训练超分模型对样本图像的处理过程与上述实施例中超分模型对图像帧的处理过程相似,具体可以参照上述实施例中超分模型对样本图像的处理过程,在此不再赘述。
本申请实施例中,可以将训练完成的超分模型部署到人脸识别系统中,用于对人脸检测器输出的人脸图像进行分辨率放大处理,以提高人脸图像的清晰度。这样可以提高人脸识别的准确度,从而可以基于视频实现人脸识别,进而实现视频身份识别。
可选地,所述渲染模块包括第二卷积层、上采样层和神经渲染层,其中,所述第二卷积层用于对所述第十一子特征图进行平滑处理,得到第十二子特征图;所述上采样层用于对所述第十二子特征图进行反卷积上采样处理,得到第十三子特征图;所述神经渲染层用于基于预设图像对所述第十三子特征图进行渲染,得到第三特征图,所述预设图像的清晰度高于所述图像帧的清晰度。
可选地,所述神经渲染层包括mobilenetv2网络层、第三卷积层、第四卷积层、多尺度特征提取层、第二合并层、第五卷积层、注意力模块和第六卷积层;其中,所述mobilenetv2网络层用于对所述预设图像进行特征提取,得到第四特征图;所述第三卷积层用于对所述第十三子特征图进行通道升维处理后,与所述第四特征图进行特征匹配;所述第四卷积层用于对匹配度最高的特征进行平滑及融合处理得到第十四子特征图;所述多尺度提取层用于对所述第十四子特征图进行不同尺度纹理特征的提取;所述第二合并层用于对所述多尺度提取层输出的特征进行特征融合得到第十五子特征图;所述第五卷积层用于对所述第十五子特征图进行通道降维处理,得到第十六子特征图;所述注意力模块用于对所述第十六子特征图进行加权处理;所述第六卷积层用于对加权后的所述第十六子特征图进行降维处理,得到所述第三特征图。
可选地,所述将样本图像输入到待训练超分模型进行迭代训练,得到所述超分模型包括:
在对待训练超分模型迭代训练的过程中,基于第一损失值、第二损失值和第三损失值确定目标损失值;
基于所述目标损失值对所述超分模型的网络参数进行调整;
在满足预设损失收敛条件的情况下,将当前的待训练超分模型确定为超分模型;
其中,所述第一损失值为基于所述第十三子特征图与预设的标签图像计算获得的损失值,所述第二损失值为基于所述第三特征图与所述标签图像计算获得的损失值,所述第三损失值为基于所述密集网络层输出的特征经过降维和上采样后得到的特征图与标签图像计算获得的损失值。
应理解,上述满足预设损失收敛条件可以包括目标损失值不再变化或者目标损失值的变化小于预设值,或者训练到达epoch。
需要说明的是,上述目标损失值可以为第一损失值、第二损失值和第三损失值的加权和值。其中,第一损失值、第二损失值和第三损失值的权重值可以根据实际需要进行设置,例如,在一实施例中,上述第一损失值的权重为,第二损失值的权重为0.4,第三损失值的权重为0.2。其中,第三损失值的数量为N。此时,目标损失loss满足:
Loss=loss1+0.4loss2+0.2loss3+0.2loss4+…+0.2loss n+2;其中,loss1表示第一损失值,loss2表示第二损失值,loss3至loss n+2表示N个第三损失值。其中,
本申请实施例中,如图5所示,上述待训练超分模型还包括于密集网络层一一对应设置目标卷积层,该目标卷积层包括1*1的卷积和反卷积层(deconv),其中,1*1的卷积用于对对应的密集网络层输出的特征进行降维,反卷积层用于对1*1的卷积输出的特征进行亚像素卷积进行上采样,其中,亚像素卷积是一种排列组合,不增加计算量。最后与输入的样本图像做损失函数,计算损失。由于针对每一密集网络层的输出计算损失,从而可以保证网络训练的方向正确,使得网络参数迭代的更好。
需要说明的是,本申请实施例提供的人脸识别方法,执行主体可以为人脸识别装置,或者该人脸识别装置中的用于执行加载人脸识别方法的控制模块。本申请实施例中以人脸识别装置执行加载人脸识别方法为例,说明本申请实施例提供的人脸识别方法。
参见图6,图6是本申请实施例提供的人脸识别装置的结构图,如图6所示,人脸识别装置600包括:
获取模块601,用于获取目标视频的图像帧;
第一输入模块602,用于将所述图像帧输入至人脸检测器,获得人脸图像;
第二输入模块603,用于将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图;
第三输入模块604,用于将所述第一特征图输入至预先训练的人脸识别模型,获得人脸识别结果。
可选地,所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中,所述N个密集网络层依次串联,N为大于1的整数;
所述第二输入模块603具体用于执行以下操作:
将所述人脸图像输入到所述浅层特征提取层进行浅层特征提取,获得第一子特征图;
利用所述N个密集网络层对所述第一子特征图进行中高频信息提取处理;
利用所述第一合并层各密集网络层输出的特征进行特征融合处理得到第二子特征图;
利用所述第一卷积层对所述第二子特征图进行降维处理后,与所述第一子特征图进行残差学习,得到第三子特征图;
利用所述渲染模块对所述第三子特征图进行渲染处理得到所述第一特征图。
可选地,所述渲染模块包括第二卷积层、上采样层和神经渲染层,其中,第二输入模块603具体用于执行以下操作:
利用所述第二卷积层对所述第三子特征图进行平滑处理,得到第四子特征图;
利用所述上采样层对所述第四子特征图进行反卷积上采样处理,得到第五子特征图;
利用所述神经渲染层基于预设图像对所述第五子特征图进行渲染,得到所述第一特征图,其中,所述预设图像的清晰度高于所述图像帧的清晰度。
可选地,所述神经渲染层包括mobilenetv2网络层、第三卷积层、第四卷积层、多尺度特征提取层、第二合并层、第五卷积层、注意力模块和第六卷积层;其中,所述mobilenetv2网络层用于对所述预设图像进行特征提取,得到第二特征图;所述第三卷积层用于对所述第五子特征图进行通道升维处理后,与所述第二特征图进行特征匹配;所述第四卷积层用于对匹配度最高的特征进行平滑及融合处理得到第六子特征图;所述多尺度提取层用于对所述第六子特征图进行不同尺度纹理特征的提取;所述第二合并层用于对所述多尺度提取层输出的特征进行特征融合得到第七子特征图;所述第五卷积层用于对所述第七子特征图进行通道降维处理,得到第八子特征图;所述注意力模块用于对所述第八子特征图进行加权处理;所述第六卷积层用于对加权后的所述第八子特征图进行降维处理,得到所述第一特征图。
需要说明的是,本申请实施例提供的超分模型训练方法,执行主体可以为超分模型训练装置,或者该超分模型训练装置中的用于执行加载超分模型训练方法的控制模块。本申请实施例中以超分模型训练装置执行加载超分模型训练方法为例,说明本申请实施例提供的超分模型训练方法。
参见图7,图7是本申请实施例提供的超分模型训练装置的结构图,如图7所示,超分模型训练装置700包括:
训练模块701,用于将样本图像输入到待训练超分模型进行迭代训练,得到所述超分模型;
其中,所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中,所述N个密集网络层依次串联,N为大于1的整数;所述浅层特征提取层用于对所述样本图像进行浅层特征提取,获得第九子特征图;所述N个密集网络层用于对所述第九子特征图进行中高频信息提取处理;所述第一合并层用于对各密集网络层输出的特征进行特征融合处理得到第十子特征图;所述第一卷积层用于对所述第十子特征图进行降维处理后,与所述第九子特征图进行残差学习,得到第十一子特征图;所述渲染模块用于对所述第十一子特征图进行渲染处理得到所述第三特征图。
可选地,所述渲染模块包括第二卷积层、上采样层和神经渲染层,其中,所述第二卷积层用于对所述第十一子特征图进行平滑处理,得到第十二子特征图;所述上采样层用于对所述第十二子特征图进行反卷积上采样处理,得到第十三子特征图;所述神经渲染层用于基于预设图像对所述第十三子特征图进行渲染,得到第三特征图,其中,所述预设图像的清晰度高于所述图像帧的清晰度。
可选地,所述神经渲染层包括mobilenetv2网络层、第三卷积层、第四卷积层、多尺度特征提取层、第二合并层、第五卷积层、注意力模块和第六卷积层;其中,所述mobilenetv2网络层用于对所述预设图像进行特征提取,得到第四特征图;所述第三卷积层用于对所述第十三子特征图进行通道升维处理后,与所述第四特征图进行特征匹配;所述第四卷积层用于对匹配度最高的特征进行平滑及融合处理得到第十四子特征图;所述多尺度提取层用于对所述第十四子特征图进行不同尺度纹理特征的提取;所述第二合并层用于对所述多尺度提取层输出的特征进行特征融合得到第十五子特征图;所述第五卷积层用于对所述第十五子特征图进行通道降维处理,得到第十六子特征图;所述注意力模块用于对所述第十六子特征图进行加权处理;所述第六卷积层用于对加权后的所述第十六子特征图进行降维处理,得到所述第三特征图。
可选地,所述训练模块701具体用于执行以下操作:
在对待训练超分模型迭代训练的过程中,基于第一损失值、第二损失值和第三损失值确定目标损失值;
基于所述目标损失值对所述超分模型的网络参数进行调整;
在满足预设损失收敛条件的情况下,将当前的待训练超分模型确定为超分模型;
其中,所述第一损失值为基于所述第十三子特征图与预设的标签图像计算获得的损失值,所述第二损失值为基于所述第三特征图与所述标签图像计算获得的损失值,所述第三损失值为基于所述密集网络层输出的特征经过降维和上采样后得到的特征图与标签图像计算获得的损失值。
本申请实施例中的人脸识别装置或超分模型训练装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的人脸识别装置或超分模型训练装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的人脸识别装置和超分模型训练装置能够实现图1至图5的方法实施例中人脸识别装置或超分模型训练装置实现的各个过程,为避免重复,这里不再赘述。
可选的,本申请实施例还提供一种电子设备,包括处理器810,存储器809,存储在存储器809上并可在所述处理器810上运行的程序或指令,该程序或指令被处理器810执行时实现上述人脸识别方法或超分模型训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要注意的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图9为实现本申请各个实施例的一种电子设备的硬件结构示意图。
该电子设备900包括但不限于:射频单元901、网络模块902、音频输出单元903、输入单元904、传感器905、显示单元906、用户输入单元907、接口单元908、存储器909、以及处理器910等部件。
本领域技术人员可以理解,电子设备900还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器910逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图9中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,处理器910,用于执行以下操作:
获取目标视频的图像帧;
将所述图像帧输入至人脸检测器,获得人脸图像;
将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图;
将所述第一特征图输入至预先训练的人脸识别模型,获得人脸识别结果。
或者,处理器910用于将样本图像输入到待训练超分模型进行迭代训练,得到所述超分模型;
其中,所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中,所述N个密集网络层依次串联,N为大于1的整数;所述浅层特征提取层用于对所述样本图像进行浅层特征提取,获得第九子特征图;所述N个密集网络层用于对所述第九子特征图进行中高频信息提取处理;所述第一合并层用于对各密集网络层输出的特征进行特征融合处理得到第十子特征图;所述第一卷积层用于对所述第十子特征图进行降维处理后,与所述第九子特征图进行残差学习,得到第十一子特征图;所述渲染模块用于对所述第十一子特征图进行渲染处理得到所述第三特征图。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述人脸识别方法或超分模型训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述人脸识别方法或超分模型训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (9)
1.一种人脸识别方法,其特征在于,包括:
获取目标视频的图像帧;
将所述图像帧输入至人脸检测器,获得人脸图像;
将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图;
将所述第一特征图输入至预先训练的人脸识别模型,获得人脸识别结果;
所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中, N为大于1的整数;
所述将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图包括:
将所述人脸图像输入到所述浅层特征提取层进行浅层特征提取,获得第一子特征图;
利用所述N个密集网络层对所述第一子特征图进行中高频信息提取处理;
利用所述第一合并层将各密集网络层输出的特征进行特征融合处理得到第二子特征图;
利用所述第一卷积层对所述第二子特征图进行降维处理后,与所述第一子特征图进行残差学习,得到第三子特征图;
利用所述渲染模块对所述第三子特征图进行渲染处理得到所述第一特征图;
其中,所述密集网络层由多层卷积密集链接组成,相邻两层卷积之间通过concat层进行连接,最后一层之前的卷积用于对所述第一子特征图进行高频信息的提取,最后一层卷积用于对所述最后一层之前的卷积提取的高频特征进行降维处理;
所述渲染模块包括第二卷积层、上采样层和神经渲染层,其中,所述利用所述渲染模块对所述第三子特征图进行渲染处理得到所述第一特征图,包括:
利用所述第二卷积层对所述第三子特征图进行平滑处理,得到第四子特征图;
利用所述上采样层对所述第四子特征图进行反卷积上采样处理,得到第五子特征图;
利用所述神经渲染层基于预设图像对所述第五子特征图进行渲染,得到所述第一特征图,其中,所述预设图像的清晰度高于所述图像帧的清晰度。
2.根据权利要求1所述的方法,其特征在于,所述神经渲染层包括mobilenetv2网络层、第三卷积层、第四卷积层、多尺度特征提取层、第二合并层、第五卷积层、注意力模块和第六卷积层;其中,所述mobilenetv2网络层用于对所述预设图像进行特征提取,得到第二特征图;所述第三卷积层用于对所述第五子特征图进行通道升维处理后,与所述第二特征图进行特征匹配;所述第四卷积层用于对匹配度最高的特征进行平滑及融合处理得到第六子特征图;所述多尺度特征提取层用于对所述第六子特征图进行不同尺度纹理特征的提取;所述第二合并层用于对所述多尺度特征提取层输出的特征进行特征融合得到第七子特征图;所述第五卷积层用于对所述第七子特征图进行通道降维处理,得到第八子特征图;所述注意力模块用于对所述第八子特征图进行加权处理;所述第六卷积层用于对加权后的所述第八子特征图进行降维处理,得到所述第一特征图。
3.一种超分模型训练方法,其特征在于,包括:
将样本图像输入到待训练超分模型进行迭代训练,得到所述超分模型;
其中,所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中,N为大于1的整数;所述浅层特征提取层用于对所述样本图像进行浅层特征提取,获得第九子特征图;所述N个密集网络层用于对所述第九子特征图进行中高频信息提取处理;所述第一合并层用于对各密集网络层输出的特征进行特征融合处理得到第十子特征图;所述第一卷积层用于对所述第十子特征图进行降维处理后,与所述第九子特征图进行残差学习,得到第十一子特征图;所述渲染模块用于对所述第十一子特征图进行渲染处理得到第三特征图;其中,所述密集网络层由多层卷积密集链接组成,相邻两层卷积之间通过concat层进行连接,最后一层之前的卷积用于对所述第九子特征图进行高频信息的提取,最后一层卷积用于对所述最后一层之前的卷积提取的高频特征进行降维处理;
所述渲染模块包括第二卷积层、上采样层和神经渲染层,其中,所述第二卷积层用于对所述第十一子特征图进行平滑处理,得到第十二子特征图;所述上采样层用于对所述第十二子特征图进行反卷积上采样处理,得到第十三子特征图;所述神经渲染层用于基于预设图像对所述第十三子特征图进行渲染,得到第三特征图,其中,所述预设图像的清晰度高于目标视频的图像帧的清晰度。
4.根据权利要求3所述的方法,其特征在于,所述神经渲染层包括mobilenetv2网络层、第三卷积层、第四卷积层、多尺度特征提取层、第二合并层、第五卷积层、注意力模块和第六卷积层;其中,所述mobilenetv2网络层用于对所述预设图像进行特征提取,得到第四特征图;所述第三卷积层用于对所述第十三子特征图进行通道升维处理后,与所述第四特征图进行特征匹配;所述第四卷积层用于对匹配度最高的特征进行平滑及融合处理得到第十四子特征图;所述多尺度特征提取层用于对所述第十四子特征图进行不同尺度纹理特征的提取;所述第二合并层用于对所述多尺度特征提取层输出的特征进行特征融合得到第十五子特征图;所述第五卷积层用于对所述第十五子特征图进行通道降维处理,得到第十六子特征图;所述注意力模块用于对所述第十六子特征图进行加权处理;所述第六卷积层用于对加权后的所述第十六子特征图进行降维处理,得到所述第三特征图。
5.根据权利要求4所述的方法,其特征在于,所述将样本图像输入到待训练超分模型进行迭代训练,得到所述超分模型包括:
在对待训练超分模型迭代训练的过程中,基于第一损失值、第二损失值和第三损失值确定目标损失值;
基于所述目标损失值对所述超分模型的网络参数进行调整;
在满足预设损失收敛条件的情况下,将当前的待训练超分模型确定为超分模型;
其中,所述第一损失值为基于所述第十三子特征图与预设的标签图像计算获得的损失值,所述第二损失值为基于所述第三特征图与所述标签图像计算获得的损失值,所述第三损失值为基于所述密集网络层输出的特征经过降维和上采样后得到的特征图与标签图像计算获得的损失值。
6.一种人脸识别装置,其特征在于,包括:
获取模块,用于获取目标视频的图像帧;
第一输入模块,用于将所述图像帧输入至人脸检测器,获得人脸图像;
第二输入模块,用于将所述人脸图像输入至预先训练的超分模型,得到分辨率放大后的第一特征图;
第三输入模块,用于将所述第一特征图输入至预先训练的人脸识别模型,获得人脸识别结果;
所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中,所述N个密集网络层依次串联,N为大于1的整数;
所述第二输入模块具体用于执行以下操作:
将所述人脸图像输入到所述浅层特征提取层进行浅层特征提取,获得第一子特征图;
利用所述N个密集网络层对所述第一子特征图进行中高频信息提取处理;
利用所述第一合并层各密集网络层输出的特征进行特征融合处理得到第二子特征图;
利用所述第一卷积层对所述第二子特征图进行降维处理后,与所述第一子特征图进行残差学习,得到第三子特征图;
其中,所述密集网络层由多层卷积密集链接组成,相邻两层卷积之间通过concat层进行连接,最后一层之前的卷积用于对所述第一子特征图进行高频信息的提取,最后一层卷积用于对所述最后一层之前的卷积提取的高频特征进行降维处理;
所述渲染模块包括第二卷积层、上采样层和神经渲染层,其中,所述利用所述渲染模块对所述第三子特征图进行渲染处理得到所述第一特征图,包括:
利用所述第二卷积层对所述第三子特征图进行平滑处理,得到第四子特征图;
利用所述上采样层对所述第四子特征图进行反卷积上采样处理,得到第五子特征图;
利用所述神经渲染层基于预设图像对所述第五子特征图进行渲染,得到所述第一特征图,其中,所述预设图像的清晰度高于所述图像帧的清晰度。
7.一种超分模型训练装置,其特征在于,包括:
训练模块,用于将样本图像输入到待训练超分模型进行迭代训练,得到所述超分模型;
其中,所述超分模型包括浅层特征提取层、N个密集网络层、第一合并层、第一卷积层和渲染模块;其中,所述N个密集网络层依次串联,N为大于1的整数;所述浅层特征提取层用于对所述样本图像进行浅层特征提取,获得第九子特征图;所述N个密集网络层用于对所述第九子特征图进行中高频信息提取处理;所述第一合并层用于对各密集网络层输出的特征进行特征融合处理得到第十子特征图;所述第一卷积层用于对所述第十子特征图进行降维处理后,与所述第九子特征图进行残差学习,得到第十一子特征图;所述渲染模块用于对所述第十一子特征图进行渲染处理得到第三特征图;
其中,所述密集网络层由多层卷积密集链接组成,相邻两层卷积之间通过concat层进行连接,最后一层之前的卷积用于对所述第九子特征图进行高频信息的提取,最后一层卷积用于对所述最后一层之前的卷积提取的高频特征进行降维处理;
所述渲染模块包括第二卷积层、上采样层和神经渲染层,其中,所述第二卷积层用于对所述第十一子特征图进行平滑处理,得到第十二子特征图;所述上采样层用于对所述第十二子特征图进行反卷积上采样处理,得到第十三子特征图;所述神经渲染层用于基于预设图像对所述第十三子特征图进行渲染,得到第三特征图,其中,所述预设图像的清晰度高于目标视频的图像帧的清晰度。
8.一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至2中任一项所述的人脸识别方法的步骤,或者实现如权利要求3至5中任一项所述的超分模型训练方法的步骤。
9.一种可读存储介质,其上存储有程序或指令,其特征在于,所述程序或指令被处理器执行时实现如权利要求1至2中任一项所述的人脸识别方法的步骤,或者实现如权利要求3至5中任一项所述的超分模型训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111234680.XA CN113869282B (zh) | 2021-10-22 | 2021-10-22 | 人脸识别方法、超分模型训练方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111234680.XA CN113869282B (zh) | 2021-10-22 | 2021-10-22 | 人脸识别方法、超分模型训练方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113869282A CN113869282A (zh) | 2021-12-31 |
CN113869282B true CN113869282B (zh) | 2022-11-11 |
Family
ID=78997275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111234680.XA Active CN113869282B (zh) | 2021-10-22 | 2021-10-22 | 人脸识别方法、超分模型训练方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113869282B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560701B (zh) * | 2020-12-17 | 2022-10-25 | 成都新潮传媒集团有限公司 | 一种人脸图像提取方法、装置及计算机存储介质 |
CN115376188B (zh) * | 2022-08-17 | 2023-10-24 | 天翼爱音乐文化科技有限公司 | 一种视频通话处理方法、系统、电子设备及存储介质 |
CN117238020B (zh) * | 2023-11-10 | 2024-04-26 | 杭州启源视觉科技有限公司 | 人脸识别方法、装置和计算机设备 |
CN117612231B (zh) * | 2023-11-22 | 2024-06-25 | 中化现代农业有限公司 | 人脸检测方法、装置、电子设备和存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107844784A (zh) * | 2017-12-08 | 2018-03-27 | 广东美的智能机器人有限公司 | 人脸识别方法、装置、计算机设备和可读存储介质 |
CN107977932B (zh) * | 2017-12-28 | 2021-04-23 | 北京工业大学 | 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法 |
JP7131195B2 (ja) * | 2018-08-14 | 2022-09-06 | 日本電信電話株式会社 | 物体認識装置、物体認識学習装置、方法、及びプログラム |
CN109325915B (zh) * | 2018-09-11 | 2022-11-08 | 合肥工业大学 | 一种用于低分辨率监控视频的超分辨率重建方法 |
CN109671023B (zh) * | 2019-01-24 | 2023-07-21 | 江苏大学 | 一种人脸图像超分辨率二次重建方法 |
CN111898412A (zh) * | 2020-06-16 | 2020-11-06 | 深圳市雄帝科技股份有限公司 | 人脸识别方法、装置、电子设备和介质 |
CN113191495A (zh) * | 2021-03-26 | 2021-07-30 | 网易(杭州)网络有限公司 | 超分模型的训练及人脸识别方法、装置、介质及电子设备 |
-
2021
- 2021-10-22 CN CN202111234680.XA patent/CN113869282B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113869282A (zh) | 2021-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113869282B (zh) | 人脸识别方法、超分模型训练方法及相关设备 | |
Zhao et al. | Semantic segmentation with attention mechanism for remote sensing images | |
Xie et al. | Multilevel cloud detection in remote sensing images based on deep learning | |
CN112446270B (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN114202672A (zh) | 一种基于注意力机制的小目标检测方法 | |
CN109671020B (zh) | 图像处理方法、装置、电子设备和计算机存储介质 | |
CN111209970B (zh) | 视频分类方法、装置、存储介质及服务器 | |
CN108875487B (zh) | 行人重识别网络的训练及基于其的行人重识别 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
WO2021238548A1 (zh) | 区域识别方法、装置、设备及可读存储介质 | |
Huang et al. | Identification of the source camera of images based on convolutional neural network | |
Wang et al. | Semantic segmentation of remote sensing ship image via a convolutional neural networks model | |
CN112287954A (zh) | 图像分类方法、图像分类模型的训练方法及其装置 | |
CN112580480B (zh) | 一种高光谱遥感影像分类方法及装置 | |
CN111340213B (zh) | 神经网络的训练方法、电子设备、存储介质 | |
CN111950570A (zh) | 目标图像提取方法、神经网络训练方法及装置 | |
Liu et al. | Iris recognition in visible spectrum based on multi-layer analogous convolution and collaborative representation | |
CN115578590A (zh) | 基于卷积神经网络模型的图像识别方法、装置及终端设备 | |
CN110135428B (zh) | 图像分割处理方法和装置 | |
CN111401309A (zh) | 基于小波变换的cnn训练和遥感图像目标识别方法 | |
CN111104911A (zh) | 一种基于大数据训练的行人重识别方法及装置 | |
CN114519863A (zh) | 人体重识别方法、人体重识别装置、计算机设备及介质 | |
CN112488054B (zh) | 一种人脸识别方法、装置、终端设备及存储介质 | |
CN110210314B (zh) | 人脸检测方法、装置、计算机设备及存储介质 | |
CN117036658A (zh) | 一种图像处理方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared | ||
OL01 | Intention to license declared |