CN113674230A - 一种室内逆光人脸关键点的检测方法及装置 - Google Patents
一种室内逆光人脸关键点的检测方法及装置 Download PDFInfo
- Publication number
- CN113674230A CN113674230A CN202110914126.XA CN202110914126A CN113674230A CN 113674230 A CN113674230 A CN 113674230A CN 202110914126 A CN202110914126 A CN 202110914126A CN 113674230 A CN113674230 A CN 113674230A
- Authority
- CN
- China
- Prior art keywords
- image
- visible light
- infrared
- characteristic information
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000004927 fusion Effects 0.000 claims abstract description 77
- 238000001514 detection method Methods 0.000 claims abstract description 56
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 20
- 230000008859 change Effects 0.000 claims description 47
- 238000012549 training Methods 0.000 claims description 33
- 238000013138 pruning Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 4
- 238000005520 cutting process Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请实施例公开了一种室内逆光人脸关键点的检测方法,用于获取逆光下清晰的可见光图像,提高人脸关键点检测准确度。本申请实施例方法包括:分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,可见光图像为第一图像数据;确定可见光图像以及红外图像的人脸关键点;根据人脸关键点计算可见光图像以及红外图像的仿射矩阵;根据红外图像的人脸关键点与仿射矩阵将可见光图像转换至红外图像,以生成第二图像数据;将第一图像数据与第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息;将第一特征信息与第二特征信息通过图像融合层输出融合特征信息;将融合特征信息通过目标解码网络输出目标图像。
Description
技术领域
本申请实施例涉及数据处理领域,尤其涉及一种室内逆光人脸关键点的检测方法及装置。
背景技术
随着人工智能、物联网等前沿技术的发展,智能时代已经悄然到来,“刷脸”逐渐成为了新的风潮,人脸识别技术已经在众多领域中得到广泛的应用,例如,可以应用在公共安全领域的刑侦追逃、政府职能领域的电子政务以及场所进出领域的部门门禁控制等。
人脸识别是基于人脸的特征信息进行身份识别的一种识别技术,可以通过利用摄影机或者摄像头来采集包含有人脸的图像或者视频,并自动在图像或视频中检测和追踪人脸,进而对检测到的人脸图像进行一系列的相关应用操作。然而就目前来说,受光线条件的影响,在采集图像的过程中,光线好的现实场景可以有利于人脸识别获得清晰的可见光图像,在逆光的复杂环境中获得的可见光图像较光线好的现实场景获得的可见光图像而言较为模糊,从而易造成人脸关键点检测的准确度下降。
发明内容
本申请实施例提供了一种室内逆光人脸关键点的检测方法及装置,用于获取逆光下较为清晰的可见光图像,使得人脸关键点检测的准确度上升。
本申请在第一方面提供了一种室内逆光人脸关键点的检测方法,包括:
分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,所述可见光图像为第一图像数据;
确定所述可见光图像以及所述红外图像的人脸关键点;
根据所述人脸关键点计算所述可见光图像以及所述红外图像的仿射矩阵;
根据所述红外图像的人脸关键点与仿射矩阵将所述可见光图像转换至所述红外图像,以生成第二图像数据;
将所述第一图像数据与所述第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息,所述目标编码网络为提取图像高维特征信息的网络,所述第一特征信息为可见光图像的高维特征信息,所述第二特征信息为红外图像的高维特征信息;
将所述第一特征信息与所述第二特征信息通过图像融合层输出融合特征信息,所述图像融合层为将红外图像以及可见光图像的高维特征信息进行融合的网络层,所述融合特征信息为可见光图像与红外图像的高维特征的融合信息;
将所述融合特征信息通过目标解码网络输出目标图像,所述目标解码网络用于输出具有高维融合特征的图像。
可选的,所述分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像之前,所述检测方法还包括:
从获取的训练样本集中提取一组可见光图像与红外图像作为检测样本;
将所述检测样本通过初始编码网络输出可见光高维特征信息以及红外高维特征信息;
将所述可见光高维特征信息以及所述红外高维特征信息输入初始解码网络直至所述初始解码网络达到收敛,生成目标解码网络。
可选的,所述将所述可见光高维特征信息以及所述红外高维特征信息输入初始解码网络直至所述初始解码网络达到收敛,包括:
将所述可见光高维特征信息以及所述红外高维特征信息通过初始解码网络输出第二可见光高维特征信息以及第二红外高维特征信息;
根据所述检测样本中的红外图像与所述第二红外高维特征信息计算红外图像的总损失值,以生成红外图像损失变化数据,所述红外图像损失变化数据为每次训练生成的损失值的统计数据;
根据所述检测样本中的可见光图像与所述第二可见光高维特征信息计算可见光图像的总损失值,以生成可见光图像损失变化数据;
判断所述红外图像损失变化数据以及所述可见光图像损失变化数据在预设区间内的损失值是否收敛;
若是,则确定所述初始解码网络为目标解码网络。
可选的,所述判断所述红外图像损失变化数据以及所述可见光图像损失变化数据在预设区间内的损失值是否收敛之后,所述检测方法还包括:
若否,则根据所述红外图像的总损失值以及所述可见光图像的总损失值更新所述初始解码网络,并从所述训练样本集中重新选取一组可见光图像与红外图像输入到所述初始编码网络训练。
可选的,所述将所述第一图像数据与所述第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息之前,所述根据所述红外图像的人脸关键点与仿射矩阵将所述可见光图像转换至所述红外图像之后,所述检测方法还包括:
对所述第一图像数据以及所述第二图像数据进行数据增强,所述数据增强包括随机旋转图像以及随机剪切图像;
对所述第一图像数据以及所述第二图像数据进行数据剪枝。
可选的,所述目标解码网络采用卷积层与反卷积层交替串行连接结构构成。
可选的,所述目标编码网络采用DenseBlock结构构成。
本申请在第二方面提供了一种室内逆光人脸关键点的检测装置,包括:
第一获取单元,用于分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,所述可见光图像为第一图像数据;
关键点确定单元,用于确定所述可见光图像以及所述红外图像的人脸关键点;
第一计算单元,用于根据所述人脸关键点计算所述可见光图像以及所述红外图像的仿射矩阵;
生成单元,用于根据所述红外图像的人脸关键点与仿射矩阵将所述可见光图像转换至所述红外图像,以生成第二图像数据;
第一输出单元,用于将所述第一图像数据与所述第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息,所述目标编码网络为提取图像高维特征信息的网络,所述第一特征信息为可见光图像的高维特征信息,所述第二特征信息为红外图像的高维特征信息;
第二输出单元,用于将所述第一特征信息与所述第二特征信息通过图像融合层输出融合特征信息,所述图像融合层为将红外图像以及可见光图像的高维特征信息进行融合的网络层,所述融合特征信息为可见光图像与红外图像的高维特征的融合信息;
第三输出单元,用于将所述融合特征信息通过目标解码网络输出目标图像,所述目标解码网络用于输出具有高维融合特征的图像。
可选的,所述检测装置还包括:
样本提取单元,用于从获取的训练样本集中提取一组可见光图像与红外图像作为检测样本;
第四输出单元,用于将所述检测样本通过初始编码网络输出可见光高维特征信息以及红外高维特征信息;
网络训练单元,用于将所述可见光高维特征信息以及所述红外高维特征信息输入初始解码网络直至所述初始解码网络达到收敛,生成目标解码网络。
可选的,所述网络训练单元,包括:
第五输出模块,用于将所述可见光高维特征信息以及所述红外高维特征信息通过初始解码网络输出第二可见光高维特征信息以及第二红外高维特征信息;
红外总损失计算模块,用于根据所述检测样本中的红外图像与所述第二红外高维特征信息计算红外图像的总损失值,以生成红外图像损失变化数据,所述红外图像损失变化数据为每次训练生成的损失值的统计数据;
可见光总损失计算模块,用于根据所述检测样本中的可见光图像与所述第二可见光高维特征信息计算可见光图像的总损失值,以生成可见光图像损失变化数据;
第一判断模块,用于判断所述红外图像损失变化数据以及所述可见光图像损失变化数据在预设区间内的损失值是否收敛;
第一执行模块,用于当所述第一判断模块确定所述红外图像损失变化数据以及所述可见光图像损失变化数据在预设区间内的损失值收敛时,则确定所述初始解码网络为目标解码网络。
可选的,所述检测装置还包括:
第二执行模块,用于当所述第一判断模块确定所述红外图像损失变化数据以及所述可见光图像损失变化数据在预设区间内的损失值未收敛时,则根据所述红外图像的总损失值以及所述可见光图像的总损失值更新所述初始解码网络,并从所述训练样本集中重新选取一组可见光图像与红外图像输入到所述初始编码网络训练。
可选的,所述检测装置还包括:
数据增强单元,用于对所述第一图像数据以及所述第二图像数据进行数据增强,所述数据增强包括随机旋转图像以及随机剪切图像;
数据剪枝单元,用于对所述第一图像数据以及所述第二图像数据进行数据剪枝。
本申请在第三方面提供了一种室内逆光人脸关键点的检测装置,包括:
处理器、存储器、输入输出单元、总线;
所述处理器与所述存储器、所述输入输出单元以及所述总线相连;
所述处理器具体执行如下操作:
分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,所述可见光图像为第一图像数据;
确定所述可见光图像以及所述红外图像的人脸关键点;
根据所述人脸关键点计算所述可见光图像以及所述红外图像的仿射矩阵;
根据所述红外图像的人脸关键点与仿射矩阵将所述可见光图像转换至所述红外图像,以生成第二图像数据;
将所述第一图像数据与所述第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息,所述目标编码网络为提取图像高维特征信息的网络,所述第一特征信息为可见光图像的高维特征信息,所述第二特征信息为红外图像的高维特征信息;
将所述第一特征信息与所述第二特征信息通过图像融合层输出融合特征信息,所述图像融合层为将红外图像以及可见光图像的高维特征信息进行融合的网络层,所述融合特征信息为可见光图像与红外图像的高维特征的融合信息;
将所述融合特征信息通过目标解码网络输出目标图像,所述目标解码网络用于输出具有高维融合特征的图像。
可选的,所述处理器还用于执行第一方面中的任意可选方案的操作。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请首先是将获取到的可见光以及红外图像进行人脸关键点的确定,再根据该人脸关键点计算出这两种图像的仿射矩阵,然后,根据红外图像的人脸关键点以及仿射矩阵将可见光图像转换至红外图像上生成第二图像数据,通过输入到目标编码网络提取特征信息,再将该特征信息通过图像融合层融合,最后将融合后的特征信息输入到目标解码网络中得到具有高位融合特征在图像。通过该方法可以获得较为清晰的可见光图像,从而使得人脸关键点检测的准确度上升。
附图说明
图1为本申请实施例中室内逆光人脸关键点的检测方法的一个实施例流程示意图;
图2为本申请实施例中室内逆光人脸关键点的检测方法的另一个实施例流程示意图;
图3为本申请实施例中室内逆光人脸关键点的检测装置的一个实施例结构示意图;
图4为本申请实施例中室内逆光人脸关键点的检测装置的另一个实施例结构示意图;
图5为本申请实施例中室内逆光人脸关键点的检测装置的另一个实施例结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的阐述,显然阐述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应当属于本发明保护范围。
本申请实施例提供了一种室内逆光人脸关键点的检测方法及装置,用于获取逆光下较为清晰的可见光图像,使得人脸关键点检测的准确度上升。
在本实施例中,室内逆光人脸关键点的检测方法可在系统实现,可以在服务器实现,也可以在终端实现,具体不做明确限定。为方便描述,本申请实施例使用系统为执行主体举例描述。
请参阅图1,在本申请实施例中,室内逆光人脸关键点的检测方法的一个实施例包括:
101、系统分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,可见光图像为第一图像数据;
在本申请实施例中,可以通过设计好的相关网络将红外图像以及可见光图像进行融合,得到清晰的融合图像。而在对红外图像以及相关的可见光图像进行融合之前,需要先获取包含人脸的红外图像以及可见光图像作为图像融合的素材。
需要说明的是,获取在正常光、逆光以及强光现实场景下的包含人脸的相关图像可以有多种方式,例如,可以在网络上搜索图像并下载,也可以从预先布置好的摄像头环境中分别录制正常光线、逆光、强光环境下的红外视频以及可见光视频,然后再从视频中同步抓拍红外图像以及可见光图像,具体的获取方式此处不做限定。
102、系统确定可见光图像以及红外图像的人脸关键点;
人脸关键点的检测是人脸识别和分析领域中较为关键的一步,能够反映各个部位的脸部特征,用于对人的面部表情进行分析,从而能够应用到互动娱乐、行为预测等场景。在本申请实施例中,在获取到包含真实人脸的相关图像后,需要对红外图像以及可见光图像进行特征的融合,因此需要先确定图像中人脸的关键点,为后续计算对应图像的仿射矩阵做准备,在确定人脸关键点的过程中,包括但不限于将图像中人脸的左眼、右眼、鼻子、左嘴角以及右嘴角的位置作为图像的人脸关键点,并可以随着精度要求的不同,确定的人脸关键点的不同数量。
在本申请实施例中,图像的人脸关键点通过卷积神经网络算法来确定,例如DCNN、MTCNN等,具体的确定实施算法在此处不做限定。
103、系统根据人脸关键点计算可见光图像以及红外图像的仿射矩阵;
104、系统根据红外图像的人脸关键点与仿射矩阵将可见光图像转换至红外图像,以生成第二图像数据;
在本申请实施例中,系统在根据人脸关键点计算出可见光图像以及红外图像的仿射矩阵后,为了使红外图像的特征信息方便后续的提取,可以利用这个红外图像的人脸关键点和仿射矩阵将可见光图像转换到红外图像的平面空间,经过处理后的红外图像即为第二图像数据。
105、系统将第一图像数据与第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息;
为了获得更精细化的上下文特征,目标编码网络可以采用dense block结构。
在本申请实施例中,需要将获取到的第一图像数据以及第二图像数据分别转换成YUV空间图像,将红外图像的Y(亮度)通道和可见光图像的UV(颜色)通道进行相加作为网络的数据输入层,已初步提取出对应图像的高维特征信息。其中,此处所说的数据输入层即为目标编码网络,该目标编码网络为提取图像高维特征信息的网络,而图像通过该目标编码网络输出的第一特征信息为可见光图像的高维特征信息,第二特征信息为红外图像的高维特征信息。
106、系统将第一特征信息与第二特征信息通过图像融合层输出融合特征信息;
在本申请实施例中,系统在将图像通过目标编码网络输出相关的特征信息之后,为了能够大幅度扩展网络实际深度以及提高特征的利用率,提取像素更高语义的分布,需要将相关特征信息进行融合。因此,可以采用编解码的方式,同时将残差结构与denseblock结合的网络单元作为图像融合层,然后将第一特征信息与第二特征信息输入至图像融合层,从而输出可见光图像与红外图像的高维特征的融合信息。
107、系统将融合特征信息通过目标解码网络输出目标图像。
在本申请实施例中,系统在通过图像融合层输出可见光图像与红外图像的高维特征的融合信息后,将该融合信息输入至训练好的目标解码网络,即可输出目标图像,其中,目标解码网络用于输出具有高维融合特征的图像,目标图像则为较融合前的可见光图像更为清晰的图像。
进一步的,此处所提到的目标解码网络可以是采用卷积层和反卷积交替的串行连接结构。
在本申请实施例中,可以将获取到的可见光以及红外图像进行人脸关键点的确定,再根据该人脸关键点计算出这两种图像的仿射矩阵,然后,根据红外图像的人脸关键点以及仿射矩阵将可见光图像转换至红外图像上生成第二图像数据,通过输入到目标编码网络提取特征信息,再将该特征信息通过图像融合层融合,最后将融合后的特征信息输入到目标解码网络中得到具有高位融合特征在图像。通过该方法可以获得较为清晰的可见光图像,从而使得人脸关键点检测的准确度上升。
请参阅图2,在本申请实施例中,一种室内逆光人脸关键点的检测方法的另一个实施例包括:
201、系统从获取的训练样本集中提取一组可见光图像与红外图像作为检测样本;
202、系统将检测样本通过初始编码网络输出可见光高维特征信息以及红外高维特征信息;
203、系统将可见光高维特征信息以及红外高维特征信息通过初始解码网络输出第二可见光高维特征信息以及第二红外高维特征信息;
204、系统根据检测样本中的红外图像与第二红外高维特征信息计算红外图像的总损失值,以生成红外图像损失变化数据;
205、系统根据检测样本中的可见光图像与第二可见光高维特征信息计算可见光图像的总损失值,以生成可见光图像损失变化数据;
206、系统判断红外图像损失变化数据以及可见光图像损失变化数据在预设区间内的损失值是否收敛;若是,则执行步骤207;若否,则执行步骤208;
207、系统确定初始解码网络为目标解码网络;
208、系统根据红外图像的总损失值以及可见光图像的总损失值更新初始解码网络,并从训练样本集中重新选取一组可见光图像与红外图像输入到初始编码网络训练;
在本申请实施例中,在对室内逆光条件下拍摄的图像进行人脸关键点检测之前,需要先将检测方法中要用到的神经网络模型进行训练,即需要对编码网络与编码网络进行训练。模型的训练过程通常为:获取检测样本,将检测样本输入至初始模型得到损失变化数据,再根据该损失数据的变化趋势确定模型是否为收敛状态,若收敛,则确定网络模型已训练完成,若未收敛,则将相关的损失参数更新,继续从训练样本集中提取新的可见光图像以及红外图像作为检测样本输入相关网络模型进行训练。
例如,在训练之前,系统需要从获取的训练样本集中提取一组可见光图像Irgb与红外图像Iir作为检测样本输入至初始的编码网络,输出的可见光高维特征信息以及红外高维特征信息可分别记为Orgb以及Oir,再将Orgb以及Oir通过初始的解码网络输出第二可见光高维特征信息Srgb以及第二红外高维特征信息Sir,需要说明的是,此处输出的第二可见光高维特征信息Srgb、第二红外高维特征信息Sir大小与输入图像尺度相同,维度相同。为了提升网络的综合性能,还提供了低维结构相似度损失函数、高维语义均方差损失函数和带阶次的Total Variation(TV)损失函数,系统可以根据输出的Sir以及Iir来计算红外图像的总损失,根据输出的Srgb以及Irgb来计算可见光图像的总损失。该总损失函数如公式(1)。
L=λcreLcre+λssimLssim+λLTV 公式(1)
其中,Lcre为高维语义均方损失函数,可以获得更精细化的高层语义信息,λcre为对应的权重;Lssim为结构相似性损失,该损失能较好地保持目标的结构分布,λssim为对应权重;LTV为全变分去噪损失,能够较为清晰地学习到底层特征,避免模糊效应的产生,λ为对应的权重。进一步的,根据损失值进行反向传播,可以提升选取特征的能力。
需要说明的是,上述所提到的全变分去噪损失的函数如公式(2)。
其中,此处的β可以设置为3。
分别计算出可见光图像以及红外图像的总损失值后,将损失进行网络参数更新,并生成相关的图像损失变化数据,再根据变化数据分布来确定在预设区间内的损失值是否收敛即可。
209、系统分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,可见光图像为第一图像数据;
210、系统确定可见光图像以及红外图像的人脸关键点;
211、系统根据人脸关键点计算可见光图像以及红外图像的仿射矩阵;
212、系统根据红外图像的人脸关键点与仿射矩阵将可见光图像转换至红外图像,以生成第二图像数据;
本实施例中的步骤209至步骤212与前述实施例中步骤101至步骤104类似,此处不再赘述。
213、系统对第一图像数据以及第二图像数据进行数据增强;
214、系统对第一图像数据以及第二图像数据进行数据剪枝;
在本申请实施例中,为了突出数据特征,去除其冗余性,系统可以对相关的图像数据进行数据增强与剪枝。其中,数据增强与剪枝包括但不限于可以通过旋转矩阵和平移矩阵将红外图像和可见光图像进行像素对齐并裁剪大小固定的红外图像和可见光图像。
215、系统将第一图像数据与第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息;
216、系统将第一特征信息与第二特征信息通过图像融合层输出融合特征信息;
217、系统将融合特征信息通过目标解码网络输出目标图像。
本实施例中的步骤215至步骤217与前述实施例中步骤105至步骤107类似,此处不再赘述。
上面对本申请实施例中的室内逆光人脸关键点的检测方法进行了描述,下面对本申请实施例中的室内逆光人脸关键点的检测装置进行描述:
请参阅图3,本申请实施例中,一种室内逆光人脸关键点的检测装置的一个实施例包括:
第一获取单元301,用于分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,可见光图像为第一图像数据;
关键点确定单元302,用于确定可见光图像以及红外图像的人脸关键点;
第一计算单元303,用于根据人脸关键点计算可见光图像以及红外图像的仿射矩阵;
生成单元304,用于根据红外图像的人脸关键点与仿射矩阵将可见光图像转换至红外图像,以生成第二图像数据;
第一输出单元305,用于将第一图像数据与第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息,目标编码网络为提取图像高维特征信息的网络,第一特征信息为可见光图像的高维特征信息,第二特征信息为红外图像的高维特征信息;
第二输出单元306,用于将第一特征信息与第二特征信息通过图像融合层输出融合特征信息,图像融合层为将红外图像以及可见光图像的高维特征信息进行融合的网络层,融合特征信息为可见光图像与红外图像的高维特征的融合信息;
第三输出单元307,用于将融合特征信息通过目标解码网络输出目标图像,目标解码网络用于输出具有高维融合特征的图像。
在本申请实施例中,首先通过第一获取单元301获得需要的图像数据,然后通过关键点确定单元302以及第一计算单元303分别确定好图像的人脸关键点以及仿射矩阵,接着,生成单元304会根据红外图像的人脸关键点以及仿射矩阵把可见光图像转换至红外图像,让经过处理后的红外图像作为第二图像数据,然后第一输出单元305把第一图像数据以及第二图像数据通过目标编码网络输出对应的特征信息,第二输出单元306再将该特征信息通过图像融合层输出融合特征信息,最后第三输出单元307再将该融合特征信息通过目标解码网络输出具有高维融合特征的图像。
请参阅图4,本申请实施例中,一种室内逆光人脸关键点的检测装置的另一个实施例包括:
样本提取单元401,用于从获取的训练样本集中提取一组可见光图像与红外图像作为检测样本;
第四输出单元402,用于将检测样本通过初始编码网络输出可见光高维特征信息以及红外高维特征信息;
网络训练单元403,用于将可见光高维特征信息以及红外高维特征信息输入初始解码网络直至初始解码网络达到收敛,生成目标解码网络;
第一获取单元404,用于分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,可见光图像为第一图像数据;
关键点确定单元405,用于确定可见光图像以及红外图像的人脸关键点;
第一计算单元406,用于根据人脸关键点计算可见光图像以及红外图像的仿射矩阵;
生成单元407,用于根据红外图像的人脸关键点与仿射矩阵将可见光图像转换至红外图像,以生成第二图像数据;
数据增强单元408,用于对第一图像数据以及第二图像数据进行数据增强,数据增强包括随机旋转图像以及随机剪切图像;
数据剪枝单元409,用于对第一图像数据以及第二图像数据进行数据剪枝;
第一输出单元410,用于将第一图像数据与第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息,目标编码网络为提取图像高维特征信息的网络,第一特征信息为可见光图像的高维特征信息,第二特征信息为红外图像的高维特征信息;
第二输出单元411,用于将第一特征信息与第二特征信息通过图像融合层输出融合特征信息,图像融合层为将红外图像以及可见光图像的高维特征信息进行融合的网络层,融合特征信息为可见光图像与红外图像的高维特征的融合信息;
第三输出单元412,用于将融合特征信息通过目标解码网络输出目标图像,目标解码网络用于输出具有高维融合特征的图像。
在本申请实施例中,网络训练单元403可以包括第五输出模块4031、红外总损失计算模块4032、可见光总损失计算模块4033、第一判断模块4034、第一执行模块4035以及第二执行模块4036。
第五输出模块4031,用于将可见光高维特征信息以及红外高维特征信息通过初始解码网络输出第二可见光高维特征信息以及第二红外高维特征信息;
红外总损失计算模块4032,用于根据检测样本中的红外图像与第二红外高维特征信息计算红外图像的总损失值,以生成红外图像损失变化数据,红外图像损失变化数据为每次训练生成的损失值的统计数据;
可见光总损失计算模块4033,用于根据检测样本中的可见光图像与第二可见光高维特征信息计算可见光图像的总损失值,以生成可见光图像损失变化数据;
第一判断模块4034,用于判断红外图像损失变化数据以及可见光图像损失变化数据在预设区间内的损失值是否收敛;
第一执行模块4035,用于当第一判断模块4034确定红外图像损失变化数据以及可见光图像损失变化数据在预设区间内的损失值收敛时,则确定初始解码网络为目标解码网络;
第二执行模块4036,用于当第一判断模块4034确定红外图像损失变化数据以及可见光图像损失变化数据在预设区间内的损失值未收敛时,则根据红外图像的总损失值以及可见光图像的总损失值更新初始解码网络,并从训练样本集中重新选取一组可见光图像与红外图像输入到初始编码网络训练。
上述实施例中,各个单元及模块的功能与图2所示实施例中的步骤对应,此处不再赘述。
下面对本申请实施例中的一种室内逆光人脸关键点的检测装置进行详细描述,请参阅图5,在本申请实施例中一种室内逆光人脸关键点的检测装置的另一实施例包括:
处理器501、存储器502、输入输出单元503、总线504;
处理器501与存储器502、输入输出单元503以及总线504相连;
处理器501具体执行如下操作:
分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,可见光图像为第一图像数据;
确定可见光图像以及红外图像的人脸关键点;
根据人脸关键点计算可见光图像以及红外图像的仿射矩阵;
根据红外图像的人脸关键点与仿射矩阵将可见光图像转换至红外图像,以生成第二图像数据;
将第一图像数据与第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息,目标编码网络为提取图像高维特征信息的网络,第一特征信息为可见光图像的高维特征信息,第二特征信息为红外图像的高维特征信息;
将第一特征信息与第二特征信息通过图像融合层输出融合特征信息,图像融合层为将红外图像以及可见光图像的高维特征信息进行融合的网络层,融合特征信息为可见光图像与红外图像的高维特征的融合信息;
将融合特征信息通过目标解码网络输出目标图像,目标解码网络用于输出具有高维融合特征的图像。
本实施例中,处理器501的功能与前述图1至图4所述实施例中的步骤对应,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,read-onlymemory)、随机存取存储器(RAM,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (10)
1.一种室内逆光人脸关键点的检测方法,其特征在于,包括:
分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,所述可见光图像为第一图像数据;
确定所述可见光图像以及所述红外图像的人脸关键点;
根据所述人脸关键点计算所述可见光图像以及所述红外图像的仿射矩阵;
根据所述红外图像的人脸关键点与仿射矩阵将所述可见光图像转换至所述红外图像,以生成第二图像数据;
将所述第一图像数据与所述第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息,所述目标编码网络为提取图像高维特征信息的网络,所述第一特征信息为可见光图像的高维特征信息,所述第二特征信息为红外图像的高维特征信息;
将所述第一特征信息与所述第二特征信息通过图像融合层输出融合特征信息,所述图像融合层为将红外图像以及可见光图像的高维特征信息进行融合的网络层,所述融合特征信息为可见光图像与红外图像的高维特征的融合信息;
将所述融合特征信息通过目标解码网络输出目标图像,所述目标解码网络用于输出具有高维融合特征的图像。
2.根据权利要求1所述的检测方法,其特征在于,所述分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像之前,所述检测方法还包括:
从获取的训练样本集中提取一组可见光图像与红外图像作为检测样本;
将所述检测样本通过初始编码网络输出可见光高维特征信息以及红外高维特征信息;
将所述可见光高维特征信息以及所述红外高维特征信息输入初始解码网络直至所述初始解码网络达到收敛,生成目标解码网络。
3.根据权利要求2所述的检测方法,其特征在于,所述将所述可见光高维特征信息以及所述红外高维特征信息输入初始解码网络直至所述初始解码网络达到收敛,包括:
将所述可见光高维特征信息以及所述红外高维特征信息通过初始解码网络输出第二可见光高维特征信息以及第二红外高维特征信息;
根据所述检测样本中的红外图像与所述第二红外高维特征信息计算红外图像的总损失值,以生成红外图像损失变化数据,所述红外图像损失变化数据为每次训练生成的损失值的统计数据;
根据所述检测样本中的可见光图像与所述第二可见光高维特征信息计算可见光图像的总损失值,以生成可见光图像损失变化数据;
判断所述红外图像损失变化数据以及所述可见光图像损失变化数据在预设区间内的损失值是否收敛;
若是,则确定所述初始解码网络为目标解码网络。
4.根据权利要求3所述的检测方法,其特征在于,所述判断所述红外图像损失变化数据以及所述可见光图像损失变化数据在预设区间内的损失值是否收敛之后,所述检测方法还包括:
若否,则根据所述红外图像的总损失值以及所述可见光图像的总损失值更新所述初始解码网络,并从所述训练样本集中重新选取一组可见光图像与红外图像输入到所述初始编码网络训练。
5.根据权利要求4所述的检测方法,其特征在于,所述将所述第一图像数据与所述第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息之前,所述根据所述红外图像的人脸关键点与仿射矩阵将所述可见光图像转换至所述红外图像之后,所述检测方法还包括:
对所述第一图像数据以及所述第二图像数据进行数据增强,所述数据增强包括随机旋转图像以及随机剪切图像;
对所述第一图像数据以及所述第二图像数据进行数据剪枝。
6.根据权利要求1至5任意一项所述的检测方法,其特征在于,所述目标解码网络采用卷积层与反卷积层交替串行连接结构构成。
7.根据权利要求1至5任意一项所述的检测方法,其特征在于,所述目标编码网络采用DenseBlock结构构成。
8.一种室内逆光人脸关键点的检测装置,其特征在于,包括:
第一获取单元,用于分别获取正常光、逆光以及强光现实场景下的包含人脸的可见光图像以及红外图像,所述可见光图像为第一图像数据;
关键点确定单元,用于确定所述可见光图像以及所述红外图像的人脸关键点;
第一计算单元,用于根据所述人脸关键点计算所述可见光图像以及所述红外图像的仿射矩阵;
生成单元,用于根据所述红外图像的人脸关键点与仿射矩阵将所述可见光图像转换至所述红外图像,以生成第二图像数据;
第一输出单元,用于将所述第一图像数据与所述第二图像数据通过目标编码网络分别输出第一特征信息以及第二特征信息,所述目标编码网络为提取图像高维特征信息的网络,所述第一特征信息为可见光图像的高维特征信息,所述第二特征信息为红外图像的高维特征信息;
第二输出单元,用于将所述第一特征信息与所述第二特征信息通过图像融合层输出融合特征信息,所述图像融合层为将红外图像以及可见光图像的高维特征信息进行融合的网络层,所述融合特征信息为可见光图像与红外图像的高维特征的融合信息;
第三输出单元,用于将所述融合特征信息通过目标解码网络输出目标图像,所述目标解码网络用于输出具有高维融合特征的图像。
9.根据权利要求8所述的检测装置,其特征在于,所述检测装置还包括:
样本提取单元,用于从获取的训练样本集中提取一组可见光图像与红外图像作为检测样本;
第四输出单元,用于将所述检测样本通过初始编码网络输出可见光高维特征信息以及红外高维特征信息;
网络训练单元,用于将所述可见光高维特征信息以及所述红外高维特征信息输入初始解码网络直至所述初始解码网络达到收敛,生成目标解码网络。
10.根据权利要求9所述的检测装置,其特征在于,所述网络训练单元,包括:
第五输出模块,用于将所述可见光高维特征信息以及所述红外高维特征信息通过初始解码网络输出第二可见光高维特征信息以及第二红外高维特征信息;
红外总损失计算模块,用于根据所述检测样本中的红外图像与所述第二红外高维特征信息计算红外图像的总损失值,以生成红外图像损失变化数据,所述红外图像损失变化数据为每次训练生成的损失值的统计数据;
可见光总损失计算模块,用于根据所述检测样本中的可见光图像与所述第二可见光高维特征信息计算可见光图像的总损失值,以生成可见光图像损失变化数据;
第一判断模块,用于判断所述红外图像损失变化数据以及所述可见光图像损失变化数据在预设区间内的损失值是否收敛;
第一执行模块,用于当所述第一判断模块确定所述红外图像损失变化数据以及所述可见光图像损失变化数据在预设区间内的损失值收敛时,则确定所述初始解码网络为目标解码网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110914126.XA CN113674230B (zh) | 2021-08-10 | 2021-08-10 | 一种室内逆光人脸关键点的检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110914126.XA CN113674230B (zh) | 2021-08-10 | 2021-08-10 | 一种室内逆光人脸关键点的检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113674230A true CN113674230A (zh) | 2021-11-19 |
CN113674230B CN113674230B (zh) | 2023-12-19 |
Family
ID=78542134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110914126.XA Active CN113674230B (zh) | 2021-08-10 | 2021-08-10 | 一种室内逆光人脸关键点的检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113674230B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116895094A (zh) * | 2023-09-11 | 2023-10-17 | 杭州魔点科技有限公司 | 一种基于双目融合的暗环境成像方法、系统、装置及介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100020220A1 (en) * | 2008-07-23 | 2010-01-28 | Victor Company Of Japan, Ltd. A Corporation Of Japan | Imaging apparatus |
JP2011130328A (ja) * | 2009-12-21 | 2011-06-30 | Sony Corp | 画像処理装置および方法、並びにプログラム |
CN107277356A (zh) * | 2017-07-10 | 2017-10-20 | 广东欧珀移动通信有限公司 | 逆光场景的人脸区域处理方法和装置 |
CN110060272A (zh) * | 2018-01-18 | 2019-07-26 | 杭州海康威视数字技术股份有限公司 | 人脸区域的确定方法、装置、电子设备及存储介质 |
CN110287900A (zh) * | 2019-06-27 | 2019-09-27 | 深圳市商汤科技有限公司 | 验证方法和验证装置 |
CN110399849A (zh) * | 2019-07-30 | 2019-11-01 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN111178249A (zh) * | 2019-12-27 | 2020-05-19 | 杭州艾芯智能科技有限公司 | 人脸比对的方法、装置、计算机设备及存储介质 |
CN111291885A (zh) * | 2020-01-20 | 2020-06-16 | 北京百度网讯科技有限公司 | 近红外图像的生成方法、生成网络的训练方法和装置 |
CN111985265A (zh) * | 2019-05-21 | 2020-11-24 | 华为技术有限公司 | 图像处理方法和装置 |
CN112241716A (zh) * | 2020-10-23 | 2021-01-19 | 北京百度网讯科技有限公司 | 训练样本的生成方法和装置 |
CN112258592A (zh) * | 2020-09-17 | 2021-01-22 | 深圳市捷顺科技实业股份有限公司 | 一种人脸可见光图的生成方法及相关装置 |
CN112464809A (zh) * | 2020-11-26 | 2021-03-09 | 北京奇艺世纪科技有限公司 | 一种人脸关键点检测方法、装置、电子设备及存储介质 |
CN112488054A (zh) * | 2020-12-17 | 2021-03-12 | 深圳市优必选科技股份有限公司 | 一种人脸识别方法、装置、终端设备及存储介质 |
CN112633221A (zh) * | 2020-12-30 | 2021-04-09 | 深圳市捷顺科技实业股份有限公司 | 一种人脸方向的检测方法及相关装置 |
CN112818821A (zh) * | 2021-01-28 | 2021-05-18 | 广州广电卓识智能科技有限公司 | 基于可见光和红外光的人脸采集源检测方法和装置 |
CN113128254A (zh) * | 2019-12-30 | 2021-07-16 | 上海依图网络科技有限公司 | 人脸捕获方法、装置、芯片及计算机可读存储介质 |
-
2021
- 2021-08-10 CN CN202110914126.XA patent/CN113674230B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100020220A1 (en) * | 2008-07-23 | 2010-01-28 | Victor Company Of Japan, Ltd. A Corporation Of Japan | Imaging apparatus |
JP2011130328A (ja) * | 2009-12-21 | 2011-06-30 | Sony Corp | 画像処理装置および方法、並びにプログラム |
CN107277356A (zh) * | 2017-07-10 | 2017-10-20 | 广东欧珀移动通信有限公司 | 逆光场景的人脸区域处理方法和装置 |
CN110060272A (zh) * | 2018-01-18 | 2019-07-26 | 杭州海康威视数字技术股份有限公司 | 人脸区域的确定方法、装置、电子设备及存储介质 |
CN111985265A (zh) * | 2019-05-21 | 2020-11-24 | 华为技术有限公司 | 图像处理方法和装置 |
CN110287900A (zh) * | 2019-06-27 | 2019-09-27 | 深圳市商汤科技有限公司 | 验证方法和验证装置 |
CN110399849A (zh) * | 2019-07-30 | 2019-11-01 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN111178249A (zh) * | 2019-12-27 | 2020-05-19 | 杭州艾芯智能科技有限公司 | 人脸比对的方法、装置、计算机设备及存储介质 |
CN113128254A (zh) * | 2019-12-30 | 2021-07-16 | 上海依图网络科技有限公司 | 人脸捕获方法、装置、芯片及计算机可读存储介质 |
CN111291885A (zh) * | 2020-01-20 | 2020-06-16 | 北京百度网讯科技有限公司 | 近红外图像的生成方法、生成网络的训练方法和装置 |
CN112258592A (zh) * | 2020-09-17 | 2021-01-22 | 深圳市捷顺科技实业股份有限公司 | 一种人脸可见光图的生成方法及相关装置 |
CN112241716A (zh) * | 2020-10-23 | 2021-01-19 | 北京百度网讯科技有限公司 | 训练样本的生成方法和装置 |
CN112464809A (zh) * | 2020-11-26 | 2021-03-09 | 北京奇艺世纪科技有限公司 | 一种人脸关键点检测方法、装置、电子设备及存储介质 |
CN112488054A (zh) * | 2020-12-17 | 2021-03-12 | 深圳市优必选科技股份有限公司 | 一种人脸识别方法、装置、终端设备及存储介质 |
CN112633221A (zh) * | 2020-12-30 | 2021-04-09 | 深圳市捷顺科技实业股份有限公司 | 一种人脸方向的检测方法及相关装置 |
CN112818821A (zh) * | 2021-01-28 | 2021-05-18 | 广州广电卓识智能科技有限公司 | 基于可见光和红外光的人脸采集源检测方法和装置 |
Non-Patent Citations (2)
Title |
---|
ANDREAS ELLMAUTHALER ET AL.: "A visible-light and infrared video database for performance evaluation of video/image fusion methods", 《MULTIDIMENSIONAL SYSTEMS AND SIGNAL PROCESSING》 * |
黄仕豪: "基于卷积神经网络级联人脸关键点检测算法", 《电脑知识与技术》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116895094A (zh) * | 2023-09-11 | 2023-10-17 | 杭州魔点科技有限公司 | 一种基于双目融合的暗环境成像方法、系统、装置及介质 |
CN116895094B (zh) * | 2023-09-11 | 2024-01-30 | 杭州魔点科技有限公司 | 一种基于双目融合的暗环境成像方法、系统、装置及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113674230B (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Face x-ray for more general face forgery detection | |
Sabir et al. | Recurrent convolutional strategies for face manipulation detection in videos | |
Anwar et al. | Image colorization: A survey and dataset | |
Wan et al. | Region-aware reflection removal with unified content and gradient priors | |
CN110188829B (zh) | 神经网络的训练方法、目标识别的方法及相关产品 | |
CN110189294B (zh) | 基于深度可信度分析的rgb-d图像显著性检测方法 | |
CN112434608B (zh) | 一种基于双流结合网络的人体行为识别方法及系统 | |
CN111814620A (zh) | 人脸图像质量评价模型建立方法、优选方法、介质及装置 | |
CN110598019B (zh) | 重复图像识别方法及装置 | |
CN108470178B (zh) | 一种结合深度可信度评价因子的深度图显著性检测方法 | |
CN111160313A (zh) | 一种基于lbp-vae异常检测模型的人脸表示攻击检测方法 | |
CN112818955B (zh) | 一种图像分割方法、装置、计算机设备以及存储介质 | |
CN115171199B (zh) | 图像处理方法、装置及计算机设备、存储介质 | |
CN112329851A (zh) | 一种图标检测方法、装置及计算机可读存储介质 | |
CN112163488A (zh) | 一种视频虚假人脸检测方法及电子装置 | |
CN112163493A (zh) | 一种视频虚假人脸检测方法及电子装置 | |
Zhao et al. | Detecting deepfake video by learning two-level features with two-stream convolutional neural network | |
CN113674230B (zh) | 一种室内逆光人脸关键点的检测方法及装置 | |
Weng et al. | A survey on improved GAN based image inpainting | |
CN114155165A (zh) | 一种基于半监督的图像去雾方法 | |
CN114359626A (zh) | 基于条件生成对抗网络的可见光-热红外显著目标检测方法 | |
CN114187463A (zh) | 电子档案生成方法、装置、终端设备及存储介质 | |
CN113450297A (zh) | 红外图像和可见光图像的融合模型构建方法及系统 | |
CN113221842A (zh) | 模型训练方法、图像识别方法、装置、设备及介质 | |
CN112258592A (zh) | 一种人脸可见光图的生成方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |