CN112347850A - 红外图像转换方法、活体检测方法、装置、可读存储介质 - Google Patents
红外图像转换方法、活体检测方法、装置、可读存储介质 Download PDFInfo
- Publication number
- CN112347850A CN112347850A CN202011055129.4A CN202011055129A CN112347850A CN 112347850 A CN112347850 A CN 112347850A CN 202011055129 A CN202011055129 A CN 202011055129A CN 112347850 A CN112347850 A CN 112347850A
- Authority
- CN
- China
- Prior art keywords
- infrared image
- visible light
- image
- light image
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 47
- 230000006870 function Effects 0.000 claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 43
- 230000002441 reversible effect Effects 0.000 claims abstract description 42
- 230000008569 process Effects 0.000 claims abstract description 24
- 238000001727 in vivo Methods 0.000 claims abstract description 6
- 238000013507 mapping Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000001574 biopsy Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 5
- 239000000654 additive Substances 0.000 abstract 1
- 230000000996 additive effect Effects 0.000 abstract 1
- 230000008878 coupling Effects 0.000 abstract 1
- 238000010168 coupling process Methods 0.000 abstract 1
- 238000005859 coupling reaction Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种红外图像转换方法、活体检测方法、装置、可读存储介质,获取可见光图像和近红外图像;根据可见光图像和近红外图像,进行CycleGAN模型训练;其中CycleGAN模型的生成器为两个互相近似可逆的函数,且两个生成器在训练过程中进行参数共享;输入目标可见光图像至训练好的CycleGAN模型,获得转换后的近红外图像,最好将近红外图像输入至活体检测模型,获得判断结果。本技术方案将可见光图像直接转换为近红外图像并进行活体检测,从而有效地提升活体检测准确率并能够有效地抵抗假体的攻击。使用可逆网络结构将可见光图像转换为近红外图像,使用加性耦合技术将正反向生成器进行参数共享,生成的近红外图像质量要优于使用传统的CycleGAN方法。
Description
技术领域
本发明涉及人脸识别技术领域,特别涉及一种红外图像转换方法、活体检测方法、装置、可读存储介质。
背景技术
随着图像识别技术的发展,人脸识别在安全监控、人脸支付、访问控制等领域起着重要的作用。随着这项技术逐渐被公众所熟悉,人们对人脸识别安全性的担忧越来越普遍,其吸引了学术界和业内人士的研究。人脸识别系统容易遭受一些攻击,例如一个人可能使用其他身份的照片、视频或面具来攻击人脸识别系统用以获取非法利益。因此需要进行活体检测,即判断摄像头所采集的图像是否为真人,其对人脸识别系统的安全性至关重要。
当前人脸活体检测任务当中可见光图像检测准确率低且易受伪造图像攻击,而目前的一个重要解决方案为使用近红外图像并进行活体检测,从而有效地提升活体检测准确率、抵抗假体的攻击。
现有的红外图像获取方法主要分为两类:第一种是直接采用近红外摄像头来采集近红外图像,但是近红外设备较为昂贵,而且现实应用场景当中大量可获得的图像都是采自可见光环境,如监控视频和身份证照片;第二种是基于图像变换的方法,使用人工智能技术将可见光图像转换成近红外图像,但是由于目前技术的缺陷造成转换后的图像质量存在问题,如基于CycleGAN的方法,这种方法虽然克服了训练数据不成对的问题,也可以将可见光图像转换为近红外图像,但是由于训练过程当中两个生成器是分离的,所以转换之后的图像难免存在质量问题,而且额外增加的图像转换模块也在一定程度上降低了模型的推理速度。
发明内容
本发明要解决的技术问题是如何提供一种计算量小、准确率高的红外图像转换方法、活体检测方法、装置、可读存储介质。
为了解决上述技术问题,本发明的技术方案为:
第一方面,本发明提出了一种红外图像转换方法,包括:
获取可见光图像和近红外图像;
根据可见光图像和近红外图像,进行CycleGAN模型训练;其中CycleGAN模型的生成器为两个互相近似可逆的函数,且两个所述生成器在训练过程中进行参数共享;
输入目标可见光图像至训练好的CycleGAN模型,获得转换后的近红外图像。
优选地,进行CycleGAN模型训练的过程包括:
将可见光图像转换为近红外图像,将输入的近红外图像及转换生成的近红外图像传输至判别器进行判别;并将转换生成的近红外图像转换回可见光图像,将输入的可见光图像及转换生成的可见光图像传输至判别器进行判别;计算输入的可见光图像与转换生成的可见光图像之间的损失函数,通过最小化损失函数来迭代获得网络的各个参数;
将近红外图像转换为可见光图像,将输入的可见光图像及转换生成的可见光图像传输至判别器进行判别;并将转换生成的可见光图像转换回近红外图像,将输入的近红外图像及转换生成的近红外图像传输至判别器进行判别;计算输入的近红外图像与转换生成的近红外图像之间的损失函数,通过最小化损失函数来迭代获得网络的各个参数。
优选地,将可见光图像转换为近红外图像的过程为:将所述可见光图像进行编码,通过可逆结构正向映射至近红外图像的特征空间,将其解码至近红外图像;
将近红外图像转换为可见光图像的过程为:将近红外图像进行编码,通过可逆结构进行反向映射至可见光图像的特征空间,将其解码回可见光图像。
优选地:通过可逆结构进行正向映射及通过可逆结构进行反向映射时:将输入特征在通道维度上均等分成的两个特征,将两个特征分别输入两个函数中进行映射,再将输出的两个特征进行合并,获得输出特征;两个所述函数均由多个残差块堆叠组成。
优选地,所述判别器的结构为:在最后一个卷积层后添加一通道注意力机制的PatchGAN。
另一方面,本发明还提出一种活体检测方法,包括步骤:
通过如上所述的红外图像转换方法获取近红外图像;
将近红外图像输入至活体检测模型,获得判断结果。
优选地,所述活体检测模型使用Resnet为主体构建二分类网络,其损失函数采用softmax;训练时,通过所述CycleGAN模型中生成的近红外图像来进行训练,且CycleGAN模型及所述活体检测模型的损失函数达都到设定的要求时才停止训练。
再一方面,本发明还提出一种活体检测装置,包括:
图像获取模块:获取可见光图像和近红外图像;
模型训练模块:根据可见光图像和近红外图像,进行CycleGAN模型训练;其中CycleGAN模型的生成器为两个互相近似可逆的函数,且两个所述生成器在训练过程中进行参数共享;
CycleGAN模型:输入目标可见光图像,将其转换为近红外图像;
活体检测模块:将近红外图像输入至活体检测模型,获得判断结果。
又一方面,本发明还提出一种活体检测的装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上所述的人脸活体检测的方法的步骤。
又一方面,本发明还提出了一种活体检测的可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上所述的人脸活体检测的方法的步骤。
采用上述技术方案,将获取的可见光图像输入训练好的CycleGAN模型中,获得转换好的近红外图像,然后将近红外图像输入至训练好的活体检测模型中,完成对人脸进行的活体判断。训练模型时,首先使用可逆对抗网络RevGAN将传统CycleGAN中的两个生成器构造为两个互相近似可逆的函数,在训练过程中进行参数共享,克服了CycleGAN训练过程中两个生成器分离的问题,在提升图像质量的同时可以大大降低模型参数;然后将转换之后的近红外图像直接输入活体检测模块,两个模块进行联合训练,由于两个模块其实前后是具有相关性的,因此联合训练相比分离训练能够产生更好的效果。
附图说明
图1为本发明活体检测方法一实施例的步骤流程图;
图2为本发明活体检测方法一实施例的网络结构图;
图3为本发明活体检测装置一实施例的模块原理图;
图4为本发明活体检测装置一实施例中NN1及NN2的残差块结构原理图;
图5为本发明活体检测装置一实施例的通道注意力机制原理图。
图中,10-图像获取模块,20-模型训练模块,30-CycleGAN模型,40-活体检测模块。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明。在此需要说明的是,对于这些实施方式的说明用于帮助理解本发明,但并不构成对本发明的限定。此外,下面所描述的本发明各个实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互组合。
参照图1,本发明提出了一种红外图像转换方法,包括:
S10:获取可见光图像和近红外图像;
S20:根据可见光图像和近红外图像,进行CycleGAN(使用循环一致性对抗网络进行非成对的图像转换)模型训练;其中CycleGAN模型的生成器为两个互相近似可逆的函数,且两个生成器在训练过程中进行参数共享;
S30:输入目标可见光图像至训练好的CycleGAN模型,获得转换后的近红外图像。
其中,进行CycleGAN模型训练的过程包括:
将可见光图像转换为近红外图像,将输入的近红外图像及转换生成的近红外图像传输至判别器进行判别;并将转换生成的近红外图像转换回可见光图像,将输入的可见光图像及转换生成的可见光图像传输至判别器进行判别;计算输入的可见光图像与转换生成的可见光图像之间的损失函数,通过最小化损失函数来迭代获得网络的各个参数;
将近红外图像转换为可见光图像,将输入的可见光图像及转换生成的可见光图像传输至判别器进行判别;并将转换生成的可见光图像转换回近红外图像,将输入的近红外图像及转换生成的近红外图像传输至判别器进行判别;计算输入的近红外图像与转换生成的近红外图像之间的损失函数,通过最小化损失函数来迭代获得网络的各个参数。
具体地,将可见光图像转换为近红外图像的过程为:将可见光图像进行编码,通过可逆结构正向映射至近红外图像的特征空间,将其解码至近红外图像;
将近红外图像转换为可见光图像的过程为:将近红外图像进行编码,通过可逆结构进行反向映射至可见光图像的特征空间,将其解码回可见光图像。
具体地:通过可逆结构进行正向映射及通过可逆结构进行反向映射时:将输入特征在通道维度上均等分成的两个特征,将两个特征分别输入两个函数中进行映射,再将输出的两个特征进行合并,获得输出特征;两个函数均由多个残差块堆叠组成。
具体地,判别器的结构为:在最后一个卷积层后添加一通道注意力机制的PatchGAN(用于在图像转换过程中实现内存高效利用的可逆生成对抗网络)。
另一方面,本发明还提出一种活体检测方法,包括步骤:
通过如上的红外图像转换方法获取近红外图像;
将近红外图像输入至活体检测模型,获得判断结果。
参照图2,本技术方案的CycleGAN模型以及活体检测两个模块级联而成的two-stage网络结构,其训练包含以下的过程:
1、图像转换模块
分别搜集若干张可见光图像和近红外图像,其中可见光图像为输入图像,即X域(源域图像),而近红外图像为Y域(目标域图像)。
输入可见光图像x,用EncX编码,其中EncX由一个卷积核尺寸为7*7、步长为1的卷积层再加上两个卷积核尺寸为3*3、步长为2的卷积层组成;然后由可逆结构正向映射至近红外图像的特征空间,可逆结构的正向映射过程C的数学表达式分别如下公式所示:
y1=x1+NN1(x2),y2=x2+NN2(y1);
其中x1、x2为x编码后的特征在通道维度上均等分成的两个特征,依次经过NN1、NN2两个函数映射成y1、y2,然后将其合并,其中NN1、NN2均由9个残差块堆叠组成;另外特征通道分离可以将模型计算量减小至原来的一半,如下所示的Time计算公式所示,网络的计算量由M:输出特征图(Feature Map)的尺寸,K:卷积核(Kernel)的尺寸,Cin:输入通道数,Cout:输出通道数完全决定,而我们在将特征图输入可逆网络时将特征x在通道上等分为两份x1、x2,分别映射成y1、y2再合并为y,那输入通道数和输出通道数就变成了原来的1/2:(Cin/2)*(Cout/2)*2=Cin*Cout/2,所以可逆部分的网络计算量就变为了原来的1/2,这大大提高了图像转换模块的推理速度。
Time O(M2*k2*Cin*Cout)
其中,本发明实施例中,NN1、NN2由9个残差块依次堆叠而成组成,每个残差块结构如图4所示,x为输入特征,conv代表一个卷积核为3*3,步长为1的卷积层,加上BN层,relu为relu激活函数。
接着将合并后的特征经由DecY解码至近红外图像,DecY由两个卷积核尺寸为3*3、步长为1/2的反卷积层以及一个卷积核尺寸为7*7、步长为1的卷积层组成;然后将解码生成的以及真实的近红外图像输入判别器DY进行判别,DY在传统PatchGAN的最后一成卷积层后面添加了一个通道注意力机制。
需要说明的是,加入通道注意力机制后,不同的特征通道被赋予不同的权重,在这之前,不同的特征通道之间权重是均等的。本发明实施例中,通道注意力机制如图,5所示,将输入的featuremap(输入的特征图),分别经过基于width(宽度)和height(高度)的global max pooling(全局最大化池)和global average pooling(全局平均池),然后分别经过MLP(Multi-Layer Perceptron,多层感知器)。将MLP输出的特征进行基于elementwise乘法的加和操作,再经过sigmoid函数激活操作,生成最终的channel attentionfeaturemap(通道注意力特征图),再将该channel attention featuremap和inputfeaturemap(输入特征图)做elementwise乘法操作。
与此同时将解码生成的近红外图像经过EncY(结构与EncX相同)编码后经由可逆结构进行反向映射至可见光图像特征空间,可逆结构的反向映射C-1数学形式下所示:
x2=y2-NN2(y1),x1=y1-NN1(x2)
y1、y2为编码后的特征在通道维度上均等分成的两个特征,依次经过NN2、NN1两个函数映射成x2、x1,然后将其合并后由DecX(结构与DecY相同)解码得到重建回来的可见光图像,接着判别器DX(结构与DY相同)对解码生成的以及真实的可见光图像进行判别,然后计算输入的可见光图像以及重建回来的可见光图像之间的L1损失函数,通过最小化L1损失函数来优化编解码部分以及可逆结构部分的网络参数,整个步骤可以用如下公式表示:
Lcycp=||x-DecX(C-1(EncY(DecY(C(EncX(x))))))||1
Lcycp代表正向循环一致性损失函数,||*||1代表L1范数。
输入真实的近红外图像,用EncY编码后输入可逆结构进行反向映射至可见光图像的特征空间,再经由DecX解码至可见光图像,接着将解码生成的以及真实的可见光图像输入判别器DX进行判别;与此同时将解码生成的可见光图像经EncX编码后由可逆结构进行正向映射至近红外图像特征空间,然后由DecY解码生成重建回来的近红外图像,接着判别器DX对解码生成的以及真实的可见光图像进行判别,计算输入的以及重建回来的近红外图像之间的L1损失,通过最小化L1损失函数来优化编解码部分以及可逆结构的参数,以上此步骤可以用如下公式表示:
Lcycf=||y-DecY(C(EncX(DecX(C-1(EncY(y))))))||1;Lcycf代表反向循环一致性损失函数。完成一遍以上正向循环加上反向循环为图像转换模块完整的一次迭代训练。
2、活体检测模块
将正向过程中DecY解码生成的近红外光图像输入活体检测模块,活体检测模块主要由Resnet-9为主体构建二分类网络,对输入的近红外图像进行判定是否是活体,损失函数采用softmax,通过最小化softmax损失函数来优化活体检测模块的网络参数。当两个模块的损失函数达到设定的要求时停止网络训练,当未达到事先设定的要求时,继续循环上述步骤。
3、测试阶段
依次提取训练结束后的EncX、NN1、NN2、DecY以及活体检测模块网络参数,然后通过输入可见光图像,经过EncX、NN1、NN2、DecY后生成近红外光图像,然后将这个近红外光图像输入活体检测模块进行活体判断,获得判断结果。
再一方面,本发明还提出一种活体检测装置,包括:
图像获取模块10:获取可见光图像和近红外图像;
模型训练模块20:根据可见光图像和近红外图像,进行CycleGAN模型训练;其中CycleGAN模型的生成器为两个互相近似可逆的函数,且两个生成器在训练过程中进行参数共享;
CycleGAN模型30:输入目标可见光图像,将其转换为近红外图像;
活体检测模块40:将近红外图像输入至活体检测模型,获得判断结果。
参照图3,本发明还提出一种活体检测的装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现如上的人脸活体检测的方法的步骤。
又一方面,本发明还提出了一种活体检测的可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上的人脸活体检测的方法的步骤。
采用上述技术方案,将获取的可见光图像输入训练好的CycleGAN模型中,获得转换好的近红外图像,然后将近红外图像输入至训练好的活体检测模型中,完成对人脸进行的活体判断。训练模型时,首先使用可逆对抗网络RevGAN将传统CycleGAN中的两个生成器构造为两个互相近似可逆的函数,在训练过程中进行参数共享,克服了CycleGAN训练过程中两个生成器分离的问题,在提升图像质量的同时可以大大降低模型参数;然后将转换之后的近红外图像直接输入活体检测模块,两个模块进行联合训练,由于两个模块其实前后是具有相关性的,因此联合训练相比分离训练能够产生更好的效果。
以上结合附图对本发明的实施方式作了详细说明,但本发明不限于所描述的实施方式。对于本领域的技术人员而言,在不脱离本发明原理和精神的情况下,对这些实施方式进行多种变化、修改、替换和变型,仍落入本发明的保护范围内。
Claims (10)
1.一种红外图像转换方法,其特征在于,包括:
获取可见光图像和近红外图像;
根据可见光图像和近红外图像,进行CycleGAN模型训练;其中CycleGAN模型的生成器为两个互相近似可逆的函数,且两个所述生成器在训练过程中进行参数共享;
输入目标可见光图像至训练好的CycleGAN模型,获得转换后的近红外图像。
2.根据权利要求1所述的红外图像转换方法,其特征在于,进行CycleGAN模型训练的过程包括:
将可见光图像转换为近红外图像,将输入的近红外图像及转换生成的近红外图像传输至判别器进行判别;并将转换生成的近红外图像转换回可见光图像,将输入的可见光图像及转换生成的可见光图像传输至判别器进行判别;计算输入的可见光图像与转换生成的可见光图像之间的损失函数,通过最小化损失函数来迭代获得网络的各参数;
将近红外图像转换为可见光图像,将输入的可见光图像及转换生成的可见光图像传输至判别器进行判别;并将转换生成的可见光图像转换回近红外图像,将输入的近红外图像及转换生成的近红外图像传输至判别器进行判别;计算输入的近红外图像与转换生成的近红外图像之间的损失函数,通过最小化损失函数来迭代获得网络的各参数。
3.根据权利要求2所述的红外图像转换方法,其特征在于,
将可见光图像转换为近红外图像的过程为:将所述可见光图像进行编码,通过可逆结构正向映射至近红外图像的特征空间,将其解码至近红外图像;
将近红外图像转换为可见光图像的过程为:将近红外图像进行编码,通过可逆结构进行反向映射至可见光图像的特征空间,将其解码回可见光图像。
4.根据权利要求2或3所述的红外图像转换方法,其特征在于:通过可逆结构进行正向映射及通过可逆结构进行反向映射时:将输入特征在通道维度上均等分成的两个特征,将两个特征分别输入两个函数中进行映射,再将输出的两个特征进行合并,获得输出特征;两个所述函数均由多个残差块堆叠组成。
5.根据权利要求2或3所述的红外图像转换方法,其特征在于,所述判别器的结构为:在最后一个卷积层后添加一通道注意力机制的PatchGAN。
6.一种活体检测方法,其特征在于,包括步骤:
通过如权利要求1至5任一项所述的红外图像转换方法获取近红外图像;
将近红外图像输入至活体检测模型,获得判断结果。
7.根据权利要求6所述的活体检测方法,其特征在于:所述活体检测模型使用Resnet为主体构建二分类网络,其损失函数采用softmax;训练时,通过所述CycleGAN模型中生成的近红外图像来进行训练,且CycleGAN模型及所述活体检测模型的损失函数达都到设定的要求时才停止训练。
8.一种活体检测装置,其特征在于,包括:
图像获取模块:获取可见光图像和近红外图像;
模型训练模块:根据可见光图像和近红外图像,进行CycleGAN模型训练;其中CycleGAN模型的生成器为两个互相近似可逆的函数,且两个所述生成器在训练过程中进行参数共享;
CycleGAN模型:输入目标可见光图像,将其转换为近红外图像;
活体检测模块:将近红外图像输入至活体检测模型,获得判断结果。
9.一种活体检测的装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于:所述处理器执行所述程序时实现权利要求6或7所述的人脸活体检测的方法的步骤。
10.一种活体检测的可读存储介质,其上存储有计算机程序,其特征在于:该计算机程序被处理器执行时实现权利要求6或7所述的人脸活体检测的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011055129.4A CN112347850B (zh) | 2020-09-30 | 2020-09-30 | 红外图像转换方法、活体检测方法、装置、可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011055129.4A CN112347850B (zh) | 2020-09-30 | 2020-09-30 | 红外图像转换方法、活体检测方法、装置、可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112347850A true CN112347850A (zh) | 2021-02-09 |
CN112347850B CN112347850B (zh) | 2024-04-23 |
Family
ID=74361376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011055129.4A Active CN112347850B (zh) | 2020-09-30 | 2020-09-30 | 红外图像转换方法、活体检测方法、装置、可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112347850B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112967178A (zh) * | 2021-03-08 | 2021-06-15 | 烟台艾睿光电科技有限公司 | 一种图像转换方法、装置、设备及存储介质 |
CN113111700A (zh) * | 2021-02-24 | 2021-07-13 | 浙江大华技术股份有限公司 | 图像生成模型的训练方法、电子设备及存储介质 |
CN113469054A (zh) * | 2021-07-02 | 2021-10-01 | 哈尔滨理工大学 | 一种基于深度学习的红外人脸识别方法 |
CN113936143A (zh) * | 2021-09-10 | 2022-01-14 | 北京建筑大学 | 基于注意力机制和生成对抗网络的图像识别泛化方法 |
CN114119356A (zh) * | 2021-11-24 | 2022-03-01 | 北京理工大学 | 基于CycleGAN的热红外图像转类可见光彩色图像方法 |
CN114266937A (zh) * | 2021-12-20 | 2022-04-01 | 北京百度网讯科技有限公司 | 模型训练、图像处理方法,装置,设备以及存储介质 |
CN115082299A (zh) * | 2022-07-21 | 2022-09-20 | 中国科学院自动化研究所 | 非严格对齐的小样本不同源图像转换方法、系统及设备 |
CN115116111A (zh) * | 2022-06-24 | 2022-09-27 | 北京百度网讯科技有限公司 | 抗扰动人脸活体检测模型训练方法、装置及电子设备 |
WO2023070695A1 (zh) * | 2021-10-26 | 2023-05-04 | 烟台艾睿光电科技有限公司 | 一种红外图像的转换训练方法、装置、设备及存储介质 |
CN117611442A (zh) * | 2024-01-19 | 2024-02-27 | 第六镜科技(成都)有限公司 | 一种近红外人脸图像生成方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220929A (zh) * | 2017-06-23 | 2017-09-29 | 深圳市唯特视科技有限公司 | 一种使用循环一致对抗网络的非成对图像转化方法 |
KR20180054414A (ko) * | 2016-11-14 | 2018-05-24 | 삼성전자주식회사 | 얼굴 영상 분석 방법 및 장치 |
CN109543640A (zh) * | 2018-11-29 | 2019-03-29 | 中国科学院重庆绿色智能技术研究院 | 一种基于图像转换的活体检测方法 |
US20190122072A1 (en) * | 2017-10-19 | 2019-04-25 | Nokia Technologies Oy | Reverse neural network for object re-identification |
CN110472089A (zh) * | 2019-08-16 | 2019-11-19 | 重庆邮电大学 | 一种基于对抗生成网络的红外和可见光图像检索方法 |
CN111291885A (zh) * | 2020-01-20 | 2020-06-16 | 北京百度网讯科技有限公司 | 近红外图像的生成方法、生成网络的训练方法和装置 |
CN111539883A (zh) * | 2020-04-20 | 2020-08-14 | 福建帝视信息科技有限公司 | 基于强可逆对抗网络的数字病理图像h&e染色复原方法 |
-
2020
- 2020-09-30 CN CN202011055129.4A patent/CN112347850B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180054414A (ko) * | 2016-11-14 | 2018-05-24 | 삼성전자주식회사 | 얼굴 영상 분석 방법 및 장치 |
CN107220929A (zh) * | 2017-06-23 | 2017-09-29 | 深圳市唯特视科技有限公司 | 一种使用循环一致对抗网络的非成对图像转化方法 |
US20190122072A1 (en) * | 2017-10-19 | 2019-04-25 | Nokia Technologies Oy | Reverse neural network for object re-identification |
CN109543640A (zh) * | 2018-11-29 | 2019-03-29 | 中国科学院重庆绿色智能技术研究院 | 一种基于图像转换的活体检测方法 |
CN110472089A (zh) * | 2019-08-16 | 2019-11-19 | 重庆邮电大学 | 一种基于对抗生成网络的红外和可见光图像检索方法 |
CN111291885A (zh) * | 2020-01-20 | 2020-06-16 | 北京百度网讯科技有限公司 | 近红外图像的生成方法、生成网络的训练方法和装置 |
CN111539883A (zh) * | 2020-04-20 | 2020-08-14 | 福建帝视信息科技有限公司 | 基于强可逆对抗网络的数字病理图像h&e染色复原方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111700A (zh) * | 2021-02-24 | 2021-07-13 | 浙江大华技术股份有限公司 | 图像生成模型的训练方法、电子设备及存储介质 |
CN112967178A (zh) * | 2021-03-08 | 2021-06-15 | 烟台艾睿光电科技有限公司 | 一种图像转换方法、装置、设备及存储介质 |
CN113469054A (zh) * | 2021-07-02 | 2021-10-01 | 哈尔滨理工大学 | 一种基于深度学习的红外人脸识别方法 |
CN113936143A (zh) * | 2021-09-10 | 2022-01-14 | 北京建筑大学 | 基于注意力机制和生成对抗网络的图像识别泛化方法 |
CN113936143B (zh) * | 2021-09-10 | 2022-07-01 | 北京建筑大学 | 基于注意力机制和生成对抗网络的图像识别泛化方法 |
WO2023070695A1 (zh) * | 2021-10-26 | 2023-05-04 | 烟台艾睿光电科技有限公司 | 一种红外图像的转换训练方法、装置、设备及存储介质 |
CN114119356A (zh) * | 2021-11-24 | 2022-03-01 | 北京理工大学 | 基于CycleGAN的热红外图像转类可见光彩色图像方法 |
CN114266937A (zh) * | 2021-12-20 | 2022-04-01 | 北京百度网讯科技有限公司 | 模型训练、图像处理方法,装置,设备以及存储介质 |
CN115116111A (zh) * | 2022-06-24 | 2022-09-27 | 北京百度网讯科技有限公司 | 抗扰动人脸活体检测模型训练方法、装置及电子设备 |
CN115082299A (zh) * | 2022-07-21 | 2022-09-20 | 中国科学院自动化研究所 | 非严格对齐的小样本不同源图像转换方法、系统及设备 |
CN117611442A (zh) * | 2024-01-19 | 2024-02-27 | 第六镜科技(成都)有限公司 | 一种近红外人脸图像生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112347850B (zh) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112347850B (zh) | 红外图像转换方法、活体检测方法、装置、可读存储介质 | |
CN110084863B (zh) | 一种基于生成对抗网络的多域图像转换方法与系统 | |
WO2022267641A1 (zh) | 一种基于循环生成对抗网络的图像去雾方法及系统 | |
Tan et al. | Color image demosaicking via deep residual learning | |
Wang et al. | Laplacian pyramid adversarial network for face completion | |
Nazir et al. | SemAttNet: Toward attention-based semantic aware guided depth completion | |
Babu et al. | CSGAN: Cyclic-synthesized generative adversarial networks for image-to-image transformation | |
CN112446835B (zh) | 图像恢复方法、图像恢复网络训练方法、装置和存储介质 | |
CN113505768A (zh) | 模型训练、人脸识别方法、电子设备及存储介质 | |
CN111951195A (zh) | 图像增强方法及装置 | |
CN111899193B (zh) | 一种基于低照度图像增强算法的刑侦摄影系统及方法 | |
CN115115685A (zh) | 一种基于自注意力神经网络的单目图像深度估计算法 | |
Morra et al. | Bridging the gap between natural and medical images through deep colorization | |
Antil et al. | MF2ShrT: multimodal feature fusion using shared layered transformer for face anti-spoofing | |
CN117808691A (zh) | 一种基于差异显著性聚合和联合梯度约束的图像融合方法 | |
Yu et al. | Self-supervised multi-task learning for medical image analysis | |
CN117522937A (zh) | 面向全天候场景的自监督单目深度估计方法及装置 | |
CN112115786A (zh) | 基于注意力U-net的单目视觉里程计方法 | |
CN116740266A (zh) | 图像重建方法、装置、电子设备及存储介质 | |
Codella et al. | Segmentation of both diseased and healthy skin from clinical photographs in a primary care setting | |
CN114419249A (zh) | 物体三维形状重建方法、装置、设备及存储介质 | |
Yang et al. | Multi-level attention network for image steganalysis | |
Hu et al. | Enhancing Unsupervised Domain Adaptation via Semantic Similarity Constraint for Medical Image Segmentation. | |
Liu et al. | Parallel generative adversarial network for third-person to first-person image generation | |
CN111862258A (zh) | 一种图像金属伪影抑制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |