CN115273184A - 人脸活体检测模型训练方法及装置 - Google Patents

人脸活体检测模型训练方法及装置 Download PDF

Info

Publication number
CN115273184A
CN115273184A CN202210836978.6A CN202210836978A CN115273184A CN 115273184 A CN115273184 A CN 115273184A CN 202210836978 A CN202210836978 A CN 202210836978A CN 115273184 A CN115273184 A CN 115273184A
Authority
CN
China
Prior art keywords
visible light
image
face
infrared
living body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210836978.6A
Other languages
English (en)
Other versions
CN115273184B (zh
Inventor
王珂尧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210836978.6A priority Critical patent/CN115273184B/zh
Publication of CN115273184A publication Critical patent/CN115273184A/zh
Application granted granted Critical
Publication of CN115273184B publication Critical patent/CN115273184B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种人脸活体检测模型训练方法及装置,涉及人工智能技术领域,具体为深度学习、图像处理、计算机视觉技术领域。方法包括:获取可见光图像和近红外图像;按照相同的区域块划分规则,将可见光图像划分为至少两个第一可见光区域块,将近红外图像数据划分为至少两个第一近红外区域块;在第一可见光区域块中确定待替换的第二可见光区域块;在近红外图像数据中,选取与第二可见光区域块位置相同的第二近红外区域块,第一近红外区域块包括第二近红外区域块;将可见光图像中的第二可见光区域块替换为第二近红外区域块,得到融合图像;利用融合图像训练第一人脸活体检测模型。可以减少人脸活体检测模型的偏见。

Description

人脸活体检测模型训练方法及装置
技术领域
本公开涉及人工智能技术领域,具体为深度学习、图像处理、计算机视觉技术领域。
背景技术
人脸活体检测是一种使用神经网络对人脸特征进行提取分类,从而区分图像是否为真人拍摄的方法。使用深度学习技术的人脸活体检测算法是当前该领域的主流方法,应用人脸活体检测方法,可以验证用户是否为真实活体本人操作,从而有效抵御照片、换脸、面具、遮挡以及屏幕翻拍等常见的攻击手段,保障用户的利益。
发明内容
本公开提供了一种人脸活体检测模型训练方法及装置。
根据本公开的第一方面,提供了一种人脸活体检测模型的训练方法,包括:
获取可见光图像和近红外图像;其中,所述可见光图像和所述近红外图像中均包含人脸图像,且均为正样本或均为负样本;
按照相同的区域块划分规则,将所述可见光图像划分为至少两个第一可见光区域块,将所述近红外图像数据划分为至少两个第一近红外区域块;
在所述第一可见光区域块中确定待替换的第二可见光区域块;
在所述近红外图像数据中,选取与所述第二可见光区域块位置相同的第二近红外区域块,所述第一近红外区域块包括所述第二近红外区域块;
将所述可见光图像中的所述第二可见光区域块替换为所述第二近红外区域块,得到融合图像;
利用所述融合图像训练第一人脸活体检测模型。
根据本公开的第二方面,提供了一种人脸活体检测方法,所述方法包括:
获取待检测人脸图像;
利用预先训练的人脸活体检测模型的特征提取网络,对所述待检测人脸图像进行特征提取,得到图像特征;
利用所述人脸活体检测模型的分类网络,对所述图像特征进行分类,得到人脸活体检测结果;
其中,所述人脸活体检测模型通过本公开中任一人脸活体检测模型训练方法训练得到。
根据本公开的第三方面,提供了一种人脸活体检测模型的训练装置,包括:
第一获取模块,用于获取可见光图像和近红外图像;其中,所述可见光图像和所述近红外图像中均包含人脸图像,且均为正样本或均为负样本;
划分模块,用于按照相同的区域块划分规则,将所述可见光图像划分为至少两个第一可见光区域块,将所述近红外图像数据划分为至少两个第一近红外区域块;
选取模块,用于在所述近红外图像数据中,选取与所述第二可见光区域块位置相同的第二近红外区域块,所述第一近红外区域块包括所述第二近红外区域块;
替换模块,用于将所述可见光图像中的所述第二可见光区域块替换为所述第二近红外区域块,得到融合图像;
训练模块,用于利用所述融合图像训练第一人脸活体检测模型。
根据本公开的第四方面,提供了一种人脸活体检测装置,所述装置包括:
第二获取模块,用于获取待检测人脸图像;
得到模块,用于利用预先训练的人脸活体检测模型的特征提取网络,对所述待检测人脸图像进行特征提取,得到图像特征;
分类模块,用于利用所述人脸活体检测模型的分类网络,对所述图像特征进行分类,得到人脸活体检测结果;
其中,所述人脸活体检测模型通过本公开中任一的人脸活体检测模型训练装置训练得到。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面或第二方面中任一项所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行本公开中任一项所述的方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现本公开中任一项所述的方法。
本公开实施例提供的一种人脸活体检测模型训练方法及装置,能够实现人脸活体检测。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开实施例提供的人脸活体检测模型训练方法的一种流程图;
图2a是本公开实施例提供的获取可见光图像和近红外图像的流程图;
图2b是本公开实施例提供的人脸活体检测模型训练方法的一个示例图;
图3是本公开实施例提供的人脸活体检测模型训练方法的另一种流程图;
图4是本公开实施例提供的人脸活体检测方法的一种流程图;
图5是本公开实施例提供的人脸活体检测模型训练装置的一种结构示意图;
图6是本公开实施例提供的人脸活体检测装置的一种结构示意图;
图7是用来实现本公开实施例的人脸活体检测模型训练方法和人脸活体检测方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
当前人脸活体检测算法实现方案众多,按照技术路线,主要分为两大类:传统的人脸手工特征提取及分类方法和使用神经网络的深度学习方法传统人脸手工提取及分类方法的代表有基于局部二值模式(Local binary pattern,LBP)、方向梯度直方图(Histogramof oriented gradients,HOG)、尺度不变特征变换(Scale-invariant featuretransform,SIFT)等,这类方法首先基于手工设计的特征提取器提取人脸特征,然后基于如支持向量机(Support Vector Machine,SVM)的传统分类器进行特征分类最终得到人脸活体的判定结果。使用深度学习技术的人脸活体检测算法是当前该领域的主流方法,能够提取到稳定性更强的人脸特征,在一些应用场景中,仅基于可见光图像的人脸活体算法存在对于光线敏感度较高,对于照片、视频等平面攻击泛化性较差等问题,影响实际应用性能。多模态解决方案往往会用到多个模态的活体检测模型,不仅造成模型冗余而且运算速度也会大大降低。在现实场景中,近红外模态图像数据远少于可见光模态图像数据,直接混合不同模态的图像数据进行训练会使模型对不同模态的图像数据造成偏见。
为了解决上述至少一个问题,本公开提供了一种人脸活体检测模型训练方法及装置,以下分别进行详细说明。
本公开提供的人脸活体检测模型训练方法可以应用于任一人脸活体检测的深度学习神经网络模型,帮助其提高性能,本公开提供的人脸活体检测方法可以应用于人脸识别领域的考勤、门禁、安防、金融支付等诸多领域。
图1是本公开实施例提供的人脸活体检测模型训练方法的一种流程图,如图1所示,包括以下步骤:
步骤S101,获取可见光图像和近红外图像;其中,可见光图像和近红外图像中均包含人脸图像,且均为正样本或均为负样本。
为了便于后续利用近红外区域块替换可见光区域块,得到融合图像,此处的可见光图像数据及近红外图像数据可以是经过配准的,配准后的可见光图像数据及近红外图像数据的分辨率相同,配准过程可以参照现有技术的配准过程,本公开不做限定。
上述可见光图像数据的格式可以是RGB(red-green-blue,红绿蓝三原色)格式、YUV(一种颜色编码方法)格式等;近红外(Near Infrared,NIR)图像数据可以为遥感器接收目标物反射或辐射近红外谱段所形成的图像数据,一个例子中,也可以将近红外图像数据替换为红外图像数据。
可见光图像数据和近红外图像数据中均包含人脸图像数据,此处的人脸图像数据可以为活体人脸的人脸图像数据,也可以为非活体人脸的人脸图像数据,其中,正样本指人脸图像数据为活体人脸的人脸图像数据,负样本指人脸图像数据为非活体人脸的人脸图像数据,即在本公开实施例中,正样本为通过活体人脸拍摄的近红外图像数据或可见光图像数据,负样本为通过非活体人脸(例如,照片、头套等)拍摄的近红外图像数据或可见光图像数据。
步骤S102,按照相同的区域块划分规则,将可见光图像划分为至少两个第一可见光区域块,将近红外图像数据划分为至少两个第一近红外区域块。
按照相同的区域块划分规则进行区域划分,使得可见光区域块与近红外区域块按照位置一一对应,方便后续利用近红外区域块替换可见光区域块,一个例子中,可以将可见光图像数据和近红外图像数据均划分为N×M个大小相同的区域块,例如划分为32×32个大小相同的区域块。相同划分位置的可见光区域块与近红外区域块相互对应。
步骤S103,在第一可见光区域块中确定待替换的第二可见光区域块。
步骤S104,在近红外图像数据中,选取与第二可见光区域块位置相同的第二近红外区域块,第一近红外区域块包括第二近红外区域块。
在可见光图像数据中选取至少一个可见光区域块,例如,可以按照预设的选取顺序来选取至少一个可见光区域块,或者可以采用随机选取的方式选取至少一个可见光区域块等,选取的待替换可见光区域块的数量可根据实际需求自定义设置,例如,设置为可见光区域块总数量的1/64、1/32、1/16等。一个例子中,不同训练批次或不同训练阶段中选取的目标近红外区域块的数量可以不同。
步骤S105,将可见光图像中的第二可见光区域块替换为第二近红外区域块,得到融合图像。
其中,待替换可见光区域块所属的可见光图像数据和目标近红外区域所属的近红外图像数据同为正样本或同为负样本。针对任一目标近红外区域块,在可见光图像数据中,利用该目标近红外区域块替换与其位置相同的待替换可见光区域块,最终得到的图像数据称为融合图像。
步骤S106,利用融合图像训练第一人脸活体检测模型。
人脸活体检测模型可以为基于卷积神经网络的活体判别模型或基于长短期记忆网络(Long Short-Term Memory,LSTM)的活体判别模型等,具体可以根据实际情况自定义选取,本申请中不对人脸活体检测模型的结构进行限定。一种可选的实施方式中,可以采用MobileNet(一种轻量级神经网络)作为人脸活体检测模型主结构的卷积神经网络,包括特征提取网络、卷积层、全局平均池化层和全连接层。利用融合图像对人脸活体检测模型进行训练的过程包括:将融合图像输入人脸活体检测模型中,得到人脸活体检测结果,根据人脸活体检测结果与融合头像对应的样本类型(正样本或负样本),计算模型损失,并基于模型损失对人脸活体检测模型进行调参,重复上述训练过程,直至满足预设训练结束条件,得到人脸活体检测模型。
预设训练结束条件可以根据实际情况自定义设置,例如,达到预设的训练次数,或人脸活体检测模型的损失收敛等。一个例子中,当模型训练的结果达到预设准确度时,判定满足预设训练结束条件,例如,预设的准确度可以是90%。另一个例子中,计算交叉熵损失作为模型损失,重复训练过程直到模型的交叉熵损失最终收敛,判定满足预设训练结束条件。
本公开实施例中,获取可见光图像和近红外图像;其中,可见光图像和近红外图像中均包含人脸图像,且均为正样本或均为负样本;按照相同的区域块划分规则,将可见光图像划分为至少两个第一可见光区域块,将近红外图像数据划分为至少两个第一近红外区域块;在第一可见光区域块中确定待替换的第二可见光区域块;在近红外图像数据中,选取与第二可见光区域块位置相同的第二近红外区域块,第一近红外区域块包括第二近红外区域块;将可见光图像中的第二可见光区域块替换为第二近红外区域块,得到融合图像;利用融合图像训练第一人脸活体检测模型。现实场景中,由于近红外人脸图像的数量远远小于可见光人脸图像的数量,直接混合两种模态的图像数据进行人脸活体检测模型训练,会导致人脸活体检测模型对不同模态的图像数据造成偏见,本公开实施例中,将可见光图像中的第二可见光区域块替换为第二近红外区域块,得到融合图像,如此可以使用少量的近红外图像样本借鉴大量可见光图像数据样本,能够改善现实场景中近红外图像过少带来的问题,利用融合图像训练第一人脸活体检测模型,可以提高人脸活体检测模型对混合模态中近红外模态图像数据的准确率和泛化性,减少混合模态人脸活体检测模型的偏见。
图1所示实施例中,获取可见光图像和近红外图像的步骤如图2a所示,包括:
步骤S201,获取原始可见光图像及原始近红外图像。
此处的原始可见光图像及原始近红外图像可以为双目相机采集的近红外图像和可见光图像,也可以是单镜头相机利用分光模块分别在可见光传感器及红外光传感器上成像得到的图像,还可以为分类利用可见光相机及近红外相机采集的图像。原始可见光图像及原始近红外图像中均包含人脸区域,该人脸区域可以为活体人脸的成像区域,也可以为非活体人脸的成像区域。
步骤S202,对原始可见光图像和原始近红外图像进行人脸关键点检测,分别得到可见光人脸关键点和近红外人脸关键点。
一个例子中,可以直接对原始可见光图像及原始近红外图像进行人脸关键点检测,如将原始可见光图像及原始近红外图像输入人脸关键点检测模型,得到原始可见光图像的各人脸关键点及原始近红外图像的各人脸关键点的坐标值。
另一个例子中,在进行人脸关键点检测之前,可以先对原始可见光图像及原始近红外图像进行人脸区域检测,得到人脸的大致位置区域,如利用人脸区域检测模型进行检测,得到人脸在原始可见光图像及原始近红外图像中的大致位置区域。然后再对人脸所在的位置区域进行人脸关键点检测,可以利用人脸关键点检测模型,得到各人脸关键点的坐标值。
其中,人脸关键点可以根据实际需求预先定义,例如眉峰、眉尾、鼻尖、唇峰等位置。人脸关键点的数量可以根据实际需求自定义设置,一种可选的实施方式中,将人脸关键点的数量设置为72个,则可以得到72个人脸关键点的坐标值,分别为(x1,y1)…(x72,y72)。
步骤S203,基于可见光人脸关键点和近红外人脸关键点,对原始可见光图像中的人脸区域及原始近红外图像中的人脸区域进行对齐,得到对齐可见光图像和对齐近红外图像。
一种可选的实施方式中,上述对原始可见光图像中的人脸区域及原始近红外图像中的人脸区域进行对齐的过程为:根据检测得到的原始可见光图像的各人脸关键点及原始近红外图像的各人脸关键点以及预设的正面虚拟人脸关键点,计算点与点之间的仿射变换矩阵,利用仿射变换矩阵将检测出的各人脸关键点映射到预设的正面虚拟人脸关键点上,目的是为了将原始可见光图像和原始近红外图像中的非正面人脸映射到正面,便于后续的人脸活体检测。在对人脸区域进行对齐后,可以通过仿射变换截取仅包含人脸的区域并调整到预设尺寸,如224x224,同时检测出的各人脸关键点也根据仿射变换矩阵重新映射到新的坐标。
另一种可选的实施方式中,对人脸区域进行对齐的过程为:从检测出的个人脸关键点坐标集合中,分别选取最小坐标值和最大坐标值对应的人脸关键点,基于最小坐标值和最大坐标值确定人脸矩形框,截取人脸矩形框,并将其调整到预设的尺寸,如224x224。
步骤S204,对对齐可见光图像和对齐近红外图像分别进行图像归一化处理及随机数据增强处理,得到可见光图像和近红外图像。
归一化处理可以简化数据,针对对齐后的可见光图像及近红外图像中的每一个像素按照预设的公式进行归一化处理,一个例子中,针对对齐后的图像中的每个像素的像素值减128再除以256,使每个像素的像素值在[-0.5,0.5]之间。随机数据增强处理的目的是提升图像中相关信息的可检测性,例如可以改善现实场景中样本图像不清晰、曝光过度、亮度较低等问题,随机数据增强处理的具体方式可以参照现有技术,如随机翻转、随机缩放、颜色扰动等。
归一化处理和随机数据增强处理的前后顺序并不固定,可以先进行归一化处理再进行随机数据增强处理,也可以先进行随机数据增强处理再进行归一化处理。
在一种可选的实施方式中,选择包含人脸的RGB图像和包含人脸的NIR图像作为原始可见光图像及原始近红外图像,如图2b所示,为人脸活体检测模型训练方法的一个示例图,对RGB人脸图像和NIR人脸图像进行人脸区域检测,得到人脸的大致位置区域,根据检测到的人脸区域对RGB图像和NIR图像进行人脸关键点检测,得到各人脸关键点坐标,然后对RGB图像和NIR图像的人脸区域进行归一化处理,之后分别划分成32×32大小相同的区域块,利用NIR图像的区域块替换RGB图像的区域块(NIR图像中的每个区域块均有概率P替换RGB图像中对应位置的区域块),得到融合如图像,将融合图像输入采用MobileNet作为人脸活体检测模型主结构的卷积神经网络中,直到模型的交叉熵损失最终收敛,得到训练好的人脸活体检测模型。
本公开实施例中,对原始可见光图像和原始近红外图像进行人脸关键点检测,基于各人脸关键点进行人脸区域进行对齐,截取对齐后的人脸区域,对人脸区域进行归一化处理可以最大限度的简化图像数据,有利于提升人脸活体检测模型训练的速度,加快模型收敛,随机数据增强处理提升图像中相关信息的可检测性,有利于提升模型的鲁棒性。
在一种可能的实施方式中,利用融合图像训练第一人脸活体检测模型,包括:
利用可见光图像训练第一人脸活体检测模型,得到第二人脸活体检测模型;利用融合图像训练第二人脸活体检测模型。如此,可以根据使用可见光图像数据的训练结果对第一人脸活体检测模型进行调参,得到第二人脸活体检测模型,便于后续利用融合图像对第二人脸活体检测模型进行训练时更加快速,检测结果更加准确。
图3是本公开实施例提供的人脸活体检测模型训练方法的另一种流程图,如图3所示,包括以下步骤:
步骤S101,获取可见光图像和近红外图像;其中,可见光图像和近红外图像中均包含人脸图像,且均为正样本或均为负样本。
步骤S102,按照相同的区域块划分规则,将可见光图像划分为至少两个第一可见光区域块,将近红外图像数据划分为至少两个第一近红外区域块。
步骤S301,获取第二可见光区域块的替换概率,基于替换概率确定待替换的第二可见光区域块。替换概率可以为一个预设替换概率,也可以随着训练轮数的增加而改变,在一种可能的实施方式中,随着训练轮数的增加,相应的增大替换概率的值,直至所述替换概率达到预设概率阈值。预设概率阈值可以根据一个例子中,针对可见光图像数据中的每一个可见光区域块,判断该可见光区域块是否命中替换概率,一个例子中,以替换概率为30%为例,针对每一个可见光区域块,在0-99的区间内随机生成该可见光区域块的随机数,若该可见光区域块的随机数小于30,则认为该可见光区域块命中了替换概率。
另一个例子中,可直接根据替换概率,在所有可见光区域块中选取相应数量的区块作为待替换可见光区域块,如替换概率为40%,可见光图像中可见光区域块的数量为100,则在所有可见光区域块中随机选取40个可见光区域块作为待替换可见光区域块。
在一种可能的实施方式中,设置第一替换概率和第二替换概率,其中,第一替换概率小于或等于第二替换概率;
其中,第一替换概率为人脸活体检测模型训练前第一可见光区域块的替换概率,第二替换概率为人脸活体检测模型训练后第一可见光区域块的替换概率,第一替换概率和第二替换概率均不大于预设概率阈值。
随着训练轮数的增加,相应的增大替换概率的值,直至所述替换概率达到预设概率阈值。可以根据预设的增加率来增大替换概率的值,预设的增加率可以根据实际需求自定义设置,如人脸活体检测模型每增加一轮训练,将替换概率增加10%。预设概率阈值也可以根据实际需求或经验自定义设置,一个例子中,设置为50%。根据训练轮数的增加相应增大替换概率的值,即相应增加近红外区域块在融合图像中的占比,如此可以使用少量的近红外图像样本借鉴大量可见光图像数据样本,可以提高人脸活体检测模型对混合模态中近红外模态图像数据的准确率和泛化性,减少人脸活体检测模型的偏见,当替换概率达到预设概率阈值时,则停止替换,可以最大程度保证模型训练效果。
步骤S104,在近红外图像数据中,选取与第二可见光区域块位置相同的第二近红外区域块,第一近红外区域块包括第二近红外区域块。
步骤S105,将可见光图像中的第二可见光区域块替换为第二近红外区域块,得到融合图像。
步骤S106,利用融合图像训练第一人脸活体检测模型。
在对人脸活体检测模型进行训练之前,将可见光图像数据和近红外图像数据划分为n个批次,每个批次中可见光图像数据和近红外图像数据数量相同,且种类的数量也相同,即一个批次中近红外图像数据正样本数量:近红外图像数据负样本数量:可见光图像数据正样本数量:可见光图像数据负样本数量=1:1:1:1。近红外图像数据正样本每一个区域块均有相等的概率替换可见光图像数据正样本对应位置的区域块;近红外图像数据负样本每一个区域块均有相等的概率替换可见光图像数据负样本对应位置的区域块。训练过程中,可分批次对人脸活体检测模型进行训练,根据每个批次的训练结果对模型进行调参,将所有的批次训练完为一轮训练。
在一种可选的实施方式中,也可以不划分批次,将所有融合图像输入人脸活体检测模型进行训练。
本公开实施例中,将可见光图像中的第二可见光区域块替换为第二近红外区域块,随着训练轮数的增加,相应的增大所述替换概率的值,增加近红外区域块的占比,如此可以使用少量的近红外图像样本借鉴大量可见光图像数据样本,能够改善现实场景中近红外图像过少带来的问题,可以提高人脸活体检测模型对混合模态中近红外模态图像数据的准确率和泛化性,减少人脸活体检测模型的偏见,提升对于未知攻击样本方式的防御效果,本公开实施例中,利用融合图像对人脸活体检测模型进行训练,因此可避免使用现有技术中针对多模态往往会用到多个模态的活体检测模型的方案,避免模型冗余,能够提升运算速度和模型的收敛速度。
图4是本公开实施例提供的人脸活体检测方法的一种流程图,如图4所示,包括以下步骤:
步骤S401,获取待检测人脸图像。
人脸活体检测方法的执行主体可以获取待检测人脸图像,待检测人脸图像的类型可以是可见光图像、近红外图像、红外图像等,人脸可以是活体人脸,也可以是非活体人脸。
步骤S402,利用预先训练的人脸活体检测模型的特征提取网络,对所述待检测人脸图像进行特征提取,得到图像特征。
步骤S403,利用所述人脸活体检测模型的分类网络,对所述图像特征进行分类,得到人脸活体检测结果。
人脸活体检测模型是通过上述任一所述的人脸活体检测模型的训练方法得到的,这里不在赘述。
本公开实施例所述的人脸活体检测方法可应用于安防、考勤、金融、门禁通行等诸多场景,能够提升人脸活体检测技术的性能、可以提升以人脸活体检测技术为基础的诸多应用的效果和用户体验,有利于进一步推广以人脸活体检测技术为基础的业务项目。
图5是本公开实施例提供的人脸活体检测模型训练装置的一种结构示意图,参照图5,该装置包括:
第一获取模块501,获取可见光图像和近红外图像;其中,所述可见光图像和所述近红外图像中均包含人脸图像,且均为正样本或均为负样本;
划分模块502,用于按照相同的区域块划分规则,将所述可见光图像划分为至少两个第一可见光区域块,将所述近红外图像数据划分为至少两个第一近红外区域块;
确定模块503,用于在所述第一可见光区域块中确定待替换的第二可见光区域块;
选取模块504,用于在所述近红外图像数据中,选取与所述第二可见光区域块位置相同的第二近红外区域块,所述第一近红外区域块包括所述第二近红外区域块;
替换模块505,用于将所述可见光图像中的所述第二可见光区域块替换为所述第二近红外区域块,得到融合图像;
训练模块506,用于利用所述融合图像训练第一人脸活体检测模型。
本公开实施例中,获取可见光图像和近红外图像;其中,可见光图像和近红外图像中均包含人脸图像,且均为正样本或均为负样本;按照相同的区域块划分规则,将可见光图像划分为至少两个第一可见光区域块,将近红外图像数据划分为至少两个第一近红外区域块;在第一可见光区域块中确定待替换的第二可见光区域块;在近红外图像数据中,选取与第二可见光区域块位置相同的第二近红外区域块,第一近红外区域块包括第二近红外区域块;将可见光图像中的第二可见光区域块替换为第二近红外区域块,得到融合图像;利用融合图像训练第一人脸活体检测模型。现实场景中,由于近红外人脸图像的数量远远小于可见光人脸图像的数量,直接混合两种模态的图像数据进行人脸活体检测模型训练,会导致人脸活体检测模型对不同模态的图像数据造成偏见,本公开实施例中,将可见光图像中的第二可见光区域块替换为第二近红外区域块,得到融合图像,如此可以使用少量的近红外图像样本借鉴大量可见光图像数据样本,能够改善现实场景中近红外图像过少带来的问题,利用融合图像训练第一人脸活体检测模型,可以提高人脸活体检测模型对混合模态中近红外模态图像数据的准确率和泛化性,减少混合模态人脸活体检测模型的偏见。
在一种可能的实施方式中,所述获取模块,具体用于获取原始可见光图像和原始近红外图像;对所述原始可见光图像和所述原始近红外图像进行人脸关键点检测,分别得到可见光人脸关键点和近红外人脸关键点;基于所述可见光人脸关键点和所述近红外人脸关键点,对所述原始可见光图像中的人脸区域及所述原始近红外图像中的人脸区域进行对齐,得到对齐可见光图像和对齐近红外图像;对所述对齐可见光图像和所述对齐近红外图像分别进行图像归一化处理及随机数据增强处理,得到所述可见光图像和所述近红外图像。
在一种可能的实施方式中,所述训练模块,具体用于利用所述可见光图像训练所述第一人脸活体检测模型,得到第二人脸活体检测模型;利用所述融合图像训练所述第二人脸活体检测模型。
在一种可能的实施方式中,所述第二可见光区域块的替换概率为预设替换概率。
在一种可能的实施方式中,其中,第一替换概率小于或等于第二替换概率;
其中,所述第一替换概率为所述人脸活体检测模型训练前所述第一可见光区域块的替换概率,所述第二替换概率为所述人脸活体检测模型训练后所述第一可见光区域块的替换概率,所述第一替换概率和第二替换概率均不大于预设概率阈值。
图6是本公开实施例提供的人脸活体检测装置的一种结构示意图,参照图6,该装置包括:
第二获取模块601,用于获取待检测人脸图像;
得到模块602,用于利用预先训练的人脸活体检测模型的特征提取网络,对所述待检测人脸图像进行特征提取,得到图像特征;
分类模块603,用于利用所述人脸活体检测模型的分类网络,对所述图像特征进行分类,得到人脸活体检测结果;
其中,所述人脸活体检测模型通过上述任一所述的装置训练得到。
本公开实施例所述的人脸活体检测装置可应用于安防、考勤、金融、门禁通行等诸多场景,能够提升人脸活体检测技术的性能、可以提升以人脸活体检测技术为基础的诸多应用的效果和用户体验,有利于进一步推广以人脸活体检测技术为基础的业务项目。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如人脸活体检测模型训练方法和人脸活体检测方法。例如,在一些实施例中,人脸活体检测模型训练方法和人脸活体检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM703并由计算单元701执行时,可以执行上文描述的人脸活体检测模型训练方法和人脸活体检测方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行人脸活体检测模型训练方法和人脸活体检测方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (15)

1.一种人脸活体检测模型训练方法,包括:
获取可见光图像和近红外图像;其中,所述可见光图像和所述近红外图像中均包含人脸图像,且均为正样本或均为负样本;
按照相同的区域块划分规则,将所述可见光图像划分为至少两个第一可见光区域块,将所述近红外图像数据划分为至少两个第一近红外区域块;
在所述第一可见光区域块中确定待替换的第二可见光区域块;
在所述近红外图像数据中,选取与所述第二可见光区域块位置相同的第二近红外区域块,所述第一近红外区域块包括所述第二近红外区域块;
将所述可见光图像中的所述第二可见光区域块替换为所述第二近红外区域块,得到融合图像;
利用所述融合图像训练第一人脸活体检测模型。
2.根据权利要求1所述的方法,其中,所述获取可见光图像和近红外图像,包括:
获取原始可见光图像和原始近红外图像;
对所述原始可见光图像和所述原始近红外图像进行人脸关键点检测,分别得到可见光人脸关键点和近红外人脸关键点;
基于所述可见光人脸关键点和所述近红外人脸关键点,对所述原始可见光图像中的人脸区域及所述原始近红外图像中的人脸区域进行对齐,得到对齐可见光图像和对齐近红外图像;
对所述对齐可见光图像和所述对齐近红外图像分别进行图像归一化处理及随机数据增强处理,得到所述可见光图像和所述近红外图像。
3.根据权利要求1所述的方法,所述利用所述融合图像训练第一人脸活体检测模型,包括:
利用所述可见光图像训练所述第一人脸活体检测模型,得到第二人脸活体检测模型;
利用所述融合图像训练所述第二人脸活体检测模型。
4.根据权利要求1所述的方法,其中,所述第二可见光区域块的替换概率为预设替换概率。
5.根据权利要求4所述的方法,其中,第一替换概率小于或等于第二替换概率;
其中,所述第一替换概率为所述人脸活体检测模型训练前所述第一可见光区域块的替换概率,所述第二替换概率为所述人脸活体检测模型训练后所述第一可见光区域块的替换概率,所述第一替换概率和第二替换概率均不大于预设概率阈值。
6.一种人脸活体检测方法,所述方法包括:
获取待检测人脸图像;
利用预先训练的人脸活体检测模型的特征提取网络,对所述待检测人脸图像进行特征提取,得到图像特征;
利用所述人脸活体检测模型的分类网络,对所述图像特征进行分类,得到人脸活体检测结果;
其中,所述人脸活体检测模型通过权利要求1-5任一所述的方法训练得到。
7.一种人脸活体检测模型训练装置,包括:
第一获取模块,用于获取可见光图像和近红外图像;其中,所述可见光图像和所述近红外图像中均包含人脸图像,且均为正样本或均为负样本;
划分模块,用于按照相同的区域块划分规则,将所述可见光图像划分为至少两个第一可见光区域块,将所述近红外图像数据划分为至少两个第一近红外区域块;
确定模块,用于在所述第一可见光区域块中确定待替换的第二可见光区域块;
选取模块,用于在所述近红外图像数据中,选取与所述第二可见光区域块位置相同的第二近红外区域块,所述第一近红外区域块包括所述第二近红外区域块;
替换模块,用于将所述可见光图像中的所述第二可见光区域块替换为所述第二近红外区域块,得到融合图像;
训练模块,用于利用所述融合图像训练第一人脸活体检测模型。
8.根据权利要求7所述的装置,其中,所述获取模块,具体用于获取原始可见光图像和原始近红外图像;对所述原始可见光图像和所述原始近红外图像进行人脸关键点检测,分别得到可见光人脸关键点和近红外人脸关键点;基于所述可见光人脸关键点和所述近红外人脸关键点,对所述原始可见光图像中的人脸区域及所述原始近红外图像中的人脸区域进行对齐,得到对齐可见光图像和对齐近红外图像;对所述对齐可见光图像和所述对齐近红外图像分别进行图像归一化处理及随机数据增强处理,得到所述可见光图像和所述近红外图像。
9.根据权利要求7所述的装置,所述训练模块,具体用于利用所述可见光图像训练所述第一人脸活体检测模型,得到第二人脸活体检测模型;利用所述融合图像训练所述第二人脸活体检测模型。
10.根据权利要求7所述的装置,其中,所述第二可见光区域块的替换概率为预设替换概率。
11.根据权利要求10所述的装置,其中,第一替换概率小于或等于第二替换概率;
其中,所述第一替换概率为所述人脸活体检测模型训练前所述第一可见光区域块的替换概率,所述第二替换概率为所述人脸活体检测模型训练后所述第一可见光区域块的替换概率,所述第一替换概率和第二替换概率均不大于预设概率阈值。
12.一种人脸活体检测装置,所述装置包括:
第二获取模块,用于获取待检测人脸图像;
得到模块,用于利用预先训练的人脸活体检测模型的特征提取网络,对所述待检测人脸图像进行特征提取,得到图像特征;
分类模块,用于利用所述人脸活体检测模型的分类网络,对所述图像特征进行分类,得到人脸活体检测结果;
其中,所述人脸活体检测模型通过权利要求7-11任一所述的装置训练得到。
13.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-6中任一项所述的方法。
15.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-6中任一项所述的方法。
CN202210836978.6A 2022-07-15 2022-07-15 人脸活体检测模型训练方法及装置 Active CN115273184B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210836978.6A CN115273184B (zh) 2022-07-15 2022-07-15 人脸活体检测模型训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210836978.6A CN115273184B (zh) 2022-07-15 2022-07-15 人脸活体检测模型训练方法及装置

Publications (2)

Publication Number Publication Date
CN115273184A true CN115273184A (zh) 2022-11-01
CN115273184B CN115273184B (zh) 2023-05-05

Family

ID=83765302

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210836978.6A Active CN115273184B (zh) 2022-07-15 2022-07-15 人脸活体检测模型训练方法及装置

Country Status (1)

Country Link
CN (1) CN115273184B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115601818A (zh) * 2022-11-29 2023-01-13 海豚乐智科技(成都)有限责任公司(Cn) 一种轻量化可见光活体检测方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140139643A1 (en) * 2009-06-03 2014-05-22 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
CN108921100A (zh) * 2018-07-04 2018-11-30 武汉高德智感科技有限公司 一种基于可见光图像与红外图像融合的人脸识别方法及系统
CN110111292A (zh) * 2019-04-30 2019-08-09 淮阴师范学院 一种红外与可见光图像融合方法
CN110213501A (zh) * 2019-06-25 2019-09-06 浙江大华技术股份有限公司 一种抓拍方法、装置、电子设备及存储介质
CN110365878A (zh) * 2019-07-04 2019-10-22 华为技术有限公司 一种摄像装置和方法
CN110929566A (zh) * 2019-10-16 2020-03-27 厦门大学 基于可见光和近红外双目摄像头的人脸活体检测方法
CN112613502A (zh) * 2020-12-28 2021-04-06 深圳壹账通智能科技有限公司 文字识别方法及装置、存储介质、计算机设备
WO2021253665A1 (zh) * 2020-06-19 2021-12-23 北京百度网讯科技有限公司 人脸识别模型的训练方法和装置
CN113963391A (zh) * 2020-07-03 2022-01-21 中国电信股份有限公司 基于双目摄像头的静默活体检测方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140139643A1 (en) * 2009-06-03 2014-05-22 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
CN108921100A (zh) * 2018-07-04 2018-11-30 武汉高德智感科技有限公司 一种基于可见光图像与红外图像融合的人脸识别方法及系统
CN110111292A (zh) * 2019-04-30 2019-08-09 淮阴师范学院 一种红外与可见光图像融合方法
CN110213501A (zh) * 2019-06-25 2019-09-06 浙江大华技术股份有限公司 一种抓拍方法、装置、电子设备及存储介质
CN110365878A (zh) * 2019-07-04 2019-10-22 华为技术有限公司 一种摄像装置和方法
CN110929566A (zh) * 2019-10-16 2020-03-27 厦门大学 基于可见光和近红外双目摄像头的人脸活体检测方法
WO2021253665A1 (zh) * 2020-06-19 2021-12-23 北京百度网讯科技有限公司 人脸识别模型的训练方法和装置
CN113963391A (zh) * 2020-07-03 2022-01-21 中国电信股份有限公司 基于双目摄像头的静默活体检测方法及系统
CN112613502A (zh) * 2020-12-28 2021-04-06 深圳壹账通智能科技有限公司 文字识别方法及装置、存储介质、计算机设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HUABING ZHOU ET AL.: "Semantic-Supervised Infrared and Visible Image Fusion Via a Dual-Discriminator Generative Adversarial Network", 《IEEE TRANSACTIONS ON MULTIMEDIA》 *
LONG REN ET AL.: "Infrared and visible image fusion based on weighted variance guided filter and image contrast enhancement", 《INFRARED PHYSICS & TECHNOLOGY》 *
漆昇翔 等: "面向机载应用的多传感器图像融合技术综述", 《航空电子技术》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115601818A (zh) * 2022-11-29 2023-01-13 海豚乐智科技(成都)有限责任公司(Cn) 一种轻量化可见光活体检测方法及装置

Also Published As

Publication number Publication date
CN115273184B (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
CN113205057B (zh) 人脸活体检测方法、装置、设备及存储介质
CN112270745B (zh) 一种图像生成方法、装置、设备以及存储介质
CN113971751A (zh) 训练特征提取模型、检测相似图像的方法和装置
CN115330940B (zh) 一种三维重建方法、装置、设备和介质
CN108229494B (zh) 网络训练方法、处理方法、装置、存储介质和电子设备
CN113469085B (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN113343826A (zh) 人脸活体检测模型的训练方法、人脸活体检测方法及装置
CN112561879B (zh) 模糊度评价模型训练方法、图像模糊度评价方法及装置
CN112528858A (zh) 人体姿态估计模型的训练方法、装置、设备、介质及产品
CN113221771A (zh) 活体人脸识别方法、装置、设备、存储介质及程序产品
KR20220100812A (ko) 안면 생체 검출 방법, 장치, 전자 기기 및 저장 매체
CN111950345A (zh) 摄像头的识别方法、装置、电子设备和存储介质
CN115273184B (zh) 人脸活体检测模型训练方法及装置
CN112561053B (zh) 图像处理方法、预训练模型的训练方法、装置和电子设备
CN111932530B (zh) 三维对象检测方法、装置、设备和可读存储介质
CN113569708A (zh) 活体识别方法、装置、电子设备以及存储介质
CN115116111B (zh) 抗扰动人脸活体检测模型训练方法、装置及电子设备
CN113255512B (zh) 用于活体识别的方法、装置、设备以及存储介质
CN116052288A (zh) 活体检测模型训练方法、活体检测方法、装置和电子设备
CN115019057A (zh) 图像特征提取模型确定方法及装置、图像识别方法及装置
CN114067394A (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN114445898A (zh) 人脸活体检测方法、装置、设备、存储介质及程序产品
CN115205939B (zh) 人脸活体检测模型训练方法、装置、电子设备及存储介质
CN113033372A (zh) 车辆定损方法、装置、电子设备及计算机可读存储介质
CN114758391B (zh) 发型图像确定方法、装置、电子设备、存储介质及产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant