CN111597918A - 人脸活体检测模型的训练、检测方法、装置及电子设备 - Google Patents
人脸活体检测模型的训练、检测方法、装置及电子设备 Download PDFInfo
- Publication number
- CN111597918A CN111597918A CN202010340263.2A CN202010340263A CN111597918A CN 111597918 A CN111597918 A CN 111597918A CN 202010340263 A CN202010340263 A CN 202010340263A CN 111597918 A CN111597918 A CN 111597918A
- Authority
- CN
- China
- Prior art keywords
- face
- modal
- network
- training sample
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本实施例公开了一种人脸活体检测模型的训练、检测方法、装置、电子设备及存储介质。包括:获取包括多个人脸训练样本的样本集,每个人脸训练样本包括同一人脸样本的至少两种模态人脸图像,以及正或负样本的标识;将各人脸训练样本的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,获得第一模态特征;将各人脸训练样本的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,获得第二模态特征;将第一模态特征、第二模态特征与正或负样本的标识组合为多模态特征训练样本;将多模态特征训练样本组成的样本集输入至多模态特征处理子网络;根据输入的训练样本集,训练人脸活体检测模型的模型参数,得到人脸活体检测模型。
Description
技术领域
本公开的实施例涉及人工智能技术领域,尤其涉及一种人脸活体检测模型的训练方法、人脸活体检测方法、装置、电子设备及计算机存储介质。
背景技术
随着人脸识别的广泛应用,活体检测也变得不可或缺。活体检测是人脸识别的前置模块,目的是自动判别检测到的人脸是真实的人脸,还是伪造的人脸,只有判别为真实人脸的情况下才会进入后续的人脸识别流程。由于伪造形式多种多样,高精度的活体检测是一项非常有挑战性的任务。
现有的活体检测方法分为两类:交互式的活体检测以及非交互式的活体检测。交互式的活体检测通过和用户进行交互来进行活体检测,例如眨眼睛、扭头、做表情等。但这种算法需要用户配合,便捷性较差,部署场景局限。非交互式的活体检测不需要用户配合,只需要用户的人脸图像即可,通过训练活体检测模型判断输入人脸是否是活体。然而现有的非交互式算法大都只使用人脸的RGB信息,很难处理打印照片、播放视频等攻击方式。因此,根据人脸RGB信息训练出来的人脸活体检测模型具有检测精度低的问题。
发明内容
本公开实施例的目的在于提供一种人脸活体检测模型的训练方法、人脸活体检测方法、装置、电子设备及计算机可读存储介质,以提高人脸活体检测的精度。
根据本公开实施例的第一方面,提供了一种人脸活体检测模型的训练方法,所述方法包括:
可选的,所述利用所述训练样本集训练所述初始人脸活体检测模型,对所述特征提取网络的参数、所述输出层网络的参数进行更新,直至所述参数收敛包括:
对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量;
将所述概率分布向量代入预设的分类损失函数进行计算,得到所述训练样本集中每个样本的分类损失;
基于所述分类损失对所述特征提取网络的参数、所述输出层网络的参数进行更新,得到收敛的特征提取网络和收敛的输出层网络。
可选的,所述对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量,包括:
从所述训练样本集中选取一个样本输入所述特征提取网络和所述输出层网络,得到对应的输出结果;
将所述输出结果输入归一化指数函数,得到所述概率分布向量。
可选的,所述基于所述分类损失对所述特征提取网络的参数、所述输出层网络的参数进行更新,得到收敛的特征提取网络和收敛的输出层网络包括:
根据所述分类损失和预设的反向传播算法计算所述特征提取网络的参数的第一导数,以及所述输出层网络的参数的第二导数;
根据所述第一导数和梯度下降算法对所述特征提取网络的参数进行更新,并根据所述第二导数和梯度下降算法对所述输出层网络的参数进行更新;
根据所述训练样本集中多个样本的分类损失对所述特征提取网络的参数以及所述输出层网络的参数进行多次更新,直至收敛得到收敛的特征提取网络和收敛的输出层网络。
可选的,所述初始人脸活体检测模型还包括后处理网络,其中所述方法还包括:
利用所述训练样本集训练所述初始人脸活体检测模型,对所述特征提取网络的参数、所述后处理网络的参数和所述输出层网络的参数进行更新,直至所述参数收敛,得到收敛的人脸活体检测模型。
可选的,所述利用所述训练样本集训练所述初始人脸活体检测模型,对所述特征提取网络的参数、所述后处理网络的参数和所述输出层网络的参数进行更新,直至所述参数收敛包括:
对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量;
将所述概率分布向量代入预设的分类损失函数进行计算,得到所述训练样本集中每个样本的分类损失;
基于所述分类损失对所述特征提取网络的参数、所述后处理网络的参数和所述输出层网络的参数进行更新,得到收敛的特征提取网络和收敛的输出层网络。
可选的,所述对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量,包括:
从所述训练样本集中选取一个样本输入所述特征提取网络、所述后处理网络和所述输出层网络,得到对应的输出结果;
将所述输出结果输入归一化指数函数,得到所述概率分布向量。
可选的,所述基于所述分类损失对所述特征提取网络的参数、所述后处理网络的参数和所述输出层网络的参数进行更新,得到收敛的特征提取网络和收敛的输出层网络包括:
根据所述分类损失和预设的反向传播算法计算所述特征提取网络的参数的第一导数,所述后处理网络的参数的第三导数,以及所述输出层网络的参数的第二导数;
根据所述第一导数和梯度下降算法对所述特征提取网络的参数进行更新,根据所述第三导数和梯度下降算法对所述后处理网络的参数进行更新,并根据所述第二导数和梯度下降算法对所述输出层网络的参数进行更新;
根据所述训练样本集中多个样本的分类损失对所述特征提取网络的参数、所述后处理网络的参数以及所述输出层网络的参数进行多次更新,直至收敛得到收敛的特征提取网络和收敛的输出层网络。
根据本公开实施例的第二方面,提供了一种人脸活体检测方法,所述方法包括:
根据本公开实施例的第三方面,提供了一种人脸活体检测模型的训练装置,所述装置包括:
可选的,模型训练模块基于所述分类损失对所述特征提取网络的参数、所述输出层网络的参数进行更新,得到收敛的特征提取网络和收敛的输出层网络包括:
根据所述分类损失和预设的反向传播算法计算所述特征提取网络的参数的第一导数,以及所述输出层网络的参数的第二导数;
根据所述第一导数和梯度下降算法对所述特征提取网络的参数进行更新,并根据所述第二导数和梯度下降算法对所述输出层网络的参数进行更新;
根据所述训练样本集中多个样本的分类损失对所述特征提取网络的参数以及所述输出层网络的参数进行多次更新,直至收敛得到收敛的特征提取网络和收敛的输出层网络。
可选的,初始人脸活体检测模型还包括后处理网络,模型训练模块利用所述训练样本集训练所述初始人脸活体检测模型时,对所述特征提取网络的参数、所述后处理网络的参数和所述输出层网络的参数进行更新,直至所述参数收敛,得到收敛的人脸活体检测模型。
根据本公开实施例的第四方面,提供了一种人脸活体检测装置,所述装置包括:
根据本公开实施例的第五方面,提供了一种电子设备,此电子设备包括:
根据本发明第三方面或第四方面所述的装置;或者,
处理器和存储器,存储器用于存储可执行的指令,所述指令用于控制处理器执行根据本发明第一方面或第二方面所述的方法。
根据本发明的第六方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时实现根据本发明第一方面或第二方面所述的方法。
根据本公开实施例,在训练人脸活体检测模型时,获取的人脸训练样本集的每个人脸训练样本包括同一人脸样本的至少两种模态的人脸图像,并将各人脸训练样本的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,获得该人脸训练样本的第一模态特征。将所述人脸训练样本集中各人脸训练样本的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,获得该人脸训练样本的第二模态特征。并将所述第一模态特征、所述第二模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本,输入到多模态特征处理子网络。从而根据训练样本对人脸活体检测模型的模型参数,得到人脸活体检测模型。
本公开的实施例利用包括多模态的人脸图像的样本数据,并将不同模态的人脸图像样本得到的人脸特征进行拼接组合,可以更加全面地对输入人脸进行描述,进而得到更高精度的人脸活体检测模型,提高了人脸活体检测的准确率。
此外,根据本公开实施例,利用预先训练好的人脸活体检测模型对待检测人脸进行检测,由于会获取待检测人脸的至少两种模态的人脸图像数据进行检测处理,因此可以更加全面地对输入的待检测人脸进行检测,提高人脸活体检测的准确率。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开实施例的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且连同其说明一起用于解释本公开实施例的原理。
图1为可用于实现本公开实施例的电子设备的硬件配置结构方框图。
图2为本公开实施例的人脸活体检测模型的网络结构示意图。图3为本公开实施例的人脸活体检测模型的训练方法流程图。
图4为本公开第一实施例的人脸活体检测模型具体示例图。
图5为本公开第二实施例的人脸活体检测模型具体示例图。
图6为本公开第三实施例的人脸活体检测模型具体示例图。
图7为本公开实施例的人脸活体检测方法流程图。
图8为本公开实施例的人脸活体检测方法的检测步骤流程图。
图9为本公开实施例的人脸活体检测模型的训练装置的结构方框图。
图10为本公开实施例的人脸活体检测装置的结构方框图。
图11为本公开实施例的电子设备的结构方框图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开实施例的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开实施例及其应用或使用的任何限制。
对于相关领域普通技术人物已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<实施环境及硬件配置>
图1是示出可以实现本公开的实施例的电子设备1000的硬件配置的结构方框图。电子设备1000可以是服务器、便携式电脑、台式计算机、手机、平板电脑等。
如图1所示,电子设备1000可以包括处理器1100、存储器1200、接口装置1300、通信装置1400、显示装置1500、输入装置1600、扬声器1700、麦克风1800等等。其中,处理器1100可以是中央处理器CPU、微处理器MCU等。存储器1200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1300例如包括USB接口、耳机接口等。通信装置1400例如能够进行有线或无线通信,具体地可以包括WiFi通信、蓝牙通信、2G/3G/4G/5G通信等。显示装置1500例如是液晶显示屏、触摸显示屏等。输入装置1600例如可以包括触摸屏、键盘、体感输入等。用户可以通过扬声器1700和麦克风1800输入/输出语音信息。
服务器设备可以是整体式服务器或是跨多计算机或计算机数据中心的分散式服务器。服务器可以是各种类型的,例如但不限于,内容分发网络的节点设备、分布式存储系统的存储服务器、云数据库服务器、云计算服务器、云管理服务器、网络服务器、新闻服务器、邮件服务器、消息服务器、广告服务器、文件服务器、应用服务器、交互服务器、存储服务器、数据库服务器或代理服务器等。在一些实施例中,每个服务器可以包括硬件,软件,或用于执行服务器所支持或实现的合适功能的内嵌逻辑组件或两个或多个此类组件的组合。例如,服务器例如刀片服务器、云端服务器等,或者可以是由多台服务器组成的服务器群组,可以包括上述类型的服务器中的一种或多种等等。
图1所示的电子设备仅仅是说明性的并且决不意味着对本公开实施例、其应用或使用的任何限制。应用于本公开的实施例中,电子设备1000的所述存储器1200用于存储指令,所述指令用于控制所述处理器1100进行操作以执行本公开实施例提供的任意一项人脸活体检测模型的训练方法或者人脸活体检测方法。本领域技术人员应当理解,尽管在图1中对电子设备1000示出了多个装置,但是,本公开实施例可以仅涉及其中的部分装置,例如电子设备1000可以只涉及处理器1100和存储装置1200。技术人员可以根据本公开实施例所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
在本公开一个实施例中,提供一种人脸活体检测模型的训练方法。该方法例如可以由电子设备实施,该电子设备可以是如图1所示的电子设备1000。
<人脸活体检测模型结构>
现有的活体检测方法使用人脸的RGB信息作为特征进行人脸活体检测模型的训练样本,得到的人脸活体检测模型很难处理利用打印照片、播放视频或视频截图等攻击方式,从而不能精确识别伪人脸图像。
由此,本公开的实施例提出了一种人脸活体检测模型,用于通过获取待检测人脸的至少两种模态的人脸图像,检测得到高检测精度的活体人脸检测结果。
本公开实施例的人脸活体检测模型结构可以包括至少两个用于提取对应模态的人脸图像模态特征提取子网络、特征拼接模块、多模态特征处理子网络和输出层网络。
图2的实施例中显示了本公开的实施例的人脸活体检测模型,如图2所示,本公开实施例的人脸活体检测模型可以包括两个模态特征提取子网络:第一模态特征提取子网络2100和第二模态特征提取子网络2200、特征拼接模块2300、多模态特征处理子网络2400和输出层网络2500。
在图2的实施例中,显示了模态特征提取子网络有第一模态特征提取子网络2100和第二模态特征提取子网络2200,当然本公开不局限于该图示实施例的数量,模态特征提取子网络还可以包括第三、第四模态特征提取子网络等等,用于分别一一对应提取对应模态的人脸图像。
特征拼接模块2300用于将所述至少两个模态特征提取子网络分别输出的模态特征进行特征拼接得到多模态特征,多模态特征处理子网络2400用于将所述拼接的多模态特征进行特征融合和全局平均池化处理,并输出全局特征,输出层网络2500,用于根据所述全局特征输出待检测人脸的检测结果。
其中,第一模态特征提取子网络2100和第二模态特征提取子网络2200均可以包括一系列的“卷积+批归一化+激活函数”,可以将“卷积+批归一化+激活函数”合称一个单元,输出层网络2500可以包括一个或者多个全连接层。
多模态特征处理子网络2400包括一系列的“卷积+批归一化+激活函数”单元和一个全局平均池化层。
其中,模态特征提取子网络2100、2200、输出层网络2500和多模态特征处理子网络2400中的参数可以在训练人脸活体检测模型进行更新和调整,直至收敛。
<方法实施例一>
下面参考图3,该图为本公开实施例的人脸活体检测模型的训练方法流程图。如图3所示,该方法包括以下步骤:
步骤102,获取人脸训练样本集,其中,所述训练样本集包括多个人脸训练样本,所述每个人脸训练样本包括同一人脸样本的至少两种模态的人脸图像,以及标记所述训练样本为正样本或负样本的标识。
训练样本集包括的多个人脸训练样本,包括多个活体人脸图像和每个活体人脸图像对应的标签(即,正样本或负样本的标识),以及多个伪造人脸图像和每个伪造人脸图像对应的标签,其中每个人脸训练样本对应的同一个人脸样本的活体人脸图像和伪造人脸图像均包括至少两种模态的人脸图像,所述标签用于标识对应人脸图像为活体人脸图像(正样本)还是伪造人脸图像(负样本)。
活体人脸图像由真实人脸现场采集得到,采集的人脸图像模态包括至少两种,例如RGB图像,深度图像,红外图像等等。深度图像为普通的RGB三通道彩色图像与深度图(Depth Map)之和,深度图是包含与视点的场景对象的表面的距离有关的信息的图像或图像通道。其中,深度图的每个像素值是传感器(摄像机镜头、监控镜头等)距离物体的实际距离。因此,深度图像可以从立体角度体现活体人脸的图像。红外图像可以使得黑夜或光线比较暗的情况下,根据人脸温度呈现真实人脸的脸部图像特征。
伪造人脸图像可以平面照片、播放视频或者视频中的截图等,但是伪造人脸图像还是平面的,不能全面体现活体人脸的脸部立体或温度图像特征。
在步骤102中,通过为每一个属于同一人脸的人脸采集至少两种模态人脸图像(RGB图像,深度图像,红外图像)的数据,并人工对获取的人脸图像作标签,标注该人脸是否是活体人脸。
以采集三种模态人脸图像的RGB图像、深度图像、红外图像为例,得到人脸活体检测模型训练的样本集N代表样本集中总共N个样本,分别代表第i个人脸的RGB图像、深度图像以及红外图像,标签yi代表第i个人脸是否是活体,具体来说,yi=1代表该人脸是活体人脸,yi=0代表该人脸是伪造人脸。
对于人脸活体检测模型的构建,可以参考图4到图6的实施例,其中,图4为本公开第一实施例的人脸活体检测模型的具体示例图,图5为本公开第二实施例的人脸活体检测模型具体示例图,图6为本公开第三实施例的人脸活体检测模型具体示例图。
一个示例中,在至少两种模态的人脸图像包括RGB图像和深度图像的情况下,如图4所示,所述至少两个模态特征提取子网络包括对活体人脸RGB图像和伪造人脸RGB图像进行RGB特征提取的RGB特征提取子网络3100,以及对活体人脸深度图像和伪造人脸深度图像进行深度特征提取的深度特征提取子网络3200。人脸活体检测模型包括RGB特征提取网络3100、深度特征提取网络3200、特征拼接模块3300、多模态特征处理子网络3400和输出层网络3500。
在一个示例中,在至少两种模态的人脸图像包括RGB图像和红外图像的情况下,如图5所示,所述至少两个模态特征提取子网络包括对活体人脸RGB图像和伪造人脸RGB图像进行RGB特征提取的RGB特征提取子网络3100,以及对活体人脸红外图像和伪造人脸红外图像进行红外特征提取的红外特征提取子网络3600。
在一个示例中,在至少两种模态的人脸图像包括RGB图像、深度图像和红外图像的情况下,如图6所示,所述至少两个模态特征提取子网络包括对活体人脸RGB图像和伪造人脸RGB图像进行RGB特征提取的RGB特征提取子网络3100,对活体人脸深度图像和伪造人脸深度图像进行深度特征提取的深度特征提取子网络3200,以及对活体人脸红外图像和伪造人脸红外图像进行红外特征提取的红外特征提取子网络3600。
在获取到人脸训练样本集之后,进入步骤104。
步骤104,将所述人脸训练样本集中各人脸训练样本的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,以获得该人脸训练样本的第一模态特征。
步骤106,将所述人脸训练样本集中各人脸训练样本的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,以获得该人脸训练样本的第二模态特征。
在一个实施例中,第一模态人脸图像为RGB人脸图像,第二模态人脸图像可以是深度图像。第一模态特征提取子网络可以例如是图4实施例的RGB特征提取子网络,第二模态特征提取子网络可以例如是图4实施例的深度特征提取子网络。提取得到的第一模态特征为RGB特征,第二模态特征为深度特征或红外特征。
或者,第一模态人脸图像可以是RGB人脸图像,第二模态人脸图像可以是红外图像,第一模态特征提取子网络可以例如是图5实施例的RGB特征提取子网络,第二模态特征提取子网络可以例如是图5实施例的红外特征提取子网络。
步骤108,将所述第一模态特征、所述第二模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本。
在该步骤中,组合的第一模态特征和第二模态特征可以拼接得到多模态特征。
步骤110,将所述多个人脸训练样本的多模态特征训练样本组成的样本集输入至多模态特征处理子网络。
在该步骤中,多模态特征处理子网络会对组合的多模态特征进行特征融合和全局平均池化处理,以获得所述待检测人脸的全局特征。
步骤112,根据所述输入的训练样本集,训练所述人脸活体检测模型的模型参数,得到人脸活体检测模型。
在一个实施例中,所述每个人脸训练样本还包括同一人脸样本的第三模态的人脸图像,所述方法还包括:
将所述人脸训练样本集中各人脸训练样本的第三模态人脸图像输入与第三模态相对应的第三模态特征提取子网络,以获得该人脸训练样本的第三模态特征;
将所述第一模态特征、所述第二模态特征、所述第三模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本,以供输入至所述多模态特征处理子网络。
在一次实施例中,所述第一模态人脸图像为RGB人脸图像、所述第二模态人脸图像为深度图像、所述第三模态人脸图像为红外图像。
在一个实施例中,所述人脸活体检测模型包括所述第一模态特征提取子网络、所述第二模态特征提取子网络、所述多模态特征处理子网络和输出层网络;所述根据所述输入的训练样本集,训练所述人脸活体检测模型的模型参数,得到人脸活体检测模型包括:根据所述输入的训练样本集,对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,直至所述参数收敛,得到收敛的人脸活体检测模型。
在一个实施例中,所述根据所述输入的训练样本集,对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,直至所述参数收敛包括:对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量;将所述概率分布向量代入预设的分类损失函数进行计算,得到所述训练样本集中每个样本的分类损失;基于所述分类损失对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,得到收敛的第一模态特征提取子网络、收敛的第二模态特征提取子网络、收敛的多模态特征处理子网络和收敛的输出层网络。
在一个实施例中,所述对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量,包括:从所述训练样本集中选取一个样本输入所述第一模态特征提取子网络、所述第二模态特征提取子网络、所述多模态特征处理子网络和所述输出层网络,得到对应的输出结果;将所述输出结果输入归一化指数函数,得到所述概率分布向量。
在一个实施例中,所述基于所述分类损失对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,得到收敛的特征提取网络和收敛的输出层网络包括:
根据所述分类损失和预设的反向传播算法计算所述第一模态特征提取子网络的参数的第一导数、所述第二模态特征提取子网络的第二导数、所述多模态特征处理子网络的第三导数,以及所述输出层网络的参数的第四导数;
根据所述第一导数和梯度下降算法对所述第一模态特征提取子网络的参数进行更新,根据所述第二导数和梯度下降算法对所述第二模态特征提取子网络的参数进行更新,根据所述第三导数和梯度下降算法对所述多模态特征处理子网络的参数进行更新,并根据所述第四导数和梯度下降算法对所述输出层网络的参数进行更新;
根据所述训练样本集中多个样本的分类损失对所述第一特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数以及所述输出层网络的参数进行多次更新,直至收敛得到收敛的第一模态特征提取子网络、收敛的第二模态特征提取子网络、收敛的多模态特征处理子网络和收敛的输出层网络。
<例子>
下面以图6所示的人脸活体检测模型为例,即根据获取的RGB图像、深度图像、红外图像的三种模态的人脸图像,构建具有RGB特征提取子网络3100、深度特征提取子网络3200、红外特征提取子网络3600三个模态特征提取子网络的人脸活体检测模型,对该人脸活体检测模型的训练参数收敛的具体方式进行展开说明。
在该实施例中,RGB特征提取子网络3100、深度特征提取子网络3200、红外特征提取子网络3600的结构可以是相同的。具体来说,RGB特征提取子网络3100可包括L个单元(如上文所述,“卷积+批归一化+激活函数”可以合称为一个单元),它的输入为人脸RGB图像(包括活体人脸RGB图像和伪造人脸RGB图像对应的RGB图像样本),输出为人脸的RGB特征图C代表特征图的通道个数,H和W分别代表特征图的高和宽。
深度特征提取子网络3200也可包括L个单元,它的输入为人脸深度图像(包括活体人脸深度图像和伪造人脸深度图像对应的深度图像样本),输出为人脸的深度特征图这里C代表深度特征图的通道个数,H和W分别代表深度特征图的高和宽。
红外特征提取子网络3600也包括L个单元,它的输入为人脸红外图像(包括活体人脸红外图像和伪造人脸红外图像对应的红外图像样本),输出为人脸的红外特征图这里C代表红外特征图的通道个数,H和W分别代表红外特征图的高和宽。
三个模态特征提取网络3100、3200、3600各自输出的模态提取特征图输入到特征拼接模块3300,特征拼接模块3300将RGB特征图深度特征图以及红外特征图按照通道维度进行拼接,得到多模态的特征图将三种模态的特征图按照通道C的维度进行拼接是将三种模态特征图的通道C数量求和,拼接后特征图的高H和宽W的维度不变,即拼接后的特征图对应的特征矩阵维度为3C×H×W。
在上述图示示例中,多模态特征处理子网络3400包括M个单元和一个全局平均池化层,M个单元可用于对拼接的多模态特征图进行特征融合处理,挖掘三种模态图像对应特征之间的关系,从而对拼接的多模态特征图进行优化,使得拼接特征更加贴近真实活体人脸图像,进而提高训练的人脸活体检测模型的检测精度。池化层是对M个单元进行多模态特征融合处理的多模态特征进行全局平均池化处理。
多模态特征处理子网络3400的输入为特征拼接模块3300输出的多模态拼接特征图输出为全局特征Fi∈R3C。输出层网络3500是一个全连接层,它的输入为多模态特征处理子网络3400的池化层输出的全局特征Fi∈R3C,输出为大小为2的向量zi∈R2,向量的两个值以二维(0;1)数值表示,数值0表示该人脸样本在人脸活体检测模型训练的对应输出为伪造人脸,数值1表示该人脸样本在人脸活体检测模型训练的对应输出为活体人脸。
在本公开实施例中,将人脸活体检测模型各个网络对应的所有参数记作W(包括第一模态特征提取子网络的参数W1、第二模态特征提取子网络的参数W2、输出层网络的参数W3和多模态特征处理子网络的参数W4),开始训练时随机初始化W的值。
具体地,将样本集Data中的一个样本送入人脸活体检测模型的各模态特征提取子网络、多模态特征处理子网络和输出层网络,得到输出zi∈R2。然后将zi输入归一化指数函数,例如softmax函数,得到该样本的概率分布向量pi:
将所述概率分布向量代入预设的分类损失函数进行计算,得到该人脸样本的分类损失L:
其中,yi是该人脸样本的标签。
然后,根据分类损失和预设的反向传播算法求L对第一模态特征提取子网络的参数W1的第一导数对第二模态特征提取子网络的参数W2的第二导数对多模态特征处理子网络的参数W3的第三导数对输出层网络的参数W4的第四导数
接下来,通过得到第一导数和随机梯度下降算法更新第一模态特征提取子网络的参数W1:
通过得到第二导数和随机梯度下降算法更新第二模态特征提取子网络的参数W2:
通过得到第三导数和随机梯度下降算法更新多模态特征处理子网络的参数W3:
通过得到第四导数和随机梯度下降算法更新输出层网络的参数W4:
不断迭代地对人脸活体检测模型整个网络对应的所有参数W(W1、W2、W3、W4)进行更新,直到分类损失函数对应的分类损失L不再变化,或者变化非常小,则表示当前人脸活体检测模型的网络的整体参数W已经收敛的比较好,即可停止迭代更新参数W。得到当前更新参数的收敛第一模态特征提取网络、收敛第一模态特征提取网络、收敛多模态特征处理子网络和收敛输出层网络,即得到最终收敛的人脸活体检测模型。
本公开实施例的人脸活体检测模型的训练方法,利用输入多模态人脸图像的人脸样本数据,除人脸的RGB图像之外,还输入有人脸的深度图像和红外图像中至少一种,并将不同模态人脸图像的样本得到的多模态的人脸特征进行拼接及融合,可以更加全面地对输入人脸进行描述,进而得到更高精度的人脸活体检测模型,提高了对人脸活体检测的准确率。
需要指出的是,上述实施例结合三种模态的人脸图像以及人脸活体检测模型包括多模态特征处理子网络对本公开实施例的人脸活体检测模型的训练方法进行说明,但本领域技术人员显然可知本公开实施例不局限于该具体实施例,除RGB图像之后,结合人脸的深度图像或红外图像的实施例也落在本公开实施例的保护范围内。
<方法实施例二>
下面参考图7,图7为本公开实施例的人脸活体检测方法流程图。该方法例如可以由电子设备实施,该电子设备可以是如图1所示的电子设备1000。
如图7所示,该实施例的人脸活体检测方法包括以下步骤:
步骤202,获取待检测人脸的至少两种模态的人脸图像;
获取的待检测人脸的人脸图像可能是采集真实的活体人脸得到的,也可能是采集伪造的人脸得到的,例如照片或者视频截图等,通过后续的人脸活体检测模型检测,即可判别该待检测人脸为真实的活体人脸还是伪造人脸。
步骤204,将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果。
其中,所述人脸活体检测模型包括第一模态特征提取子网络、第二特征提取子网络、多模态特征处理子网络和输出层网络。
下面参考图8,图8为本公开实施例的人脸活体检测方法的检测步骤流程图。
如图8所示,该实施例的将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果包括:
步骤302,将所述待检测人脸的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,以获得所述待检测人脸的第一模态特征;
步骤304,将所述待检测人脸的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,以获得所述待检测人脸的第二模态特征;
步骤306,将所述第一模态特征和所述第二模态特征组合为所述待检测人脸的多模态特征;
步骤308,将所述多模态特征输入至多模态特征处理子网络进行特征融合和全局平均池化处理,以获得所述待检测人脸的全局特征;
步骤310,将所述待检测人脸的全局特征输入至输出层网络,以得到所述待检测人脸的检测结果。
在一个示例中,所述方法还包括:获取所述待检测人脸的第三模态的人脸图像,所述人脸活体检测模型还包括第三模态特征提取子网络,
所述将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果还包括:
将所述待检测人脸的第三模态人脸图像输入与第三模态相对应的第三模态特征提取子网络,以获得所述待检测人脸的第三模态特征;
将所述第一模态特征、所述第二模态特征和所述第三模态特征组合为所述待检测人脸的多模态特征,以供输入至所述多模态特征处理子网络。
所述第一模态人脸图像为RGB人脸图像、所述第二模态人脸图像为深度图像、所述第三模态人脸图像为红外图像。
根据本公开的实施例的人脸活体检测方法,首先从待检测人脸中获取至少两种模态的人脸图像。可以从摄像头采集的待检测人脸获取RGB图像和深度图像,或者获取RGB图像和红外图像,或者获取RGB图、红外图像和深度图像。当然,对于待检测的人脸对应为真实人脸和伪造人脸的情况,获取的对应模态的人脸图像的图像数据是不同的,比如待检测人脸为伪造人脸图像的平面照片的情况下,获取的深度图像或红外图像数据值则为空。
然后,将获取的至少两种模态的人脸图像一一对应输入到人脸活体检测模型中对应模态的至少两个模态特征提取子网络中,并分别输出所述提取的模态特征到所述特征拼接模块;通过所述特征拼接模块对多模态的特征进行拼接得到多模态特征,并输入到多模态特征处理子网络,通过多模态特征融合和全局平均池化处理输出全局特征,然后输入到所述输出层网络,通过所述输出层网络输出所述待检测人脸的检测结果。
根据检测结果可以判断待检测人脸是活体人脸还是伪造人脸。
根据本公开实施例的人脸活体检测方法,利用预先训练好的人脸活体检测模型对待检测人脸进行检测,由于会对待检测人脸对应的至少两种模态的图像进行检测处理,因此可以更加全面地对输入人脸进行检测,从而提高了人脸活体检测的准确率。
<装置实施例一>
在本公开的另一个实施例中,还提供了一种人脸活体检测模型的训练装置,如图8所示,图9为本公开实施例的人脸活体检测模型的训练装置的结构方框图。
人脸活体检测模型的训练装置4000包括获取模块4200、第一模态图像输入模块4200、第一模态图像输入模块4300、组合模块4400、多模态特征输入模块4500和训练模块4600。
获取模块4100,用于获取人脸训练样本集,其中,所述训练样本集包括多个人脸训练样本,所述每个人脸训练样本包括同一人脸样本的至少两种模态的人脸图像,以及标记所述训练样本为正样本或负样本的标识;
第一模态图像输入模块4200,用于将所述人脸训练样本集中各人脸训练样本的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,以获得该人脸训练样本的第一模态特征;
第二模态图像输入模块4300,用于将所述人脸训练样本集中各人脸训练样本的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,以获得该人脸训练样本的第二模态特征;
组合模块4400,用于将所述第一模态特征、所述第二模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本;
多模态特征输入模块4500,用于将所述多个人脸训练样本的多模态特征训练样本组成的样本集输入至多模态特征处理子网络;
训练模块4600,用于根据所述输入的训练样本集,训练所述人脸活体检测模型的模型参数,得到人脸活体检测模型。
在一个示例中,所述每个人脸训练样本还包括同一人脸样本的第三模态的人脸图像,所述装置还包括:
第三模态图像输入模块,用于将所述人脸训练样本集中各人脸训练样本的第三模态人脸图像输入与第三模态相对应的第三模态特征提取子网络,以获得该人脸训练样本的第三模态特征;
其中,所述组合模块还用于将所述第一模态特征、所述第二模态特征、第三模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本,以供输入至多模态特征处理子网络。
在一个示例中,所述每个人脸训练样本还包括同一人脸样本的第三模态的人脸图像,所述装置4000还包括:第三模态图像输入模块(图中未示出),用于将所述人脸训练样本集中各人脸训练样本的第三模态人脸图像输入与第三模态相对应的第三模态特征提取子网络,以获得该人脸训练样本的第三模态特征;
其中,组合模块4400还用于将所述第一模态特征、所述第二模态特征、所述第三模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本,以供输入至所述多模态特征处理子网络。
在一个示例中,所述第一模态人脸图像为RGB人脸图像、所述第二模态人脸图像为深度图像、所述第三模态人脸图像为红外图像。
在一个示例中,人脸活体检测模型包括所述第一模态特征提取子网络、所述第二模态特征提取子网络、所述多模态特征处理子网络和输出层网络;
所述根据所述输入的训练样本集,训练所述人脸活体检测模型的模型参数,得到人脸活体检测模型包括:
根据所述输入的训练样本集,对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,直至所述参数收敛,得到收敛的人脸活体检测模型。
在一个示例中,训练模块4600根据所述输入的训练样本集,对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,直至所述参数收敛包括:
对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量;
将所述概率分布向量代入预设的分类损失函数进行计算,得到所述训练样本集中每个样本的分类损失;
基于所述分类损失对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,得到收敛的第一模态特征提取子网络、收敛的第二模态特征提取子网络、收敛的多模态特征处理子网络和收敛的输出层网络。
在一个示例中,训练模块4600对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量,包括:
从所述训练样本集中选取一个样本输入所述第一模态特征提取子网络、所述第二模态特征提取子网络、所述多模态特征处理子网络和所述输出层网络,得到对应的输出结果;
将所述输出结果输入归一化指数函数,得到所述概率分布向量。
模型训练模块4400基于所述分类损失对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,得到收敛的特征提取网络和收敛的输出层网络包括:
根据所述分类损失和预设的反向传播算法计算所述第一模态特征提取子网络的参数的第一导数、所述第二模态特征提取子网络的第二导数、所述多模态特征处理子网络的第三导数,以及所述输出层网络的参数的第四导数;
根据所述第一导数和梯度下降算法对所述第一模态特征提取子网络的参数进行更新,根据所述第二导数和梯度下降算法对所述第二模态特征提取子网络的参数进行更新,根据所述第三导数和梯度下降算法对所述多模态特征处理子网络的参数进行更新,并根据所述第四导数和梯度下降算法对所述输出层网络的参数进行更新;
根据所述训练样本集中多个样本的分类损失对所述第一特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数以及所述输出层网络的参数进行多次更新,直至收敛得到收敛的第一模态特征提取子网络、收敛的第二模态特征提取子网络、收敛的多模态特征处理子网络和收敛的输出层网络。
<装置实施例二>
在本公开的又一个实施例中,还提供了一种人脸活体检测装置,如图10所示,图10为本公开实施例的人脸活体检测装置的结构方框图。
本实施例中,人脸活体检测装置5000包括:获取模块5200和检测模块5400。
获取模块5200用于获取待检测人脸的至少两种模态的人脸图像;
检测模块5400用于将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果;其中,所述人脸活体检测模型包括第一模态特征提取子网络、第二特征提取子网络、多模态特征处理子网络和输出层网络;
所述检测模块将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果包括:
将所述待检测人脸的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,以获得所述待检测人脸的第一模态特征;
将所述待检测人脸的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,以获得所述待检测人脸的第二模态特征;
将所述第一模态特征和所述第二模态特征组合为所述待检测人脸的多模态特征;
将所述多模态特征输入至多模态特征处理子网络进行特征融合和全局平均池化处理,以获得所述待检测人脸的全局特征;
将所述待检测人脸的全局特征输入至输出层网络,以得到所述待检测人脸的检测结果。
在一个示例中,所述获取模块5200还用于获取所述待检测人脸的第三模态人脸图像,所述人脸活体检测模型包括还包括第三模态特征提取子网络,
所述检测模块将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果还包括:
将所述待检测人脸的第三模态人脸图像输入与第三模态相对应的第三模态特征提取子网络,以获得所述待检测人脸的第三模态特征;
将所述第一模态特征、所述第二模态特征和所述第三模态特征组合为所述待检测人脸的多模态特征,以供输入至所述多模态特征处理子网络。
在一个示例中,所述第一模态人脸图像为RGB人脸图像、所述第二模态人脸图像为深度图像、所述第三模态人脸图像为红外图像。
<电子设备实施例>
在本公开的再一个实施例中,还提供了一种电子设备,该电子设备6000可以是图1所示的电子设备1000。图11为本公开实施例的电子设备的结构方框图。
一方面,该电子设备6000可以包括前述的人脸活体检测模型的训练装置4000,用于实施本公开任意实施例的人脸活体检测模型的训练方法。
或者,该电子设备6000可以包括前述的人脸活体检测装置5000,用于实施本公开任意实施例的人脸活体检测方法。
另一方面,如图10所示,电子设备6000可以包括存储器6200和处理器6400,存储器6200用于存储可执行的指令;该指令用于控制处理器6400执行前述的人脸活体检测模型的训练方法或人脸活体检测方法。
在本实施例中,电子设备6000可以是服务器、平板电脑、掌上电脑、台式机、笔记本电脑、工作站、游戏机等任意具有存储器6200以及处理器6400的电子产品。
<计算机可读存储介质实施例>
最后,根据本公开的又一个实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序在被处理器执行时实现根据本公开任意实施例所述的人脸活体检测模型的训练方法或人脸活体检测方法。
本公开实施例可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开实施例的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开实施例操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开实施例的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开实施例的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人物来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人物来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人物能理解本文披露的各实施例。本公开实施例的范围由所附权利要求来限定。
Claims (16)
1.一种人脸活体检测模型的训练方法,其特征在于,所述方法包括:
获取人脸训练样本集,其中,所述训练样本集包括多个人脸训练样本,所述每个人脸训练样本包括同一人脸样本的至少两种模态的人脸图像,以及标记所述训练样本为正样本或负样本的标识;
将所述人脸训练样本集中各人脸训练样本的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,以获得该人脸训练样本的第一模态特征;
将所述人脸训练样本集中各人脸训练样本的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,以获得该人脸训练样本的第二模态特征;
将所述第一模态特征、所述第二模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本;
将所述多个人脸训练样本的多模态特征训练样本组成的样本集输入至多模态特征处理子网络;
根据所述输入的训练样本集,训练所述人脸活体检测模型的模型参数,得到人脸活体检测模型。
2.根据权利要求1所述的方法,其中,所述每个人脸训练样本还包括同一人脸样本的第三模态的人脸图像,所述方法还包括:
将所述人脸训练样本集中各人脸训练样本的第三模态人脸图像输入与第三模态相对应的第三模态特征提取子网络,以获得该人脸训练样本的第三模态特征;
将所述第一模态特征、所述第二模态特征、所述第三模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本,以供输入至所述多模态特征处理子网络。
3.根据权利要求2所述的方法,其中,所述第一模态人脸图像为RGB人脸图像、所述第二模态人脸图像为深度图像、所述第三模态人脸图像为红外图像。
4.根据权利要求1所述的方法,其中,所述人脸活体检测模型包括所述第一模态特征提取子网络、所述第二模态特征提取子网络、所述多模态特征处理子网络和输出层网络;
所述根据所述输入的训练样本集,训练所述人脸活体检测模型的模型参数,得到人脸活体检测模型包括:
根据所述输入的训练样本集,对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,直至所述参数收敛,得到收敛的人脸活体检测模型。
5.根据权利要求4所述的方法,其中,所述根据所述输入的训练样本集,对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,直至所述参数收敛包括:
对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量;
将所述概率分布向量代入预设的分类损失函数进行计算,得到所述训练样本集中每个样本的分类损失;
基于所述分类损失对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,得到收敛的第一模态特征提取子网络、收敛的第二模态特征提取子网络、收敛的多模态特征处理子网络和收敛的输出层网络。
6.根据权利要求5所述的方法,其特征在于,所述对所述训练样本集中的每个样本在所述输出层网络的输出结果进行计算,得到每个样本的概率分布向量,包括:
从所述训练样本集中选取一个样本输入所述第一模态特征提取子网络、所述第二模态特征提取子网络、所述多模态特征处理子网络和所述输出层网络,得到对应的输出结果;
将所述输出结果输入归一化指数函数,得到所述概率分布向量。
7.根据权利要求5所述的方法,其特征在于,所述基于所述分类损失对所述第一模态特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数和所述输出层网络的参数进行更新,得到收敛的特征提取网络和收敛的输出层网络包括:
根据所述分类损失和预设的反向传播算法计算所述第一模态特征提取子网络的参数的第一导数、所述第二模态特征提取子网络的第二导数、所述多模态特征处理子网络的第三导数,以及所述输出层网络的参数的第四导数;
根据所述第一导数和梯度下降算法对所述第一模态特征提取子网络的参数进行更新,根据所述第二导数和梯度下降算法对所述第二模态特征提取子网络的参数进行更新,根据所述第三导数和梯度下降算法对所述多模态特征处理子网络的参数进行更新,并根据所述第四导数和梯度下降算法对所述输出层网络的参数进行更新;
根据所述训练样本集中多个样本的分类损失对所述第一特征提取子网络的参数、所述第二模态特征提取子网络的参数、所述多模态特征处理子网络的参数以及所述输出层网络的参数进行多次更新,直至收敛得到收敛的第一模态特征提取子网络、收敛的第二模态特征提取子网络、收敛的多模态特征处理子网络和收敛的输出层网络。
8.一种人脸活体检测方法,其特征在于,所述方法包括:
获取待检测人脸的至少两种模态的人脸图像;
将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果;其中,所述人脸活体检测模型包括第一模态特征提取子网络、第二特征提取子网络、多模态特征处理子网络和输出层网络;
所述将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果包括:
将所述待检测人脸的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,以获得所述待检测人脸的第一模态特征;
将所述待检测人脸的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,以获得所述待检测人脸的第二模态特征;
将所述第一模态特征和所述第二模态特征组合为所述待检测人脸的多模态特征;
将所述多模态特征输入至多模态特征处理子网络进行特征融合和全局平均池化处理,以获得所述待检测人脸的全局特征;
将所述待检测人脸的全局特征输入至输出层网络,以得到所述待检测人脸的检测结果。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:获取所述待检测人脸的第三模态的人脸图像,所述人脸活体检测模型还包括第三模态特征提取子网络,
所述将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果还包括:
将所述待检测人脸的第三模态人脸图像输入与第三模态相对应的第三模态特征提取子网络,以获得所述待检测人脸的第三模态特征;
将所述第一模态特征、所述第二模态特征和所述第三模态特征组合为所述待检测人脸的多模态特征,以供输入至所述多模态特征处理子网络。
10.根据权利要求9所述的方法,其中,所述第一模态人脸图像为RGB人脸图像、所述第二模态人脸图像为深度图像、所述第三模态人脸图像为红外图像。
11.一种人脸活体检测模型的训练装置,其特征在于,所述装置包括:
获取模块,用于获取人脸训练样本集,其中,所述训练样本集包括多个人脸训练样本,所述每个人脸训练样本包括同一人脸样本的至少两种模态的人脸图像,以及标记所述训练样本为正样本或负样本的标识;
第一模态图像输入模块,用于将所述人脸训练样本集中各人脸训练样本的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,以获得该人脸训练样本的第一模态特征;
第二模态图像输入模块,用于将所述人脸训练样本集中各人脸训练样本的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,以获得该人脸训练样本的第二模态特征;
组合模块,用于将所述第一模态特征、所述第二模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本;
多模态特征输入模块,用于将所述多个人脸训练样本的多模态特征训练样本组成的样本集输入至多模态特征处理子网络;
训练模块,用于根据所述输入的训练样本集,训练所述人脸活体检测模型的模型参数,得到人脸活体检测模型。
12.根据权利要求11所述的装置,其特征在于,所述每个人脸训练样本还包括同一人脸样本的第三模态的人脸图像,所述装置还包括:
第三模态图像输入模块,用于将所述人脸训练样本集中各人脸训练样本的第三模态人脸图像输入与第三模态相对应的第三模态特征提取子网络,以获得该人脸训练样本的第三模态特征;
其中,所述组合模块还用于将所述第一模态特征、所述第二模态特征、第三模态特征与所述标记所述训练样本为正样本或负样本的标识组合为该人脸训练样本的多模态特征训练样本,以供输入至多模态特征处理子网络。
13.一种人脸活体检测装置,其特征在于,所述装置包括:
获取模块,用于获取待检测人脸的至少两种模态的人脸图像;
检测模块,用于将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果;其中,所述人脸活体检测模型包括第一模态特征提取子网络、第二特征提取子网络、多模态特征处理子网络和输出层网络;
所述检测模块将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果包括:
将所述待检测人脸的第一模态人脸图像输入与第一模态相对应的第一模态特征提取子网络,以获得所述待检测人脸的第一模态特征;
将所述待检测人脸的第二模态人脸图像输入与第二模态相对应的第二模态特征提取子网络,以获得所述待检测人脸的第二模态特征;
将所述第一模态特征和所述第二模态特征组合为所述待检测人脸的多模态特征;
将所述多模态特征输入至多模态特征处理子网络进行特征融合和全局平均池化处理,以获得所述待检测人脸的全局特征;
将所述待检测人脸的全局特征输入至输出层网络,以得到所述待检测人脸的检测结果。
14.根据权利要求13所述的装置,其特征在于,所述获取模块还用于获取所述待检测人脸的第三模态人脸图像,所述人脸活体检测模型包括还包括第三模态特征提取子网络,
所述检测模块将所述待检测人脸的至少两种模态的人脸图像输入人脸活体检测模型中,以输出检测结果还包括:
将所述待检测人脸的第三模态人脸图像输入与第三模态相对应的第三模态特征提取子网络,以获得所述待检测人脸的第三模态特征;
将所述第一模态特征、所述第二模态特征和所述第三模态特征组合为所述待检测人脸的多模态特征,以供输入至所述多模态特征处理子网络。
15.一种电子设备,其特征在于,包括:
根据权利要求11至14中任一项所述的装置;或者,
处理器和存储器,所述存储器用于存储可执行的指令,所述指令用于控制所述处理器执行根据权利要求1至10中任一项所述的方法。
16.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010340263.2A CN111597918A (zh) | 2020-04-26 | 2020-04-26 | 人脸活体检测模型的训练、检测方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010340263.2A CN111597918A (zh) | 2020-04-26 | 2020-04-26 | 人脸活体检测模型的训练、检测方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111597918A true CN111597918A (zh) | 2020-08-28 |
Family
ID=72187669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010340263.2A Pending CN111597918A (zh) | 2020-04-26 | 2020-04-26 | 人脸活体检测模型的训练、检测方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111597918A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464993A (zh) * | 2020-11-05 | 2021-03-09 | 苏州浪潮智能科技有限公司 | 一种多模态模型训练方法、装置、设备及存储介质 |
CN112971718A (zh) * | 2021-02-05 | 2021-06-18 | 北京鹰之眼智能健康科技有限公司 | 证候识别方法、装置、电子设备及存储介质 |
CN113052142A (zh) * | 2021-04-26 | 2021-06-29 | 的卢技术有限公司 | 一种基于多模态数据的静默活体检测方法 |
CN113205880A (zh) * | 2021-04-30 | 2021-08-03 | 广东省人民医院 | 基于LogitBoost的心脏疾病预后预测方法及装置 |
CN113435408A (zh) * | 2021-07-21 | 2021-09-24 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113435353A (zh) * | 2021-06-30 | 2021-09-24 | 平安科技(深圳)有限公司 | 基于多模态的活体检测方法、装置、电子设备及存储介质 |
CN113627263A (zh) * | 2021-07-13 | 2021-11-09 | 支付宝(杭州)信息技术有限公司 | 一种基于人脸检测的曝光方法、装置以及设备 |
CN113642639A (zh) * | 2021-08-12 | 2021-11-12 | 云知声智能科技股份有限公司 | 活体检测方法、装置、设备和存储介质 |
CN113743379A (zh) * | 2021-11-03 | 2021-12-03 | 杭州魔点科技有限公司 | 一种多模态特征的轻量活体识别方法、系统、装置和介质 |
CN115116111A (zh) * | 2022-06-24 | 2022-09-27 | 北京百度网讯科技有限公司 | 抗扰动人脸活体检测模型训练方法、装置及电子设备 |
WO2023202194A1 (zh) * | 2022-04-22 | 2023-10-26 | 腾讯科技(深圳)有限公司 | 一种图像合成模型的确定方法和相关装置 |
CN117576520A (zh) * | 2024-01-16 | 2024-02-20 | 中国科学技术大学 | 目标检测模型的训练方法、目标检测方法及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451510A (zh) * | 2016-05-30 | 2017-12-08 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
WO2020048140A1 (zh) * | 2018-09-07 | 2020-03-12 | 北京市商汤科技开发有限公司 | 活体检测方法和装置、电子设备、计算机可读存储介质 |
CN111027707A (zh) * | 2019-11-22 | 2020-04-17 | 北京金山云网络技术有限公司 | 模型的优化方法、装置及电子设备 |
-
2020
- 2020-04-26 CN CN202010340263.2A patent/CN111597918A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451510A (zh) * | 2016-05-30 | 2017-12-08 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
WO2020048140A1 (zh) * | 2018-09-07 | 2020-03-12 | 北京市商汤科技开发有限公司 | 活体检测方法和装置、电子设备、计算机可读存储介质 |
CN111027707A (zh) * | 2019-11-22 | 2020-04-17 | 北京金山云网络技术有限公司 | 模型的优化方法、装置及电子设备 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464993B (zh) * | 2020-11-05 | 2022-12-09 | 苏州浪潮智能科技有限公司 | 一种多模态模型训练方法、装置、设备及存储介质 |
CN112464993A (zh) * | 2020-11-05 | 2021-03-09 | 苏州浪潮智能科技有限公司 | 一种多模态模型训练方法、装置、设备及存储介质 |
CN112971718A (zh) * | 2021-02-05 | 2021-06-18 | 北京鹰之眼智能健康科技有限公司 | 证候识别方法、装置、电子设备及存储介质 |
CN113052142A (zh) * | 2021-04-26 | 2021-06-29 | 的卢技术有限公司 | 一种基于多模态数据的静默活体检测方法 |
CN113205880A (zh) * | 2021-04-30 | 2021-08-03 | 广东省人民医院 | 基于LogitBoost的心脏疾病预后预测方法及装置 |
CN113205880B (zh) * | 2021-04-30 | 2022-09-23 | 广东省人民医院 | 基于LogitBoost的心脏疾病预后预测方法及装置 |
CN113435353A (zh) * | 2021-06-30 | 2021-09-24 | 平安科技(深圳)有限公司 | 基于多模态的活体检测方法、装置、电子设备及存储介质 |
WO2023273297A1 (zh) * | 2021-06-30 | 2023-01-05 | 平安科技(深圳)有限公司 | 基于多模态的活体检测方法、装置、电子设备及存储介质 |
CN113627263A (zh) * | 2021-07-13 | 2021-11-09 | 支付宝(杭州)信息技术有限公司 | 一种基于人脸检测的曝光方法、装置以及设备 |
CN113627263B (zh) * | 2021-07-13 | 2023-11-17 | 支付宝(杭州)信息技术有限公司 | 一种基于人脸检测的曝光方法、装置以及设备 |
CN113435408A (zh) * | 2021-07-21 | 2021-09-24 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113642639A (zh) * | 2021-08-12 | 2021-11-12 | 云知声智能科技股份有限公司 | 活体检测方法、装置、设备和存储介质 |
CN113642639B (zh) * | 2021-08-12 | 2024-03-01 | 云知声智能科技股份有限公司 | 活体检测方法、装置、设备和存储介质 |
CN113743379A (zh) * | 2021-11-03 | 2021-12-03 | 杭州魔点科技有限公司 | 一种多模态特征的轻量活体识别方法、系统、装置和介质 |
WO2023202194A1 (zh) * | 2022-04-22 | 2023-10-26 | 腾讯科技(深圳)有限公司 | 一种图像合成模型的确定方法和相关装置 |
CN115116111A (zh) * | 2022-06-24 | 2022-09-27 | 北京百度网讯科技有限公司 | 抗扰动人脸活体检测模型训练方法、装置及电子设备 |
CN117576520A (zh) * | 2024-01-16 | 2024-02-20 | 中国科学技术大学 | 目标检测模型的训练方法、目标检测方法及电子设备 |
CN117576520B (zh) * | 2024-01-16 | 2024-05-17 | 中国科学技术大学 | 目标检测模型的训练方法、目标检测方法及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111597918A (zh) | 人脸活体检测模型的训练、检测方法、装置及电子设备 | |
CN108764091B (zh) | 活体检测方法及装置、电子设备和存储介质 | |
CN110674719B (zh) | 目标对象匹配方法及装置、电子设备和存储介质 | |
CN108491805B (zh) | 身份认证方法和装置 | |
CN111325726A (zh) | 模型训练方法、图像处理方法、装置、设备及存储介质 | |
EP3584745A1 (en) | Live body detection method and apparatus, system, electronic device, and storage medium | |
CN111091166B (zh) | 图像处理模型训练方法、图像处理方法、设备及存储介质 | |
CN111914812B (zh) | 图像处理模型训练方法、装置、设备及存储介质 | |
CN112036331B (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
CN111325699B (zh) | 图像修复方法和图像修复模型的训练方法 | |
CN111476783B (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
US20220247571A1 (en) | Labeling method, apparatus, and device, and readable storage medium | |
TW202026948A (zh) | 活體檢測方法、裝置以及儲存介質 | |
CN113395542A (zh) | 基于人工智能的视频生成方法、装置、计算机设备及介质 | |
CN112989767B (zh) | 医学词语标注方法、医学词语映射方法、装置及设备 | |
CN111597922A (zh) | 细胞图像的识别方法、系统、装置、设备及介质 | |
CN111104980A (zh) | 确定分类结果的方法、装置、设备及存储介质 | |
CN111626086A (zh) | 活体检测方法、装置及系统、电子设备和存储介质 | |
US20230032683A1 (en) | Method for reconstructing dendritic tissue in image, device and storage medium | |
CN111753498A (zh) | 文本处理方法、装置、设备及存储介质 | |
CN114511864B (zh) | 文本信息提取方法、目标模型的获取方法、装置及设备 | |
CN111861956A (zh) | 图片处理方法、装置、电子设备以及介质 | |
CN114677350A (zh) | 连接点提取方法、装置、计算机设备及存储介质 | |
CN113822263A (zh) | 图像标注方法、装置、计算机设备及存储介质 | |
CN114283299A (zh) | 图像聚类方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |