CN113033465B - 活体检测模型训练方法、装置、设备以及存储介质 - Google Patents
活体检测模型训练方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN113033465B CN113033465B CN202110393084.XA CN202110393084A CN113033465B CN 113033465 B CN113033465 B CN 113033465B CN 202110393084 A CN202110393084 A CN 202110393084A CN 113033465 B CN113033465 B CN 113033465B
- Authority
- CN
- China
- Prior art keywords
- sample
- image
- face
- living body
- body detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 142
- 238000012549 training Methods 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 31
- 238000007781 pre-processing Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 28
- 238000000605 extraction Methods 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 19
- 238000011176 pooling Methods 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 9
- 238000013135 deep learning Methods 0.000 abstract description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000004590 computer program Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000001727 in vivo Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000001574 biopsy Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Abstract
本公开提供了一种活体检测模型训练方法、装置、设备、存储介质以及程序产品,涉及人工智能领域,具体为计算机视觉和深度学习技术,可以用于智慧城市场景下。该方法的一具体实施方式包括:获取样本图像集,其中,样本图像集中的样本图像标注有活体标签或攻击标签;基于样本图像切割得到多个样本区域块;打乱多个样本区域块进行叠加,得到样本张量;将样本张量作为输入,将样本图像的标签和多个样本区域块的叠加顺序作为监督信息,对卷积神经网络进行训练,得到活体检测模型。该实施方式在基于区域块的基础上加入自监督学习,增加了监督信息,提高了活体检测算法的准确度和泛化性。
Description
技术领域
本公开涉及人工智能领域,具体为计算机视觉和深度学习技术,可以用于智慧城市场景下。
背景技术
人脸活体检测即区分一张图像是否为真人拍摄,是人脸识别系统的基础组成模块,保证人脸识别系统的安全性。
当前人脸活体检测算法实现方案众多,按照技术路线,主要分为两大类:传统的人脸手工特征提取及分类方法和使用深度学习的人脸活体检测方法。
传统人脸手工提取及分类方法的代表有基于LBP(Local binary pattern,线性反投影算法)、HOG(Histogram of oriented gradients,方向梯度直方图)、SIFT(Scale-invariant feature transform,尺度不变特征变换)等方法。这类方法首先基于手工设计的特征提取器提取人脸特征,然后基于如SVM(Support Vector Machine,支持向量机)的传统分类器进行特征分类,最终得到人脸活体的判定结果。
使用深度学习的人脸活体检测方法主要有卷积神经网络的活体判别、基于LSTM(Long Short-Term Memory,长短期记忆网络)的活体判别等方法。这类方法使用神经网络进行人脸特征提取及分类。
深度学习类方法是当前该领域的主流方法,能够提取到稳定性更强的人脸特征。相较于传统方法,在性能上有较大提升。
发明内容
本公开实施例提出了一种活体检测模型训练方法、装置、设备、存储介质以及程序产品。
第一方面,本公开实施例提出了一种活体检测模型训练方法,包括:获取样本图像集,其中,样本图像集中的样本图像标注有活体标签或攻击标签;基于样本图像切割得到多个样本区域块;打乱多个样本区域块进行叠加,得到样本张量;将样本张量作为输入,将样本图像的标签和多个样本区域块的叠加顺序作为监督信息,对卷积神经网络进行训练,得到活体检测模型。
第二方面,本公开实施例提出了一种活体检测方法,包括:获取待检测图像;将待检测图像输入至活体检测模型,得到待检测图像的活体检测结果,其中,活体检测模型根据第一方面中任一实现方式描述的训练方法训练获得。
第三方面,本公开实施例提出了一种活体检测模型训练装置,包括:获取模块,被配置成获取样本图像集,其中,样本图像集中的样本图像标注有活体标签或攻击标签;切割模块,被配置成基于样本图像切割得到多个样本区域块;叠加模块,被配置成打乱多个样本区域块进行叠加,得到样本张量;训练模块,被配置成将样本张量作为输入,将样本图像的标签和多个样本区域块的叠加顺序作为监督信息,对卷积神经网络进行训练,得到活体检测模型。
第四方面,本公开实施例提出了一种活体检测装置,包括:获取模块,被配置成获取待检测图像;检测模块,被配置成将待检测图像输入至活体检测模型,得到待检测图像的活体检测结果,其中,活体检测模型根据第一方面中任一实现方式描述的训练方法训练获得。
第五方面,本公开实施例提出了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实现方式描述的方法,或者执行如第二方面中任一实现方式描述的方法。
第六方面,本公开实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面中任一实现方式描述的方法,或者执行如第二方面中任一实现方式描述的方法。
第七方面,本公开实施例提出了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面中任一实现方式描述的方法,或者实现如第二方面中任一实现方式描述的方法。
本公开实施例提供的活体检测模型训练方法、装置、设备、存储介质以及程序产品,提供了一种基于自监督的活体检测模型训练方法,基于样本图像切割出多个样本区域块,将区域块打乱叠加作为输入。同时,在二分类的基础上加入自监督模块,使模型学习样本区域块的叠加顺序。在基于区域块的基础上加入自监督学习,增加了监督信息,提高了活体检测算法的准确度和泛化性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显。附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的活体检测模型训练方法的一个实施例的流程图;
图2是卷积神经网络的结构示意图;
图3是根据本公开的活体检测模型训练方法的又一个实施例的流程图;
图4是样本图像预处理方法的一个实施例的流程图;
图5是可以实现本公开实施例的活体检测模型训练方法的场景图;
图6是根据本公开的活体检测方法的一个实施例的流程图;
图7是根据本公开的活体检测模型训练装置的一个实施例的结构示意图;
图8是根据本公开的活体检测装置的一个实施例的结构示意图;
图9是用来实现本公开实施例的活体检测模型训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了示出了根据本公开的活体检测模型训练方法的一个实施例的流程100。该活体检测模型训练方法包括以下步骤:
步骤101,获取样本图像集。
在本实施例中,活体检测模型训练方法的执行主体可以获取样本图像集。其中,样本图像集可以包括大量标注有标签的样本图像。例如,样本图像集可以包括一批活体样本图像和一批攻击样本图像。活体样本图像可以是对真实人脸拍摄得到的图像,其上标注有活体标签。攻击样本图像可以是对虚假人脸(如人脸照片)拍摄得到的图像,其上标注有攻击标签。
步骤102,基于样本图像切割得到多个样本区域块。
在本实施例中,上述执行主体可以基于样本图像切割得到多个样本区域块(patch)。通常,可以利用等分切割方式切割得到多个样本区域块。多个样本区域块的尺寸相同。
在本实施例的一些可选的实现方式中,上述执行主体可以直接对样本图像切割,得到多个样本区域块。
在本实施例的一些可选的实现方式中,上述执行主体可以首先对样本图像进行预处理,得到预处理图像;然后将预处理图像切割成多个样本区域块。在切割之前进行图像预处理,可以消除样本图像中无关的信息,恢复有用的真实信息,增强有关信息的可检测性和最大限度地简化数据,从而改进特征抽取、图像分割、匹配和识别的可靠性。
这里,图像预处理方式多样,包括但不限于以下至少一项:人脸检测、人脸对齐、归一化处理、数据增强处理等等。
人脸检测可以消除样本图像中的无关信息。具体地,上述执行主体可以首先利用预先训练的检测模型对样本图像进行人脸检测,得到样本图像中的样本人脸区域;然后基于样本人脸区域,得到预处理图像。例如,直接将样本人脸区域作为预处理图像。又例如,对样本人脸区域进一步预处理,得到预处理图像。其中,检测模型可以用于检测人脸位置,是利用训练样本集对神经网络进行训练得到的。这里的训练样本集中的训练样本可以是标注有人脸位置的样本图像。
人脸对齐可以恢复有用的真实信息。具体地,上述执行主体可以首先利用预先训练的人脸关键点检测模型对样本图像或样本人脸区域进行人脸关键点检测,得到样本人脸关键点坐标集合;然后基于样本人脸关键点坐标集合对样本图像进行人脸对齐,得到样本人脸对齐图像;最后基于样本人脸对齐图像,得到预处理图像。例如,直接将样本人脸对齐图像作为预处理图像。又例如,对样本人脸对齐图像进一步预处理,得到预处理图像。其中,人脸关键点检测模型可以用于检测人脸关键点,是利用训练样本集对神经网络进行训练得到的。这里的训练样本集中的训练样本可以是标注有人脸关键点的样本图像。
这里,需要预先定义人脸包含的关键点。例如,定义人脸包含72个关键点,样本人脸关键点坐标集合包括72个人脸关键点坐标,分别为:(x1,y1),...,(x72,y72)。人脸对齐可以例如是从样本人脸关键点坐标集合中确定最大坐标值和最小坐标值,即,xmax、ymax、xmin、ymin。基于最大坐标值和最小坐标值确定样本人脸框,如以(xmin,ymin)和(xmax,ymax)为对角顶点的矩形框。将样本人脸框扩大预设倍数截取样本人脸图像,如扩大3倍。将样本人脸图像调整至预设尺寸,得到样本人脸对齐图像,如调整到尺寸224×224。
归一化处理可以最大限度地简化数据。具体地,上述执行主体可以首先对样本图像或样本人脸对齐图像中的像素进行归一化处理,得到归一化图像;然后基于归一化图像,得到预处理图像。例如,直接将归一化图像作为预处理图像。又例如,对归一化图像进一步预处理,得到预处理图像。这里,归一化处理可以例如是将每个像素的像素值减去128再除以256,使每个像素的像素值在[-0.5,0.5]之间。
数据增强处理可以增强有关信息的可检测性。具体地,上述执行主体可以首先对样本图像或归一化图像进行数据增强处理,得到数据增强图像;然后基于数据增强图像,得到预处理图像。例如,直接将数据增强图像作为预处理图像。又例如,对数据增强图像进一步预处理,得到预处理图像。
步骤103,打乱多个样本区域块进行叠加,得到样本张量。
在本实施例中,上述执行主体可以打乱多个样本区域块进行叠加,得到样本张量。
通常,在切割得到多个样本区域块之后,可以对样本区域块标注顺序标签。例如,按照从左到右,从上到下的顺序对样本区域块依次标注。随机打乱样本区域块之后进行叠加,即可得到样本张量。例如,对于尺寸为224×224的样本图像或预处理图像,切割得到16个样本区域块。其中,每个样本区域块的尺寸是56×56,通道数是3。将16个样本区域块随机打乱之后进行叠加,即可得到一个48×56×56的样本张量。
步骤104,将样本张量作为输入,将样本图像的标签和多个样本区域块的叠加顺序作为监督信息,对卷积神经网络进行训练,得到活体检测模型。
在本实施例中,上述执行主体可以将样本张量作为输入,将样本图像的标签和多个样本区域块的叠加顺序作为监督信息,对卷积神经网络进行训练,得到活体检测模型。其中,监督信息可以包括样本图像的标签和样本区域块的叠加顺序。样本图像的标签是二分类的监督信息,样本区域块的叠加顺序是自监督信息。在二分类的基础上加入自监督模块,使模型学习样本区域块的叠加顺序。在基于区域块的基础上加入自监督学习,增加了监督信息,提高了活体检测算法的准确度和泛化性。
本公开实施例提供的活体检测模型训练方法,提供了一种基于自监督的活体检测模型训练方法,基于样本图像切割出多个样本区域块,将区域块打乱叠加作为输入。同时,在二分类的基础上加入自监督模块,使模型学习样本区域块的叠加顺序。在基于区域块的基础上加入自监督学习,增加了监督信息,提高了活体检测算法的准确度和泛化性。
相较于传统类方法,本公开实施例训练出的活体检测模型,不受真实场景中活体姿态或光照差异的影响,鲁棒性较好,识别效果较理想。相较于目前的深度学习类方法,本公开实施例训练出的活体检测模型即使仅使用单张图像作为输入,也能在二分类的监督信息的基础上增加自监督信息,不会造成过拟合,能够应对复杂多样的攻击方式。
本公开实施例提供的活体检测模型训练方法,可用于训练任一活体检测的深度学习神经网络模型,以提高其活体检测的性能。通过提升活体检测的性能,可以应用于智慧城市场景下,包括但不限于人脸识别领域的考勤、门禁、安防、金融制度等诸多应用。
下面提供根据本公开的活体检测模型训练方法的又一个实施例。
在本实施例中,用于训练活体检测模型的卷积神经网络可以包括特征提取网络、全局平均池化层、第一全连接层和第二全连接层。为了便于理解,图2示出了卷积神经网络的结构示意图。如图2所示,特征提取网络可以是卷积神经网络的骨干网络(backbone),例如MobileNet V2。样本区域块随机打乱后叠加得到的样本张量作为特征提取网络的输入。特征提取网络的最后一层的样本特征图可以作为全局平均池化层的输入。全局平均池化层将样本特征图转化为样本特征向量,分别输入至第一全连接层和第二全连接层。第一全连接层可以是二分类,用于检测样本图像是否是活体。第二全连接层的输出维度可以等于样本区域块的数量,用来监督样本区域块的顺序,达到自监督学习的效果,完成活体检测模型的训练。
继续参考图3,其示出了根据本公开的活体检测模型训练方法的又一个实施例的流程300。该活体检测模型训练方法包括以下步骤:
步骤301,获取样本图像集。
步骤302,基于样本图像切割得到多个样本区域块。
步骤303,打乱多个样本区域块进行叠加,得到样本张量。
在本实施例中,步骤301-303具体操作已在图1所示的实施例中步骤101-103进行了详细的介绍,在此不再赘述。
步骤304,将样本张量输入至特征提取网络,得到样本特征图。
在本实施例中,活体检测模型训练方法的执行主体可以将样本张量输入至特征提取网络,得到样本特征图。
其中,特征提取网络可以是卷积神经网络的骨干网络,例如MobileNet V2。特征提取网络可以包括多个层。样本特征图可以是特征提取网络的最后一层的特征图。
步骤305,将样本特征图输入至全局平均池化层,得到样本特征向量。
在本实施例中,上述执行主体可以将样本特征图输入至全局平均池化层,得到样本特征向量。全局平均池化层可以在样本特征图上做全局平均池化操作,将样本特征图转化为样本特征向量。
步骤306,将样本特征向量输入至第一全连接层,得到样本图像的预测标签。
在本实施例中,上述执行主体可以将样本特征向量输入至第一全连接层,得到样本图像的预测标签。其中,第一全连接层可以是二分类,用于检测样本图像是否存在活体。预测标签可以是样本图像是否是活体的检测结果。
步骤307,将样本特征向量输入至第二全连接层,得到多个样本区域块的预测叠加顺序。
在本实施例中,上述执行主体可以将样本特征向量输入至第二全连接层,得到多个样本区域块的预测叠加顺序。其中,第二全连接层的输出维度可以等于样本区域块的数量,用于检测样本区域块的叠加顺序。
步骤308,基于样本图像的标签和预测标签,以及多个样本区域块的叠加顺序和预测叠加顺序,调整卷积神经网络的参数,直至训练完成。
在本实施例中,上述执行主体可以基于样本图像的标签和预测标签,以及多个样本区域块的叠加顺序和预测叠加顺序,调整卷积神经网络的参数,直至训练完成。具体地,上述执行主体可以基于样本图像的标签和预测标签计算第一损失值,基于样本区域块的叠加顺序和预测叠加顺序计算第二损失值。基于第一损失值和第二损失值调整卷积神经网络的参数,直至卷积神经网络收敛,即训练完成。
步骤309,移除卷积神经网络的第二全连接层,得到活体检测模型。
在本实施例中,由于模型训练完成后仅需要进行活体检测,因此,上述执行主体可以移除卷积神经网络的第二全连接层,得到活体检测模型。
从图3中可以看出,与图2对应的实施例相比,本实施例中的活体检测模型训练方法突出了模型训练步骤。由此,本实施例描述的方案中的卷积神经网络设置两个全连接层。一个全连接层用于监督样本图像的标签,达到二分类的监督学习的效果。另一个全连接层用于监督样本区域块的顺序,达到自监督学习的效果。在二分类的基础上加入自监督模块,增加了监督信息,提高了活体检测算法的准确度和泛化性。
进一步参考图4,其示出了根据本公开的样本图像预处理方法的一个实施例的流程400。该样本图像预处理方法包括以下步骤:
步骤401,利用预先训练的检测模型对样本图像进行人脸检测,得到样本图像中的样本人脸区域。
在本实施例中,样本图像预处理方法的执行主体可以利用预先训练的检测模型对样本图像进行人脸检测,得到样本图像中的样本人脸区域。其中,检测模型可以用于检测人脸位置,是利用训练样本集对神经网络进行训练得到的。这里的训练样本集中的训练样本可以是标注有人脸位置的样本图像。人脸检测可以消除样本图像中的无关信息。
步骤402,利用预先训练的人脸关键点检测模型对样本人脸区域进行人脸关键点检测,得到样本人脸关键点坐标集合。
在本实施例中,上述执行主体可以利用预先训练的人脸关键点检测模型对样本人脸区域进行人脸关键点检测,得到样本人脸关键点坐标集合。其中,人脸关键点检测模型可以用于检测人脸关键点,是利用训练样本集对神经网络进行训练得到的。这里的训练样本集中的训练样本可以是标注有人脸关键点的样本图像。
步骤403,基于样本人脸关键点坐标集合对样本图像进行人脸对齐,得到样本人脸对齐图像。
在本实施例中,上述执行主体可以基于样本人脸关键点坐标集合对样本图像进行人脸对齐,得到样本人脸对齐图像。人脸对齐可以恢复有用的真实信息。
这里,需要预先定义人脸包含的关键点。例如,定义人脸包含72个关键点,样本人脸关键点坐标集合包括72个人脸关键点坐标,分别为:(x1,y1),...,(x72,y72)。人脸对齐可以例如是从样本人脸关键点坐标集合中确定最大坐标值和最小坐标值,即,xmax、ymax、xmin、ymin。基于最大坐标值和最小坐标值确定样本人脸框,如以(xmin,ymin)和(xmax,ymax)为对角顶点的矩形框。将样本人脸框扩大预设倍数截取样本人脸图像,如扩大3倍。将样本人脸图像调整至预设尺寸,得到样本人脸对齐图像,如调整到尺寸224×224。
步骤404,对样本人脸对齐图像中的像素进行归一化处理,得到归一化图像。
在本实施例中,上述执行主体可以对样本人脸对齐图像中的像素进行归一化处理,得到归一化图像。归一化处理可以最大限度地简化数据。这里,归一化处理可以例如是将每个像素的像素值减去128再除以256,使每个像素的像素值在[-0.5,0.5]之间。
步骤405,对归一化图像进行数据增强处理,得到预处理图像。
在本实施例中,上述执行主体可以对归一化图像进行数据增强处理,得到预处理图像。数据增强处理可以增强有关信息的可检测性。
本公开实施例提供的样本图像预处理方法,在切割之前对样本图像进行人脸检测、人脸对齐、归一化处理、数据增强处理等预处理,可以消除样本图像中无关的信息,恢复有用的真实信息,增强有关信息的可检测性和最大限度地简化数据,从而改进特征抽取、图像分割、匹配和识别的可靠性。
为了便于理解,图5示出了可以实现本公开实施例的活体检测模型训练方法的场景图。如图5所示,对样本图像依次进行人脸检测、人脸关键点检测和人脸对齐等预处理,得到预处理图像。对预处理图像图像进行切割和位置标注,得到带位置标注的人脸patch1,带位置标注的人脸patch2,...,带位置标注的人脸patchN。随机打乱带位置标注的人脸patch1,带位置标注的人脸patch2,...,带位置标注的人脸patchN之后进行叠加,得到样本张量。将样本张量输入至MobileNet V2进行特征提取,得到样本特征图。在样本特征图上做全局平均池化操作,转化为样本特征向量。样本特征向量分别送入第一全连接层和第二全连接层。第一全连接层进行活体二分类。第二全连接层进行patch位置分类。
进一步参考图6,其示出了根据本公开的活体检测方法的一个实施例的流程600。该活体检测方法包括以下步骤:
步骤601,获取待检测图像。
在本实施例中,活体检测方法的执行主体可以获取待检测图像。其中,待检测图像可以是对人脸拍摄得到的图像。人脸可以是真实人脸,也可以是虚假人脸。
步骤602,将待检测图像输入至活体检测模型,得到待检测图像的活体检测结果。
在本实施例中,上述执行主体可以将待检测图像输入至活体检测模型,得到待检测图像的活体检测结果。其中,活体检测模型可以用于检测图像是否存在活体,是利用图1-图5中任一实施例提供的训练方法训练获得的,这里不再赘述。
本公开实施例提供的活体检测方法,提供了一种基于自监督的活体检测方法,活体检测模型在二分类的基础上加入自监督模块,提高了活体检测算法的准确度和泛化性。
进一步参考图7,作为对上述各图所示方法的实现,本公开提供了一种活体检测模型训练装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例的活体检测模型训练装置700可以包括:获取模块701、切割模块702、叠加模块703和训练模块704。其中,获取模块701,被配置成获取样本图像集,其中,样本图像集中的样本图像标注有活体标签或攻击标签;切割模块702,被配置成基于样本图像切割得到多个样本区域块;叠加模块703,被配置成打乱多个样本区域块进行叠加,得到样本张量;训练模块704,被配置成将样本张量作为输入,将样本图像的标签和多个样本区域块的叠加顺序作为监督信息,对卷积神经网络进行训练,得到活体检测模型。
在本实施例中,活体检测模型训练装置700中:获取模块701、切割模块702、叠加模块703和训练模块704的具体处理及其所带来的技术效果可分别参考图1对应实施例中的步骤101-104的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,卷积神经网络包括特征提取网络、全局平均池化层、第一全连接层和第二全连接层。
在本实施例的一些可选的实现方式中,训练模块704进一步被配置成:将样本张量输入至特征提取网络,得到样本特征图;将样本特征图输入至全局平均池化层,得到样本特征向量;将样本特征向量输入至第一全连接层,得到样本图像的预测标签;将样本特征向量输入至第二全连接层,得到多个样本区域块的预测叠加顺序;基于样本图像的标签和预测标签,以及多个样本区域块的叠加顺序和预测叠加顺序,调整卷积神经网络的参数,直至训练完成;移除卷积神经网络的第二全连接层,得到活体检测模型。
在本实施例的一些可选的实现方式中,切割模块702包括:预处理子模块,被配置成对样本图像进行预处理,得到预处理图像;切割子模块,被配置成将预处理图像切割成多个样本区域块。
在本实施例的一些可选的实现方式中,预处理子模块进一步被配置成:人脸检测单元,被配置成利用预先训练的检测模型对样本图像进行人脸检测,得到样本图像中的样本人脸区域;预处理单元,被配置成基于样本人脸区域,得到预处理图像。
在本实施例的一些可选的实现方式中,预处理单元包括:关键点检测子单元,被配置成利用预先训练的人脸关键点检测模型对样本人脸区域进行人脸关键点检测,得到样本人脸关键点坐标集合;对齐子单元,被配置成基于样本人脸关键点坐标集合对样本图像进行人脸对齐,得到样本人脸对齐图像;预处理子单元,被配置成基于样本人脸对齐图像,得到预处理图像。
在本实施例的一些可选的实现方式中,对齐子单元进一步被配置成:从样本人脸关键点坐标集合中确定最大坐标值和最小坐标值;基于最大坐标值和最小坐标值确定样本人脸框;将样本人脸框扩大预设倍数截取样本人脸图像;将样本人脸图像调整至预设尺寸,得到样本人脸对齐图像。
在本实施例的一些可选的实现方式中,预处理子单元进一步被配置成:对样本人脸对齐图像中的像素进行归一化处理,得到归一化图像;对归一化图像进行数据增强处理,得到预处理图像。
进一步参考图8,作为对上述各图所示方法的实现,本公开提供了一种活体检测装置的一个实施例,该装置实施例与图6所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图8所示,本实施例的活体检测装置800可以包括:获取模块801和检测模块802。其中,获取模块801,被配置成获取待检测图像;检测模块802,被配置成将待检测图像输入至活体检测模型,得到待检测图像的活体检测结果,其中,活体检测模型根据图1和图3中任一实施例描述的训练方法训练获得。
在本实施例中,活体检测装置800中:获取模块801和检测模块802的具体处理及其所带来的技术效果可分别参考图6对应实施例中的步骤601-602的相关说明,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如活体检测模型训练方法。例如,在一些实施例中,活体检测模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的活体检测模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行活体检测模型训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开提供的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (18)
1.一种活体检测模型训练方法,包括:
获取样本图像集,其中,所述样本图像集中的样本图像标注有活体标签或攻击标签;
基于所述样本图像切割得到多个样本区域块;
打乱所述多个样本区域块进行叠加,得到样本张量;
将所述样本张量作为输入,将所述样本图像的标签和所述多个样本区域块的叠加顺序作为监督信息,对卷积神经网络进行训练,得到活体检测模型;
其中,所述卷积神经网络包括特征提取网络、全局平均池化层、第一全连接层和第二全连接层;
其中,所述将所述样本张量作为输入,将所述样本图像的标签和所述多个样本区域块的叠加顺序作为监督信息,对卷积神经网络进行训练,得到活体检测模型,包括:
将所述样本张量输入至所述特征提取网络,得到样本特征图;
将所述样本特征图输入至所述全局平均池化层,得到样本特征向量;
将所述样本特征向量输入至所述第一全连接层,得到所述样本图像的预测标签;
将所述样本特征向量输入至所述第二全连接层,得到所述多个样本区域块的预测叠加顺序;
基于所述样本图像的标签和预测标签,以及所述多个样本区域块的叠加顺序和预测叠加顺序,调整所述卷积神经网络的参数,直至训练完成;
移除所述卷积神经网络的第二全连接层,得到所述活体检测模型。
2.根据权利要求1所述的方法,其中,所述基于所述样本图像切割得到多个样本区域块,包括:
对所述样本图像进行预处理,得到预处理图像;
将所述预处理图像切割成所述多个样本区域块。
3.根据权利要求2所述的方法,其中,所述预处理包括以下至少一项:人脸检测、人脸对齐、归一化处理、数据增强处理。
4.根据权利要求2所述的方法,其中,所述对所述样本图像进行预处理,得到预处理图像,包括:
利用预先训练的检测模型对所述样本图像进行人脸检测,得到所述样本图像中的样本人脸区域;
基于所述样本人脸区域,得到所述预处理图像。
5.根据权利要求4所述的方法,其中,所述基于所述样本人脸区域,得到所述预处理图像,包括:
利用预先训练的人脸关键点检测模型对所述样本人脸区域进行人脸关键点检测,得到样本人脸关键点坐标集合;
基于所述样本人脸关键点坐标集合对所述样本图像进行人脸对齐,得到样本人脸对齐图像;
基于所述样本人脸对齐图像,得到所述预处理图像。
6.根据权利要求5所述的方法,其中,所述基于所述样本人脸对齐图像,得到所述预处理图像,包括:
从所述样本人脸关键点坐标集合中确定最大坐标值和最小坐标值;
基于所述最大坐标值和所述最小坐标值确定样本人脸框;
将所述样本人脸框扩大预设倍数截取样本人脸图像;
将所述样本人脸图像调整至预设尺寸,得到所述样本人脸对齐图像。
7.根据权利要求5或6所述的方法,其中,所述基于所述样本人脸对齐图像,得到所述预处理图像,包括:
对所述样本人脸对齐图像中的像素进行归一化处理,得到归一化图像;
对所述归一化图像进行数据增强处理,得到所述预处理图像。
8.一种活体检测方法,包括:
获取待检测图像;
将所述待检测图像输入至活体检测模型,得到所述待检测图像的活体检测结果,其中,所述活体检测模型根据权利要求1-7中任一项的训练方法训练获得。
9.一种活体检测模型训练装置,包括:
获取模块,被配置成获取样本图像集,其中,所述样本图像集中的样本图像标注有活体标签或攻击标签;
切割模块,被配置成基于所述样本图像切割得到多个样本区域块;
叠加模块,被配置成打乱所述多个样本区域块进行叠加,得到样本张量;
训练模块,被配置成将所述样本张量作为输入,将所述样本图像的标签和多个样本区域块的叠加顺序作为监督信息,对卷积神经网络进行训练,得到活体检测模型;
其中,所述卷积神经网络包括特征提取网络、全局平均池化层、第一全连接层和第二全连接层;
其中,所述训练模块进一步被配置成:
将所述样本张量输入至所述特征提取网络,得到样本特征图;
将所述样本特征图输入至所述全局平均池化层,得到样本特征向量;
将所述样本特征向量输入至所述第一全连接层,得到所述样本图像的预测标签;
将所述样本特征向量输入至所述第二全连接层,得到所述多个样本区域块的预测叠加顺序;
基于所述样本图像的标签和预测标签,以及所述多个样本区域块的叠加顺序和预测叠加顺序,调整所述卷积神经网络的参数,直至训练完成;
移除所述卷积神经网络的第二全连接层,得到所述活体检测模型。
10.根据权利要求9所述的装置,其中,所述切割模块包括:
预处理子模块,被配置成对所述样本图像进行预处理,得到预处理图像;
切割子模块,被配置成将所述预处理图像切割成所述多个样本区域块。
11.根据权利要求10所述的装置,其中,所述预处理包括以下至少一项:人脸检测、人脸对齐、归一化处理、数据增强处理。
12.根据权利要求10所述的装置,其中,所述预处理子模块进一步被配置成:
人脸检测单元,被配置成利用预先训练的检测模型对所述样本图像进行人脸检测,得到所述样本图像中的样本人脸区域;
预处理单元,被配置成基于所述样本人脸区域,得到所述预处理图像。
13.根据权利要求12所述的装置,其中,所述预处理单元包括:
关键点检测子单元,被配置成利用预先训练的人脸关键点检测模型对所述样本人脸区域进行人脸关键点检测,得到样本人脸关键点坐标集合;
对齐子单元,被配置成基于所述样本人脸关键点坐标集合对所述样本图像进行人脸对齐,得到样本人脸对齐图像;
预处理子单元,被配置成基于所述样本人脸对齐图像,得到所述预处理图像。
14.根据权利要求13所述的装置,其中,所述对齐子单元进一步被配置成:
从所述样本人脸关键点坐标集合中确定最大坐标值和最小坐标值;
基于所述最大坐标值和所述最小坐标值确定样本人脸框;
将所述样本人脸框扩大预设倍数截取样本人脸图像;
将所述样本人脸图像调整至预设尺寸,得到所述样本人脸对齐图像。
15.根据权利要求13或14所述的装置,其中,所述预处理子单元进一步被配置成:
对所述样本人脸对齐图像中的像素进行归一化处理,得到归一化图像;
对所述归一化图像进行数据增强处理,得到所述预处理图像。
16.一种活体检测装置,包括:
获取模块,被配置成获取待检测图像;
检测模块,被配置成将所述待检测图像输入至活体检测模型,得到所述待检测图像的活体检测结果,其中,所述活体检测模型根据权利要求1-7中任一项的训练方法训练获得。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法,或者执行权利要求8所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法,或者执行权利要求8所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110393084.XA CN113033465B (zh) | 2021-04-13 | 2021-04-13 | 活体检测模型训练方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110393084.XA CN113033465B (zh) | 2021-04-13 | 2021-04-13 | 活体检测模型训练方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113033465A CN113033465A (zh) | 2021-06-25 |
CN113033465B true CN113033465B (zh) | 2023-11-14 |
Family
ID=76456423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110393084.XA Active CN113033465B (zh) | 2021-04-13 | 2021-04-13 | 活体检测模型训练方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113033465B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113569707A (zh) * | 2021-07-23 | 2021-10-29 | 北京百度网讯科技有限公司 | 活体检测方法、装置、电子设备以及存储介质 |
CN113642428B (zh) * | 2021-07-29 | 2022-09-27 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113705362B (zh) * | 2021-08-03 | 2023-10-20 | 北京百度网讯科技有限公司 | 图像检测模型的训练方法、装置、电子设备及存储介质 |
CN113705425B (zh) * | 2021-08-25 | 2022-08-16 | 北京百度网讯科技有限公司 | 活体检测模型的训练方法和活体检测的方法、装置、设备 |
CN113807237B (zh) * | 2021-09-15 | 2022-11-08 | 河南星环众志信息科技有限公司 | 活体检测模型的训练、活体检测方法、计算机设备及介质 |
CN113850717A (zh) * | 2021-11-30 | 2021-12-28 | 北京爱笔科技有限公司 | 一种图像处理方法及装置 |
CN114627534A (zh) * | 2022-03-15 | 2022-06-14 | 平安科技(深圳)有限公司 | 活体判别方法及电子设备、存储介质 |
CN115272705B (zh) * | 2022-07-29 | 2023-08-29 | 北京百度网讯科技有限公司 | 显著性物体检测模型的训练方法、装置以及设备 |
CN115578797B (zh) * | 2022-09-30 | 2023-08-29 | 北京百度网讯科技有限公司 | 模型训练方法、图像识别方法、装置及电子设备 |
CN115830721B (zh) * | 2022-11-02 | 2024-05-03 | 深圳市新良田科技股份有限公司 | 活体检测方法、装置、终端设备和可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800707A (zh) * | 2019-01-17 | 2019-05-24 | 中控智慧科技股份有限公司 | 一种基于cnn模型的人脸识别方法、装置及存储介质 |
WO2019223582A1 (en) * | 2018-05-24 | 2019-11-28 | Beijing Didi Infinity Technology And Development Co., Ltd. | Target detection method and system |
CN110555339A (zh) * | 2018-05-31 | 2019-12-10 | 北京嘀嘀无限科技发展有限公司 | 一种目标检测方法、系统、装置及存储介质 |
CN111783622A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 人脸表情识别的方法、装置、设备和计算机可读存储介质 |
CN111862031A (zh) * | 2020-07-15 | 2020-10-30 | 北京百度网讯科技有限公司 | 一种人脸合成图检测方法、装置、电子设备及存储介质 |
CN112183491A (zh) * | 2020-11-04 | 2021-01-05 | 北京百度网讯科技有限公司 | 表情识别模型及训练方法、识别方法、装置和计算设备 |
CN112613502A (zh) * | 2020-12-28 | 2021-04-06 | 深圳壹账通智能科技有限公司 | 文字识别方法及装置、存储介质、计算机设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7118622B2 (ja) * | 2017-11-16 | 2022-08-16 | 株式会社Preferred Networks | 物体検出装置、物体検出方法及びプログラム |
EP3651117B1 (en) * | 2018-11-09 | 2021-02-17 | Oxipit, UAB | Methods, systems and use for detecting irregularities in medical images by means of a machine learning model |
US10902238B2 (en) * | 2018-11-28 | 2021-01-26 | Toyota Research Institute, Inc. | Systems and methods for predicting semantics of a particle using semantic segmentation |
-
2021
- 2021-04-13 CN CN202110393084.XA patent/CN113033465B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019223582A1 (en) * | 2018-05-24 | 2019-11-28 | Beijing Didi Infinity Technology And Development Co., Ltd. | Target detection method and system |
CN110555339A (zh) * | 2018-05-31 | 2019-12-10 | 北京嘀嘀无限科技发展有限公司 | 一种目标检测方法、系统、装置及存储介质 |
CN109800707A (zh) * | 2019-01-17 | 2019-05-24 | 中控智慧科技股份有限公司 | 一种基于cnn模型的人脸识别方法、装置及存储介质 |
CN111783622A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 人脸表情识别的方法、装置、设备和计算机可读存储介质 |
CN111862031A (zh) * | 2020-07-15 | 2020-10-30 | 北京百度网讯科技有限公司 | 一种人脸合成图检测方法、装置、电子设备及存储介质 |
CN112183491A (zh) * | 2020-11-04 | 2021-01-05 | 北京百度网讯科技有限公司 | 表情识别模型及训练方法、识别方法、装置和计算设备 |
CN112613502A (zh) * | 2020-12-28 | 2021-04-06 | 深圳壹账通智能科技有限公司 | 文字识别方法及装置、存储介质、计算机设备 |
Non-Patent Citations (2)
Title |
---|
基于帧图像语义上下文的地形推理策略;王明军;周俊;屠;;机器人(第03期);全文 * |
基于深度卷积神经网络的人脸识别技术综述;景晨凯;宋涛;庄雷;刘刚;王乐;刘凯伦;;计算机应用与软件(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113033465A (zh) | 2021-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113033465B (zh) | 活体检测模型训练方法、装置、设备以及存储介质 | |
JP4755202B2 (ja) | 顔特徴の検出方法 | |
CN109325964B (zh) | 一种人脸追踪方法、装置及终端 | |
CN110569731B (zh) | 一种人脸识别方法、装置及电子设备 | |
CN107832700A (zh) | 一种人脸识别方法与系统 | |
CN113343826B (zh) | 人脸活体检测模型的训练方法、人脸活体检测方法及装置 | |
KR20160053749A (ko) | 얼굴 영상의 다양성에 강인한 얼굴 표정 특징 분류 방법 및 시스템 | |
JP2015197708A (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
CN111814682A (zh) | 人脸活体检测方法及装置 | |
CN108109164B (zh) | 一种信息处理方法及电子设备 | |
Mousavi et al. | Three dimensional face recognition using svm classifier | |
CN115116111B (zh) | 抗扰动人脸活体检测模型训练方法、装置及电子设备 | |
CN114140320B (zh) | 图像迁移方法和图像迁移模型的训练方法、装置 | |
US20180060647A1 (en) | Image processing apparatus, non-transitory computer readable medium, and image processing method | |
CN112380966B (zh) | 基于特征点重投影的单眼虹膜匹配方法 | |
Rahaman et al. | Real-time bengali and chinese numeral signs recognition using contour matching | |
CN113569707A (zh) | 活体检测方法、装置、电子设备以及存储介质 | |
CN113657364A (zh) | 用于识别文字标志的方法、装置、设备以及存储介质 | |
CN109993035B (zh) | 基于嵌入式系统的人体检测的方法以及装置 | |
Fathee et al. | A Robust Iris Segmentation Algorithm Based on Pupil Region for Visible Wavelength Environments | |
Thomas et al. | Real Time Face Mask Detection and Recognition using Python | |
JP2008152611A (ja) | 画像認識装置、電子機器、画像認識方法及び画像認識プログラム | |
CN115205939B (zh) | 人脸活体检测模型训练方法、装置、电子设备及存储介质 | |
Vora et al. | Enhanced face recognition using 8-Connectivity-of-Skin-Region and Standard-Deviation-based-Pose-Detection as preprocessing techniques | |
RU2735629C1 (ru) | Способ распознавания близнецов и ближайших родственников для мобильных устройств и мобильное устройство его реализующее |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |