CN112395902A - 人脸活体检测方法、图像分类方法、装置、设备和介质 - Google Patents
人脸活体检测方法、图像分类方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN112395902A CN112395902A CN201910738563.3A CN201910738563A CN112395902A CN 112395902 A CN112395902 A CN 112395902A CN 201910738563 A CN201910738563 A CN 201910738563A CN 112395902 A CN112395902 A CN 112395902A
- Authority
- CN
- China
- Prior art keywords
- distance
- image
- sequence
- classified
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 107
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000013139 quantization Methods 0.000 claims abstract description 67
- 230000008859 change Effects 0.000 claims abstract description 34
- 230000001815 facial effect Effects 0.000 claims description 65
- 238000004590 computer program Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 24
- 239000006185 dispersion Substances 0.000 claims description 22
- 238000001727 in vivo Methods 0.000 claims description 17
- 238000003062 neural network model Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 5
- 101100134058 Caenorhabditis elegans nth-1 gene Proteins 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 102220588433 Keratin, type I cytoskeletal 18_S42A_mutation Human genes 0.000 description 2
- 102220518048 NAD-dependent protein deacetylase sirtuin-1_S47A_mutation Human genes 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种人脸活体检测方法、图像分类方法、装置、设备和介质。该方法包括:获取待分类影像的影像距离序列;影像距离序列用于表征对拍摄对象进行拍摄时,拍摄对象与拍摄设备之间的距离变化顺序,影像距离序列为根据待分类影像中的面部关键点发散程度所确定的序列;获取待分类影像在拍摄时的引导距离序列;引导距离序列为引导拍摄对象进行拍摄以形成待分类影像的距离变化顺序;根据影像距离序列和引导距离序列,确定影像距离序列和引导距离序列的匹配度量化值;根据匹配度量化值,确定与匹配度量化值对应的待分类影像的活体检测结果。采用本方法能够对摄像头劫持攻击具有很好的防御效果,提高了人脸活体检测的安全性。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种人脸活体检测方法、图像分类方法、装置、设备和介质。
背景技术
由于人脸活体检测被广泛的应用在银行、保险、互联网金融、电子商务等涉到远程身份认证的行业和场合,因此人脸活体检测技术的安全性与人身财产和安全密切相关。
传统的人脸活体检测方法是通过摄像头获取人脸的多个动作,用户需要按照提示做出相应的动作,这些动作通常是指定的动作,例如点头、摇头、眨眼和张嘴等。
然而传统的人脸活体检测方法,在发生摄像头劫持攻击时会将预先录制好的视频作为活体检测的对象,导致通过安全验证,因此不安全。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高活体检测安全性的人脸活体检测方法、图像分类方法、装置、设备和介质。
第一方面,本申请实施例提供一种人脸活体检测方法,所述方法包括:
获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列;
获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序;
根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值;
根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
第二方面,本申请实施例提供一种图像分类方法,所述方法包括:
获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值;
根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
第三方面,本申请实施例提供一种人脸活体检测装置,所述装置包括:
处理模块,用于获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列;
获取模块,用于获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序;
确定模块,用于根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值;
分类模块,用于根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
第四方面,本申请实施例提供一种人图像分类装置,所述装置包括:
获取模块,用于获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值;
处理模块,用于根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
第五方面,本申请实施例提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列;
获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序;
根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值;
根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
第六方面,本申请实施例提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值;
根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
第七方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列;
获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序;
根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值;
根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
第八方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值;
根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
上述人脸活体检测方法、图像分类方法、装置、设备和介质,通过计算机设备获取待分类影像的影像距离序列和待分类影像在拍摄时的引导距离序列,由于影像距离序列能够表征对拍摄对象进行拍摄时,拍摄对象与拍摄设备之间的距离变化顺序,且影像距离序列为根据待分类影像中的面部关键点发散程度所确定的序列,另外,引导距离序列为引导用户对拍摄对象进行拍摄以形成待分类影像的距离变化顺序,因此计算机设备能够根据影像距离序列和引导距离序列,确定表征影像距离序列和引导距离序列的匹配程度的匹配度量化值,然后根据匹配度量化值,确定与匹配度量化值对应的待分类影像的活体检测结果。采用该方法,由于上述引导距离序列是计算机设备随机自动生成,因此计算机设备将待分类影像的影像距离序列和引导距离序列进行匹配度的对比,并根据表征二者匹配程度的匹配度量化值来确定待分类影像的类别,能够极大程度地避免传统技术中,由于摄像头被截获等原因而将虚假视频误认为是真实的活体影像所导致的信息泄露等不安全的问题,该方法能够准确地将虚假的影像进行识别,极大的提高了对活体影像的识别能力,对摄像头劫持共计具有很好的防御效果,从而大大提高了系统的安全性。
附图说明
图1为一个实施例中计算机设备的;
图2为一个实施例提供的人脸活体检测方法的流程示意图;
图3为另一个实施例提供的人脸活体检测方法的流程示意图;
图3a为一个实施例中人脸关键点的示意图;
图4为一个实施例提供的图像分类方法的流程示意图;
图5为一个实施例提供的人脸活体检测装置的结构示意图;
图6为一个实施例提供的图像分类装置的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的人脸活体检测方法和图像分类,可以适用于图1所示的计算机设备。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、数据库、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储下述实施例中的待分类影像和待分类图像,有关待分类影像和待分类图像的具体描述参见下述实施例中的具体描述。该计算机设备的网络接口可以用于与外部的其他设备通过网络连接通信。可选的,该计算机设备可以是服务器,可以是台式机,可以是个人数字助理,还可以是其他的终端设备,例如平板电脑、手机等等,还可以是云端或者远程服务器,本申请实施例对计算机设备的具体形式并不做限定。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。当然,输入装置和显示屏也可以不属于计算机设备的一部分,可以是计算机设备的外接设备。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
下面以具体的实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
需要说明的是,下述方法实施例的执行主体分别可以是人脸活体检测装置和图像分类装置,该装置可以通过软件、硬件或者软硬件结合的方式实现成为上述计算机设备的部分或者全部。下述方法实施例以执行主体为计算机设备为例进行说明。
图2为一个实施例提供的人脸活体检测方法的流程示意图。本实施例涉及的是计算机设备根据影像距离序列自动识别人脸是否为活体的具体过程。如图2所示,该方法包括:
S10、获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列。
具体的,计算机设备可以读取存储器中存储的待分类影像的影像距离序列;也可以接收其他设备发送的影像距离序列;还可以是计算机设备根据采集到的待分类影像进行图像处理所得到的影像距离类别。该待分类影像可以为对人脸进行拍摄所得到的人脸的影像。需要说明的是,上述影像距离序列是指,在拍摄影像的时候,通过改变拍摄设备和拍摄对象之间的实际距离,基于二者之间的距离变化,分别计算各种距离下的面部关键点发散程度,然后将各种距离对应的面部关键点发散程度,按照时间形成序列,作为影像距离序列。其中,面部关键点用于表征人脸面部的特征,包括脸部轮廓和器官分布特征等。上述面部关键点发散程度用于表征人脸的关键点距离人脸的一个中心关键点或者基准关键点的距离远近。例如,如果面部关键点越发散则表征人脸的关键点与中心关键距离远,即可以表征拍摄对象与拍摄设备之间的距离远;如果面部关键点越聚拢,即不发散,则表征人脸的关键点与中心关键点的距离近,即可以表征拍摄对象与拍摄设备之间的距离近。可选地,可以根据面部关键点的发散程度分为多个层次的类别,依次对应不同的距离。
S20、获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序。
具体的,由于上述待分类影像在拍摄过程中,拍摄对象与拍摄设备之间需要不断变化距离,这个距离的变化是基于上述引导距离序列发生的,该引导距离序列为计算机设备引导用户拍摄待分类影像的距离变化序列。例如该引导距离序列可以为:第一距离、第二距离、第三距离和第四距离,则用户按照该引导距离序列,第一距离、第二距离、第三距离和第四距离的顺序,改变拍摄距离从而形成待分类影像。需要说明的是,该引导距离序列为计算机设备引导用户拍摄待分类影像的距离变化序列,用户在该引导距离序列的引导下,完成待分类影像的获取。当然,影像距离序列虽然是基于待分类影像所获取的,但是引导距离序列和上述影像距离序列也可能存在不一致的情况,例如在操作不善的情况下,用户主观上并没有按照上述引导距离序列进行拍摄待分类影像,则会出现二者并不一致的情况。其中,可能是二者的距离类别的种类和数量不一样,也有可能是序列中的距离类别的顺序不一致。可选地,该引导距离序列可以以文字或图像的形式在拍摄设备的显示区域中进行显示,也可以是以语音的形式进行提示,以引导用户进行人脸的拍摄。
S30、根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值。
具体的,计算机设备将影像距离序列和引导距离序列进行对比,例如将这两个序列中的距离类别的种类和距离类别的顺序分别进行对比,或者是将这两个序列中的距离的大小和顺序同时进行对比,得到表征二者的匹配程度的匹配度量化值。例如,上述引导距离序列中包括第一距离、第二距离、第三距离和第四距离,如果影像距离序列为第一距离、第二距离、第三距离和第四距离,则确定上述匹配度量化值为1;如果影像距离序列为第二距离、第一距离、第三距离和第四距离,则确定上述匹配度量化值为0.5;如果影像距离序列为第四距离、第三距离、第二距离和第一距离,则确定上述匹配度量化值为0。当然,该匹配度量化值的表现形式还可以是百分制或者是其他形式,对此本实施例并不做限定。上述第一距离、第二距离、第三距离和第四距离为远近不同的距离类别。其中,上述引导距离序列为计算机设备随机自动生成,并非固定的序列,从而避免预先设定的引导距离序列被非法获取,进而使得该方法的安全性更高。
S40、根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
具体的,计算机设备可以根据上述匹配度量化值,在预设的匹配度值与影像类别的对应关系中进行查找,并将查找到的与上述匹配度量化值对应的影像类别作为待分类影像的类别,进而得到该待分类影像的活体检测结果。可选地,上述活体检测结果可以包括真实活体和虚假活体。可选地,计算机设备还可以将上述匹配度量化值与预设的匹配度分类阈值进行对比,并根据对比结果确定出上述待分类影像的活体检测结果。可选地,计算机设备可以将匹配度量化值大于或等于匹配度分类阈值的待分类影像的类别确定为真实活体,还可以将匹配度量化值小于匹配度分类阈值的待分类影像的类别确定为虚假活体。例如,上述匹配度分类阈值设置为0.8,则当匹配度量化值大于或等于0.8的时候,确定待分类影像为真实的活体影像,属于真实活体;当匹配度量化值小于0.8的时候,确定待分类影像为虚假的活体影像,属于虚假活体。可选地,上述匹配度分类阈值还可以是将得分区间划分为多个子区间,然后根据上述匹配度量化值所落入的子区间,确定人脸活体影像的风险级别,对此本实施例不做限定。
本实施例中,计算机设备获取待分类影像的影像距离序列和待分类影像在拍摄时的引导距离序列,由于影像距离序列能够表征对拍摄对象进行拍摄时,拍摄对象与拍摄设备之间的距离变化顺序,且影像距离序列为根据待分类影像中的面部关键点发散程度所确定的序列,另外,引导距离序列为引导用户对拍摄对象进行拍摄以形成待分类影像的距离变化顺序,因此计算机设备能够根据影像距离序列和引导距离序列,确定表征影像距离序列和引导距离序列的匹配程度的匹配度量化值,然后根据匹配度量化值,确定与匹配度量化值对应的待分类影像的活体检测结果。采用该方法,由于上述引导距离序列是计算机设备随机自动生成,因此计算机设备将待分类影像的影像距离序列和引导距离序列进行匹配度的对比,并根据表征二者匹配程度的匹配度量化值来确定待分类影像的类别,能够极大程度地避免传统技术中,由于摄像头被截获等原因而将虚假视频误认为是真实的活体影像所导致的信息泄露等不安全的问题,该方法能够准确地将虚假的影像进行识别,极大的提高了对活体影像的识别能力,对摄像头劫持共计具有很好的防御效果,从而大大提高了系统的安全性。
可选地,在上述实施例的基础上,所述待分类影像可以包括待分类视频,也可以包括多个待分类图像所组成的待分类图像集,可选地,该待分类图像集也可是一段视频中的多个时间连续的帧图像所组成。上述步骤S10的一种可能的实现过程还可以如图3所示,包括:
S11、获取所述待分类影像中每个图像的面部关键点发散程度,构成关键点发散距离序列;所述面部关键点发散程度包括预设的关键点集合中,每个关键点与基准关键点之间的平均距离。
具体的,计算机设备可以对上述待分类影像中每个图像的面部关键点进行识别,并计算每个图像的面部关键点发散程度,然后将每个图像的面部关键点发散程度按照每个图像拍摄的先后顺序进行排列,得到关键点发散距离序列。需要说明的是,计算机设备可以在人脸面部关键点中选择一个基准关键点,该基准关键点通常可以为面部中间的关键点,例如鼻尖或者额头中心的关键点。计算机设备还可以在人脸面部关键点中选择多个关键点作为一个关键点集合,这多个关键点可以为一个区域的关键点,例如下巴的关键点,或者脸颊的关键点,然后计算关键点集合中每个关键点与基准关键点之间的平均距离,本实施例对关键点集合中关键点的个数并不做限定。
可选地,本步骤S11的中计算面部关键点发散程度的一种可能的实现方式还可以包括:根据所述待分类影像的每个图像中的基准关键点的坐标,和所述关键点集合中每个关键点的坐标,确定所述关键点集合中每个关键点与基准关键点之间的关键点距离;将所有所述关键点距离进行均值计算,得到表征所述面部关键点发散程度的面部关键点发散距离。具体的,计算机设备首先获取基准关键点的坐标,然后获取关键点集合中的每个关键点的坐标,根据坐标计算出每个关键点与基准关键点之间的关键点距离。然后将关键点集合中的所有关键点对应的关键点距离进行均值计算,将求得的均值作为面部关键点发散距离,该面部关键点发散距离能够直观的表征面部关键点发散程度。计算机设备对上述待分类影像的每个图像分别进行处理如上处理,并按照时间顺序进行排列,得到关键点发散距离序列。如图3a所示,a.鼻尖38号点为基准关键点,关键点集合R包含66号至83号关键点。计算机设备可以采用公式或者该公式的变形计算出面部关键点发散距离dist,其中N为关键点集合R中的关键点的数量,(Cx,Cy)为i点的坐标,(px,py)为基准关键点的坐标。本实现方式中,计算机设备根据待分类影像的每个图像中的基准关键点的坐标,和关键点集合中每个关键点的坐标,确定关键点集合中每个关键点与基准关键点之间的关键点距离;将所有关键点距离进行均值计算,得到面部关键点发散距离,该方法直观且易于实现,因而使得数据处理的速度快且效率高,进一步提高了待分类影像的活体检测结果的准确率和检测效率。
S12、根据所述关键点发散距离序列中的每个所述面部关键点发散程度,和预设的距离类别基准进行比对,得到所述待分类影像的距离类别序列;所述距离类别序列用于表征所述待分类影像中每个图像所属的距离类别。
具体的,计算机设备将上述关键点发散距离序列中的每个面部关键点发散程度,和预设的距离类别基准进行比对,从而将每个面部关键点发散距离进行分类,得到每个面部关键点发散程度对应的距离类别,从而形成待分类影像的距离类别序列。可选地,上述面部关键点发散程度可以用面部关键点发散距离为例来表示,需要说明的是,上述距离类别基准可以包括多个不同的距离类别,以及每个距离类别的划分方式,例如可以包括:面部关键点发散距离在3-5厘米范围内为近距离的距离类别;面部关键点发散距离在1-2厘米范围内为中距离的距离类别;面部关键点发散距离在0.2-1厘米范围内为远距离的距离类别。计算机设备就可以根据每个面部关键点发散距离落入的距离类别基准的区间,得到每个面部关键点发散距离对应的距离类别,从而形成待分类影像的距离类别序列。
S13、将所述距离类别序列进行去重处理,得到所述影像距离序列。
具体的,计算机设备可以将上述距离类别序列进行去重处理,即将距离类别序列中连续的出现重复的距离类别,仅保留一个,从而得到影像距离序列。由此可知,该影像距离序列中不会出现连续的重复的距离类别。例如距离类别序列为:远、近、近、远、远、中,经过去重处理之后,所得到的影像距离序列为:远、近、远、中。
本实施例中,由于面部关键点发散距离包括预设的关键点集合中,每个关键点与基准关键点之间的平均距离,以及距离类别序列用于表征待分类影像中每个图像所属的距离类别,因此计算机设备通过获取待分类影像中每个图像的面部关键点发散程度,构成关键点发散距离序列,并根据关键点发散距离序列中的每个面部关键点发散距离,和预设的距离类别基准进行比对,实现将上述面部关键点发散距离序列中的每个面部关键点发散程度进行距离类别的分类。该方法能够基于面部关键点发散距离对待分类影像中每个图像进行分类,从而得到每个图相对应的距离类别,形成待分类影像的距离类别序列,该方法易于实现,因此检测效率高。另外,计算机设备将距离类别序列进行去重处理,可以排除由于拍摄距离变化速度不均匀,例如用户操作不流畅,可能导致的同一个距离采集多个图像的情况,进而提高了图像分类的准确率,使得人脸影像的活体检测结果更为准确,进一步提高了该方法的安全性。
可选地,在上述步骤S12之前,所述方法还可以包括根据样本图像的标注生成距离类别基准的具体过程,具体包括:
S15、获取多个样本图像中面部关键点的坐标;所述样本图像为标注不同的距离类别的图像。
具体的,计算机设备可以获取多个样本图像,每个样本图像均标注距离类别,例如样本图像1属于远距离,样本图像2属于中距离等等。其中,样本图像的距离类别可以覆盖各个距离类别,且每个距离类别的样本图像均包括多个。计算机设备可以识别每个样本图像中的面部关键点,并确定每个面部关键点的坐标,或者计算机设备可以直接读取样本图像中标注的关键点并确定每个面部关键点的坐标。
S16、根据每个所述样本图像中面部关键点的坐标,确定每个所述样本图像的样本面部关键点发散距离。
具体的,计算机设备可以根据上述样本图像中的面部关键点的坐标确定出每个样本图像的样本面部关键点发散距离,具体过程可以参考前文S11中,计算面部关键点发散距离的方法,此处不再赘述。
S17、根据所述样本面部关键点发散距离和所述样本图像所标注的距离类别,生成所述距离类别基准。
具体的,计算机设备可以根据上述样本面部关键点发散距离,按照每个样本图像所标注的距离类别进行统计,从而生成上述距离类别基准。例如,将同一个距离类别的样本图像的样本面部关键点发散距离进行统计,确定出每种距离类别的样本面部关键点发散距离的取值范围,可选地,还可以将每种距离类别的样本面部关键点发散距离的取值范围进行数据处理,例如将重复的部分划分,或者将取值范围的边界值取整等操作,从而生成距离类别基准。
本实施例中,由于样本图像为标注不同的距离类别的图像,因此计算机设备能够通过获取多个样本图像中面部关键点的坐标,并根据每个样本图像中面部关键点的坐标,确定出每个样本图像的样本面部关键点发散距离,然后通过将样本面部关键点发散距离按照样本图像所标注的距离类别进行统计,生成距离类别基准。该方法所得到的距离类别基准能够结合多个样本图像进行统计得到,因而该距离类别基准更为精准,进而使得依据该距离类别基准进行的分类结果更加精准。
可选地,在上述各个实施例的基础上,上述步骤S20还可以包括:
S21、从预设的距离类别序列中随机选择出第一距离类别,并对所述第一距离类别执行影像匹配操作,得到与所述第一距离类别匹配的第一影像。
具体的,计算机设备在拍摄待分类影像时,计算机设备自动生成引导距离序列。具体为,计算机设备在预设的距离类别序列中随机地选出第一距离类别。例如预设的距离类别序列可以包括:远距离、中距离和近距离。计算机设备则可以任意选择一个作为第一距离类别。
S22、从所述距离类别序列中选择出第二距离类别,并对所述第二距离类别执行所述影像匹配操作,得到与所述第二距离类别匹配的第二影像;所述第二距离类别与所述第一距离类别相同或相邻。
具体的,当计算机设备获取到与第一距离类别匹配的第一影像的时候,则确定该第一距离类别的影像获取完成,然后从上述距离类别序列中选择出第二距离类别,并继续获取与第二距离类别匹配的第二影像。需要说明的是,第二距离类别和第一距离类别可以相同,也可以是相邻的两个距离类别,例如距离类别序列包括:远距离、中距离和近距离的时候,第一距离类别为远距离,则第二距离类别可以选择远距离或中距离,但不能选择近距离。因为选择近距离有可能导致在距离变化过程中,存在其他距离类别的影像获取,影像序列的比对结果。
可选地,本步骤中的“影像匹配操作”,可以包括:
S221、获取当前影像中的面部宽度。
S222、判断所述当前影像中的面部宽度和所述当前影像中当前人脸提示框的宽度之差,是否小于或等于预设的宽度差阈值。若是,执行S223A,若否,执行S223B。
S223A、将所述当前影像作为与距离类别匹配的影像。
S223B、继续获取所述当前影像的下一时刻影像中的面部宽度,并判断所述下一时刻影像中的面部宽度和所述人脸提示框的宽度之差,是否小于或等于所述宽度差阈值,若是,则将所述下一时刻影像作为与距离类别匹配的影像,若否,则继续获取再下一个时刻影像,直至获取到与距离类别匹配的影像为止。
具体的,计算机设备可以首先选定当前影像中的当前人脸提示框,该当前人脸提示框与一个距离类别匹配。例如计算机设备可以选择占据屏幕宽度的百分之九十的提示框,作为第一距离类别为近距离的当前人脸提示框,然后获取当前影像中的面部宽度,并计算二者的宽度差,判断这个宽度差和预设的宽度差阈值之间的大小关系,在当前影像中的面部宽度和当前人脸提示框的宽度之差小于或等于预设的宽度差阈值的时候,即,当前影像与第一距离类别对应的当前人脸提示框对准的时候,确定当前影像为与近距离这个第一距离类别匹配的第一影像,此时,第一距离类别获取匹配的第一影像完成;在当前影像中的面部宽度和当前人脸提示框的宽度之差大于宽度差阈值的时候,则认为距离调整还没有在合适的范围内,因此继续获取下一时刻影像中的面部宽度。计算机设备判断下一时刻影像中的面部宽度和当前人脸提示框的宽度之差,是否小于或等于宽度差阈值,若是,则将下一时刻影像作为与当前人脸提示框匹配的影像;若否,则继续获取再下一时刻影像中的面部宽度,并进一步判断面部宽度与当前人脸提示框的宽度之差是否小于或等于宽度差阈值,如此直至获取到与当前人脸提示框匹配的影像为止。可选地,计算机设备可以采用公式|FaceWidth-RectWidth|≤k来判断面部宽度与当前人脸提示框的宽度之差是否小于或等于宽度差阈值,其中,k为宽度差阈值,可以取1-5,单位为像素,k越大对准条件越宽松,反之越严格,该实现过程中可以根据具体的要求对k的取值进行调整,FaceWidth为影像中的面部宽度,RectWidth为人脸提示框的宽度,。
上述S221-S223B所示的实现方式中,计算机设备获取当前影像中的面部宽度,并通过判断当前影像中的面部宽度和当前人脸提示框的宽度之差与宽度差阈值的大小,在当前影像中的面部宽度和当前人脸提示框的宽度之差小于等于宽度差阈值的时候将当前影像作为与距离类别匹配的影像,以及在大于宽度差阈值的时候继续获取下一时刻影像中的面部宽度,并判断下一时刻影像中的面部宽度和当前人脸提示框的宽度之差与宽度差阈值的大小关系,直至获取到与当前的距离类别匹配的影像为止,从而实现了根据量化的宽度差阈值,引导用户进行拍摄从而获取待分类影像,使得用户的拍摄行为更为符合引导策略,进而使得影像距离序列的获取与实际的活体影像更加接近,进一步提高了安全性。
S23、继续从所述距离类别序列中依次选择第N距离类别,并依次对所述第N距离类别执行所述影像匹配操作,分别得到与所述第N距离类别匹配的第N影像;其中,所述第N距离类别与所述第N-1距离类别相同或相邻;N依次选取大于2的自然数。
具体的,计算机设备继续按照上述方式,依次从距离类别序列中选择第N距离类别,并依次对所述第N距离类别执行所述影像匹配操作,从而依次分别得到与所述第N距离类别匹配的第N影像,其中,所述第N距离类别与所述第N-1距离类别相同或相邻;其中,N依次选取大于2的自然数。当然,N越大的时候,所获取的引导距离序列越长,则活体影像比对的元素则越多,当影像距离序列和引导距离序列在匹配时,检测结果更加安全。需要说明的是,计算机设备获取第N影像的具体过程可以参见上述获取第一影像的具体过程,此处不再赘述。
S24、根据所述第一距离类别、所述第二距离类别至所述第N距离类别的时间顺序,确定所述引导距离序列。
具体的,计算机设备可以将上述第一距离类别、第二距离类别至第N距离类别按照时间顺序进行排列,可选地,还可以去掉序列中的首尾的数据,仅选取中间部分从而得到引导距离序列。可选地,计算机设备还可以将所述第一距离类别到所述第N距离类别按照时间顺序进行排列,得到初始引导距离序列,并将所述初始引导距离序列进行去重处理,生成所述引导距离序列。计算机设备还可以将第一距离类别到第N距离类别按照时间顺序进行排列,得到初始引导距离序列,并将初始引导距离序列进行去重处理,生成引导距离序列的详细描述和有益效果可以参见前述S13中对距离类别序列进行去重处理,得到影像距离序列的过程,此处不再赘述。
本实施例中,计算机设备从预设的距离类别序列中随机选择出第一距离类别,并对第一距离类别执行影像匹配操作,得到与第一距离类别匹配的第一影像,然后从距离类别序列中选择出第二距离类别,并对第二距离类别执行影像匹配操作,得到与第二距离类别匹配的第二影像,并继续从距离类别序列中依次选择第N距离类别,并依次对第N距离类别执行影像匹配操作,分别得到与第N距离类别匹配的第N影像,从而根据第一距离类别、第二距离类别至第N距离类别的时间顺序,确定引导距离序列。其中,第二距离类别与第一距离类别相同或相邻,第N距离类别与第N-1距离类别相同或相邻,N依次选取大于2的自然数。采用该方法,计算机设备能够随机自动地选择第一距离类别,并获取与之匹配的第一影像之后一次自动选择第二距离类别,第三距离类别直至第N距离类别,得到引导距离序列,该方法能够通过获取每个距离类别匹配的影像从而引导用户完成待分类影像的获取,使得拍摄过程的引导性更强,因此获取待分类影像的过程更具有不可复制性,避免了通过简单模仿所生成的虚假活体的视频被误认为是真实活体的可能性,进而大大提高了安全性。
可选地,在上述各个实施例的基础上,上述S40的一种可能的实现方式还可以包括:
S41、判断所述匹配度量化值是否大于或等于预设的第一匹配度阈值。若是,执行S42A,若否,执行S42B。
S42A、确定所述待分类影像的活体检测结果为真实活体。
S42B、确定所述待分类影像的活体检测结果为虚假活体。
具体的,计算机设备可以判断上述匹配度量化值和第一匹配度阈值之间的大小关系,当上述匹配度量化值大于或等于第一匹配度阈值的时候,计算机设备则确定上述待分类影像的活体检测结果为真实活体;当上述匹配度量化值小于第一匹配度阈值的时候,计算机设备则确定上述待分类影像的活体检测结果为虚假活体。计算机设备可以通过修改上述第一匹配度阈值的大小来改变判断的严格程度。例如,该匹配度阈值可以为百分之就是,也可以为百分之八十,需要说明的是,第一匹配度阈值越大,则表明判断要求越严格,反之则越宽松。本实施例中,通过在匹配度量化值大于或等于预设的第一匹配度阈值的时候,确定待分类影像的活体检测结果为真实活体,以及在匹配度量化值小于预设的第一匹配度阈值的时候,确定待分类影像的活体检测结果为虚假活体,该判断方式实现方便,且判断结果准确,并且判断依据能够根据需要进行调整,因此灵活性更高,应用场景更为丰富。
可选地,在上述各个实施例的基础上,上述S40的另一种可能的实现方式还可以包括:
S44、判断所述匹配度量化值是否大于或等于预设的第一匹配度阈值。
S45、当所述匹配度量化值大于或等于预设的第一匹配度阈值时,获取静默活体检测量化值。
具体的,计算机设备在判断匹配度量化值大于或等于所述第一匹配度阈值时,还可以加入其它判断依据,包括获取静默活体检测量化值。可选地,该静默活体检测量化值能够表征待分类对象是否活体对象的概率。例如,静默活体检测量化值为1的时候,则表示待分类对象为活体对象的概率非常大;当静默活体检测量化值为0.5的时候,则表示待分类对象为活体对象的概率只有一半;当静默活体检测量化值为0的时候,则表示待分类对象为活体对象的概率为0。
可选地,本步骤的一种可能的实现方式还可以包括:将所述待分类影像输入预设的静默活体检测模型中,得到所述待分类影像的所述静默活体检测量化值;所述静默活体检测模型为经过深度学习的神经网络模型。具体的,计算机设备将上述待分类影像输入值预先训练好的静默活体检测模型中,静默活体检测模型则可以输出该待分类影像的静默活体检测量化值。需要说明的是,该静默活体检测模型为经过深度学习的神经网络模型,可以由一个基础的神经网络模型通过输入多个样本影像进行训练得到,这多个样本影像均具有静默活体检测类型的标注。本实现方式中,计算机设备通过将待分类影像输入预设的静默活体检测模型中,由于静默活体检测模型为经过深度学习的神经网络模型,因此得到的待分类影像的静默活体检测量化值,能够更为准确地反应待分类影像的真实性,进而使得活体检测的结果更准确。
S46、判断所述静默活体检测量化值是否大于或等于预设的第二匹配度阈值。若是,则执行S47A,若否,则执行S47B。
S47A、确定所述待分类影像的活体检测结果为真实活体。
S47B、确定所述待分类影像的活体检测结果为虚假活体。
具体的,计算机设备进一步判断静默活体检测量化值是否大于或等于预设的第二匹配度阈值,在静默活体检测量化值大于或等于预设的第二匹配度阈值的时候,确定待分类影像的活体检测结果为真实活体;以及在静默活体检测量化值小于上述第二匹配度阈值的时候,确定待分类影像的活体检测结果为虚假活体。计算机设备可以通过修改上述第二匹配度阈值的大小来改变判断的严格程度。可选地,第二匹配度阈值越大,则表明判断要求越严格,反之则越宽松。可选地,第二匹配度阈值与第一匹配度阈值的取值,可以相同也可以不同,本实施例并不做限定。
本实施例中,计算机设备在通过在匹配度量化值大于或等于第一匹配度阈值时获取静默活体检测量化值,并进一步根据静默活体检测量化值和第二匹配度阈值的大小关系,确定待分类影像的活体检测结果为真实活体或者虚假活体,从而实现将表征影像距离序列和引导距离序列匹配程度的匹配度量化值,结合静默活体检测量化值对待分类影像进行活体检测。该方法避免了单一依据可能导致的分类不准的问题,使得待分类影像的活体检测结果依据多样,因此检测的结果更加准确,进而更加安全。
图4为一个实施例提供的图像分类方法的流程示意图。本实施例涉及的是计算机设备根据图像中的面部关键点发散距离对图像进行分类的具体过程。如图4所示,所述方法包括:
S50、获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值。
具体的,计算机设备可以对上述待分类图像的面部关键点进行识别,并计算每个待分类图像的面部关键点发散距离。需要说明的是,计算机设备可以在待分类图像的人脸面部关键点中选择一个基准关键点,该基准关键点通常可以为面部中间的关键点,例如鼻尖或者额头中心的关键点。计算机设备还可以在人脸面部关键点中选择多个关键点作为一个关键点集合,这多个关键点可以为一个区域的关键点,例如下巴的关键点,或者脸颊的关键点,然后计算关键点集合中每个关键点与基准关键点之间的距离的平均值,本实施例对关键点集合中关键点的个数并不做限定。可选地,计算机设备可以根据关键点集合中每个关键点的坐标和基准关键点的坐标,计算出上述关键点集合中每个关键点与基准关键点之间距离,再求解这些距离的平均值,作为待分类图像中的面部关键点发散距离。本步骤的具体实现方式还可以参见实施例中步骤S11的实现方式。
S60、根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
具体的,计算机设备可以将上述面部关键点发散距离,和预设的距离类别基准进行比对,从而将面部关键点发散距离进行分类,进而得到面部关键点发散距离对应的待分类图像的距离类别。例如,当面部关键点发散距离的类别为近距离时,则可以确定面部关键点发散距离对应的待分类图像的类别为近距离图像。需要说明的是,上述距离类别基准的详细描述可以参见前述实施例的步骤S12中的描述,此处不再赘述。
本实施例中,计算机设备获取待分类图像中的面部关键点发散距离,并根据关键点发散距离和预设的距离类别基准进行比对,得到待分类图像的距离类别。由于面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值,因此采用该方法,计算机设备能够基于每个关键点与基准关键点之间的距离的远近程度,实现对待分类图像的分类,使得分类结果更加准确,并且分类结果明确,分类的有效性更高。
可选地,在上述图4所示的实施例基础上,还可以包括计算机设备确定距离类别基准的具体过程。具体的,在上述S60之前还可以包括:
S70、获取多个样本图像中面部关键点的坐标;所述样本图像为标注不同的距离类别的图像。
S80、根据每个所述样本图像中面部关键点的坐标,确定每个所述样本图像的样本面部关键点发散距离。
S90、根据所述样本面部关键点发散距离和所述样本图像所标注的距离类别,生成所述距离类别基准。
本实施例中步骤的详细描述和有益效果可以参见前述实施例,此处不再赘述。
可选地,在上述各个实施例的基础上,所述距离类别包括远距离、中距离和近距离。通过将距离类别设置为包括远距离、中距离和近距离,该距离类别的设置能够便于区分出图像的拍摄距离,并且更好地平衡了计算量。
应该理解的是,虽然图2-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种人脸活体检测装置,包括:
处理模块100,用于用于获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列;
获取模块200,用于获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序;
确定模块300,用于根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值;
分类模块400,用于根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
在一个实施例中,所述待分类影像包括待分类视频和/或待分类图像集;处理模块100,具体用于获取所述待分类影像中每个图像的面部关键点发散程度,构成关键点发散距离序列;所述面部关键点发散距离包括预设的关键点集合中,每个关键点与基准关键点之间的平均距离;根据所述关键点发散距离序列中的每个所述面部关键点发散程度,和预设的距离类别基准进行比对,得到所述待分类影像的距离类别序列;所述距离类别序列用于表征所述待分类影像中每个图像所属的距离类别;将所述距离类别序列进行去重处理,得到所述影像距离序列。
在一个实施例中,处理模块100,具体用于根据所述待分类影像的每个图像中的基准关键点的坐标,和所述关键点集合中每个关键点的坐标,确定所述关键点集合中每个关键点与基准关键点之间的关键点距离;将所有所述关键点距离进行均值计算,得到表征所述面部关键点发散程度的所述面部关键点发散距离。
在一个实施例中,处理模块100,具体用于获取多个样本图像中面部关键点的坐标;所述样本图像为标注不同的距离类别的图像;根据每个所述样本图像中面部关键点的坐标,确定每个所述样本图像的样本面部关键点发散距离;根据所述样本面部关键点发散距离和所述样本图像所标注的距离类别,生成所述距离类别基准。
在一个实施例中,获取模块200,具体用于从预设的距离类别序列中随机选择出第一距离类别,并对所述第一距离类别执行影像匹配操作,得到与所述第一距离类别匹配的第一影像;从所述距离类别序列中选择出第二距离类别,并对所述第二距离类别执行所述影像匹配操作,得到与所述第二距离类别匹配的第二影像;所述第二距离类别与所述第一距离类别相同或相邻;继续从所述距离类别序列中依次选择第N距离类别,并依次对所述第N距离类别执行所述影像匹配操作,分别得到与所述第N距离类别匹配的第N影像;其中,所述第N距离类别与所述第N-1距离类别相同或相邻,N依次选取大于2的自然数;根据所述第一距离类别、所述第二距离类别至所述第N距离类别的时间顺序,确定所述引导距离序列;其中,所述影像匹配操作包括:获取当前影像中的面部宽度;判断所述当前影像中的面部宽度和所述当前影像中当前人脸提示框的宽度之差,是否小于或等于预设的宽度差阈值;若是,则将所述当前影像作为与距离类别匹配的影像;若否,则继续获取所述当前影像的下一时刻影像中的面部宽度,并判断所述下一时刻影像中的面部宽度和所述当前人脸提示框的宽度之差,是否小于或等于所述宽度差阈值,若是,则将所述下一时刻影像作为与距离类别匹配的影像,若否,则继续获取再下一个时刻影像中的面部宽度,直至获取到与距离类别匹配的影像为止。
在一个实施例中,获取模块200,具体用于将所述第一距离类别到所述第N距离类别按照时间顺序进行排列,得到初始引导距离序列;将所述初始引导距离序列进行去重处理,生成所述引导距离序列。
在一个实施例中,分类模块400,具体用于判断所述匹配度量化值是否大于或等于预设的第一匹配度阈值;若是,则确定所述待分类影像的活体检测结果为真实活体;若否,则确定所述待分类影像的活体检测结果为虚假活体。
在一个实施例中,分类模块400,具体用于判断所述匹配度量化值是否大于或等于预设的第一匹配度阈值;当所述匹配度量化值大于或等于预设的第一匹配度阈值时,获取静默活体检测量化值;判断所述静默活体检测量化值是否大于或等于预设的第二匹配度阈值;若是,则确定所述待分类影像的活体检测结果为真实活体;若否,则确定所述待分类影像的活体检测结果为虚假活体。
在一个实施例中,分类模块400,具体用于将所述待分类影像输入预设的静默活体检测模型中,得到所述待分类影像的所述静默活体检测量化值;所述静默活体检测模型为经过深度学习的神经网络模型。
在一个实施例中,如图6所示,提供了一种图像分类装置,所述装置包括:
获取模块500,用于获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值;
处理模块600,用于根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
在一个实施例中,处理模块600,还用于获取多个样本图像中面部关键点的坐标;所述样本图像为标注不同的距离类别的图像;根据每个所述样本图像中面部关键点的坐标,确定每个所述样本图像的样本面部关键点发散距离;根据所述样本面部关键点发散距离和所述样本图像所标注的距离类别,生成所述距离类别基准。
在一个实施例中,所述距离类别包括远距离、中距离和近距离。
关于人脸活体检测装置和图像分类装置的具体限定可以分别参见上文中对于人脸活体检测方法和图像分类方法的限定,在此不再赘述。上述人脸活体检测装置和图像分类装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各个方法实施例中的步骤,具体的,可以实现以下步骤:获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列;获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序;根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值;根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
应当清楚的是,本申请实施例中处理器执行计算机程序的过程,与上述方法中各个步骤的执行过程一致,具体可参见上文中的描述。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各个方法实施例中的步骤,具体的,可以实现以下步骤:获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值;根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
应当清楚的是,本申请实施例中处理器执行计算机程序的过程,与上述方法中各个步骤的执行过程一致,具体可参见上文中的描述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各个方法实施例中的步骤,具体的,可以实现以下步骤:获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列;获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序;根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值;根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
应当清楚的是,本申请实施例中处理器执行计算机程序的过程,与上述方法中各个步骤的执行过程一致,具体可参见上文中的描述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各个方法实施例中的步骤,具体的,可以实现以下步骤:获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值;根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
应当清楚的是,本申请实施例中处理器执行计算机程序的过程,与上述方法中各个步骤的执行过程一致,具体可参见上文中的描述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (16)
1.一种人脸活体检测方法,其特征在于,所述方法包括:
获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列;
获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序;
根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值;
根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
2.根据权利要求1所述的方法,其特征在于,所述待分类影像包括待分类视频和/或待分类图像集;所述获取待分类影像的影像距离序列,包括:
获取所述待分类影像中每个图像的面部关键点发散程度,构成关键点发散距离序列;
根据所述关键点发散距离序列中的每个所述面部关键点发散程度,和预设的距离类别基准进行比对,得到所述待分类影像的距离类别序列;所述距离类别序列用于表征所述待分类影像中每个图像所属的距离类别;
将所述距离类别序列进行去重处理,得到所述影像距离序列。
3.根据权利要求2所述的方法,其特征在于,所述获取所述待分类影像中每个图像的面部关键点发散程度,包括:
根据所述待分类影像的每个图像中的基准关键点的坐标,和所述关键点集合中每个关键点的坐标,确定所述关键点集合中每个关键点与基准关键点之间的关键点距离;
将所有所述关键点距离进行均值计算,得到表征所述面部关键点发散程度的面部关键点发散距离。
4.根据权利要求2或3所述的方法,其特征在于,所述根据所述关键点发散距离序列中的每个所述面部关键点发散程度,和预设的距离类别基准进行比对,得到所述待分类影像的距离类别序列之前,还包括:
获取多个样本图像中面部关键点的坐标;所述样本图像为标注不同的距离类别的图像;
根据每个所述样本图像中面部关键点的坐标,确定每个所述样本图像的样本面部关键点发散距离;
根据所述样本面部关键点发散距离和所述样本图像所标注的距离类别,生成所述距离类别基准。
5.根据权利要求1所述的方法,其特征在于,获取所述待分类影像在拍摄时的引导距离序列,包括:
从预设的距离类别序列中随机选择出第一距离类别,并对所述第一距离类别执行影像匹配操作,得到与所述第一距离类别匹配的第一影像;
从所述距离类别序列中选择出第二距离类别,并对所述第二距离类别执行所述影像匹配操作,得到与所述第二距离类别匹配的第二影像;所述第二距离类别与所述第一距离类别相同或相邻;
继续从所述距离类别序列中依次选择第N距离类别,并依次对所述第N距离类别执行所述影像匹配操作,分别得到与所述第N距离类别匹配的第N影像;其中,所述第N距离类别与所述第N-1距离类别相同或相邻,N依次选取大于2的自然数;
根据所述第一距离类别、所述第二距离类别至所述第N距离类别的时间顺序,确定所述引导距离序列;
其中,所述影像匹配操作包括:
获取当前影像中的面部宽度;
判断所述当前影像中的面部宽度和所述当前影像中当前人脸提示框的宽度之差,是否小于或等于预设的宽度差阈值;
若是,则将所述当前影像作为与距离类别匹配的影像;
若否,则继续获取所述当前影像的下一时刻影像中的面部宽度,并判断所述下一时刻影像中的面部宽度和所述当前人脸提示框的宽度之差,是否小于或等于所述宽度差阈值,若是,则将所述下一时刻影像作为与距离类别匹配的影像,若否,则继续获取再下一个时刻影像中的面部宽度,直至获取到与距离类别匹配的影像为止。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一距离类别、所述第二距离类别至所述第N距离类别的时间顺序,确定所述引导距离序列,包括:
将所述第一距离类别到所述第N距离类别按照时间顺序进行排列,得到初始引导距离序列;
将所述初始引导距离序列进行去重处理,生成所述引导距离序列。
7.根据权利要求1所述的方法,其特征在于,所述根据所述匹配度量化值,确定所述待分类影像的活体检测结果,包括:
判断所述匹配度量化值是否大于或等于预设的第一匹配度阈值;
若是,则确定所述待分类影像的活体检测结果为真实活体;
若否,则确定所述待分类影像的活体检测结果为虚假活体。
8.根据权利要求1所述的方法,其特征在于,所述根据所述匹配度量化值,确定所述待分类影像的活体检测结果,包括:
判断所述匹配度量化值是否大于或等于预设的第一匹配度阈值;
当所述匹配度量化值大于或等于预设的第一匹配度阈值时,获取静默活体检测量化值;
判断所述静默活体检测量化值是否大于或等于预设的第二匹配度阈值;
若是,则确定所述待分类影像的活体检测结果为真实活体;
若否,则确定所述待分类影像的活体检测结果为虚假活体。
9.根据权利要求8所述的方法,其特征在于,所述获取静默活体检测量化值,包括:
将所述待分类影像输入预设的静默活体检测模型中,得到所述待分类影像的所述静默活体检测量化值;所述静默活体检测模型为经过深度学习的神经网络模型。
10.一种图像分类方法,其特征在于,所述方法包括:
获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值;
根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
11.根据权利要求10所述的方法,其特征在于,所述根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别之前,还包括:
获取多个样本图像中面部关键点的坐标;所述样本图像为标注不同的距离类别的图像;
根据每个所述样本图像中面部关键点的坐标,确定每个所述样本图像的样本面部关键点发散距离;
根据所述样本面部关键点发散距离和所述样本图像所标注的距离类别,生成所述距离类别基准。
12.根据权利要求10或11所述的方法,其特征在于,所述距离类别包括远距离、中距离和近距离。
13.一种人脸活体检测装置,其特征在于,所述装置包括:
处理模块,用于获取待分类影像的影像距离序列;所述影像距离序列用于表征对拍摄对象进行拍摄时,所述拍摄对象与拍摄设备之间的距离变化顺序,所述影像距离序列为根据所述待分类影像中的面部关键点发散程度所确定的序列;
获取模块,用于获取所述待分类影像在拍摄时的引导距离序列;所述引导距离序列为引导所述拍摄对象进行拍摄以形成所述待分类影像的距离变化顺序;
确定模块,用于根据所述影像距离序列和所述引导距离序列,确定所述影像距离序列和所述引导距离序列的匹配度量化值;
分类模块,用于根据所述匹配度量化值,确定与所述匹配度量化值对应的所述待分类影像的活体检测结果。
14.一种图像分类装置,其特征在于,所述装置包括:
获取模块,用于获取待分类图像中的面部关键点发散距离;所述面部关键点发散距离为预设的关键点集合中,每个关键点与基准关键点之间的距离的平均值;
处理模块,用于根据所述关键点发散距离和预设的距离类别基准进行比对,得到所述待分类图像的距离类别。
15.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至12中任一项所述方法的步骤。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910738563.3A CN112395902A (zh) | 2019-08-12 | 2019-08-12 | 人脸活体检测方法、图像分类方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910738563.3A CN112395902A (zh) | 2019-08-12 | 2019-08-12 | 人脸活体检测方法、图像分类方法、装置、设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112395902A true CN112395902A (zh) | 2021-02-23 |
Family
ID=74602191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910738563.3A Pending CN112395902A (zh) | 2019-08-12 | 2019-08-12 | 人脸活体检测方法、图像分类方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112395902A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807160A (zh) * | 2021-04-06 | 2021-12-17 | 京东科技控股股份有限公司 | 图像采集设备劫持的检测方法、装置及计算机设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130010095A1 (en) * | 2010-03-30 | 2013-01-10 | Panasonic Corporation | Face recognition device and face recognition method |
WO2016033184A1 (en) * | 2014-08-26 | 2016-03-03 | Hoyos Labs Ip Ltd. | System and method for determining liveness |
CN105512632A (zh) * | 2015-12-09 | 2016-04-20 | 北京旷视科技有限公司 | 活体检测方法及装置 |
CN109766785A (zh) * | 2018-12-21 | 2019-05-17 | 中国银联股份有限公司 | 一种人脸的活体检测方法及装置 |
CN109886080A (zh) * | 2018-12-29 | 2019-06-14 | 深圳云天励飞技术有限公司 | 人脸活体检测方法、装置、电子设备及可读存储介质 |
-
2019
- 2019-08-12 CN CN201910738563.3A patent/CN112395902A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130010095A1 (en) * | 2010-03-30 | 2013-01-10 | Panasonic Corporation | Face recognition device and face recognition method |
WO2016033184A1 (en) * | 2014-08-26 | 2016-03-03 | Hoyos Labs Ip Ltd. | System and method for determining liveness |
CN105512632A (zh) * | 2015-12-09 | 2016-04-20 | 北京旷视科技有限公司 | 活体检测方法及装置 |
US20170169304A1 (en) * | 2015-12-09 | 2017-06-15 | Beijing Kuangshi Technology Co., Ltd. | Method and apparatus for liveness detection |
CN109766785A (zh) * | 2018-12-21 | 2019-05-17 | 中国银联股份有限公司 | 一种人脸的活体检测方法及装置 |
CN109886080A (zh) * | 2018-12-29 | 2019-06-14 | 深圳云天励飞技术有限公司 | 人脸活体检测方法、装置、电子设备及可读存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807160A (zh) * | 2021-04-06 | 2021-12-17 | 京东科技控股股份有限公司 | 图像采集设备劫持的检测方法、装置及计算机设备 |
WO2022213955A1 (zh) * | 2021-04-06 | 2022-10-13 | 京东科技控股股份有限公司 | 图像采集设备劫持的检测方法、装置及计算机设备 |
CN113807160B (zh) * | 2021-04-06 | 2024-02-06 | 京东科技控股股份有限公司 | 图像采集设备劫持的检测方法、装置及计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109472213B (zh) | 掌纹识别方法、装置、计算机设备和存储介质 | |
US10635893B2 (en) | Identity authentication method, terminal device, and computer-readable storage medium | |
TWI731297B (zh) | 一種風險預測方法、存儲介質和伺服器 | |
US10713532B2 (en) | Image recognition method and apparatus | |
WO2021068487A1 (zh) | 人脸识别模型构建方法、装置、计算机设备和存储介质 | |
CN109472206B (zh) | 基于微表情的风险评估方法、装置、设备及介质 | |
CN109508638A (zh) | 人脸情绪识别方法、装置、计算机设备及存储介质 | |
CN109767321A (zh) | 问答过程优化方法、装置、计算机设备和存储介质 | |
CN111310624A (zh) | 遮挡识别方法、装置、计算机设备及存储介质 | |
CN105518708A (zh) | 用于验证活体人脸的方法、设备和计算机程序产品 | |
WO2020125386A1 (zh) | 表情识别方法、装置、计算机设备和存储介质 | |
CN110147729A (zh) | 用户情绪识别方法、装置、计算机设备及存储介质 | |
WO2020238552A1 (zh) | 基于微表情识别的审批指令生成方法、装置和计算机设备 | |
CN110111136B (zh) | 视频数据处理方法、装置、计算机设备和存储介质 | |
CN112434556A (zh) | 宠物鼻纹识别方法、装置、计算机设备及存储介质 | |
US10521580B1 (en) | Open data biometric identity validation | |
CN109886110A (zh) | 微表情评分方法、装置、计算机设备及存储介质 | |
WO2021042842A1 (zh) | 基于ai面试系统的面试方法、装置和计算机设备 | |
US20220067347A1 (en) | Systems and methods for matching facial images to reference images | |
CN113139439A (zh) | 一种基于人脸识别的在线学习专注度评价方法及装置 | |
CN109766772A (zh) | 风险控制方法、装置、计算机设备和存储介质 | |
CN116863522A (zh) | 痤疮分级方法、装置、设备及介质 | |
CN112200147A (zh) | 一种人脸识别方法、装置、计算机设备以及可存储介质 | |
US20170061202A1 (en) | Human identity verification via automated analysis of facial action coding system features | |
CN114493902A (zh) | 多模态信息异常监控方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210223 |