CN110502961B - 一种面部图像检测方法及装置 - Google Patents

一种面部图像检测方法及装置 Download PDF

Info

Publication number
CN110502961B
CN110502961B CN201810476712.9A CN201810476712A CN110502961B CN 110502961 B CN110502961 B CN 110502961B CN 201810476712 A CN201810476712 A CN 201810476712A CN 110502961 B CN110502961 B CN 110502961B
Authority
CN
China
Prior art keywords
image
size
face
cropping
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810476712.9A
Other languages
English (en)
Other versions
CN110502961A (zh
Inventor
陈志博
王吉
石楷弘
黄小明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810476712.9A priority Critical patent/CN110502961B/zh
Publication of CN110502961A publication Critical patent/CN110502961A/zh
Application granted granted Critical
Publication of CN110502961B publication Critical patent/CN110502961B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请实施例公开了一种面部图像检测方法。本申请实施例方法包括:采集包括面部图像的第一图像;确定所述第一图像中面部图像的尺寸;根据所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述第二图像包括所述面部图像,所述面部图像的尺寸与所述裁剪系数反相关;将所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。本申请实施例还提供了一种面部图像检测装置,用于提高面部图像检测的准确率。

Description

一种面部图像检测方法及装置
技术领域
本申请涉及图像处理技术领域,尤其涉及一种面部图像检测方法及装置。
背景技术
当前,生物识别技术已经应用到各个领域,与传统的口令,钥匙,磁卡相比,人体特征具有不可复制的唯一性和易获取性,得到了快速的发展,其中,由于人脸是人的固有生物属性,具有个体差异很大,获取人脸图像成本低且无侵犯性等优点,人脸检测应用到很多场景,如企业、住宅安全管理领域,人脸识别门禁考勤系统,人脸识别防盗门等。
以人脸识别防盗门为例,防盗门可能受到非活体人脸的攻击,例如,非活体人脸可以为人脸照片、平板人脸照片、纸片照片等攻击样本。门禁系统需要识别获取到的图像是否为活体图像,当门禁系统采集到图像后,对图像进行识别,导致图像中的背景信息会对图像识别是否为活体图像造成影响,从而使得识别的准确度下降。
发明内容
本申请实施例提供了一种面部图像检测方法及装置,用于提高面部图像检测的准确率。
第一方面,本申请实施例提供了一种面部图像检测方法,包括:
采集包括面部图像的第一图像;
确定所述第一图像中面部图像的尺寸;
根据所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述第二图像包括所述面部图像,所述面部图像的尺寸与所述裁剪系数反相关;
将所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。
第二方面,本申请实施例提供了一种面部图像检测装置,包括:
采集模块,用于采集包括面部图像的第一图像;
确定模块,用于确定所述采集模块采集的所述第一图像中面部图像的尺寸;
裁剪模块,用于根据所述确定模块确定的所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述第二图像包括所述面部图像,所述面部图像的尺寸与所述裁剪系数反相关;
检测模块,用于将所述裁剪模块裁剪的所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。
第三方面,本申请实施例提供了一种面部图像检测装置,包括:
存储器,用于存储计算机可执行程序代码;
处理器,与所述存储器耦合;
其中所述程序代码包括指令,当所述处理器执行所述指令时,所述指令使所述装置执行上述第一方面所述的方法。
第四方面,本申请实施例提供了计算机存储介质,用于储存面部图像检测装置所用的计算机软件指令,其包含用于执行上述第一方面所述的方法。
本申请实施例中,装置通过摄像头采集包括面部图像的第一图像;然后确定所述第一图像中面部图像的尺寸;装置可以根据所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述面部图像的尺寸与所述裁剪系数反相关,然后将所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。本申请实施例中,由于需要通过检测模型来识别采集到的面部图像是否是攻击图像,需要保留一部分的背景信息,但是背景信息不能过多,若背景信息过多会影响模型的检测精度。本申请实施例中,针对不同尺寸的面部图像,采用不同的裁剪系数,并且该裁剪系数与面部图像的大小反相关,即该面部图像的尺寸较大,该装置采用较小的裁剪系数,即该面部图像的尺寸越小,装置采用较大的裁剪系数,从而保证了不同面部图像的尺寸有合适的背景信息,不会因过多背景信息而干扰检测结果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请实施例中一种面部图像检测方法的一个实施例的步骤流程图;
图2为本申请实施例中面部关键特征点的示意图;
图3为本申请实施例中一个场景示意图;
图4为本申请实施例中另一个场景示意图;
图5为本申请实施例中另一个场景示意图;
图6为本申请实施例中第二图像上裁剪多个第三图像的示意图;
图7为本申请实施例中残差单元的示意图;
图8为本申请实施例中训练检测模型的步骤示意图;
图9为本申请实施例中另一个场景示意图;
图10为本申请实施例中另一个场景示意图;
图11为本申请实施例中一种面部图像检测装置的一个实施例的结构示意图;
图12为本申请实施例中一种面部图像检测装置的一个实施例的结构示意图;
图13为本申请实施例中一种面部图像检测装置的一个实施例的结构示意图;
图14为本申请实施例中一种面部图像检测装置的一个实施例的结构示意图;
图15为本申请实施例中一种面部图像检测装置的一个实施例的结构示意图;
图16为本申请实施例中一种面部图像检测装置的一个实施例的结构示意图。
具体实施方式
本申请实施例提供了一种面部图像检测方法及装置,用于提高面部图像检测的准确率。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都应当属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
面部图像识别具有重要的社会安全意义,应用于企业或住宅的安全管理,例如,企业和家庭的门禁管理系统,以企业和家庭的门禁管理系统为例,传统的方法中,门禁系统检测到包括人脸图像的图像,然后直接将该图像输入到模型,或者采用固定的比例对人脸的图像进行裁剪,然后将裁剪后的图像输入到模型,通过模型得到人脸图像的活体分值。例如,当检测到的人脸图像的大小为224×224像素,则采用固定的比例对人脸图像进行扩大后裁剪,如该固定的比例为2倍,输入模型中的裁剪后的图像为448×448像素;若检测到的人脸图像的大小为256×256像素,则采用固定的比例对人脸图像进行扩大后裁剪,如该固定的比例为2倍,输入模型中的裁剪后的图像的大小为512×512像素,当检测到的人脸图像的尺寸较大时,裁剪后的图像的尺寸就会较大,这样裁剪后的图像中所包括的背景图像就会较大,当将裁剪后的图像输入到模型后,背景图像部分就会对模型的识别准确率影响较大,从而使模型输出的用于指示该人脸图像为活体的分值出现偏差,模型识别的准确率较低。
本申请实施例中提供了一种面部图像检测方法,该方法可以应用于一种面部图像检测装置,该装置可以应用于企业或住宅的安全管理,提高对活体人脸检测的准确率,降低被非活体攻击图像攻击的概率。本申请实施例中,活体面部图像(人脸图像)是指直接从具有生物特征的人体面部采集的人脸图像,而非活体攻击图像是指展示于纸质照片,手机或掌上电脑显示屏上的人脸图像。
请参阅图1所示,本申请实施例中提供了一种面部图像检测方法,该方法应用于一种面部图像检测装置,本申请实施例中以该装置为执行主体进行说明。
步骤101、采集包括面部图像的第一图像。
装置通过摄像头采集第一图像,该第一图像中包括面部图像(即人脸图像)。该第一图像中包括的面部图像可能是采集的活体的人脸图像,或者该面部图像也可能是非活体攻击图像,该攻击图像为展示与照片、各用户设备(如手机、或掌上电脑)上的人脸图像。在该第一图像中除了人脸图像的区域的部分为背景图像。
步骤102、确定所述第一图像中面部图像的尺寸。
通过人脸关键特征点检测自动定位出第一图像中的面部关键特征点,请结合图2所示,图2为面部(人脸)关键特征点的示意图,该人脸关键特征点位于面部的五官位置,例如,眼睛部位,嘴部位,鼻子部位,眉毛部位,每个部位都有多个关键特征点。
基于面部关键点对齐第一图像中的面部图像(即人脸图像),确定在所述第一图像中面部图像的目标区域,该目标区域为人脸图像所在的区域,将目标区域对应的人脸边框内,然后,确定所述目标区域(也即人脸边框)的尺寸。
需要说明的是,本申请实施例中,“图像的尺寸”可以以“像素”进行表示,可以以“厘米”进行表示,或者可以以“毫米”进行表示,本申请实施例中,具体的表示方法并不限定,只要能表示出图像的大小即可,本申请实施例中该图像的尺寸可以以像素为例表示图像的尺寸。
步骤103、根据所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述第二图像包括所述面部图像,所述面部图像的尺寸与所述裁剪系数反相关。
请结合图3进行理解,图3为本申请实施例中的场景示意图,第一图像包括面部图像和背景图像(以下也可以成为“背景信息”)。该裁剪系数可以理解为:该面部图像的尺寸并不改变,以该面部图像的尺寸(人脸边框的尺寸)为基准进行扩大后进行裁剪的扩大倍数,该裁剪系数为大于1的自然数,例如,该裁剪系数可以为1.5,2或4等,该裁剪系数并不是一个固定值,而是与面部图像的尺寸反相关,即面部图像的尺寸越大,采用的裁剪系数越小,该面部图像的尺寸越小,则采用的裁剪系数越大。
在第一种可能的实现方式中,确定裁剪系数的具体方式可以为:
首先,判断所述面部图像的尺寸是否大于阈值,例如该阈值为200×200像素,该阈值只是举例说明,并不造成对本申请的限定性说明。
若所述面部图像的尺寸大于所述阈值,则采用第一裁剪系数对所述第一图像进行裁剪,例如该第一裁剪系数为2。请结合图4进行理解,图4为本申请实施例中的一个场景示意图,在一个应用场景中,若一个用户拿纸质照片对准门禁系统的摄像头,装置确定人脸边框的尺寸大于阈值,例如人脸边框的尺寸为224×224像素,则以人脸表框的尺寸为中心基准,扩大2倍后进行裁剪,得到裁剪后的第二图像,即裁剪后的第二图像为人脸边框的尺寸的2倍。需要说明的是,在图4中标注了阈值的尺寸边框,是为了方便理解人脸边框的尺寸与阈值的大小,在实际应用中,可以不显示该阈值的尺寸边框。
若所述面部图像的尺寸小于或者等于所述阈值,则采用第二裁剪系数对所述第一图像进行裁剪,所述第一裁剪系数小于所述第二裁剪系数,例如第二裁剪系数为4。请结合图5进行理解,图5为申请实施例中的一个场景示意图,装置确定人脸边框的尺寸小于阈值,例如,该人脸边框的尺寸为180×180像素,则以人脸边框的尺寸为中心基准,扩大4倍后进行裁剪,得到裁剪后的第二图像,即裁剪后的第二图像为人脸边框的尺寸的4倍。
请结合图4和图5进行理解,在图4中,虽然人脸边框的尺寸较大(大于阈值),但是本实施例中可以采取较小的裁剪系数对第一图像进行裁剪,相对于图5,第二图像中的背景图像部分并没有增大,本示例中,可以根据第一图像中的人脸图像的尺寸采取的不同的裁剪系数,从而保证了不同人脸尺寸大小下有合适的背景信息,不会因过多背景信息而干扰检测结果。
在第二种可能的实现方式中,确定裁剪系数的具体方式可以为:
预先设置阈值集合,该阈值集合中包括了多个阈值,所述阈值集合中的每个阈值具有对应的裁剪系数。例如,该阈值集合中包括的多个阈值为第一阈值(如180×180像素),第二阈值(如200×200像素),第三阈值(如220×220像素);其中,该第一阈值对应的第一裁剪系数为4,第二阈值对应的第二裁剪系数为3,该第三阈值对应的第三裁剪系数为2,即所述阈值的大小与所述裁剪系数的大小反相关。需要说明的是,本申请实施例中的阈值集合中的阈值和对应的裁剪系数均为举例说明,并不造成对本申请的限定性说明。
然后,将所述面部图像的尺寸与阈值集合中的阈值进行比较,从所述阈值集合中选择与所述面部图像的尺寸差值小于或者等于门限的目标阈值。例如,当面部图像的尺寸为195×195像素,该门限为10,该面部图像的尺寸与第二阈值的差值小于门限,则该第二阈值为目标阈值,该第二阈值对应的裁剪系数为3,该装置采用所述目标阈值对应的目标裁剪系数(如3)对所述第一图像进行裁剪,得到所述第二图像。即第二图像的位置为以人脸图像为中心的图像,该第二图像的大小为该人脸图像的尺寸的3倍。
步骤104、将所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。
将裁剪后的第二图像作为检测模型的输入,该检测模型输出对应的分值,例如该分值为0或1,其中0表示该第二图像为攻击图像,并不是活体图像,而1表示该第二图像中的人脸图像是从具有生物特征的人体采集的面部图像(即活体图像)。或者,若该分值大于一个门限值(如门限值为0.5),则表示该第二图像中的人脸图像是从具有生物特征的人体采集的面部图像(即活体图像),若该分值小于或者等于该门限值(如0.5),则表示该第二图像中的人脸图像为非活体攻击图像。
本申请实施例中,该检测模型可以为卷积神经网络模型,具体的,该检测模型可以为残差网络模型。
本申请实施例中,装置通过摄像头采集包括面部图像的第一图像;然后确定所述第一图像中面部图像的尺寸;装置可以根据所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述面部图像的尺寸与所述裁剪系数反相关;然后将所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。本申请实施例中,由于需要通过检测模型来识别采集到的面部图像是否是非活体攻击图像,需要保留一部分的背景信息,但是背景信息不能过多,若背景信息过多会影响模型的检测精度。本申请实施例中,针对不同尺寸的面部图像,采用不同的裁剪系数,并且该裁剪系数与面部图像的大小反相关,即该面部图像的尺寸较大,该装置采用较小的裁剪系数,即该面部图像的尺寸越小,装置采用较大的裁剪系数,从而保证了不同人脸尺寸大小下有合适的背景信息,不会因过多背景信息而干扰检测结果。尤其是当不法用户采用尺寸较大的人脸图像进行攻击时,也不会保留过多的背景图像,避免背景信息过多而干扰检测结果。
在上述图1对应的实施例的基础上,在步骤104之前,步骤103之后,即将所述第二图像作为检测模型的输入,通过所述检测模型输出分值之前,方法还可以包括:
创建滑动窗口,该滑动窗口用于在第二图像上进行定位,在第二图像上定位到不同的位置,在不同的位置裁剪多个第三图像。
请结合图6进行理解,图6为在第二图像上裁剪多个第三图像的示意图。
根据所述滑动窗口在所述第二图像上滑动,在不同的位置裁剪所述第二图像上的多个第三图像,所述第二图像的尺寸大于所述第三图像的尺寸。例如经过动态裁剪之后的第二图像为256×256像素,通过滑动窗口在该第二图像上滑动,随机选择5个像素为224×224的第三图像,该第三图像为第三图像A,第三图像B,第三图像C、第三图像D和第三图像E,然后,将这五张图片合成一个批次输入到检测模型进行分类,对分类得到的结果进行取均值,得到最后输出的分值。
然后将所述多个第三图像作为所述检测模型的输入,通过所述检测模型输出所述分类结果。本申请实施例中,通过将动态裁剪后的第二图像随机选择多个不同位置的第三图像,将该多个第三图像一个批次输入到检测模型,不同的位置的第三图像所包括的背景信息不同,将分类的结果取均值,以提高识别的准确率。
在一个可选的实施例中,在步骤104之前,还可以包括获取检测模型的步骤,该检测模型可以是离线训练好的,例如该检测模型可以是通过服务器训练好的,然后由服务器发送给该装置,该装置保存该检测模型。或者,在另一个可选的实施例中,该检测模型是有该装置在线训练的,不论在线训练和还是离线训练,训练该检测模型的原理几乎相同,下面对本申请实施例中训练该检测模型的过程进行说明。该检测模型为卷积层为80层的残差网络模型。
请结合图7所示,图7为残差单元的示意图。残差网络就是将多个残差单元堆叠起来组成一个深度网络,假设H(x)是输入x经过非线性映射的结果,在残差网络中,映射结果不是网络的直接输出,而是网络的输出与输入的加和:H(x)=F(x)+x,网络所学习的函数是F(x)=H(x)-x,如果把x理解成真实值,H(x)理解成估计值,那么F(x)就表示“残差”,通过组合多个这样的残差学习结构,就组成了最终的残差网络。残差网络包括多个残差单元,残差单元包括:(1)“恒等映射(identity mapping)”;(2)平原层(weight layer)。残差网络引用了一种恒等映射结构,即输出等于输入,就可以使网络深度增加且模型不会退化,这说明多层非线性网络难以逼近恒等映射网络。为了能使卷积神经网络层数进一步加深获得性能更好的网络,深度残差网络的做法在一个简单堆叠的浅层网络模型的基础上,附加一个恒等的高速通道。也就是对于包含权重的网络层,除了本身提取的特征同时将自身的输入也作为该层的输出向下传递,如图7所示。
残差网络输出为F(x)+x,网络中真正需要拟合的是残差F(x)=H(x)-x。通过对网络中加入恒等的短路连接(shortcut connection),使网络输出变为输入的映射和输入的叠加,如果将该结构中的权重参数全部设置为0,那么网络的输入即为输出,该层对网络不再产生影响,因此残差网络可以看作是一个可以根据任务自动选择深度的网络。
该残差单元输出的准确公式为:
Figure BDA0001662527040000101
其中的x,y分别表示输入和输出,函数
Figure BDA0001662527040000102
表示学习到的残差映射。以该图7为例,包含两层卷积层,则
Figure BDA0001662527040000103
这里的σ表示激励函数relu。网络在第二层卷积层之后与输入相加,之后再通过激励层得到单元输出。此时
Figure BDA0001662527040000104
和x的维度必须相同,如果残差分支的维度变化,则需要对恒等映射分支进行线形投影使其维度保持一致,最终公式变为
Figure BDA0001662527040000105
这里的Ws具体可以为补零操作,这样不会引入额外的参数,这样一个更深的网络模型的训练误差,理论上就不应该大于与其相应的更浅的模型训练误差。
请参阅图8所示,图8为训练该检测模型的步骤示意图。所述检测模型为:通过样本数据集进行学习得到的,所述样本数据集包括采集到的任意角度具有生物特征的面部样本图像,任意角度的纸质照片上的面部样本图像,各种用户设备上展示的面部样本图像。学习训练该检测模型的步骤可以为:
步骤801、获取样本数据集。
首先采集初始样本数据集,包括采集到各个角度的活体人脸图像和攻击图像,攻击图像包括但不限定于任意角度的纸质照片上的面部样本图像,各种用户设备上展示的面部样本图像(如手机上展示的人脸图像,掌上电脑上展示的人脸图像等等)。
然后对初始样本数据集中的图像进行预处理,包括人脸的检测及矫正,对人脸的矫正包括:对人脸的关键特征点进行定位,然后利用标准的关键特征点对人脸图像进行矫正后存储。
步骤802、利用样本数据集的数据训练基础网络。
在训练这个网络时,并不需要网络的精度非常高,因为训练基础网络的主要目的是利用基础网络的参数去初始化改进后的网络,以加速改进后网络的收敛。
步骤803、对基础网络进行改进,得到检测模型。
在基础网络的基础上,增加卷积层,例如,基础网络的卷积层为50层,增加30层卷积层,该检测模型为卷积层为80层的残差网络。同时将其通道数下降为原来的四分之一,例如,基础网络为ResNet-50残差网络,将通道数下降为ResNet-50残差网络的通道数的四分之一,使得精度略微下降的同时极大的提高了网络的速度,平衡了性能和时间,提升检测模型的识别效率。
为了更好的理解本申请,在一个应用场景中,请结合图9进行理解,图9为本申请实施例中的一个场景示意图。某企业的门禁需要对员工进行人脸考勤打卡,员工A迟到了,但是想通过手机中的照片来打卡,将自己的照片发送给员工B,员工B的手机上展示员工A的照片,该门禁系统包括该面部图像检测装置,该装置通过摄像头采集员工B手机上的照片,摄像头采集包括员工A的人脸图像(攻击图像)的第一图像,该第一图像还包括了员工F的人脸图像(活体人脸图像),若员工B拿着手机距离门禁系统的摄像头较近,装置检测到员工A的人脸图像的尺寸大于阈值,装置采用较小的裁剪系数对第一图像进行裁剪,避免在裁剪后的图像中包括过多的背景信息。如在图9中,背景信息包括员工F的人脸图像,采用本申请实施例中的方法,尤其当遭到尺寸较大的人脸图像的攻击时,避免由于背景信息造成的干扰,相比于传统方法中,采用固定的比例对第一图像进行裁剪,若裁剪比例设置的较小,则无法采集到手机的边框,即对于检测模型的识别是否为活体的人脸图像的准确度降低,因为直接采集活体的人脸图像不会有手机、掌上电脑或者照片的边框;若裁剪比例设置的较大,则裁剪的第二图像中会包括过多的背景信息(如员工F的人脸图像),员工F的人脸图像为活体人脸图像,这样背景信息就都会使得检测模型的准确率降低,检测模型识别员工F的人脸图像后,输出的分值为1,即为活体,识别结果产生偏差。
在另一个应用场景中,请结合图10进行理解,图10为本申请实施例中的一个场景示意图。该装置通过摄像头采集包括员工G的人脸图像(活体的人脸图像)的第一图像,该第一图像的背景信息中还包括另一个员工的手机,若员工G距离摄像头较近,则摄像头采集的员工G的人脸图像的尺寸较大,该人脸图像的尺寸大于阈值,则采用较小的裁剪系数对第一图像进行裁剪,得到第二图像,避免在裁剪后的图像(第二图像)中包括过多的背景信息,背景信息产生干扰,提高检测的准确率。如在图10中,例如背景信息包括手机I的图像,相比于传统方法中,采用固定的比例对第一图像进行裁剪,若裁剪比例设置的较大,则裁剪的第二图像中会包括过多的背景信息(如手机I的图像),这样背景信息的干扰使得检测模型的准确率降低,识别结果就会产生偏差,输入的分值可能指示为该人脸图像为非活体攻击图像,极大的降低了检测准确度。
请参阅图11所示,本申请实施例提供了一种面部图像检测装置,该装置包括用于执行上述方法实施例中的方法的各个步骤的模块,该装置1100的一个实施例包括:
采集模块1101,用于采集包括面部图像的第一图像;
确定模块1102,用于确定所述采集模块1101采集的所述第一图像中面部图像的尺寸;
裁剪模块1103,用于根据所述确定模块1102确定的所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述第二图像包括所述面部图像,所述面部图像的尺寸与所述裁剪系数反相关;
检测模块1104,用于将所述裁剪模块1103裁剪的所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。
基于图11对应的结构,请参阅图12,本申请实施例还提供了该装置1200的另一个实施例,所述裁剪模块1103包括判断单元11031和裁剪单元11032;
所述判断单元11031,还用于判断所述确定模块1102确定的所述面部图像的尺寸是否大于阈值;
所述裁剪单元11032,用于当所述判断单元11031确定所述面部图像的尺寸大于所述阈值时,采用第一裁剪系数对所述第一图像进行裁剪;
所述裁剪单元11032,还用于当所述面部图像的尺寸小于或者等于所述阈值时,采用第二裁剪系数对所述第一图像进行裁剪,所述第一裁剪系数小于所述第二裁剪系数。
基于图11对应的结构,请参阅图13,本申请实施例还提供了该装置的另一个实施例,该装置1300包括:
所述裁剪模块1103包括比较单元11033、选择单元11034和裁剪单元11032;
所述比较单元11033,用于将所述确定模块1102确定的所述面部图像的尺寸与阈值集合中的阈值进行差值比较,所述阈值集合中的每个阈值具有对应的裁剪系数,所述阈值的大小与所述裁剪系数的大小反相关;
所述选择单元11034,用于从所述阈值集合中选择所述比较单元11033比较的与所述面部图像的尺寸差值小于门限的目标阈值;
所述裁剪单元11032,用于采用所述选择单元11034选择的所述目标阈值对应的目标裁剪系数对所述第一图像进行裁剪,得到所述第二图像。
基于图11对应的结构,请参阅图14,本申请实施例还提供了该装置的另一个实施例,该装置1400包括:
所述装置还包括创建模块1105;
所述创建模块1105,用于创建滑动窗口;
所述裁剪模块1103,用于根据所述创建模块1105创建的所述滑动窗口在所述第二图像上滑动在不同的位置裁剪所述第二图像上的多个第三图像,所述第二图像的尺寸大于所述第三图像的尺寸;
所述检测模块1104,还用于将所述裁剪模块1103裁剪的所述多个第三图像作为所述检测模型的输入,通过所述检测模型输出所述分类结果。
基于图11对应的结构,请参阅图15,本申请实施例还提供了该装置的另一个实施例,该装置1500包括所述装置还包括获取模块1106;
所述获取模块1106,还用于获取所述检测模型,所述检测模型为:通过样本数据集进行学习得到的,所述样本数据集包括采集到的任意角度具有生物特征的面部样本图像,任意角度的纸质照片上的面部样本图像,各种用户设备上展示的面部样本图像。
在一个可能的实现方式中,所述确定模块1102,还用于基于面部关键点确定在所述第一图像中面部图像的目标区域;确定所述目标区域的尺寸。
本申请实施例中,装置通过摄像头采集包括面部图像的第一图像;然后确定所述第一图像中面部图像的尺寸;装置可以根据所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述面部图像的尺寸与所述裁剪系数反相关,该装置采用较大的裁剪系数;然后将所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。本申请实施例中,由于需要通过检测模型来识别采集到的面部图像是否是攻击图像,需要保留一部分的背景信息,但是背景信息不能过度,若背景信息过多会影响模型的检测精度。本申请实施例中,针对不同尺寸的面部图像,采用不同的裁剪系数,并且该裁剪系数与面部图像的大小反相关,即该面部图像的尺寸较大,该装置采用较小的裁剪系数,即该面部图像的尺寸越小,装置采用较大的裁剪系数,从而保证了不同人脸尺寸大小下有合适的背景信息,不会因过多背景信息而干扰检测结果。尤其是当不法用户采用尺寸较大的人脸图像进行攻击时,相对于传统的方法,可以保留合适的背景信息,避免背景信息过多而干扰检测结果。
图16是本申请实施例面部图像检测装置40的结构示意图。面部图像检测装置40可包括输入设备410、输出设备420、处理器430和存储器440。本申请实施例中的输出设备可以是显示设备。该输入设备可以是摄像头。
存储器440可以包括只读存储器和随机存取存储器,并向处理器430提供指令和数据。存储器440的一部分还可以包括非易失性随机存取存储器(英文全称:Non-VolatileRandom Access Memory,英文缩写:NVRAM)。
存储器440存储了如下的元素,可执行模块或者数据结构,或者它们的子集,或者它们的扩展集:
操作指令:包括各种操作指令,用于实现各种操作。
操作系统:包括各种系统程序,用于实现各种基础业务以及处理基于硬件的任务。
本申请实施例中处理器430用于使该装置执行以下步骤:
采集包括面部图像的第一图像;
确定所述第一图像中面部图像的尺寸;
根据所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述第二图像包括所述面部图像,所述面部图像的尺寸与所述裁剪系数反相关;
将所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。
可选的,判断所述面部图像的尺寸是否大于阈值;
若所述面部图像的尺寸大于所述阈值,则采用第一裁剪系数对所述第一图像进行裁剪;
若所述面部图像的尺寸小于或者等于所述阈值,则采用第二裁剪系数对所述第一图像进行裁剪,所述第一裁剪系数小于所述第二裁剪系数。
可选的,将所述面部图像的尺寸与阈值集合中的阈值进行比较,所述阈值集合中的每个阈值具有对应的裁剪系数,所述阈值的大小与所述裁剪系数的大小反相关;
从所述阈值集合中选择与所述面部图像的尺寸差值小于门限的目标阈值,
采用所述目标阈值对应的目标裁剪系数对所述第一图像进行裁剪,得到所述第二图像。
可选的,创建滑动窗口;
根据所述滑动窗口在所述第二图像上滑动在不同的位置裁剪所述第二图像上的多个第三图像,所述第二图像的尺寸大于所述第三图像的尺寸;
将所述多个第三图像作为所述检测模型的输入,通过所述检测模型输出所述分类结果。
可选的,获取所述检测模型,所述检测模型为:通过样本数据集进行学习得到的,所述样本数据集包括采集到的任意角度具有生物特征的面部样本图像,任意角度的纸质照片上的面部样本图像,各种用户设备上展示的面部样本图像。
可选的,基于面部关键点确定在所述第一图像中面部图像的目标区域;确定所述目标区域的尺寸。
处理器430控制面部图像检测装置40的操作,处理器430还可以称为中央处理单元(英文全称:Central Processing Unit,英文缩写:CPU)。存储器440可以包括只读存储器和随机存取存储器,并向处理器430提供指令和数据。存储器440的一部分还可以包括NVRAM。具体的应用中,面部图像检测装置40的各个组件通过总线系统450耦合在一起,其中总线系统450除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都标为总线系统450。
上述本申请实施例揭示的方法可以应用于处理器430中,或者由处理器430实现。处理器430可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器430中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器430可以是通用处理器、数字信号处理器(英文全称:Digital Signal Processing,英文缩写:DSP)、专用集成电路(英文全称:Application Specific Integrated Circuit,英文缩写:ASIC)、现成可编程门阵列(英文全称:Field-Programmable Gate Array,英文缩写:FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器440,处理器430读取存储器440中的信息,结合其硬件完成上述方法的步骤。
图16的相关描述可以参阅图上述方法实施例的相关描述和效果进行理解,本处不做过多赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (15)

1.一种面部图像检测方法,其特征在于,包括:
采集包括面部图像的第一图像;
确定所述第一图像中面部图像的尺寸;
根据所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述第二图像包括所述面部图像,所述面部图像的尺寸与所述裁剪系数反相关;
将所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。
2.根据权利要求1所述的面部图像检测方法,其特征在于,所述根据所述面部图像的尺寸采用裁剪系数对所述第一图像进行动态裁剪,得到第二图像,包括:
判断所述面部图像的尺寸是否大于阈值;
若所述面部图像的尺寸大于所述阈值,则采用第一裁剪系数对所述第一图像进行裁剪;
若所述面部图像的尺寸小于或者等于所述阈值,则采用第二裁剪系数对所述第一图像进行裁剪,所述第一裁剪系数小于所述第二裁剪系数。
3.根据权利要求1所述的面部图像检测方法,其特征在于,所述根据所述面部图像的尺寸采用裁剪系数对所述第一图像进行动态裁剪,得到第二图像,包括:
将所述面部图像的尺寸与阈值集合中的阈值进行比较,所述阈值集合中的每个阈值具有对应的裁剪系数,所述阈值的大小与所述裁剪系数的大小反相关;
从所述阈值集合中选择与所述面部图像的尺寸差值小于门限的目标阈值;
采用所述目标阈值对应的目标裁剪系数对所述第一图像进行裁剪,得到所述第二图像。
4.根据权利要求1所述的面部图像检测方法,其特征在于,所述将所述第二图像作为检测模型的输入,通过所述检测模型输出分值之前,所述方法还包括:
创建滑动窗口;
通过所述滑动窗口的滑动,在所述第二图像上的不同的位置裁剪多个第三图像,所述第二图像的尺寸大于所述第三图像的尺寸;
所述将所述第二图像作为检测模型的输入,通过所述检测模型输出分值,包括:
将所述多个第三图像作为所述检测模型的输入,通过所述检测模型输出所述分值。
5.根据权利要求1-4中任一项所述的面部图像检测方法,其特征在于,所述将所述第二图像作为检测模型的输入,通过所述检测模型输出分值之前,所述方法还包括:
获取所述检测模型,所述检测模型为:通过样本数据集进行学习得到的,所述样本数据集包括采集到的任意角度具有生物特征的面部样本图像,任意角度的纸质照片上的面部样本图像,各种用户设备上展示的面部样本图像。
6.根据权利要求1-4中任一项所述的面部图像检测方法,其特征在于,所述确定所述第一图像中面部图像的尺寸,包括:
基于面部关键特征点确定在所述第一图像中面部图像的目标区域;
确定所述目标区域的尺寸。
7.根据权利要求1所述的面部图像检测方法,其特征在于,所述检测模型为卷积层数为80层的残差网络。
8.一种面部图像检测装置,其特征在于,包括:
采集模块,用于采集包括面部图像的第一图像;
确定模块,用于确定所述采集模块采集的所述第一图像中面部图像的尺寸;
裁剪模块,用于根据所述确定模块确定的所述面部图像的尺寸采用对应的裁剪系数对所述第一图像进行裁剪,得到第二图像,所述第二图像包括所述面部图像,所述面部图像的尺寸与所述裁剪系数反相关;
检测模块,用于将所述裁剪模块裁剪的所述第二图像作为检测模型的输入,通过所述检测模型输出分值,所述分值用于指示所述面部图像是否为从具有生物特征的人体采集的面部图像。
9.根据权利要求8所述的面部图像检测装置,其特征在于,所述裁剪模块包括判断单元和裁剪单元;
所述判断单元,还用于判断所述确定模块确定的所述面部图像的尺寸是否大于阈值;
所述裁剪单元,用于当所述判断单元确定所述面部图像的尺寸大于所述阈值时,采用第一裁剪系数对所述第一图像进行裁剪;
所述裁剪单元,还用于当所述面部图像的尺寸小于或者等于所述阈值时,采用第二裁剪系数对所述第一图像进行裁剪,所述第一裁剪系数小于所述第二裁剪系数。
10.根据权利要求8所述的面部图像检测装置,其特征在于,所述裁剪模块包括比较单元、选择单元和裁剪单元;
所述比较单元,用于将所述确定模块确定的所述面部图像的尺寸与阈值集合中的阈值进行差值比较,所述阈值集合中的每个阈值具有对应的裁剪系数,所述阈值的大小与所述裁剪系数的大小反相关;
所述选择单元,用于从所述阈值集合中选择所述比较单元比较的与所述面部图像的尺寸差值小于门限的目标阈值;
所述裁剪单元,用于采用所述选择单元选择的所述目标阈值对应的目标裁剪系数对所述第一图像进行裁剪,得到所述第二图像。
11.根据权利要求8所述的面部图像检测装置,其特征在于,所述装置还包括创建模块;
所述创建模块,用于创建滑动窗口;
所述裁剪模块,用于通过所述创建模块创建的所述滑动窗口滑动在所述第二图像上的不同的位置裁剪多个第三图像,所述第二图像的尺寸大于所述第三图像的尺寸;
所述检测模块,还用于将所述裁剪模块裁剪的所述多个第三图像作为所述检测模型的输入,通过所述检测模型输出所述分值。
12.根据权利要求8-11中任一项所述的面部图像检测装置,其特征在于,所述装置还包括获取模块;
所述获取模块,还用于获取所述检测模型,所述检测模型为:通过样本数据集进行学习得到的,所述样本数据集包括采集到的任意角度具有生物特征的面部样本图像,任意角度的纸质照片上的面部样本图像,各种用户设备上展示的面部样本图像。
13.根据权利要求8-11中任一项所述的面部图像检测装置,其特征在于,
所述确定模块,还用于基于面部关键特征点确定在所述第一图像中面部图像的目标区域;
确定所述目标区域的尺寸。
14.一种面部图像检测装置,其特征在于,包括:
存储器,用于存储计算机可执行程序代码;
处理器,与所述存储器耦合;
其中所述程序代码包括指令,当所述处理器执行所述指令时,所述指令使所述装置执行如权利要求1-7中任一项所述的方法。
15.一种计算机存储介质,其特征在于,用于储存面部图像检测装置所用的计算机软件指令,其包含用于执行如权利要求1-7中任一项所述的方法。
CN201810476712.9A 2018-05-16 2018-05-16 一种面部图像检测方法及装置 Active CN110502961B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810476712.9A CN110502961B (zh) 2018-05-16 2018-05-16 一种面部图像检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810476712.9A CN110502961B (zh) 2018-05-16 2018-05-16 一种面部图像检测方法及装置

Publications (2)

Publication Number Publication Date
CN110502961A CN110502961A (zh) 2019-11-26
CN110502961B true CN110502961B (zh) 2022-10-21

Family

ID=68584003

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810476712.9A Active CN110502961B (zh) 2018-05-16 2018-05-16 一种面部图像检测方法及装置

Country Status (1)

Country Link
CN (1) CN110502961B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111382687A (zh) * 2020-03-05 2020-07-07 平安科技(深圳)有限公司 人脸检测方法及系统
CN111861932B (zh) * 2020-07-28 2022-05-17 RealMe重庆移动通信有限公司 图像的畸变校正方法、装置及移动终端
CN112200174A (zh) * 2020-12-09 2021-01-08 上海齐感电子信息科技有限公司 人脸框检测方法及模块和活体人脸验证方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN103916593A (zh) * 2013-01-03 2014-07-09 三星电子株式会社 用于在具有相机的装置中处理图像的设备和方法
CN104778481A (zh) * 2014-12-19 2015-07-15 五邑大学 一种大规模人脸模式分析样本库的构建方法和装置
CN105825485A (zh) * 2016-03-30 2016-08-03 努比亚技术有限公司 一种图像处理系统和方法
CN107103281A (zh) * 2017-03-10 2017-08-29 中山大学 基于聚集损失深度度量学习的人脸识别方法
CN107277557A (zh) * 2017-06-16 2017-10-20 深圳市茁壮网络股份有限公司 一种视频分割方法及系统
CN107358157A (zh) * 2017-06-07 2017-11-17 阿里巴巴集团控股有限公司 一种人脸活体检测方法、装置以及电子设备
CN107437051A (zh) * 2016-05-26 2017-12-05 上海市公安局刑事侦查总队 图像处理方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7508961B2 (en) * 2003-03-12 2009-03-24 Eastman Kodak Company Method and system for face detection in digital images
WO2016084071A1 (en) * 2014-11-24 2016-06-02 Isityou Ltd. Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103916593A (zh) * 2013-01-03 2014-07-09 三星电子株式会社 用于在具有相机的装置中处理图像的设备和方法
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN104778481A (zh) * 2014-12-19 2015-07-15 五邑大学 一种大规模人脸模式分析样本库的构建方法和装置
CN105825485A (zh) * 2016-03-30 2016-08-03 努比亚技术有限公司 一种图像处理系统和方法
CN107437051A (zh) * 2016-05-26 2017-12-05 上海市公安局刑事侦查总队 图像处理方法及装置
CN107103281A (zh) * 2017-03-10 2017-08-29 中山大学 基于聚集损失深度度量学习的人脸识别方法
CN107358157A (zh) * 2017-06-07 2017-11-17 阿里巴巴集团控股有限公司 一种人脸活体检测方法、装置以及电子设备
CN107277557A (zh) * 2017-06-16 2017-10-20 深圳市茁壮网络股份有限公司 一种视频分割方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Smart Spoofing Face Detector by Display Features Analysis;ChinLun Lai 等;《sensors》;20160721;1-15 *
基于 3D 卷积神经网络的活体人脸检测;甘俊英 等;《信号处理》;20171130;第33卷(第11期);1515-1522 *
基于多尺度纹理特征的性别识别技术的研究;苟吉祥;《中国优秀硕士学位论文全文数据库 信息科技辑》;20131115(第11期);I138-706 *
基于多模板卷积的人脸确认算法;蓝章礼 等;《小型微型计算机系统》;20160531;第37卷(第5期);1048-1051 *

Also Published As

Publication number Publication date
CN110502961A (zh) 2019-11-26

Similar Documents

Publication Publication Date Title
Galdi et al. Multimodal authentication on smartphones: Combining iris and sensor recognition for a double check of user identity
De Marsico et al. Firme: Face and iris recognition for mobile engagement
Chakraborty et al. An overview of face liveness detection
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证系统及其方法
WO2022161286A1 (zh) 图像检测方法、模型训练方法、设备、介质及程序产品
KR101938033B1 (ko) 카메라 장착 디바이스들과 관련된 생체인식 인증
JP5801601B2 (ja) 画像認識装置、画像認識装置の制御方法、およびプログラム
Battiato et al. Robust image alignment for tampering detection
TW201911130A (zh) 一種翻拍影像識別方法及裝置
US20140270339A1 (en) Graphic data alteration to enhance online privacy
CN107169458B (zh) 数据处理方法、装置及存储介质
CN110502961B (zh) 一种面部图像检测方法及装置
WO2015066628A1 (en) Systems and methods for facial representation
CN111091075B (zh) 人脸识别方法、装置、电子设备及存储介质
CN111914775B (zh) 活体检测方法、装置、电子设备及存储介质
CN111104841A (zh) 暴力行为检测方法及系统
CN113298158B (zh) 数据检测方法、装置、设备及存储介质
Chandran et al. Missing child identification system using deep learning and multiclass SVM
WO2020172870A1 (zh) 一种目标对象的移动轨迹确定方法和装置
CN103984931B (zh) 一种信息处理方法及第一电子设备
CN111783629A (zh) 一种面向对抗样本攻击的人脸活体检测方法及装置
CN109886239B (zh) 人像聚类方法、装置及系统
CN114861241A (zh) 基于智能检测的防窥屏方法及其相关设备
CN113011544B (zh) 基于二维码的人脸生物信息识别方法、系统、终端、介质
JP2013008093A (ja) 画像認識装置、画像認識方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant