CN111666884B - 活体检测方法、装置、计算机可读介质及电子设备 - Google Patents

活体检测方法、装置、计算机可读介质及电子设备 Download PDF

Info

Publication number
CN111666884B
CN111666884B CN202010510940.0A CN202010510940A CN111666884B CN 111666884 B CN111666884 B CN 111666884B CN 202010510940 A CN202010510940 A CN 202010510940A CN 111666884 B CN111666884 B CN 111666884B
Authority
CN
China
Prior art keywords
image
processed
living body
pixel
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010510940.0A
Other languages
English (en)
Other versions
CN111666884A (zh
Inventor
元涛
黄慜哲
林昱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ringslink Xiamen Network Communication Technologies Co ltd
Original Assignee
Ringslink Xiamen Network Communication Technologies Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ringslink Xiamen Network Communication Technologies Co ltd filed Critical Ringslink Xiamen Network Communication Technologies Co ltd
Priority to CN202010510940.0A priority Critical patent/CN111666884B/zh
Publication of CN111666884A publication Critical patent/CN111666884A/zh
Application granted granted Critical
Publication of CN111666884B publication Critical patent/CN111666884B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/70Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请的实施例提供了一种活体检测方法、装置、计算机可读介质及电子设备。该活体检测方法包括:根据包含检测对象的待处理图像,获取待处理图像的像素特征,对待处理图像进行边缘检测以提取检测对象的边缘作为第一图像,对待处理图像进行归一化处理,得到第二图像;将待处理图像、第一图像和第二图像输入至深度神经网络模型中,以使深度神经网络模型输出检测对象是否活体的第一判断结果;将第一判断结果和像素特征输入至第一分类器中,使第一分类器输出检测对象是否活体的第二判断结果,以根据第二判断结果确定所述检测对象是否活体。本申请实施例的技术方案提高活体检测的准确率,进而保证人脸识别系统的安全性。

Description

活体检测方法、装置、计算机可读介质及电子设备
技术领域
本申请涉及图像处理技术领域,具体而言,涉及一种活体检测方法、装置、计算机可读介质及电子设备。
背景技术
人脸活体检测是人脸识别系统的重要组成部分,通过区分摄像机前的物体是真人还是假体,可有效提升人脸识别系统的安全性。在目前的技术方案中,通过机器学习的方法,对可见光下的单帧人脸图像进行识别,以确定该人脸是活体或者假体。然而,当出现有人通过打印人脸图片、人脸视频等平面人脸假体进行检测时,很难对这些人脸假体进行有效的识别,导致识别结果错误。
发明内容
本申请的实施例提供了一种活体检测方法、装置、计算机可读介质及电子设备,进而至少在一定程度上可以提高人脸活体检测结果的准确性,进而保证人脸识别系统的安全性。
本申请的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本申请的实践而习得。
根据本申请实施例的一个方面,提供了一种活体检测方法,该方法包括:
根据包含检测对象的待处理图像,获取所述待处理图像的像素特征;
对所述待处理图像进行边缘检测以提取所述检测对象的边缘作为第一图像,对所述待处理图像进行归一化处理,得到第二图像;
将所述待处理图像、所述第一图像和所述第二图像输入至深度神经网络模型中,以使所述深度神经网络模型输出所述检测对象是否活体的第一判断结果;
将所述第一判断结果和所述像素特征输入至第一分类器中,使所述第一分类器输出所述检测对象是否活体的第二判断结果,并根据所述第二判断结果确定所述检测对象是否活体。
基于前述方案,在本申请的一些实施例中,根据包含检测对象的待处理图像,获取所述待处理图像的像素特征,包括:
获取待识别的包含检测对象的图像;
根据所述图像,获取所述图像的像素特征;
将所述像素特征输入至第二分类器中,使所述第二分类器输出所述图像的分类标签;
将分类标签为指定类型的图像确定为所述待处理图像,并获取所述待处理图像的像素特征。
基于前述方案,在本申请的一些实施例中,所述图像为RGB图像;
根据所述图像,获取所述图像的像素特征,包括:
根据所述图像,获取所述图像中各个像素的每一通道的分量值;
根据所述分量值,获取所述图像的像素特征。
基于前述方案,在本申请的一些实施例中,根据所述分量值,获取所述图像的像素特征,包括:
根据所述分量值,确定所述分量值中的特征值;
根据所述特征值以及各个通道的分量值,确定所述图像的像素特征。
基于前述方案,在本申请的一些实施例中,根据所述分量值,确定所述分量值中的特征值,包括:
根据所述分量值,计算各个通道中每一数值对应的分量值数量;
根据所述分量值数量,确定所述分量值中的特征值。
基于前述方案,在本申请的一些实施例中,将所述待处理图像、所述第一图像和所述第二图像输入至深度神经网络模型中,包括:
将所述待处理图像、所述第一图像和所述第二图像分别转换成对应于不同通道的单通道图像;
将所述单通道图像进行融合,得到包含至少两个通道的多通道图像;
将所述多通道图像输入至所述深度神经网络模型中。
基于前述方案,在本申请的一些实施例中,根据所述单通道图像,得到包含至少两个通道的多通道图像,包括:
将所述单通道图像进行融合,得到包含三个通道的多通道图像。
根据本申请实施例的一个方面,提供了一种活体检测装置,该装置包括:
获取模块,用于根据包含检测对象的待处理图像,获取所述待处理图像的像素特征;
转换模块,用于对所述待处理图像进行边缘检测以提取所述检测对象的边缘作为第一图像,对所述待处理图像进行归一化处理,得到第二图像;
第一处理模块,用于将所述待处理图像、所述第一图像和所述第二图像输入至深度神经网络模型中,以使所述深度神经网络模型输出所述检测对象是否活体的第一判断结果;
第二处理模块,用于将所述第一判断结果和所述像素特征输入至第一分类器中,使所述第一分类器输出所述检测对象是否活体的第二判断结果,以根据所述第二判断结果确定所述检测对象是否活体。
根据本申请实施例的一个方面,提供了一种计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述实施例中所述的活体检测方法。
根据本申请实施例的一个方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中所述的活体检测方法。
在本申请的一些实施例所提供的技术方案中,通过根据包含检测对象的待处理图像,获取待处理图像的像素特征,并对待处理图像进行边缘检测以提取检测对象的边缘作为第一图像,对待处理图像进行归一化,得到第二图像,将待处理图像、第一图像、和第二图像输入至深度神经网络模型中,使该深度神经网络模型输出检测对象是否活体的第一判断结果,并将第一判断结果和像素特征输入至第一分类器中,使第一分类器输出检测对象是否活体的第二判断结果,再根据该第二判断结果确定检测对象是否活体。由此,对待处理图像进行处理,得到第一图像和第二图像,可以获取检测对象的多维信息,以保证后续识别结果的准确性,且深度神经网络模型与第一分类器相结合,可以提高识别结果的准确性,进而保证了人脸识别系统的安全性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本申请实施例的技术方案的示例性系统架构的示意图;
图2示出了根据本申请的一个实施例的活体检测方法的流程图;
图3示出了根据本申请的一个实施例的图2的活体检测方法中步骤S210的流程示意图;
图4示出了根据本申请的一个实施例的图3的活体检测方法中步骤S320的流程示意图;
图5示出了根据本申请的一个实施例的图4的活体检测方法中步骤S420的流程示意图;
图6示出了根据本申请的一个实施例的图5的活体检测方法中步骤S510的流程示意图;
图7示出了根据本申请的一个实施例的活体检测方法中进行图像融合的流程示意图;
图8示出了根据本申请的一个实施例的活体检测方法的流程示意图;图9示出了根据本申请的一个实施例的活体检测装置的框图;
图10示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
图1示出了可以应用本申请实施例的技术方案的示例性系统架构的示意图。
如图1所示,系统架构可以包括终端设备(如图1中所示智能手机101、平板电脑102和便携式计算机103中的一种或多种,当然也可以是台式计算机等等)、网络104和服务器105。网络104用以在终端设备和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备通过网络104与服务器105交互,以接收或发送消息等。服务器105可以是提供各种服务的服务器。例如用户利用终端设备103(也可以是终端设备101或102)向服务器105上传了包含检测对象的待处理图像,服务器105可以根据包含检测对象的待处理图像,获取待处理图像的像素特征,并对待处理图像进行边缘检测以提取检测对象的边缘作为第一图像,对待处理图像进行归一化处理,得到第二图像,将待处理图像、第一图像和第二图像输入至深度神经网络模型中,以使深度神经网络模型输出检测对象是否活体的第一判断结果,再将第一判断结果和像素特征输入至第一分类器中,使第一分类器输出检测对象是否活体的第二判断结果,以根据第二判断结果确定检测对象是否活体。
需要说明的是,本申请实施例所提供的活体检测方法一般由服务器105执行,相应地,活体检测装置一般设置于服务器105中。但是,在本申请的其它实施例中,终端设备也可以与服务器具有相似的功能,从而执行本申请实施例所提供的活体检测方法的方案。
以下对本申请实施例的技术方案的实现细节进行详细阐述:
图2示出了根据本申请的一个实施例的活体检测方法的流程图。参照图2所示,该活体检测方法至少包括步骤S210至步骤S240,详细介绍如下:
在步骤S210中,根据包含检测对象的待处理图像,获取所述待处理图像的像素特征。
其中,检测对象可以是活体上的任意部位,例如脸部、手部或者上半身等等。在一示例中,可以通过终端设备所配置的摄像设备,对检测对象的进行拍摄,以得到包含检测对象的待处理图像。
像素特征可以是与待处理图像中像素相关的信息,例如待处理图像中像素的颜色信息、单个像素中各个通道的分量值或者像素中各个通道的分量值之间的相对关系等等。
在该实施例中,服务器可以对包含有检测对象的待处理图像中的每个像素进行拆分,以得到每个像素的信息,并根据该每个像素的信息,获取待处理图像的像素特征。
应该理解的,像素是一个图像中不可再进行分割的组成单位,获取该图像的像素特征,则可以根据该像素特征,对图像的组成进行分析,以得到更加全面的分析结果。
在步骤S220中,对所述待处理图像进行边缘检测以提取所述检测对象的边缘作为第一图像,对所述待处理图像进行归一化处理,得到第二图像。
在该实施例中,对待处理图像进行处理,以得到第一图像和第二图像。具体地,可以采用边缘检测算法(例如拉普拉斯算子等)对待处理图像进行边缘检测,以提取检测对象的边缘即待处理图像的深度信息作为第一图像。由此,可在未配置有深度摄像头的情况下,通过第一图像模拟深度摄像头的拍摄效果。
然后,再对待处理图像进行归一化处理,得到第二图像。在一示例中,对待处理图像进行归一化处理可以是对待处理图像的RGB色彩空间进行归一化处理,例如,/>,/>,其中,R、G、B为待处理图像中某点的像素值,r、g、b为该点归一化后的像素值。需要说明的,除了本申请所提到的归一化处理方式以外,也可以采用其他现有的归一化处理方式,本申请对此不做特殊限定。由此,可以通过第二图像模拟红外镜头的拍摄效果。
在该实施例中,对待处理图像进行处理,以根据第一图像和第二图像分别模拟深度摄像头以及红外摄像头的拍摄效果,在设置单个摄像头的情况下,即可实现多种摄像头的拍摄效果,可以节省摄像头的设备成本。
在步骤S230中,将所述待处理图像、所述第一图像和所述第二图像输入至深度神经网络模型中,以使所述深度神经网络模型输出所述检测对象是否活体的第一判断结果。
在该实施例中,本领域技术人员可预先训练深度神经网络模型,并将待处理图像、第一图像以及第二图像作为训练完成的深度神经网络模型的输入,以使深度神经网络模型输出检测对象是否活体的第一判断结果。
应该理解的,由于对待处理图像进行处理得到第一图像和第二图像,用以模拟深度摄像头以及红外摄像头的拍摄效果,因此第一图像和第二图像可以以不同形式体现待处理图像所携带的信息,深度神经网络模型进行特征提取时也能够提取到待处理图像更多的特征信息,以此保证深度神经网络模型输出的第一判断结果的准确性。
在步骤S240中,将所述第一判断结果和所述像素特征输入至第一分类器中,使所述第一分类器输出所述检测对象是否活体的第二判断结果,以根据所述第二判断结果确定所述检测对象是否活体。
在该实施例中,将深度神经网络模型所输出的第一判断结果与待处理图像的像素特征作为第一分类器的输入,使第一分类器根据该第一判断结果和像素特征进行识别,以输出检测对象是否活体的第二判断结果,并根据该第二判断结果确定检测对象是否活体。
在图2所示的实施例中,通过对待处理图像进行处理以得到第一图像和第二图像,用以模拟不同摄像头的拍摄效果,以突出待处理图像所携带的不同形式的特征信息,由此提高了深度神经网络模型对待处理图像的特征提取的全面性,进而保证了深度神经网络模型输出的第一判断结果的准确性。另外,通过深度神经网络模型与第一分类器的级联设置以达到二次检测的目的,可以提高活体检测结果的准确性。
基于图2所示的实施例,图3示出了根据本申请的一个实施例的图2的活体检测方法中步骤S210的流程示意图。参照图3所示,步骤S210至少包括步骤S310至步骤S340,详细介绍如下:
在步骤S310中,获取待识别的包含检测对象的图像。
在本申请的一个实施例中,获取待识别的包含检测对象的图像,可以是使用终端设备所配置的摄像头对检测对象进行拍摄,以获取待识别的包含该检测对象的图像。
在本申请的另一个实施例中,获取待识别的包含检测对象的图像,也可以是通过终端设备所配置的摄像头对检测对象进行视频拍摄,将拍摄所得视频进行分帧处理以得到对应的视频帧集合。再从该视频帧集合中选取清晰的视频帧以作为待识别的包含检测对象的图像,由此可以避免单次拍摄可能导致的各种问题,例如图像模糊或对焦不准等问题。
在步骤S320中,根据所述图像,获取所述图像的像素特征。
在该实施例中,可以对待识别的包含有检测对象的图像中的每个像素进行拆分,以得到每个像素的信息,并根据该每个像素的信息,获取该图像的像素特征。
在步骤S330中,将所述像素特征输入至第二分类器中,使所述第二分类器输出所述图像的分类标签。
在该实施例中,分类标签可以包括黑白打印图像以及其他色彩图像,应该理解的,使用黑白打印图像冒充活体时,其像素特征与其他的色彩图像的像素特征有明显的区别,由此,将图像的像素特征输入至第二分类器中,以使第二分类器输出该图像中的检测对象是黑白打印图像或者其他色彩图像的分类标签,可以有效防止使用黑白打印图像冒充活体的情况发生。
在步骤S340中,将分类标签为指定类型的图像确定为所述待处理图像,并获取所述待处理图像的像素特征。
在该实施例中,分类标签为指定类型的图像可以是分类标签为其他色彩图像的图像,由此,通过第二分类器对所获取的待识别的包含检测对象的图像进行预筛选,以筛除掉使用黑白打印图像冒充活体的图像,提高了活体检测的效率,同时也提高了后续深度神经网络模型和第一分类器的判断结果的准确性。
基于图2和图3所示的实施例,图4示出了根据本申请的一个实施例的图3的活体检测方法中步骤S320的流程示意图。参照图4所示,所述图像为RGB图像,步骤S320至少包括步骤S410至步骤S420,详细介绍如下:
在步骤S410中,根据所述图像,获取所述图像中各个像素的每一通道的分量值。
在该实施例中,对该图像中的每个像素进行拆分,以得到各个像素对应的每一通道的分量值,例如在像素A中每一通道的分量值为R:125、G:230和B:90,在像素B中每一通道的分量值为R:130、G:120和B:90等等,由此可以得到每一像素的每一通道的分量值。
在步骤S420中,根据所述分量值,获取所述图像的像素特征。
在该实施例中,根据该图像中各个像素的每一通道的分量值,可以对应计算各个通道的分量值之间的相对关系,例如R通道与G通道的总分量值的比值、R通道的分量值之和占所有通道的分量值之和的比值等等。由此可以获取该图像的像素特征。
在图4所示的实施例中,通过对图像中的各个像素进行拆分,以得到每一像素中每一通道对应的分量值,再根据该分量值,获取图像的像素特征,由此,可以提高所获取的像素特征的准确性和全面性,进而可以保证后续识别结果的准确性。
基于图2、图3和图4所示的实施例,图5示出了根据本申请的一个实施例的图4的活体检测方法中步骤S420的流程示意图。参照图5所示,步骤S420至少包括步骤S510至步骤S520,详细介绍如下:
在步骤S510中,根据所述分量值,确定所述分量值中的特征值。
其中,特征值可以是具有特殊意义的数值所对应的分量值,例如重复数量最少的分量值或者重复数量最多的分量值等等。应该理解的,图像中各个像素的每一通道的分量值可以不同也可以相同,以深度为24的RGB图像为例,每一通道的分量用8位进行表示共24位,则该分量值的数值范围为0-255共256个值。基于多个像素,则某一数值所对应的分量值在同一通道内也可出现重复,例如在R通道中,数值为125的分量值的数量可以是多个,等等。由此,根据分量值所对应的数值进行计算,即可以确定分量值中的特征值。
在步骤S520中,根据所述特征值以及各个通道的分量值,确定所述图像的像素特征。
在该实施例中,根据所确定的特征值以及各个通道的分量值,可以计算特征值与各个通道的分量值之间的相对关系,例如可以计算某一通道中的特征值占该通道的分量值之和的比例或者某一通道中的特征值占所有通道的分量值之和的比例等等,从而可以确定该图像的像素特征。
在图5所示的实施例中,通过确定分量值中的特征值,并根据该特征值以及各个通道的分量值,可以快速计算图像的像素特征,以提高对图像的活体检测效率。
基于图2、图3、图4和图5所示的实施例,图6示出了根据本申请的一个实施例的图5的活体检测方法中步骤S510的流程示意图。参照图6所示,步骤S510至少包括步骤S610至步骤S620,详细介绍如下:
在步骤S610中,根据所述分量值,计算各个通道中每一数值对应的分量值数量。
在该实施例中,根据每一分量值所对应的数值,可以计算各个通道中每一数值对应的分量值的数量,例如在R通道中,数值为50的分量值共有650个、数值为60的分量值共有320个……,以此可以得到通道中每一数值所对应的分量值数量。
在本申请的一个实施例中,可以根据各个像素中每一通道的分量值,建立各个通道的分量值分布直方图,例如三个像素的分量值[R,G,B]分别为:[50,50,35]、[1,50,2]和[100,50,35],对R通道的分量值进行统计则可以得到R通道对应的分量值分布直方图为:
(分量值:出现次数)
0:0
1:1
2-49:0
50:1
51-99:0
100:1
101-255:0
由此,可以清楚得到某一通道中某一数值所出现的次数即分量值数量,以快速确定分量值中的特征值。
在步骤S620中,根据所述分量值数量,确定所述分量值中的特征值。
在该实施例中,根据每一数值所对应的分量值数量,选取分量值数量最多的数值所对应的分量值以及分量值数量最少的数值所对应的分量值作为分量值中的特征值。
在图6所示的实施例中,通过确定各个通道中每一数值对应的分量值数量,可以快速确定分量值中的特征值,进而可以提高图像的像素特征的获取效率。
基于图2所示的实施例,图7示出了根据本申请的一个实施例的活体检测方法中进行图像融合的流程示意图。参照图7所示,将所述待处理图像、所述第一图像和所述第二图像输入至深度神经网络模型中至少包括步骤S710至步骤S730,详细介绍如下:
在步骤S710中,将所述待处理图像、所述第一图像和所述第二图像分别转换成对应于不同通道的单通道图像。
在该实施例中,可以将待处理图像、第一图像和第二图像分别转换成对应于不同通道的单通道图像,例如,可以将待处理图像转换成R通道的单通道图像、将第一图像转换成G通道的单通道图像和将第二图像转换成B通道的单通道图像,等等。
需要说明的,图像与通道之间的对应关系并不是唯一的,例如也可以将待处理图像转换成G通道的单通道图像、将第一图像转换成R通道的单通道图像以及将第二图像转换成B通道的单通道图像等等。以上仅为示例性举例,本申请对此不做特殊限定。
应该理解的,在采用深度神经网络模型进行训练以及识别时,应注意图像与通道之间的对应关系的统一,以保证深度神经网络模型输出的判断结果的准确性。
在步骤S720中,将所述单通道图像进行融合,得到包含至少两个通道的多通道图像。
在该实施例中,将转换得到的单通道图像进行融合,例如R通道的单通道图像与G通道的单通道图像进行融合、或者G通道的单通道图像与B通道的单通道图像进行融合等等。由此可以减少深度神经网络模型的输入数量,以提高深度神经网络模型的识别效率。
在步骤S730中,将所述多通道图像输入至所述深度神经网络模型中。
在图7所示的实施例中,通过将待处理图像、第一图像以及第二图像转换成对应于不同通道的单通道图像,再对多个单通道图像进行融合得到包含至少两个通道的多通道图像,由此可以减少深度神经网络模型的输入数量,以提高深度神经网络模型的识别效率。
基于图2和图7所示的实施例,在本申请的一个实施例中,7.根据所述单通道图像,得到包含至少两个通道的多通道图像,包括:
将所述单通道图像进行融合,得到包含三个通道的多通道图像。
在该实施例中,将待处理图像、第一图像和第二图像转换成的三张单通道图像进行融合,以得到包含三个通道的多通道图像。由此,将深度神经网络模型中原本需要的三个输入减少为只需一个输入即可,达到减少深度神经网络模型的输入量的目的,以提高深度神经网络模型的识别效率。
基于上述实施例的技术方案,以下介绍本申请的一个实施例的一个具体的应用场景:
图8示出了根据本申请的一个实施例的活体检测方法的流程示意图(以下以人脸为检测对象为例进行说明)。
如图8所示,采集部件M1可以获取包含有人脸的原始人脸图像(即待识别的包含有检测对象的图像),并将该原始人脸图像发送至图像转换部件M3,以根据原始人脸图像进行转换得到处理后的图像1、图像2、…、图像n(即第一图像、第二图像、单通道图像和多通道图像等等),活体判别模块M3则可以对原始人脸图像进行RGB分析以得到原始人脸图像的像素特征,并将原始人脸图像以及处理后的图像1、图像2、…、图像n输入至深度神经网络模型中,以使该深度神经网络模型输出对检测对象是否活体的第一判断结果。再将该第一判断结果和原始人脸图像的像素特征输入至分类器中以输出第二判断结果。
由此,对原始人脸图像进行处理,得到第一图像和第二图像,可以获取检测对象的多维信息,以保证后续识别结果的准确性,且深度神经网络模型与分类器相结合,可以提高识别结果的准确性,进而保证了人脸识别系统的安全性。
以下介绍本申请的装置实施例,可以用于执行本申请上述实施例中的活体检测方法。对于本申请装置实施例中未披露的细节,请参照本申请上述的活体检测方法的实施例。
图9示出了根据本申请的一个实施例的活体检测装置的框图。
参照图9所示,根据本申请的一个实施例的活体检测装置,包括:
获取模块910,用于根据包含检测对象的待处理图像,获取所述待处理图像的像素特征;
转换模块920,用于对所述待处理图像进行边缘检测以提取所述检测对象的边缘作为第一图像,对所述待处理图像进行归一化处理,得到第二图像;
第一处理模块930,用于将所述待处理图像、所述第一图像和所述第二图像输入至深度神经网络模型中,以使所述深度神经网络模型输出所述检测对象是否活体的第一判断结果;
第二处理模块940,用于将所述第一判断结果和所述像素特征输入至第一分类器中,使所述第一分类器输出所述检测对象是否活体的第二判断结果,以根据所述第二判断结果确定所述检测对象是否活体。
图10示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图10示出的电子设备的计算机系统仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图10所示,计算机系统包括中央处理单元(Central Processing Unit,CPU)1001,其可以根据存储在只读存储器(Read-Only Memory,ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(Random Access Memory,RAM)1003中的程序而执行各种适当的动作和处理,例如执行上述实施例中所述的方法。在RAM 1003中,还存储有系统操作所需的各种程序和数据。CPU 1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(Input /Output,I/O)接口1005也连接至总线1004。
以下部件连接至I/O接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN(Local AreaNetwork,局域网)卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的计算机程序。在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被中央处理单元(CPU)1001执行时,执行本申请的系统中限定的各种功能。
需要说明的是,本申请实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的计算机程序。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的计算机程序可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。其中,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本申请实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的实施方式后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (6)

1.一种活体检测方法,其特征在于,包括:
根据包含检测对象的待处理图像,获取所述待处理图像的第一像素特征,所述第一像素特征是与待处理图像中像素相关的信息,包括待处理图像中像素的颜色信息、单个像素中各个通道的分量值或者像素中各个通道的分量值之间的相对关系;
对所述待处理图像进行边缘检测以提取所述检测对象的边缘作为第一图像,对所述待处理图像进行归一化处理,得到第二图像;
将所述待处理图像、所述第一图像和所述第二图像输入至深度神经网络模型中,以使所述深度神经网络模型输出所述检测对象是否活体的第一判断结果;
将所述第一判断结果和所述第一像素特征输入至第一分类器中,使所述第一分类器输出所述检测对象是否活体的第二判断结果,以根据所述第二判断结果确定所述检测对象是否活体;所述根据包含检测对象的待处理图像,获取所述待处理图像的第一像素特征,具体包括:
获取待识别的包含检测对象的RGB图像;
根据所述RGB图像,获取所述RGB图像的第二像素特征,包括:根据所述RGB图像,获取所述RGB图像中各个像素的每一通道的分量值;根据所述分量值,计算各个通道中每一数值对应的分量值数量,根据每一数值对应的分量值数量,选取分量值数量最多的数值所对应的分量值以及分量值数量最少的数值所对应的分量值作为所述分量值中的特征值,根据所述的特征值以及各个通道的分量值,计算所述特征值与各个通道的分量值之间的相对关系,确定所述RGB图像的第二像素特征;
将所述第二像素特征输入至第二分类器中,使所述第二分类器输出所述RGB图像的分类标签,所述分类标签包括黑白打印图像以及其他色彩图像;
将分类标签为指定类型的图像确定为所述待处理图像,并获取所述待处理图像的第一像素特征,所述指定类型的图像是其他色彩图像。
2.根据权利要求1所述的方法,其特征在于,将所述待处理图像、所述第一图像和所述第二图像输入至深度神经网络模型中,包括:
将所述待处理图像、所述第一图像和所述第二图像分别转换成对应于不同通道的单通道图像;
将所述单通道图像进行融合,得到包含至少两个通道的多通道图像;
将所述多通道图像输入至所述深度神经网络模型中。
3.根据权利要求2所述的方法,其特征在于,根据所述单通道图像,得到包含至少两个通道的多通道图像,包括:
将所述单通道图像进行融合,得到包含三个通道的多通道图像。
4.一种活体检测装置,其特征在于,包括:
获取模块,用于根据包含检测对象的待处理图像,获取所述待处理图像的第一像素特征,所述第一像素特征是与待处理图像中像素相关的信息,包括待处理图像中像素的颜色信息、单个像素中各个通道的分量值或者像素中各个通道的分量值之间的相对关系;
转换模块,用于对所述待处理图像进行边缘检测以提取所述检测对象的边缘作为第一图像,对所述待处理图像进行归一化处理,得到第二图像;
第一处理模块,用于将所述待处理图像、所述第一图像和所述第二图像输入至深度神经网络模型中,以使所述深度神经网络模型输出所述检测对象是否活体的第一判断结果;
第二处理模块,用于将所述第一判断结果和所述第一像素特征输入至第一分类器中,使所述第一分类器输出所述检测对象是否活体的第二判断结果,以根据所述第二判断结果确定所述检测对象是否活体;
所述获取模块,用于根据包含检测对象的待处理图像,获取所述待处理图像的第一像素特征,具体包括:
获取待识别的包含检测对象的RGB图像;
根据所述RGB图像,获取所述RGB图像的第二像素特征,包括:根据所述RGB图像,获取所述RGB图像中各个像素的每一通道的分量值;根据所述分量值,计算各个通道中每一数值对应的分量值数量,根据每一数值对应的分量值数量,选取分量值数量最多的数值所对应的分量值以及分量值数量最少的数值所对应的分量值作为所述分量值中的特征值,根据所述的特征值以及各个通道的分量值,计算所述特征值与各个通道的分量值之间的相对关系,确定所述RGB图像的第二像素特征;
将所述第二像素特征输入至第二分类器中,使所述第二分类器输出所述RGB图像的分类标签,所述分类标签包括黑白打印图像以及其他色彩图像;
将分类标签为指定类型的图像确定为所述待处理图像,并获取所述待处理图像的第一像素特征,所述指定类型的图像是其他色彩图像。
5.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3中任一项所述的活体检测方法。
6.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至3中任一项所述的活体检测方法。
CN202010510940.0A 2020-06-08 2020-06-08 活体检测方法、装置、计算机可读介质及电子设备 Active CN111666884B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010510940.0A CN111666884B (zh) 2020-06-08 2020-06-08 活体检测方法、装置、计算机可读介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010510940.0A CN111666884B (zh) 2020-06-08 2020-06-08 活体检测方法、装置、计算机可读介质及电子设备

Publications (2)

Publication Number Publication Date
CN111666884A CN111666884A (zh) 2020-09-15
CN111666884B true CN111666884B (zh) 2023-08-25

Family

ID=72387039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010510940.0A Active CN111666884B (zh) 2020-06-08 2020-06-08 活体检测方法、装置、计算机可读介质及电子设备

Country Status (1)

Country Link
CN (1) CN111666884B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132000B (zh) * 2020-09-18 2024-01-23 睿云联(厦门)网络通讯技术有限公司 一种活体检测方法、装置、计算机可读介质及电子设备
CN112926497A (zh) * 2021-03-20 2021-06-08 杭州知存智能科技有限公司 基于多通道数据特征融合的人脸识别活体检测方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171158A (zh) * 2017-12-27 2018-06-15 北京迈格威科技有限公司 活体检测方法、装置、电子设备及存储介质
CN109034102A (zh) * 2018-08-14 2018-12-18 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及存储介质
CN109086718A (zh) * 2018-08-02 2018-12-25 深圳市华付信息技术有限公司 活体检测方法、装置、计算机设备及存储介质
CN110222573A (zh) * 2019-05-07 2019-09-10 平安科技(深圳)有限公司 人脸识别方法、装置、计算机设备及存储介质
CN110520865A (zh) * 2019-06-27 2019-11-29 深圳市汇顶科技股份有限公司 人脸识别的方法、装置和电子设备
CN111191521A (zh) * 2019-12-11 2020-05-22 智慧眼科技股份有限公司 人脸活体检测方法、装置、计算机设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107590430A (zh) * 2017-07-26 2018-01-16 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171158A (zh) * 2017-12-27 2018-06-15 北京迈格威科技有限公司 活体检测方法、装置、电子设备及存储介质
CN109086718A (zh) * 2018-08-02 2018-12-25 深圳市华付信息技术有限公司 活体检测方法、装置、计算机设备及存储介质
CN109034102A (zh) * 2018-08-14 2018-12-18 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及存储介质
CN110222573A (zh) * 2019-05-07 2019-09-10 平安科技(深圳)有限公司 人脸识别方法、装置、计算机设备及存储介质
CN110520865A (zh) * 2019-06-27 2019-11-29 深圳市汇顶科技股份有限公司 人脸识别的方法、装置和电子设备
CN111191521A (zh) * 2019-12-11 2020-05-22 智慧眼科技股份有限公司 人脸活体检测方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN111666884A (zh) 2020-09-15

Similar Documents

Publication Publication Date Title
CN110705405B (zh) 目标标注的方法及装置
CN111242097B (zh) 一种人脸识别方法、装置、计算机可读介质及电子设备
EP3989104A1 (en) Facial feature extraction model training method and apparatus, facial feature extraction method and apparatus, device, and storage medium
KR102002024B1 (ko) 객체 라벨링 처리 방법 및 객체 관리 서버
CN111062389A (zh) 文字识别方法、装置、计算机可读介质及电子设备
CN111666884B (zh) 活体检测方法、装置、计算机可读介质及电子设备
CN112487848A (zh) 文字识别方法和终端设备
CN111080595A (zh) 图像处理方法、装置、电子设备及计算机可读介质
EP3471018B1 (en) Method and apparatus for evaluating illumination condition in face image
CN105678301B (zh) 一种自动识别并分割文本图像的方法、系统及装置
CN112036295A (zh) 票据图像处理方法、装置、存储介质及电子设备
CN111144215B (zh) 图像处理方法、装置、电子设备及存储介质
CN113763370A (zh) 数字病理图像的处理方法、装置、电子设备及存储介质
CN112132000B (zh) 一种活体检测方法、装置、计算机可读介质及电子设备
CN112749696A (zh) 一种文本检测方法及装置
CN114255493A (zh) 图像检测方法、人脸检测方法及装置、设备及存储介质
CN114708582B (zh) 基于ai和rpa的电力数据智慧稽查方法及装置
CN116433936A (zh) 图像检测方法、装置、电子设备及存储介质
CN114332993A (zh) 人脸识别方法、装置、电子设备及计算机可读存储介质
CN108921792B (zh) 用于处理图片的方法和装置
CN109934045B (zh) 行人检测方法和装置
CN111899239A (zh) 图像处理方法和装置
CN112016348A (zh) 一种人脸真伪识别方法和装置
CN115375954B (zh) 一种化学实验溶液识别方法、装置、设备及可读存储介质
CN103971111A (zh) 图像处理方法以及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant