CN110069983A - 基于显示媒质的活体识别方法、装置、终端及可读介质 - Google Patents
基于显示媒质的活体识别方法、装置、终端及可读介质 Download PDFInfo
- Publication number
- CN110069983A CN110069983A CN201910176425.0A CN201910176425A CN110069983A CN 110069983 A CN110069983 A CN 110069983A CN 201910176425 A CN201910176425 A CN 201910176425A CN 110069983 A CN110069983 A CN 110069983A
- Authority
- CN
- China
- Prior art keywords
- video
- facial image
- identified
- image region
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种基于显示媒质的活体识别方法、装置、终端及计算机可读介质,其中,所述方法包括:获取待识别视频并进行人脸识别,获取对应的第一人脸图像区域;按照预设的外扩方式,在待识别视频中将第一人脸图像区域向外扩展,在扩展的第一人脸图像区域的边缘达到或超出待识别视频的边界时,将待识别视频像的边界作为第一人脸图像区域的边界,将扩展后的第一人脸图像区域作为第一目标扩展窗口;获取第一目标扩展窗口对应的第一特征向量;将第一特征向量输入训练完成的目标分类器,输出活体识别结果。采用本发明实施例,通过检测包含人脸的窗口是否存在于显示媒介对应的边界来判断是否为活体,提高了人脸识别场景中的活体识别的准确率。
Description
技术领域
本发明涉及图像处理及人脸识别技术领域,具体涉及一种基于显示媒质的活体识别方法、装置、终端及计算机可读介质。
背景技术
随着计算机技术和人工智能技术的发展,人脸识别技术已比较成熟且应用广泛,例如,在很多应用场景下,均采用人脸识别来识别用户身份。虽说人脸识别技术具有较高的准确度,但是也存在一个问题,即如何检测图像确认为真人,而不是照片、视频或者其他显示媒介,或者带面具伪装等欺骗图像;也就是说,在用户用照片或视频中的人脸来替代实际人脸的情况下,如何识别当前检测到的人脸是否为活体。
目前,用于活体识别的方法主要有以下几种:第一种,基于动作,需要用户主动配合做出指定的动作,例如眨眼,摇头等,此方法可防止照片欺骗,但是对于视频或面具欺骗等行为,该方法作用较小;第二种,基于光流场,通过连续几帧图像,计算人脸位置的光流场变化,来区分平面和3D物体,但是对于面具等欺骗行为,该方法作用较小;第三种,基于颜色纹理,通过分析真人颜色纹理与照片,视频,面具等图像颜色纹理的差异来确认是否为真人,理论上说此方法可以识别各种方式的欺骗行为,然而现有技术中基于颜色纹理的识别方法,由于不能精确定位人脸位置、提取LBP(Local Binary Pattern,局部二值模式)特征时丢失颜色信息以及在计算是没有突出明显位置特征,也存在识别准确率不高的问题。
也就是说,在现有的人脸识别场景中的活体识别的技术方案中,对于活体识别的识别准确率存在一定的不足。
发明内容
针对上述相关技术方案中存在的技术问题,在本发明中,提供了一种基于显示媒介的活体识别方法、装置、终端及计算机可读介质,通过检测包含人脸的窗口是否存在于显示媒介对应的边界来判断是否为活体,可提高人脸识别场景中的活体识别的准确率。
本发明解决上述技术问题的技术方案如下:
本发明第一方面提供一种基于显示媒质的活体识别方法,所述方法包括:
获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域;
按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口;
通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量;
将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
在一个可选的实施例中,所述方法还包括:获取训练视频集,所述训练视频集包括多个样本视频及与所述样本视频对应的样本识别结果;对所述样本视频进行人脸识别,获取样本视频的第二人脸图像区域;按照预设的外扩方式,在所述样本视频中将所述第二人脸图像区域向外扩展,在所述扩展的第二人脸图像区域的边缘达到或超出所述样本视频的边界时,将所述样本视频的边界作为第二人脸图像区域的边界,并将扩展后的第二人脸图像区域作为第二目标扩展窗口;通过所述特征提取算法,获取所述第二目标扩展窗口对应的第二特征向量;根据所述训练集包括的多个样本视频及其对应的样本识别结果、第二特征向量对预设的分类器进行训练,获取训练完成的目标分类器。
在一个可选的实施例中,所述通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量的步骤,还包括:通过预设的特征提取算法,获取所述第一目标扩展窗口的LBP特征或HOG特征。
在一个可选的实施例中,所述通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量的步骤,还包括:按照预设的格子划分将所述第一目标扩展窗口划分成若干个第一子格子;在每个第一子格子中,通过预设的特征提取算法,获取该第一子格子下的第一子特征向量;将第一子格子的第一子特征向量作为所述第一目标扩展窗口对应的第一特征向量。
在一个可选的实施例中,所述按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口的步骤,还包括:按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域逐次向外扩展;针对所述第一人脸图像区域的每一条边缘,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界;在所述第一人脸图像区域的预设条数的边缘达到或超出所述待识别视频的边界的情况下,将扩展后的第一人脸图像区域作为第一目标扩展窗口。
在一个可选的实施例中,所述对所述待识别视频进行人脸识别的步骤之后,还包括:在识别到人脸的情况下,对所述待识别视频包含的视频帧进行人脸识别监控。
在一个可选的实施例中,所述对所述待识别视频包含的视频帧进行人脸识别监测的步骤之后,还包括:在识别到人脸的情况下,对所述待识别视频包含的视频帧进行人体识别监控。
本发明的第二方面提供了一种基于显示媒质的活体识别装置,所述装置包括:
模型训练模块,用于获取训练视频集,所述训练视频集包括多个样本视频及与所述样本视频对应的样本识别结果;对所述样本视频进行人脸识别,获取样本视频的第二人脸图像区域,按照预设的外扩方式,获取扩展后的第二人脸图像区域作为第二目标扩展窗口,通过所述特征提取算法,获取所述第二目标扩展窗口对应的第二特征向量,根据所述训练集包括的多个样本视频及其对应的样本识别结果、第二特征向量对预设的分类器进行训练,获取训练完成的目标分类器;
人脸识别模块,用于获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域;
特征提取模块,用于按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口,通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量;
活体识别模块,用于将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
在本发明的第三方面,还提出了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:
获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域;
按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口;
通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量;
将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
在本发明的第四方面,还提出了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:
获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域;
按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口;
通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量;
将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
实施本发明实施例,将具有如下有益效果:
采用了上述基于显示媒质的活体识别方法、装置、终端及计算机可读介质之后,在用户身份识别的人脸识别的情况下,对于需要进行识别的视频进行人脸识别,并且通过外扩的方式将识别到的人脸图像区域进行外扩,获取在有显示媒介下包含了显示媒介的边界的图像区域,然后对该外扩后的图像区域进行特征提取,并对提取到的特征向量进行活体识别,并且,对特征向量进行活体识别的过程是通过预先设置的训练集训练完成的分类器。通过上述基于显示媒质的活体识别方法、装置、终端及计算机可读介质,可以在用户身份识别的人脸识别的过程中对人脸是否为活体进行活体识别,以提高用户身份识别准确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为一个实施例中一种基于显示媒质的活体识别方法的流程示意图;
图2为一个实施例中特征向量获取的流程示意图;
图3为一个实施例中图像区域的区域划分示意图;
图4为一个实施例中图像区域的区域划分示意图;
图5为一个实施例中一种基于显示媒质的活体识别方法中的目标分类器的训练方法的流程示意图;
图6为一个实施例中一种基于显示媒介的活体识别装置的结构示意图;
图7为一个实施例中运行上述基于显示媒介的活体识别方法的计算机设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本实施例中,特提出了一种基于显示媒质的活体识别方法,该方法的实现可依赖于计算机程序,该计算机程序可运行于基于冯诺依曼体系的计算机系统之上,该计算机程序可以是对用户身份进行识别的人脸识别、活体识别的应用程序。该计算机系统可以是运行上述计算机程序的例如智能手机、平板电脑、个人电脑等计算机设备。
需要说明的是,在通过图像或视频图像对用户的身份进行识别的过程中,虽然可以通过人脸识别来识别用户的身份,但是无法确定识别到的人脸是否对应为真人,而不是照片、视频或者其他显示媒介,或者带面具伪装等欺骗图像。因此,在对用户进行人脸识别来进行身份识别的过程中,还需要进行活体识别,从而真正提高人脸识别的准确性。
如图1所示,在一个实施例中,提供了一种基于显示媒质的活体识别方法,具体包括如下步骤S102-S108:
步骤S102:获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域。
待识别视频需要进行活体识别的预先采集的视频、或者通过摄像头采集的视频图像。例如,待识别视频可以是在人脸识别的过程中通过摄像头采集的视频图像。在获取到待识别视频之后,通过对待识别视频包含的每一帧图像帧进行人脸识别来检测待识别视频中包含人脸的窗口,即为第一人脸图像区域。
在本实施例中,通过预设的人脸识别方法获取待识别视频中的人脸,并获取识别到的人脸对应的第一人脸图像区域。例如,采用MTCNN(Multi-task convolutional neuralnetwork,多任务卷积神经网络)算法或者其他人脸识别算法对待识别视频进行人脸识别。
在另一个实施例中,也可以是通过预设的人脸特征识别方法,对待识别视频进行识别,识别待识别视频中的五官等人脸特征,对人脸进行切割,获取仅包含有五官的图像区域作为第一人脸图像区域(也就是说,第一人脸图像区域不包含头发、耳朵或背景图像等,可以提高人脸识别的准确性)。
在一个具体的实施例中,上述人脸特征识别方式可以是通过landmark算法对待识别视频中的人脸进行切割。
步骤S104:按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口。
以第一人脸图像区域作为中心,向外进行多种比例的外扩,例如,依次进行2、4、8倍的外扩,获取外扩后的多个窗口,作为第一目标扩展窗口。需要说明的是,在外扩的过程中,可能外口后的图像区域到达或超出了原待识别视频对应的图像帧的边界,在此种情况下,则将原待识别视频对应的图像帧的边界直接作为该外扩窗口的边界,并作为第一目标扩展窗口。
需要说明的是,在本实施例中,第一目标扩展窗口的数量可以是1个(扩展的最大的第一人脸图像区域对应的图像区域),也可以是多个(每一次外扩得到的图像区域)。
在一个具体的实施例中,上述步骤S104还包括:按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域逐次向外扩展;针对所述第一人脸图像区域的每一条边缘,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界;在所述第一人脸图像区域的预设条数的边缘达到或超出所述待识别视频的边界的情况下,将扩展后的第一人脸图像区域作为第一目标扩展窗口。
也就是说,按照预设的外扩比例进行图像区域的外扩过程中,可以是外扩指定的次数,也可以是按比例扩展直至上述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界的情况下终止。
在一个具体的实施例中,将第一人脸图像区域进行外扩的过程中,可以是在第一人脸图像区域的一个边缘超出所述待识别视频的边界的情况下终止,也可以是2个边缘、3个边缘或者4个边缘。在一个优选的实施例中,优选为在第一人脸图像区域的3个边缘超出所述待识别视频的边界的情况下终止。
考虑到作为非活体的攻击物体(包含人脸的照片、视频或其他显示媒介)进入到摄像头的视野中需要一个过程,一般是由远及近或者从侧面进入的,因此,该攻击物体对应的显示媒介是具有一个边界的。在本实施例中,将第一人脸图像区域向外扩展,从而使得扩展后的第一人脸图像区域对应的窗口能包含对应的显示媒介的边界,并对该边界进行检测和识别。也就是说,在本实施例中,通过将第一人脸图像区域进行不断的外扩来将可能存在的显示媒介的边界囊括进进行进一步的特征提取和检测的图像区域中,以确保包含人脸的图像区域中是否存在显示媒介的边界的进一步的特征检测的准确性。
步骤S106:通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量。
在通过对第一人脸图像区域进行外扩获取到对应的第一目标扩展窗口之后,即可在该窗口中进行特征提取和活体识别。具体的,对第一目标扩展窗口对应的图像进行特征提取,获取对应的特征向量。例如,按照预设的特征提取算法提取第一目标扩展窗口对应的第一特征向量;或者,按照预设的特征提取算法,获取所述第一目标扩展窗口的LBP(LocalBinary Pattern,局部二值模式)特征或HOG(方向梯度直方图,Histogram of OrientedGradient)特征。
进一步的,在另一个实施例中,为了尽可能的保留显示媒介的边界对应的特征,在本实施例中,在对第一目标扩展窗口对应的图像区域进行特征提取时,还可以将第一目标扩展窗口进行分区,并再每一个子区中进行特征提取,然后将每一个子区对应的特征向量进行级联作为与第一目标扩展窗口对应的第一特征向量。
具体的,如图2所示,上述通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量的步骤,还包括:
步骤S202:按照预设的格子划分将所述第一目标扩展窗口划分成若干个第一子格子;
步骤S204:在每个第一子格子中,通过预设的特征提取算法,获取该第一子格子下的第一子特征向量;
步骤S206:将第一子格子的第一子特征向量作为所述第一目标扩展窗口对应的第一特征向量。
如图3所示,A1表示第一目标扩展窗口对应的图像区域,通过均匀划分的方式,可以将A1划分成a1、a2、a3、a4这4个子格子,并按照上述的特征提取算法,分别对a1、a2、a3、a4进行特征提取。b1、b2、b3、b4分别表示对a1、a2、a3、a4进行特征提取得到的子特征向量,则第一目标扩展窗口A1对应的特征向量b=(b1,b2,b3,b4),即b为第一特征向量。
在另一个可选的实施例中,还可以将第一目标扩展窗口对应的图像区域横竖分别划分成4格、8格(如图4所示)等。
步骤S108:将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
在本实施例中,目标分类器是通过预先设置的训练视频集进行训练完成之后的分类器,例如,MLP(Multi-Layer Perceptron,多层感知器)分类器或SVM(支持向量机,Support Vector Machine)分类器。通过该目标分类器可以对步骤S106中提取到的特征向量进行活体识别,获取对应的活体识别结果。
在本实施例中,在步骤S106中计算得到第一特征向量之后,将所述第一特征向量输入所述目标分类器,从而获取目标分类器输出的活体识别结果。
在一个具体的实施例中,上述MLP分类器或者SVM分类器为一种基于神经网络的分类器,在经过训练视频集的训练之后,可以对相应的视频对应的人脸进行活体识别。需要说明的是,在本实施例中,上述MLP分类器或者SVM分类器还可以是其他神经网络模型或人工智能模型。
进一步的,如图5所示,在本实施例中,还提供了上述基于显示媒质的活体识别方法中的目标分类器的训练方法。具体的,包括如图5所示的步骤S502-S510:
步骤S502:获取训练视频集,所述训练视频集包括多个样本视频及与所述样本视频对应的样本识别结果;
步骤S504:对所述样本视频进行人脸识别,获取样本视频的第二人脸图像区域;
步骤S506:按照预设的外扩方式,在所述样本视频中将所述第二人脸图像区域向外扩展,在所述扩展的第二人脸图像区域的边缘达到或超出所述样本视频的边界时,将所述样本视频的边界作为第二人脸图像区域的边界,并将扩展后的第二人脸图像区域作为第二目标扩展窗口;
步骤S508:通过所述特征提取算法,获取所述第二目标扩展窗口对应的第二特征向量;
步骤S510:根据所述训练集包括的多个样本视频及其对应的样本识别结果、第二特征向量对预设的分类器进行训练,获取训练完成的目标分类器。
上述样本视频包含了多个视频,每一个视频对应了采集到的用户身份识别过程采集的人脸图像,且每一个视频中对应的人脸是否为活体的活体识别结果(样本识别结果)也包含在内。上述提取样本视频的第二特征向量的过程与步骤S102-S108中采集待识别视频的第一特征向量的过程一致,且这两个过程中提取特征向量的方法必须保持一致,才能保证后续的活体识别结果的准确度。
在对目标分类器进行训练的过程中,将样本视频对应的第二特征向量作为输入,将样本视频对应的样本识别结果作为输出,对目标分类器进行训练。进一步的,在本实施例中,还可以对样本视频的一部分作为训练样本,另一部分作为验证样本,在验证样本的活体识别率达到一定的阈值的情况下,才认定为目标分类器训练完成。
在某些情况下,需要对某一个长视频或者摄像头采集到的数据持续性的进行检测,也就是说,在对待识别视频进行人脸检测的过程中,需要对待识别视频进行人脸识别的检测。为了对人脸进行更好的识别,在本实施例中,在检测到人脸之后,可以启动一个人脸跟踪器,用于跟踪人脸在待识别视频中的移动过程。并且,在上述活体识别的过程中,一旦检测到显示媒介的存在(即活体识别结果为非活体),则进行相应的提醒或报警,并不再继续活体识别的过程。
但是,在人脸转动或姿态的变换可能导致针对人脸跟踪器丢失,从而造成误判或者对算法的准确度造成影响。因此,在本实施例中,在检测到人脸并启动人脸跟踪器时,还可以启动人体跟踪器,即对人体图像进行跟踪识别,避免因为人脸的动作变化出现的误差。
进一步的,如图6所示,在本实施例中,还提出了一种基于显示媒质的活体识别装置,所述装置包括:
模型训练模块602,用于获取训练视频集,所述训练视频集包括多个样本视频及与所述样本视频对应的样本识别结果;对所述样本视频进行人脸识别,获取样本视频的第二人脸图像区域,按照预设的外扩方式,获取扩展后的第二人脸图像区域作为第二目标扩展窗口,通过所述特征提取算法,获取所述第二目标扩展窗口对应的第二特征向量,根据所述训练集包括的多个样本视频及其对应的样本识别结果、第二特征向量对预设的分类器进行训练,获取训练完成的目标分类器;
人脸识别模块604,用于获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域;
特征提取模块606,用于按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口,通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量;
活体识别模块608,用于将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
在一个可选的实施例中,上述特征提取模块606还用于通过预设的特征提取算法,获取所述第一目标扩展窗口的LBP特征或HOG特征。
在一个可选的实施例中,上述特征提取模块606还用于按照预设的格子划分将所述第一目标扩展窗口划分成若干个第一子格子;在每个第一子格子中,通过预设的特征提取算法,获取该第一子格子下的第一子特征向量;将第一子格子的第一子特征向量作为所述第一目标扩展窗口对应的第一特征向量。
在一个可选的实施例中,上述特征提取模块606还用于按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域逐次向外扩展;针对所述第一人脸图像区域的每一条边缘,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界;在所述第一人脸图像区域的预设条数的边缘达到或超出所述待识别视频的边界的情况下,将扩展后的第一人脸图像区域作为第一目标扩展窗口。
在一个可选的实施例中,上述人脸识别模块604还用于在识别到人脸的情况下,对所述待识别视频包含的视频帧进行人脸识别监控。
在一个可选的实施例中,上述人脸识别模块604还用于在识别到人脸的情况下,对所述待识别视频包含的视频帧进行人体识别监控。
图7示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是服务器。如图7所示,该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现短文本过滤方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行基于显示媒质的活体识别方法。网络接口用于与外部进行通信。本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的基于显示媒质的活体识别方法可以实现为一种计算机程序的形式,计算机程序可在如图7所示的计算机设备上运行。计算机设备的存储器中可存储组成短文本过滤装置的各个程序模板。比如,模型训练模块602、人脸识别模块604、特征提取模块606、活体识别模块608。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
上述计算机设备,在其中一个实施例中,上述计算机程序被所述处理器执行时,还用于执行以下步骤:
获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域;
按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口;
通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量;
将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
在其中一个实施例中,上述计算机程序被所述处理器执行时,还用于执行以下步骤:
获取训练视频集,所述训练视频集包括多个样本视频及与所述样本视频对应的样本识别结果;
对所述样本视频进行人脸识别,获取样本视频的第二人脸图像区域;
按照预设的外扩方式,在所述样本视频中将所述第二人脸图像区域向外扩展,在所述扩展的第二人脸图像区域的边缘达到或超出所述样本视频的边界时,将所述样本视频的边界作为第二人脸图像区域的边界,并将扩展后的第二人脸图像区域作为第二目标扩展窗口;
通过所述特征提取算法,获取所述第二目标扩展窗口对应的第二特征向量;
根据所述训练集包括的多个样本视频及其对应的样本识别结果、第二特征向量对预设的分类器进行训练,获取训练完成的目标分类器。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域;
按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口;
通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量;
将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
在其中一个实施例中,上述计算机程序被所述处理器执行时,还用于执行以下步骤:
获取训练视频集,所述训练视频集包括多个样本视频及与所述样本视频对应的样本识别结果;
对所述样本视频进行人脸识别,获取样本视频的第二人脸图像区域;
按照预设的外扩方式,在所述样本视频中将所述第二人脸图像区域向外扩展,在所述扩展的第二人脸图像区域的边缘达到或超出所述样本视频的边界时,将所述样本视频的边界作为第二人脸图像区域的边界,并将扩展后的第二人脸图像区域作为第二目标扩展窗口;
通过所述特征提取算法,获取所述第二目标扩展窗口对应的第二特征向量;
根据所述训练集包括的多个样本视频及其对应的样本识别结果、第二特征向量对预设的分类器进行训练,获取训练完成的目标分类器。
需要说明的是,上述基于显示媒质的活体识别方法、基于显示媒质的活体识别装置、计算机设备和计算机可读存储介质属于同一个发明构思,基于显示媒质的活体识别、基于显示媒质的活体识别装置、计算机设备和计算机可读存储介质中涉及的内容可相互适用。
实施本发明实施例,将具有如下有益效果:
采用了上述基于显示媒质的活体识别方法、装置、终端及计算机可读介质之后,在用户身份识别的人脸识别的情况下,对于需要进行识别的视频进行人脸识别,并且通过外扩的方式将识别到的人脸图像区域进行外扩,获取在有显示媒介下包含了显示媒介的边界的图像区域,然后对该外扩后的图像区域进行特征提取,并对提取到的特征向量进行活体识别,并且,对特征向量进行活体识别的过程是通过预先设置的训练集训练完成的分类器。通过上述基于显示媒质的活体识别方法、装置、终端及计算机可读介质,可以在用户身份识别的人脸识别的过程中对人脸是否为活体进行活体识别,以提高用户身份识别准确度。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于显示媒质的活体识别方法,其特征在于,所述方法包括:
获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域;
按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口;
通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量;
将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
2.根据权利要求1所述的基于显示媒质的活体识别方法,其特征在于,所述方法还包括:
获取训练视频集,所述训练视频集包括多个样本视频及与所述样本视频对应的样本识别结果;
对所述样本视频进行人脸识别,获取样本视频的第二人脸图像区域;
按照预设的外扩方式,在所述样本视频中将所述第二人脸图像区域向外扩展,在所述扩展的第二人脸图像区域的边缘达到或超出所述样本视频的边界时,将所述样本视频的边界作为第二人脸图像区域的边界,并将扩展后的第二人脸图像区域作为第二目标扩展窗口;
通过所述特征提取算法,获取所述第二目标扩展窗口对应的第二特征向量;
根据所述训练集包括的多个样本视频及其对应的样本识别结果、第二特征向量对预设的分类器进行训练,获取训练完成的目标分类器。
3.根据权利要求1所述的基于显示媒质的活体识别方法,其特征在于,所述通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量的步骤,还包括:
通过预设的特征提取算法,获取所述第一目标扩展窗口的LBP特征或HOG特征。
4.根据权利要求3所述的基于显示媒质的活体识别方法,其特征在于,所述通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量的步骤,还包括:
按照预设的格子划分将所述第一目标扩展窗口划分成若干个第一子格子;
在每个第一子格子中,通过预设的特征提取算法,获取该第一子格子下的第一子特征向量;
将第一子格子的第一子特征向量作为所述第一目标扩展窗口对应的第一特征向量。
5.根据权利要求1所述的基于显示媒质的活体识别方法,其特征在于,所述按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口的步骤,还包括:
按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域逐次向外扩展;
针对所述第一人脸图像区域的每一条边缘,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界;
在所述第一人脸图像区域的预设条数的边缘达到或超出所述待识别视频的边界的情况下,将扩展后的第一人脸图像区域作为第一目标扩展窗口。
6.根据权利要求1所述的基于显示媒质的活体识别方法,其特征在于,所述对所述待识别视频进行人脸识别的步骤之后,还包括:
在识别到人脸的情况下,对所述待识别视频包含的视频帧进行人脸识别监控。
7.根据权利要求6所述的基于显示媒介的活体识别方法,其特征在于,所述对所述待识别视频包含的视频帧进行人脸识别监测的步骤之后,还包括:
在识别到人脸的情况下,对所述待识别视频包含的视频帧进行人体识别监控。
8.一种基于显示媒质的活体识别装置,其特征在于,所述装置包括:
模型训练模块,用于获取训练视频集,所述训练视频集包括多个样本视频及与所述样本视频对应的样本识别结果;对所述样本视频进行人脸识别,获取样本视频的第二人脸图像区域,按照预设的外扩方式,获取扩展后的第二人脸图像区域作为第二目标扩展窗口,通过所述特征提取算法,获取所述第二目标扩展窗口对应的第二特征向量,根据所述训练集包括的多个样本视频及其对应的样本识别结果、第二特征向量对预设的分类器进行训练,获取训练完成的目标分类器;
人脸识别模块,用于获取待识别视频,对所述待识别视频进行人脸识别,获取与所述待识别视频对应的第一人脸图像区域;
特征提取模块,用于按照预设的外扩方式,在所述待识别视频中将所述第一人脸图像区域向外扩展,在所述扩展的第一人脸图像区域的边缘达到或超出所述待识别视频的边界时,将所述待识别视频像的边界作为第一人脸图像区域的边界,并将扩展后的第一人脸图像区域作为第一目标扩展窗口,通过预设的特征提取算法,获取所述第一目标扩展窗口对应的第一特征向量;
活体识别模块,用于将所述第一特征向量输入训练完成的目标分类器,输出与所述待识别视频对应的活体识别结果。
9.一种终端,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910176425.0A CN110069983A (zh) | 2019-03-08 | 2019-03-08 | 基于显示媒质的活体识别方法、装置、终端及可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910176425.0A CN110069983A (zh) | 2019-03-08 | 2019-03-08 | 基于显示媒质的活体识别方法、装置、终端及可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110069983A true CN110069983A (zh) | 2019-07-30 |
Family
ID=67366103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910176425.0A Pending CN110069983A (zh) | 2019-03-08 | 2019-03-08 | 基于显示媒质的活体识别方法、装置、终端及可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110069983A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751069A (zh) * | 2019-10-10 | 2020-02-04 | 武汉普利商用机器有限公司 | 一种人脸活体检测方法及装置 |
CN110969646A (zh) * | 2019-12-04 | 2020-04-07 | 电子科技大学 | 一种适应高帧率的人脸追踪方法 |
CN111078926A (zh) * | 2019-12-19 | 2020-04-28 | 青岛海信电器股份有限公司 | 一种人像缩略图像的确定方法及显示设备 |
CN112287830A (zh) * | 2020-10-29 | 2021-01-29 | 泰康保险集团股份有限公司 | 一种图像的检测方法及装置 |
CN112949661A (zh) * | 2021-05-13 | 2021-06-11 | 北京世纪好未来教育科技有限公司 | 检测框自适应外扩方法、装置、电子设备及存储介质 |
CN113033234A (zh) * | 2019-12-25 | 2021-06-25 | 伟诠电子股份有限公司 | 条码检测方法及系统 |
CN116013209A (zh) * | 2022-12-28 | 2023-04-25 | 北京显芯科技有限公司 | 一种背光区域调节方法、装置、电子设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102222343A (zh) * | 2010-04-16 | 2011-10-19 | 上海摩比源软件技术有限公司 | 人体运动跟踪方法及其系统 |
CN102479323A (zh) * | 2010-11-26 | 2012-05-30 | 现代自动车株式会社 | 在车辆中鉴别驾驶者的真实面部的方法 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN107392187A (zh) * | 2017-08-30 | 2017-11-24 | 西安建筑科技大学 | 一种基于梯度方向直方图的人脸活体检测方法 |
CN107818313A (zh) * | 2017-11-20 | 2018-03-20 | 腾讯科技(深圳)有限公司 | 活体识别方法、装置、存储介质和计算机设备 |
CN109145817A (zh) * | 2018-08-21 | 2019-01-04 | 佛山市南海区广工大数控装备协同创新研究院 | 一种人脸活体检测识别方法 |
US20190014999A1 (en) * | 2017-07-14 | 2019-01-17 | Hong Kong Baptist University | 3d mask face anti-spoofing with remote photoplethysmography |
CN109376608A (zh) * | 2018-09-26 | 2019-02-22 | 中国计量大学 | 一种人脸活体检测方法 |
CN109376704A (zh) * | 2018-11-30 | 2019-02-22 | 高新兴科技集团股份有限公司 | 一种人脸活体检测方法 |
-
2019
- 2019-03-08 CN CN201910176425.0A patent/CN110069983A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102222343A (zh) * | 2010-04-16 | 2011-10-19 | 上海摩比源软件技术有限公司 | 人体运动跟踪方法及其系统 |
CN102479323A (zh) * | 2010-11-26 | 2012-05-30 | 现代自动车株式会社 | 在车辆中鉴别驾驶者的真实面部的方法 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
US20190014999A1 (en) * | 2017-07-14 | 2019-01-17 | Hong Kong Baptist University | 3d mask face anti-spoofing with remote photoplethysmography |
CN107392187A (zh) * | 2017-08-30 | 2017-11-24 | 西安建筑科技大学 | 一种基于梯度方向直方图的人脸活体检测方法 |
CN107818313A (zh) * | 2017-11-20 | 2018-03-20 | 腾讯科技(深圳)有限公司 | 活体识别方法、装置、存储介质和计算机设备 |
CN109145817A (zh) * | 2018-08-21 | 2019-01-04 | 佛山市南海区广工大数控装备协同创新研究院 | 一种人脸活体检测识别方法 |
CN109376608A (zh) * | 2018-09-26 | 2019-02-22 | 中国计量大学 | 一种人脸活体检测方法 |
CN109376704A (zh) * | 2018-11-30 | 2019-02-22 | 高新兴科技集团股份有限公司 | 一种人脸活体检测方法 |
Non-Patent Citations (5)
Title |
---|
JUKKA KOMULAINEN: "Context based face anti-spoofing", 《2013 IEEE SIXTH INTERNATIONAL CONFERENCE ON BIOMETRICS: THEORY, APPLICATIONS AND SYSTEMS (BTAS)》 * |
张淑姚: "人脸识别活体检测技术研究", 《万方数据知识服务平台》 * |
李冰: "人脸识别系统中的活体检测技术的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
王一丁: "《数字图像处理》", 30 August 2015, 西安电子科技大学出版社 * |
蒋先刚: "《基于稀疏表达的火焰与烟雾探测方法研究》", 30 August 2017, 西南交通大学出版社 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751069A (zh) * | 2019-10-10 | 2020-02-04 | 武汉普利商用机器有限公司 | 一种人脸活体检测方法及装置 |
CN110969646A (zh) * | 2019-12-04 | 2020-04-07 | 电子科技大学 | 一种适应高帧率的人脸追踪方法 |
CN111078926A (zh) * | 2019-12-19 | 2020-04-28 | 青岛海信电器股份有限公司 | 一种人像缩略图像的确定方法及显示设备 |
CN113033234A (zh) * | 2019-12-25 | 2021-06-25 | 伟诠电子股份有限公司 | 条码检测方法及系统 |
CN113033234B (zh) * | 2019-12-25 | 2024-02-13 | 伟诠电子股份有限公司 | 条码检测方法及系统 |
CN112287830A (zh) * | 2020-10-29 | 2021-01-29 | 泰康保险集团股份有限公司 | 一种图像的检测方法及装置 |
CN112949661A (zh) * | 2021-05-13 | 2021-06-11 | 北京世纪好未来教育科技有限公司 | 检测框自适应外扩方法、装置、电子设备及存储介质 |
CN112949661B (zh) * | 2021-05-13 | 2021-08-06 | 北京世纪好未来教育科技有限公司 | 检测框自适应外扩方法、装置、电子设备及存储介质 |
CN116013209A (zh) * | 2022-12-28 | 2023-04-25 | 北京显芯科技有限公司 | 一种背光区域调节方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110069983A (zh) | 基于显示媒质的活体识别方法、装置、终端及可读介质 | |
CN109711243B (zh) | 一种基于深度学习的静态三维人脸活体检测方法 | |
CN110059546A (zh) | 基于频谱分析的活体识别方法、装置、终端及可读介质 | |
CN108319953B (zh) | 目标对象的遮挡检测方法及装置、电子设备及存储介质 | |
CN109299658B (zh) | 脸部检测方法、脸部图像渲染方法、装置及存储介质 | |
CN108829900B (zh) | 一种基于深度学习的人脸图像检索方法、装置及终端 | |
KR102286468B1 (ko) | 딥 러닝을 통해 생성된 가짜 동영상의 무결성 검증 방법 및 시스템 | |
Wilber et al. | Can we still avoid automatic face detection? | |
US9013489B2 (en) | Generation of avatar reflecting player appearance | |
CN109697416A (zh) | 一种视频数据处理方法和相关装置 | |
CN111754396B (zh) | 脸部图像处理方法、装置、计算机设备和存储介质 | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
CN110046652A (zh) | 人脸质量评估方法、装置、终端及可读介质 | |
CN109643448A (zh) | 机器人系统中的细粒度物体识别 | |
CN106682620A (zh) | 人脸图像采集方法及装置 | |
CN107808115A (zh) | 一种活体检测方法、装置及存储介质 | |
WO2016084072A1 (en) | Anti-spoofing system and methods useful in conjunction therewith | |
CN112215180A (zh) | 一种活体检测方法及装置 | |
CN111626163B (zh) | 一种人脸活体检测方法、装置及计算机设备 | |
CN108182714A (zh) | 图像处理方法及装置、存储介质 | |
CN110264493A (zh) | 一种针对运动状态下的多目标对象追踪方法和装置 | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
JP6969878B2 (ja) | 識別器学習装置および識別器学習方法 | |
CN108765014A (zh) | 一种基于门禁系统的智能广告投放方法 | |
CN113205045A (zh) | 行人重识别方法、装置、电子设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190730 |
|
RJ01 | Rejection of invention patent application after publication |