CN108875676B - 活体检测方法、装置及系统 - Google Patents

活体检测方法、装置及系统 Download PDF

Info

Publication number
CN108875676B
CN108875676B CN201810695586.6A CN201810695586A CN108875676B CN 108875676 B CN108875676 B CN 108875676B CN 201810695586 A CN201810695586 A CN 201810695586A CN 108875676 B CN108875676 B CN 108875676B
Authority
CN
China
Prior art keywords
image
detected
foreground
background
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810695586.6A
Other languages
English (en)
Other versions
CN108875676A (zh
Inventor
卢江虎
王鹏
姚聪
孙亚昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kuangshi Technology Co Ltd
Original Assignee
Beijing Kuangshi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kuangshi Technology Co Ltd filed Critical Beijing Kuangshi Technology Co Ltd
Priority to CN201810695586.6A priority Critical patent/CN108875676B/zh
Publication of CN108875676A publication Critical patent/CN108875676A/zh
Priority to US16/212,119 priority patent/US11195037B2/en
Application granted granted Critical
Publication of CN108875676B publication Critical patent/CN108875676B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种活体检测方法、装置及系统,涉及活体检测技术领域,该方法,包括:获取待检测对象的视频;对视频抽取至少两张待检测图像,并根据至少两张待检测图像确定光流信息;根据光流信息将待检测图像分割为前景图像和背景图像;将前景图像和背景图像输入预先训练的卷积神经网络模型,以使卷积神经网络模型对前景图像和背景图像进行类别判定,得到前景图像和背景图像的类别分布;根据前景图像和背景图像的类别分布,得到待检测对象为活体的概率。本发明实施例可以有效地减少在提取特征时背景对前景动作识别产生的干扰,保存更多的局部信息,提高识别精度。

Description

活体检测方法、装置及系统
技术领域
本发明涉及图像检测技术领域,尤其是涉及一种活体检测方法、装置及系统。
背景技术
在生物识别系统中,为防止恶意者伪造和窃取他人的生物特征用于身份认证,生物识别系统需要具有活体检测功能,即判断提交的生物特征是否来自有生命的个体。其中,基于视频的静默活体判断是指,前端设备采集2-3秒的视频,后台通过该视频进行活体检测,来确定当前生物特征是来自攻击还是活体。
目前基于视频活体检测的技术较少,主要是基于静态图像进行判断。相比于基于静态图像判断的方法,视频活体判断提供了额外的时域信息,是一种新型的防攻击、防欺诈的方法,在需要用到人脸验证的银行、保险等行业存在广泛的应用需求。
发明内容
有鉴于此,本发明的目的在于提供一种活体检测方法、装置及系统,基于待检测对象的视频进行活体检测,可以对前背景分割,保留了更多局部特征信息,提高了判断精度。
第一方面,本发明实施例提供了一种活体检测方法,包括:获取待检测对象的视频;对所述视频抽取至少两张待检测图像,并根据所述至少两张待检测图像确定光流信息;根据所述光流信息将所述待检测图像分割为前景图像和背景图像;将所述前景图像和所述背景图像输入预先训练的卷积神经网络模型,以使所述卷积神经网络模型对所述前景图像和所述背景图像进行类别判定,得到所述前景图像和所述背景图像的类别分布;根据所述前景图像和所述背景图像的类别分布,得到所述待检测对象为活体的概率。
进一步,所述根据所述光流信息将所述待检测图像分割为前景图像和背景图像的步骤,包括:根据所述光流信息中每个像素的运动速率确定所述像素属于前景或背景;将所述待检测图像中所有属于前景的像素组合前景图像,将所述待检测图像中所有属于背景的像素组合背景图像。
进一步,所述根据所述光流信息中每个像素的运动速率确定所述像素属于前景或背景的步骤,包括:根据所述光流信息确定待检测图像中每个像素的运动速率;判断所述光流信息中每个所述像素的运动速率是否大于预设速率阈值;如果是,确定所述像素属于前景;如果否,确定所述像素属于背景。
进一步,所述根据所述光流信息确定所述待检测图像中每个像素的运动速率的步骤,包括:获取所述待检测图像中每个像素的X通道信息与Y通道信息;所述X通道信息与所述Y通道信息分别表示X方向与Y方向的运动速率;将所述X方向的运动速率与所述Y方向的运动速率中的较大值,确定为所述像素的运动速率。
进一步,所述根据所述前景图像和所述背景图像的类别分布,得到所述待检测对象为活体的概率的步骤,包括:从所述前景图像和所述背景图像的类别分布中,分别获取前景图像属于活体类别的第一概率和所述背景图像属于活体类别的第二概率;通过预设融合算法将所述第一概率和所述第二概率融合,得到所述待检测对象为活体的概率。
进一步,所述方法还包括:判断所述待检测对象为活体的概率是否大于预设活体概率阈值;如果是,确定所述待检测对象为活体。
进一步,所述方法还包括:获取样本视频数据;所述样本视频数据包括样本视频对应的前景集和背景集;所述样本视频包括真人视频和攻击视频;将所述样本视频数据划分为训练集、验证集和测试集;将所述训练集输入3D卷积神经网络模型进行训练;当使用所述3D卷积神经网络模型对所述验证集进行分类,得到的分类精度大于预设精度阈值时,停止训练;使用所述测试集对所述3D卷积神经网络模型进行测试,将测试得到的3D卷积神经网络模型确定为活体检测使用的卷积神经网络模型。
进一步,所述获取样本视频数据的步骤之后,还包括:对所述样本视频抽取的RGB图像进行预处理;所述预处理至少包括以下之一:翻转、切割或分辨率调整。
第二方面,本发明实施例提供了一种活体检测装置,包括:获取模块,用于获取待检测对象的视频;抽取模块,用于对所述视频抽取至少两张待检测图像,并根据所述至少两张待检测图像确定光流信息;分割模块,用于根据所述光流信息将所述待检测图像分割为前景图像和背景图像;分类模块,用于将所述前景图像和所述背景图像输入预先训练的卷积神经网络模型,以使所述卷积神经网络模型对所述前景图像和所述背景图像进行类别判定,得到所述前景图像和所述背景图像的类别分布;概率确定模块,用于根据所述前景图像和所述背景图像的类别分布,得到所述待检测对象为活体的概率。
第三方面,本发明实施例提供了一种活体检测系统,所述系统包括:视频采集装置、处理器和存储装置;所述视频采集装置,用于采集待检测视频;所述存储装置上存储有计算机程序,所述计算机程序在被所述处理器运行时执行上述第一方面任一项所述的方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述第一方面任一项所述的方法的步骤。
本发明实施例提供了一种活体检测方法、装置及系统,可以根据待检测视频的光流信息将其中的待检测图像分割为前景图像和背景图像,并以前景图像和背景图像输入预先训练的卷积神经网络模型进行类别判定,得到前景图像和背景图像的类别分布,根据该类别分布进行融合,得到待检测对象为活体的概率;上述方法通过光流信息进行活体检测,不需要用户进行点头、摇头等动作配合,提升了用户的体验;通过光流对待检测图像进行前景、背景分割并分别进行判定,可以有效地减少在提取特征时背景对前景动作识别产生的干扰,保存更多的局部信息,提高识别精度。
本公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本公开的上述技术即可得知。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例所提供的一种电子设备的结构示意图;
图2示出了本发明实施例所提供的一种活体检测方法的流程图;
图3示出了本发明实施例所提供的数据准备过程的示意图;
图4示出了本发明实施例所提供的RGB图像分割为前景图像和背景图像的示意图;
图5示出了本发明实施例所提供的模型训练过程的示意图;
图6示出了本发明实施例所提供的活体判断过程的示意图
图7示出了本发明实施例所提供的一种活体检测装置的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到目前的视频活体检测方法中,对RGB图像和光流信息的使用并未进行很好的局部特征信息保存,更多地在关注高层信息,影响了识别精度。为改善此问题,本发明实施例提供的一种活体检测方法、装置及系统,以下对本发明实施例进行详细介绍。
实施例一:
首先,参照图1来描述用于实现本发明实施例的活体检测方法、装置及系统的示例电子设备100。
如图1所示的一种电子设备的结构示意图,电子设备100包括一个或多个处理器102、一个或多个存储装置104、输入装置106、输出装置108以及视频采集装置110,这些组件通过总线系统112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
所述处理器102可以采用数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)中的至少一种硬件形式来实现,所述处理器102可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元中的一种或几种的组合,并且可以控制所述电子设备100中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理器实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
所述输出装置108可以向外部(例如,用户)输出各种信息(例如,图像或声音),并且可以包括显示器、扬声器等中的一个或多个。
所述视频采集装置110可以拍摄用户期望的视频,并且将所拍摄的视频存储在所述存储装置104中以供其它组件使用。
示例性地,用于实现根据本发明实施例的活体检测方法、装置及系统的示例电子设备可以被实现为诸如智能手机、平板电脑、计算机等智能终端。
实施例二:
参见图2所示的一种活体检测方法的流程图,该方法可由前述实施例提供的电子设备执行,该方法具体包括如下步骤:
步骤S202,获取待检测对象的视频。
在本发明实施例中,可以通过摄像装置对待检测对象进行视频采集,将采集的视频作为待检测的视频;也可以将接收到其他设备发送的待检测对象的视频作为待检测视频。
步骤S204,对上述待检测视频抽取至少两张待检测图像,并根据至少两张待检测图像确定光流信息。
其中,可以对上述待检测视频的每一帧均进行待检测图像的抽取,也可以对其中的部分帧进行待检测图像的抽取。该待检测图像例如可以采用RGB图像的方式。例如当该待检测视频长度较长时,可以截取其中的部分视频片段进行逐帧的RGB图像抽取。可以理解的是,对该待检测视频也可以间隔数帧进行RGB图像抽取,能够保证基于光流法确定正确的光流信息即可。光流信息指空间运动物体在观察成像平面上的像素运动的瞬时速度,光流法是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。
在抽取多张RGB图像后可以根据其中至少两张RGB图像确定光流信息,该光流信息包括RGB图像中像素的运动速率。在本实施例中可以使用现有的光流法进行光流信息确定,本实施例对此不做限定。
步骤S206,根据光流信息将待检测图像分割为前景图像和背景图像。
在获得光流信息后,从中可以得到图像中每个像素的运动速率。可以通过像素的运动速率确定该像素是属于前景图像还是背景图像,例如将运动速率较大的作为前景图像,将运动速率较小的作为背景图像。其中,前景包含感兴趣的区域,背景只包含非感兴趣的背景区域。通过光流信息对每个RGB图像进行前景、背景分割并分别预测,可以减少动作识别过程中背景对前景产生的干扰,提高识别精度。
步骤S208,将前景图像和背景图像输入预先训练的卷积神经网络模型,以使卷积神经网络模型对前景图像和背景图像进行类别判定,得到前景图像和背景图像的类别分布。
其中,该预先训练的卷积神经网络模型已经由未包括活体的视频(攻击视频)和包括活体的视频(真人视频)进行过训练,可以对输入的前景图像、背景图像进行类别判定,输出前景图像和背景图像的类别分布。在进行训练和判断时,可以将视频的多张前景图像或多张背景图像的集合整体进行输入,例如将上述多个RGB图像的前景图像均添加至前景集,作为一个前景样本输入;将上述多个RGB图像的背景图像均添加至背景集,作为一个背景样本输入。该类别包括两种,分别为属于攻击或属于真人,该类别分布表示前景集或背景集属于该两种类别的概率。可以理解的是,前景集属于攻击和属于真人的概率和为1,背景集属于攻击和属于真人的概率和也为1。
步骤S210,根据前景图像和背景图像的类别分布,得到待检测对象为活体的概率。
在卷积神经网络模型输出前景图像和背景图像的类别分布后,可以根据两者的类别分布进行融合,得到待检测对象的概率分布,以得到待检测对象为活体的概率。在上述前景图像和背景图像的类别分布中,可以分别获取前景图像属于活体类别的第一概率和背景图像属于活体类别的第二概率,再通过预设融合算法将第一概率和第二概率融合,得到待检测对象为活体的概率。
可以理解的是,既可以将前景图像或背景图像的属于真人的概率进行融合,得到待检测对象属于真人(即活体)的概率;也可以将前景图像或背景图像的属于攻击的概率进行融合,得到待检测对象属于攻击(即非活体)的概率。上述预设的融合算法例如可以是平均算法或者权重算法。例如,在得到前景集或背景集的属于真人的概率后,对两者的概率进行求平均,将平均值作为待检测对象属于真人的概率;也可以对前景集或背景集的概率分别乘以各自的权重系数后,再求平均,将平均值作为待检测对象属于真人的概率。该概率即待检测对象为活体的概率。
本发明实施例提供的上述活体检测方法,可以根据待检测视频的光流信息将其中的待检测图像分割为前景图像和背景图像,并以前景图像和背景图像输入预先训练的卷积神经网络模型进行类别判定,得到前景图像和背景图像的类别分布,根据该类别分布进行融合,得到待检测对象为活体的概率;上述方法通过光流信息进行活体检测,不需要用户进行点头、摇头等动作配合,提升了用户的体验;通过光流对待检测图像进行前景、背景分割并分别进行判定,可以有效地减少在提取特征时背景对前景动作识别产生的干扰,保存更多的局部信息,提高识别精度。
此外,本实施例提供的上述活体检测方法得到待检测对象为活体的概率后,可以判断该待检测对象为活体的概率是否大于预设活体概率阈值;如果大于预设活体概率阈值,则确定该待检测视频为活体视频。
在根据至少两张待检测图像确定光流信息后,上述根据光流信息将待检测图像分割为前景图像和背景图像的步骤,例如可以以下步骤执行:
(1)根据光流信息中每个像素的运动速率确定像素属于前景或背景.例如,可以先确定光流信息中每个像素的运动速率,再判断光流信息中每个像素的运动速率是否大于预设速率阈值,如果像素的运动速率大于预设速率阈值,则确定该像素属于前景;如果像素的运动速率小于等于该预设速率阈值,则确定该像素属于背景。其中该预设速率阈值例如可以为1.5。
由于光流信息包括X通道和Y通道,分别表示X方向和Y方向的运动速率,而分割前景和背景仅对某像素的最大运动速率敏感,因此可以取两者绝对值的更大值作为该像素的运动速率,即将X通道和Y通道融合成一个通道,通道的值取两个通道的绝对值的更大值。例如可以以下步骤执行:获取光流信息中每个像素的X通道信息与Y通道信息;X通道信息与Y通道信息分别表示X方向与Y方向的运动速率;将X方向的运动速率与Y方向的运动速率中的较大值,确定为像素的运动速率。
(2)将待检测图像中所有属于前景的像素组合前景图像,将待检测图像中所有属于背景的像素组合背景图像。
在确定待检测图像中的每个像素属于前景或者背景后,即可以根据该属性将待检测图像中的像素分割开,属于前景的像素组合前景图像,属于背景的像素组合背景图像。
在使用上述卷积神经网络模型进行类别判定之前,需要先对该模型进行训练,训练过程可以以下步骤执行:
(1)获取样本视频数据;该样本视频数据包括样本视频对应的前景集、背景集和类别标签。根据训练的需要,该样本视频包括真人视频和攻击视频。在获取样本视频数据之后,可以对样本视频抽取的RGB图像进行预处理后再进行训练,其中预处理至少包括以下之一:翻转、随机切割或分辨率调整,通过上述预处理可以增加样本视频的随机性。将样本视频进行光流信息提取和前背景分割,得到对应的前景集和背景集。
(2)将样本视频数据划分为训练集、验证集和测试集。其中,训练集用于训练该模型,验证集用于验证训练后模型的精度,测试集用于对训练后模型进行测试以寻找较优模型。该训练集、验证集和测试集中的样本视频同时包括真人视频和攻击视频。
(3)将训练集输入3D卷积神经网络模型进行训练。
(4)当使用3D卷积神经网络模型对验证集进行分类,得到的分类精度大于预设精度阈值时,停止训练。将验证集内的样本视频数据输入该3D卷积神经网络模型,得到其属于真人视频或攻击视频的分类结果,该分类结果的正确率即该3D卷积神经网络模型的分类精度。该预设精度阈值可以根据该模型的精度等因素确定。
(5)使用测试集对3D卷积神经网络模型进行测试,将较优的3D卷积神经网络模型确定为活体检测使用的卷积神经网络模型。
综上所述,本实施例提供的活体检测方法,是一种基于视频的活体判断,不需要用户进行点头、摇头等动作配合,提升了用户的体验;可以基于光流信息对待检测视频的图像进行前背景分割,然后分别对前背景进行提取特征并预测,最后再融合前背景的结果,可以有效地避免在提取特征时背景对前景的干扰,可以关注局部区域,保存更多的局部信息,提高活体判断精度。相比于主流的动作识别方法,不使用光流信息直接输入而是分割为前景和背景输入,可以减少运算量,提升速度。
在一种实施方式中,上述活体检测方法,使用视频的光流信息对其进行前背景分割,用背景和前景信息各自预测,并最后融合前背景结果,得到视频属于攻击还是真人的判断结果。以下按照数据准备、模型训练、活体判断的顺序对上述活体检测方法进行说明。
(1)数据准备:收集并标注多个真人视频数据和攻击视频数据,提取其光流信息,根据光流信息将视频进行前背景分割,并且分为训练集Train、验证集V以及测试集Test。参见图3所示的数据准备过程的示意图,可以以以下步骤执行:
步骤S302,收集包含真人和攻击的视频数据,根据其真实性质将其分割为训练集Train、验证集V和测试集Test。该真实性质指视频数据属于真人视频或者攻击视频,根据其真实性质以及训练集Train、验证集V和测试集Test的视频数量要求,将视频数据随机划分至各个集合。
步骤S304,对上述每个视频均提取RGB数据,并根据RGB数据产生光流信息。例如使用OpticalFlowDual_TVL1_GPU方法产生光流信息。该光流信息包含X和Y通道,分别表示像素在X方向和Y方向的运动速率。
步骤S306,将X通道和Y通道融合成一个通道,通道的值取两个通道的绝对值的更大值。由于后续步骤中判断像素的运动速率是否大于给定阈值时,可以仅通过该像素某方向的最大运动速率确定,因此在此步骤中进行了X通道和Y通道融合。
步骤S308,判断每个像素的运动速率是否大于给定阈值。
步骤S310,根据上述判断结果分割前背景。如果像素的运动速率大于给定阈值,就确定该像素属于前景目标;否则确定该像素属于背景目标,据此可以分割前背景。参见图4所述的RGB图像分割为前景图像和背景图像的示意图,从左到右分别为:原始图像、该原始图像和相邻图像产生的光流信息、基于光流信息分割的背景b和基于光流信息分割的前景f。
(2)模型训练:分别用训练集Train的前景f和背景b训练卷积神经网络模型。参见图5所示的模型训练过程的示意图,可以以以下步骤执行:
步骤S502,准备CNN3D模型。该模型架构采用ResNet152。
CNN(Convolutional Neural Network,卷积神经网络)3D模型可以同时关注数据的空域信息S和时域信息T。ResNet152指深度为152层的Residual Networks(残差网络)构架。在此需要说明的是,也可以根据实际需要使用其他模型及架构进行训练和分类,本实施例对此不作限定。
步骤S504,将每个视频数据的多张图片进行预处理,作为一个单独的输入样本。输入模型的一个完整的样本是一个视频及其携带的标签(属于真人视频或攻击视频),因此一个输入包含多张图片。对同一个视频的多张图片要进行一些翻转、随机切割、分辨率调整等预处理操作,并将这些图片堆积到一起,作为一个单独的输入样本。对图片进行上述预处理操作,目的是增加输入样本的随机性。
步骤S506,在训练过程中,在使用训练集Train内数据训练预设次数后,使用验证集V数据进行模型验证。在训练的时候每隔几次就要从验证集V中抽取部分数据进行模型验证。
步骤S508,当验证上述模型的精度达到预设阈值时停止训练。根据模型在验证集V上的表现,确定模型训练停止的时机,该预设阈值例如可以是99.7%。
步骤S510,使用测试集对训练完成的模型进行测试,选择较优模型。在输入模型前,对测试集做分辨率调整(适应模型的分辨率),并沿着中心点分割。对训练完成的模型进行测试,选择精度较高的模型。
(3)活体判断:将前景和背景输入CNN 3D模型都会输出类别分布,表示其属于攻击或者真人的概率。融合两者的概率分布得到该视频的概率分布,以此作为视频是否为活体的依据。参见图6所示的活体判断过程的示意图,可以以以下步骤执行:
步骤S602,通过摄像头采集当前用户的视频。可以提示用户看摄像头2-3秒,不需要用户进行眨眼、点头、摇头等动作配合。采集完毕后保存视频并上传到服务器端,该服务器端存储有上述CNN 3D模型。
步骤S604,从上述视频中抽取所有的RGB图像,并据此提取光流信息。本步骤在前述内容中已做过说明,在此不再赘述。
步骤S606,根据光流信息选择合适的阈值分割前背景并保存上述前背景。
步骤S608,分别对前背景图片进行预处理操作,并分别集合作为前景f输入和背景b输入。
步骤S610,用训练好的模型分别运行前背景图像,对前背景图像的输出结果进行融合,确定上述视频是攻击视频或是真人视频。对前景或背景的输出结果包括属于攻击和属于真人的概率,两者的和为1。可以将前景或背景的属于攻击的概率进行融合,得到视频属于攻击的概率;也可以将前景或背景的属于真人的概率进行融合,得到视频属于真人的概率。
综上所述,本发明实施例提供的活体检测方法,属于动态视频活体方法,不需要用户进行眨眼、点头、摇头等动作配合,可以提升用户的体验;可以有效地避免在提取特征的时候背景对前景带来的干扰,关注局部区域,保存更多的局部信息;使用前背景作为输入,减少了运算量,提升了速度。
实施例三:
对于实施例二中所提供的活体检测方法,本发明实施例提供了一种活体检测装置,参见图7所示的一种活体检测装置的结构框图,包括:
获取模块702,用于获取待检测对象的视频。
抽取模块704,用于对待检测视频抽取至少两张待检测图像,并根据至少两张待检测图像确定光流信息。
分割模块706,用于根据光流信息将待检测图像分割为前景图像和背景图像。
分类模块708,用于将前景图像和背景图像输入预先训练的卷积神经网络模型,以使卷积神经网络模型对前景集中的前景图像和背景集中的背景图像进行类别判定,得到前景图像和背景图像的类别分布。
概率确定模块710,用于根据前景图像和背景图像的类别分布,得到待检测对象为活体的概率。
本发明实施例提供的上述活体检测装置,可以根据待检测视频的光流信息将其中的待检测图像分割为前景图像和背景图像,并以前景图像和背景图像输入预先训练的卷积神经网络模型进行类别判定,得到前景图像和背景图像的类别分布,根据该类别分布进行融合,得到待检测对象为活体的概率;上述方法通过光流信息进行活体检测,不需要用户进行点头、摇头等动作配合,提升了用户的体验;通过光流对RGB图像进行前景、背景分割并分别进行判定,可以有效地减少在提取特征时背景对前景动作识别产生的干扰,保存更多的局部信息,提高识别精度。
在一种实施方式中,上述分割模块包括:确定单元,用于根据光流信息中每个像素的运动速率确定像素属于前景或背景;组合单元,用于将待检测图像中所有属于前景的像素组合前景图像,将待检测图像中所有属于背景的像素组合背景图像。
在一种实施方式中,上述确定单元包括:运动速率确定子单元,用于根据光流信息确定待检测图像中每个像素的运动速率;运动速率判断子单元,用于判断光流信息中每个像素的运动速率是否大于预设速率阈值;前背景确定子单元,用于如果是,确定像素属于前景;如果否,确定像素属于背景。
其中,上述运动速率确定子单元还用于:获取待检测图像中每个像素的X通道信息与Y通道信息;X通道信息与Y通道信息分别表示X方向与Y方向的运动速率;将X方向的运动速率与Y方向的运动速率中的较大值,确定为像素的运动速率。
在一种实施方式中,上述概率确定模块还用于:从所述前景图像和所述背景图像的类别分布中,分别获取前景图像属于活体类别的第一概率和所述背景图像属于活体类别的第二概率;
通过预设融合算法将所述第一概率和所述第二概率融合,得到所述待检测对象为活体的概率。
在一种实施方式中,上述装置还包括:活体判断模块,用于判断待检测对象为活体的概率是否大于预设活体概率阈值;活体确定模块,用于如果是,确定待检测对象为活体。
在一种实施方式中,上述装置还包括:训练模块,用于获取样本视频数据;样本视频数据包括样本视频对应的前景集和背景集;样本视频包括真人视频的和攻击视频;将样本视频数据划分为训练集、验证集和测试集;将训练集输入3D卷积神经网络模型进行训练;当使用3D卷积神经网络模型对验证集进行分类,得到的分类精度大于预设精度阈值时,停止训练;使用测试集对3D卷积神经网络模型进行测试,将测试得到的3D卷积神经网络模型确定为活体检测使用的卷积神经网络模型。上述训练模块还用于:对样本视频抽取的RGB图像进行预处理;预处理至少包括以下之一:翻转、切割或分辨率调整。
本实施例所提供的装置,其实现原理及产生的技术效果和前述实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
此外,本实施例提供了一种活体检测系统,该系统包括:视频采集装置、处理器和存储装置;视频采集装置,用于采集待检测视频;存储装置上存储有计算机程序,计算机程序在被处理器运行时执行实施例二所提供的活体检测方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统具体工作过程,可以参考前述实施例中的对应过程,在此不再赘述。
进一步,本实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述实施例二所提供的方法的步骤。
本发明实施例所提供的一种活体检测方法、装置及系统的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (11)

1.一种活体检测方法,其特征在于,包括:
获取待检测对象的视频;
对所述视频抽取至少两张待检测图像,并根据所述至少两张待检测图像确定光流信息;
根据所述光流信息将所述待检测图像分割为前景图像和背景图像;所述前景图像和所述背景图像是基于所述光流信息中的每个像素的运动速率确定的;
将所述前景图像和所述背景图像输入预先训练的卷积神经网络模型,以使所述卷积神经网络模型对所述前景图像和所述背景图像进行类别判定,得到所述前景图像和所述背景图像的类别分布;所述类别分布表示前景属于攻击或属于真人的概率,或者表示背景属于攻击或属于真人的概率;
根据所述前景图像和所述背景图像的类别分布,得到所述待检测对象为活体的概率。
2.根据权利要求1所述的方法,其特征在于,所述根据所述光流信息将所述待检测图像分割为前景图像和背景图像的步骤,包括:
根据所述光流信息中每个像素的运动速率确定所述像素属于前景或背景;
将所述待检测图像中所有属于前景的像素组合前景图像,将所述待检测图像中所有属于背景的像素组合背景图像。
3.根据权利要求2所述的方法,其特征在于,所述根据所述光流信息中每个像素的运动速率确定所述像素属于前景或背景的步骤,包括:
根据所述光流信息确定所述待检测图像中每个像素的运动速率;
判断所述像素的运动速率是否大于预设速率阈值;
如果是,确定所述像素属于前景;如果否,确定所述像素属于背景。
4.根据权利要求3所述的方法,其特征在于,所述根据所述光流信息确定所述待检测图像中每个像素的运动速率的步骤,包括:
获取所述待检测图像中每个像素的X通道信息与Y通道信息;所述X通道信息与所述Y通道信息分别表示X方向与Y方向的运动速率;
将所述X方向的运动速率与所述Y方向的运动速率中的较大值,确定为所述像素的运动速率。
5.根据权利要求1所述的方法,其特征在于,所述根据所述前景图像和所述背景图像的类别分布,得到所述待检测对象为活体的概率的步骤,包括:
从所述前景图像和所述背景图像的类别分布中,分别获取前景图像属于活体类别的第一概率和所述背景图像属于活体类别的第二概率;
通过预设融合算法将所述第一概率和所述第二概率融合,得到所述待检测对象为活体的概率。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
判断所述待检测对象为活体的概率是否大于预设活体概率阈值;
如果是,确定所述待检测对象为活体。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取样本视频数据;所述样本视频数据包括样本视频对应的前景集和背景集;所述样本视频包括真人视频和攻击视频;
将所述样本视频数据划分为训练集、验证集和测试集;
将所述训练集输入3D卷积神经网络模型进行训练;
当使用所述3D卷积神经网络模型对所述验证集进行分类,得到的分类精度大于预设精度阈值时,停止训练;
使用所述测试集对所述3D卷积神经网络模型进行测试,将测试得到的3D卷积神经网络模型确定为活体检测使用的卷积神经网络模型。
8.根据权利要求7所述的方法,其特征在于,所述获取样本视频数据的步骤之后,还包括:
对所述样本视频抽取的RGB图像进行预处理;所述预处理至少包括以下之一:翻转、切割或分辨率调整。
9.一种活体检测装置,其特征在于,包括:
获取模块,用于获取待检测对象的视频;
抽取模块,用于对所述视频抽取至少两张待检测图像,并根据所述至少两张待检测图像确定光流信息;
分割模块,用于根据所述光流信息将所述待检测图像分割为前景图像和背景图像;所述前景图像和所述背景图像是基于所述光流信息中的每个像素的运动速率确定的;
分类模块,用于将所述前景图像和所述背景图像输入预先训练的卷积神经网络模型,以使所述卷积神经网络模型对所述前景图像和所述背景图像进行类别判定,得到所述前景图像和所述背景图像的类别分布;所述类别分布表示前景属于攻击或属于真人的概率,或者表示背景属于攻击或属于真人的概率;
概率确定模块,用于根据所述前景图像和所述背景图像的类别分布,得到所述待检测对象为活体的概率。
10.一种活体检测系统,其特征在于,所述系统包括:视频采集装置、处理器和存储装置;
所述视频采集装置,用于采集待检测对象的视频;
所述存储装置上存储有计算机程序,所述计算机程序在被所述处理器运行时执行上述权利要求1至8任一项所述的方法。
11.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求1至8任一项所述的方法的步骤。
CN201810695586.6A 2018-06-28 2018-06-28 活体检测方法、装置及系统 Active CN108875676B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810695586.6A CN108875676B (zh) 2018-06-28 2018-06-28 活体检测方法、装置及系统
US16/212,119 US11195037B2 (en) 2018-06-28 2018-12-06 Living body detection method and system, computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810695586.6A CN108875676B (zh) 2018-06-28 2018-06-28 活体检测方法、装置及系统

Publications (2)

Publication Number Publication Date
CN108875676A CN108875676A (zh) 2018-11-23
CN108875676B true CN108875676B (zh) 2021-08-10

Family

ID=64297094

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810695586.6A Active CN108875676B (zh) 2018-06-28 2018-06-28 活体检测方法、装置及系统

Country Status (2)

Country Link
US (1) US11195037B2 (zh)
CN (1) CN108875676B (zh)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11495041B2 (en) * 2019-03-29 2022-11-08 Jumio Corporation Biometric identification using composite hand images
US10706286B1 (en) * 2019-09-05 2020-07-07 Alphonso Inc. 3D convolutional neural networks for television advertisement detection
CN110826608A (zh) * 2019-10-25 2020-02-21 广州思德医疗科技有限公司 一种图像分类方法及装置
CN111368666B (zh) * 2020-02-25 2023-08-18 上海蠡图信息科技有限公司 一种基于新型池化及注意力机制双流网络的活体检测方法
CN111881720B (zh) * 2020-06-09 2024-01-16 山东大学 用于深度学习的数据自动增强扩充方法、识别方法及系统
CN111814659B (zh) * 2020-07-07 2024-03-29 杭州海康威视数字技术股份有限公司 一种活体检测方法、和系统
CN111881815A (zh) * 2020-07-23 2020-11-03 高新兴科技集团股份有限公司 一种多模型特征迁移的人脸活体检测方法
CN111860400B (zh) * 2020-07-28 2024-06-07 平安科技(深圳)有限公司 人脸增强识别方法、装置、设备及存储介质
CN111914758A (zh) * 2020-08-04 2020-11-10 成都奥快科技有限公司 一种基于卷积神经网络的人脸活体检测方法及装置
CN111985400A (zh) * 2020-08-20 2020-11-24 中国建设银行股份有限公司 一种人脸活体识别方法、装置、设备及存储介质
CN112084915A (zh) * 2020-08-31 2020-12-15 支付宝(杭州)信息技术有限公司 模型训练方法、活体检测方法、装置和电子设备
CN112232124A (zh) * 2020-09-11 2021-01-15 浙江大华技术股份有限公司 人群态势分析方法、视频处理装置及具有存储功能的装置
CN112200120B (zh) * 2020-10-23 2023-06-30 支付宝(杭州)信息技术有限公司 一种身份识别方法、活体识别方法、装置及电子设备
CN112487382B (zh) * 2020-11-16 2024-06-25 中国人寿保险股份有限公司 一种通过活体检测的身份认证方法、装置和电子设备
CN112613891B (zh) * 2020-12-24 2023-10-03 支付宝(杭州)信息技术有限公司 一种店铺注册信息验证方法、装置及设备
CN112818774B (zh) * 2021-01-20 2024-08-23 中国银联股份有限公司 一种活体检测方法及装置
CN112766162B (zh) * 2021-01-20 2023-12-22 北京市商汤科技开发有限公司 活体检测方法、装置、电子设备及计算机可读存储介质
CN112766175B (zh) * 2021-01-21 2024-05-28 宠爱王国(北京)网络科技有限公司 活体检测方法、装置及非易失性存储介质
CN112926515B (zh) * 2021-03-26 2022-09-20 支付宝(杭州)信息技术有限公司 活体模型训练方法和装置
CN113033404B (zh) * 2021-03-26 2024-05-28 平安银行股份有限公司 人脸攻击事件检测方法、装置、设备及存储介质
CN113449623B (zh) * 2021-06-21 2022-06-28 浙江康旭科技有限公司 一种基于深度学习的轻型活体检测方法
US20230077353A1 (en) * 2021-08-31 2023-03-16 University Of South Florida Systems and Methods for Classifying Mosquitoes Based on Extracted Masks of Anatomical Components from Images
CN114120417A (zh) * 2021-11-30 2022-03-01 北京百度网讯科技有限公司 人脸图像处理方法、装置、电子设备和存储介质
CN113989857B (zh) * 2021-12-27 2022-03-18 四川新网银行股份有限公司 一种基于深度学习的人像照片内容解析方法及系统
CN114550244A (zh) * 2022-02-11 2022-05-27 支付宝(杭州)信息技术有限公司 一种活体检测方法、装置及设备
CN114565918A (zh) * 2022-02-24 2022-05-31 阳光暖果(北京)科技发展有限公司 一种基于多特征提取模块的人脸静默活体检测方法与系统
CN114694266A (zh) * 2022-03-28 2022-07-01 广州广电卓识智能科技有限公司 一种静默活体检测方法、系统、设备及存储介质
CN114663476A (zh) * 2022-04-01 2022-06-24 北京理工大学 一种基于视频光流信息的人脸检测、计数方法及系统
CN117274885B (zh) * 2023-11-23 2024-02-09 湖北微模式科技发展有限公司 一种人脸伪造视频检测方法
CN118212673A (zh) * 2024-03-15 2024-06-18 深圳市华谕电子科技信息有限公司 移动执法设备快速移动中的人脸检测及识别方法和系统
CN118552861A (zh) * 2024-07-30 2024-08-27 山东科技大学 基于光流估计的井下带式输送机运行状态检测方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810717A (zh) * 2012-11-09 2014-05-21 浙江大华技术股份有限公司 一种人体行为检测方法及装置
WO2015181729A1 (en) * 2014-05-30 2015-12-03 University Of Johannesburg Method of determining liveness for eye biometric authentication
CN105243376A (zh) * 2015-11-06 2016-01-13 北京汉王智远科技有限公司 一种活体检测方法和装置
CN107818313A (zh) * 2017-11-20 2018-03-20 腾讯科技(深圳)有限公司 活体识别方法、装置、存储介质和计算机设备
CN107862247A (zh) * 2017-10-13 2018-03-30 平安科技(深圳)有限公司 一种人脸活体检测方法及终端设备
CN108090403A (zh) * 2016-11-22 2018-05-29 上海银晨智能识别科技有限公司 一种基于3d卷积神经网络的人脸动态识别方法及系统
CN108154090A (zh) * 2017-12-11 2018-06-12 北京小米移动软件有限公司 人脸识别方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9779331B2 (en) * 2014-04-24 2017-10-03 Conduent Business Services, Llc Method and system for partial occlusion handling in vehicle tracking using deformable parts model
JP6395481B2 (ja) * 2014-07-11 2018-09-26 キヤノン株式会社 画像認識装置、方法及びプログラム
SE1851266A1 (sv) * 2016-03-17 2018-10-16 Avigilon Corp System and method for training object classifier by machine learning
US10140508B2 (en) * 2016-08-26 2018-11-27 Huawei Technologies Co. Ltd. Method and apparatus for annotating a video stream comprising a sequence of frames
CN107798653B (zh) * 2017-09-20 2019-12-24 北京三快在线科技有限公司 一种图像处理的方法和一种装置
CN110580487A (zh) * 2018-06-08 2019-12-17 Oppo广东移动通信有限公司 神经网络的训练方法、构建方法、图像处理方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810717A (zh) * 2012-11-09 2014-05-21 浙江大华技术股份有限公司 一种人体行为检测方法及装置
WO2015181729A1 (en) * 2014-05-30 2015-12-03 University Of Johannesburg Method of determining liveness for eye biometric authentication
CN105243376A (zh) * 2015-11-06 2016-01-13 北京汉王智远科技有限公司 一种活体检测方法和装置
CN108090403A (zh) * 2016-11-22 2018-05-29 上海银晨智能识别科技有限公司 一种基于3d卷积神经网络的人脸动态识别方法及系统
CN107862247A (zh) * 2017-10-13 2018-03-30 平安科技(深圳)有限公司 一种人脸活体检测方法及终端设备
CN107818313A (zh) * 2017-11-20 2018-03-20 腾讯科技(深圳)有限公司 活体识别方法、装置、存储介质和计算机设备
CN108154090A (zh) * 2017-12-11 2018-06-12 北京小米移动软件有限公司 人脸识别方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于3D卷积神经网络的活体人脸检测;甘俊英;《信号处理》;20171130;第2-3节 *

Also Published As

Publication number Publication date
US20200005061A1 (en) 2020-01-02
CN108875676A (zh) 2018-11-23
US11195037B2 (en) 2021-12-07

Similar Documents

Publication Publication Date Title
CN108875676B (zh) 活体检测方法、装置及系统
US11188783B2 (en) Reverse neural network for object re-identification
CN108805047B (zh) 一种活体检测方法、装置、电子设备和计算机可读介质
CN109255352B (zh) 目标检测方法、装置及系统
US11961282B2 (en) Methods and systems for detecting deepfakes
CN109086873B (zh) 递归神经网络的训练方法、识别方法、装置及处理设备
CN110047095B (zh) 基于目标检测的跟踪方法、装置及终端设备
CN111611873B (zh) 人脸替换检测方法及装置、电子设备、计算机存储介质
CN109727275B (zh) 目标检测方法、装置、系统和计算机可读存储介质
CN111626371A (zh) 一种图像分类方法、装置、设备及可读存储介质
US11170512B2 (en) Image processing apparatus and method, and image processing system
CN111079816A (zh) 图像的审核方法、装置和服务器
CN111783665A (zh) 一种动作识别方法、装置、存储介质和电子设备
CN114724218A (zh) 视频检测方法、装置、设备及介质
CN104794446A (zh) 基于合成描述子的人体动作识别方法及系统
CN117671553A (zh) 一种目标识别方法、系统及相关装置
CN114612979B (zh) 一种活体检测方法及装置、电子设备、存储介质
CN116958846A (zh) 视频检测方法、装置、设备、介质及产品
CN111860261B (zh) 一种客流值的统计方法、装置、设备及介质
KR20190093752A (ko) 딥 러닝을 이용한 씬 텍스트 검출 방법 및 시스템
CN114581663A (zh) 闸机多目标逃票检测方法、装置、计算机设备及存储介质
CN114694209A (zh) 视频处理方法、装置、电子设备及计算机存储介质
CN114596638A (zh) 人脸活体检测方法、装置及存储介质
CN108694347B (zh) 图像处理方法和装置
CN111738012B (zh) 提取语义对齐特征的方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant