CN106599764A - 基于唇形特征的活体判断方法及设备 - Google Patents

基于唇形特征的活体判断方法及设备 Download PDF

Info

Publication number
CN106599764A
CN106599764A CN201510683059.XA CN201510683059A CN106599764A CN 106599764 A CN106599764 A CN 106599764A CN 201510683059 A CN201510683059 A CN 201510683059A CN 106599764 A CN106599764 A CN 106599764A
Authority
CN
China
Prior art keywords
lip
feature
live body
picture frame
mouth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510683059.XA
Other languages
English (en)
Inventor
彭义刚
李�诚
吴立威
张伟
旷章辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Priority to CN201510683059.XA priority Critical patent/CN106599764A/zh
Publication of CN106599764A publication Critical patent/CN106599764A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供了一种基于唇形特征的活体判断方法,该方法包括:采集对象朗读指定读音时的唇形特征;基于预形成的样本唇形集确定所采集的唇形特征的语义;以及判断所确定的语义是否与指定读音相符以确定朗读所述指定读音的对象是否是活体。通过使用本申请提供的活体判断方法和设备,用户能够精准并安全地判断对象是否是活体。

Description

基于唇形特征的活体判断方法及设备
技术领域
本申请涉及模式识别的技术领域,具体涉及基于唇形特征的活体判断方法及设备。
背景技术
近年来,虽然人脸识别技术在不断发展,但是在例如人脸识别移动支付、视频见证开户等的很多应用场合中,有必要判断当前人脸图像是来自于真人活体的人脸图像,还是照片或是录制的视频中的人脸图像。
现有技术中的人脸活体检测方法通过检测图像中的人脸的特有特征、深度层次,或通过检测人脸是否做出了指定动作来判定其是否是真人活体。例如,为了应对各种人脸欺骗方式,目前很多活体检测方法采用令待检测用户做出指定的动作(例如转头、眨眼、微笑等),并通过检测这些动作的合理性来判断该用户是否是活体。
然而,人脸及其运动是每一个人特有的生物特征,在短期内不易发生较大改变,且不像指纹般具有隐秘性,因此人脸及其运动容易在无意识的情况下被他人大量采集。因此,基于以上考虑,在通过检测人脸运动以检测人的活体时,如果只检测一些简单、常用的动作,则容易出现安全问题。
发明内容
鉴于现有技术中的上述至少一个或多个缺陷或不足,期望能够提供一种更有效更安全的活体判断方案。为了实现上述一个或多个目的,本申请提供了基于唇形特征的活体判断方法及设备。
根据本申请的一方面,提供了一种基于唇形特征的活体判断方法,该方法包括:
采集对象朗读所述指定读音时的唇形特征;
基于预形成的样本唇形集确定所采集的唇形特征的语义;以及
判断所确定的语义是否与指定读音相符以确定朗读所述指定读音的对象是否是活体。
根据本申请的一个实施方式,通过预采集具有对应语义的多个活体朗读多个读音时的唇形特征来形成样本唇形集。
根据本申请的一个实施方式,所述采集和/或预采集的步骤可以包括:获取所示对象和/或所述多个活体朗读所述指定读音和/或所述多个读音时的视-音频;分析所述视-音频的音频分量以确定所述对象和/或所述多个活体的发音时间点;确定所述视-音频的视频分量中对应于所述时间点的图像帧;从所确定的图像帧及其前后各多个帧中的每个图像帧中提取嘴部特征;以及连接从所述每个图像帧中所提取的嘴部特征以得到所述对象的唇形特征。
根据本申请的一个实施方式,从所述每个图像帧中提取嘴部特征可以包括:从所述每个图像帧中提取脸部区域;对所提取的脸部区域标记多个特征点以归一化所述脸部区域;基于归一化后的脸部区域获得嘴部位置;以及根据所述嘴部位置从所述脸部区域中提取所述嘴部特征。
根据本申请的一个实施方式,所述连接的步骤中还可以包括对所述对象唇形特征降维。
根据本申请的一个实施方式,基于预形成的样本唇形集确定所采集的唇形特征的语义可以包括训练所述样本唇形集以形成输出所述唇形特征的对应语义的分类器;以及使用所述分类器来确定所采集的唇形特征的语义。
根据本申请的另一方面,提供了一种基于唇形特征的活体判断设备,该设备包括:
采集装置,配置为采集对象朗读所述指定读音时的唇形特征;
确定装置,配置为基于预形成的样本唇形集确定所采集的唇形特征的语义;以及
判断装置,配置为判断所确定的语义是否与指定读音相符以确定朗读所述指定读音的对象是否是活体。
根据本申请的一个实施方式,上述设备还包括预采集装置,配置为预采集具有对应语义的多个活体朗读多个读音时的唇形特征以形成样本唇形集。
根据本申请的一个实施方式,所述采集装置和所述预采集装置中的任意之一包括:
视-音频获取单元,配置为获取所示对象和/或所述多个活体朗读所述指定读音和/或多个读音时的视-音频;
发音时间点分析单元,配置为分析所述视-音频的音频分量以确定所述对象和/或所述多个活体的发音时间点;
图像帧确定单元,配置为确定所述视-音频的视频分量中对应于所述时间点的图像帧;
嘴部特征提取单元,配置为从所确定的图像帧及其前后各多个帧中的每个图像帧中提取嘴部特征;以及
唇形特征获取单元,配置为连接从所述每个图像帧中所提取的嘴部特征以获取所述对象的唇形特征。
根据本申请的一个实施方式,所述嘴部特征提取单元被配置为:
从所述每个图像帧中提取脸部区域;
对所提取的脸部区域标记多个特征点以归一化所述脸部区域;基于归一化后的脸部区域获得嘴部位置;以及
根据所述嘴部位置从所述脸部区域中提取所述嘴部特征。
根据本申请的一个实施方式,上述设备还可以包括降维装置,配置为对所述对象唇形特征降维。
根据本申请的一个实施方式,所述确定装置是通过训练所述样本唇形集以形成的输出所述唇形特征的对应语义的分类器。
附图说明
图1示出了根据本申请一个实施方式的基于唇形特征的活体判断方法;
图2示出了根据本申请一个实施方式的采集唇形特征的方法的流程图;
图3示出了根据本申请一个实施方式的形状特征点被用于标记脸部特征的示意图;
图4示出了根据本申请一个实施方式的生成分类器的流程图;
图5示出了根据本申请一个实施方式的使用分类器来确定所采集的唇形特征的语义的方法流程图;
图6示出了根据本申请一个实施方式的基于唇形特征的活体判断设备;
图7示意性地示出了根据本申请一个实施方式的采集装置的框图;以及
图8是适于用来实现本申请实施例的计算机系统的结构示意图。
具体实施方式
下面将参照附图描述本申请的各实施方式。以下描述包括各具体细节以帮助理解,但是这些具体细节应认为仅是示例性的。因此,本领域普通技术人员应该理解,在不背离本申请的精神和范围的情况下,可以对本文中描述的各实施方式做出各种改变和修改。另外,为了清楚和简明起见,可能省略了公知功能和结构的描述。
图1所示为根据本申请一个实施方式的基于唇形特征的活体判断方法1000。如图1所示,在步骤S11中,采集对象朗读所述指定读音时的唇形特征;在步骤S12中,基于预形成的样本唇形集确定所采集的唇形特征的语义;以及在步骤S13中,判断所确定的语义是否与指定读音相符以确定朗读所述指定读音的对象是否是活体。在根据本发明的实施方式中,指定读音可以是任意的读音,例如数字读音和文字读音。在下文中以数字读音为例对上述步骤S11~S13进行进一步的描述。
步骤S11
在步骤S11,采集对象朗读例如数字0-9中的指定数字的读音时的唇形特征。下面将具体描述采集唇形特征的方法。为了节省成本和简化步骤,在一些实施方式中,可以使用相同的方法和设备来预采集多个活体的唇形特征和对象的唇形特征。
图2示出了根据本申请一个实施方式的采集唇形特征的方法的流程图。
在步骤S111,获取活体/对象朗读指定读音的视-音频。例如,获取的设备可以是带有摄像头和麦克风的台式主机,也可以是移动智能终端等。
在步骤S112,分析获取的视-音频的音频分量的信号特征,以确定活体/对象的发音时间点。例如,可以预先对音频分量进行滤波处理以降低噪声的影响。现有技术中的多种方法可以用来确定音频分量中的发音时间点。例如,可以通过滑动时间窗口得到音频幅值的局部极大值点,且当该幅值大于一定值时(即发声响度达到合理值时),将该时间点作为发音时间点Ti
在步骤S113,确定视-音频的视频分量中对应时间点Ti的图像帧Fi
在步骤S114,获取在步骤S113中确定的图像帧Fi的前后各m帧的图像帧,共2m+1帧图像,即[Fi-m,…,Fi,…,Fi+m],其中m为整数,可根据使用场景自行设置m的值。
在步骤S115,对步骤S114中得到的2m+1帧中的每帧图像进行人脸检测以得到2m+1个帧中的每个帧的脸部区域。
在步骤S116,分析步骤S115中得到的每个帧的脸部区域以得到每个帧的嘴部位置。例如,为了克服不同大小、不同形状等因素带来的影响,可以通过使用“有监督下降法及其在人脸对准中的应用”中的方法对脸部区域中的人脸进行特征点定位,标记出人脸图像形状特征点,将定位得到的形状特征点对齐到一个统一的标准形状特征点上,从而从归一化后的脸部区域中获得嘴部位置。例如,如图3所示,预先确定的21个形状特征点被用于标记脸部特征,其中,左右眼各6个,鼻子部位4个,嘴部5个。
在步骤S117,根据步骤S116中得到的嘴部位置,从脸部区域中提取嘴部特征。
在步骤S118,连接从2m+1帧图像中提取的嘴部特征以形成唇形特征。在一种实施方式中,可以通过将从每个图像帧中所提取的嘴部特征直接排列在一起来形成对象的唇形特征。
根据本申请的一种实施方式,还可以对步骤S118中得到的唇形特征降维以降低方法的计算量。例如,可以使用主成分分析方法得到投影向量集P=[p1,…,pn2]∈Rn1×n2,将提取的唇形特征投影到向量集P上以得到降维后的向量表示的唇形特征,其中n1为降维前的特征维度,n2为降维后的特征维度维,并且n2<n1。经投影的降维向量保留了有效的特征,并且大幅地减少了计算量。
在一个实施方式中,采集的唇形特征可通过分类器进行分类。可通过预训练的方法生成分类器。图4示出了根据本申请实施方式的生成分类器的流程图。
如图4所示,在步骤S41,采集大量的不同活体在不同场景下正确朗读数字0-9的十个数字的视-音频,并从每段视-音频中提取具有对应语义信息(即,所朗读的数字)的唇形特征以形成正样例集。可以在不同场景下采集尽量多的活体的朗读数字读音时的视-音频。在步骤S112中,采集大量的不同活体对象在不同场景下正确朗读0-9的十个数字以外的读音的视-音频,并从每段视-音频中提取唇形特征以形成负样例集。
在步骤S42,将正样例集和负样例集送入二类分类器,例如通过随机森林分类方法进行二值分类,从而得到区分朗读数字和非数字的唇形特征的第类分类器。
接着,在步骤S43,将正样例集中的具有对应的朗读的数字的语义信息的唇形特征送入多类(例如,十类)分类器,例如通过随机森林多类分类方法进行多类分类,从而得到用于区分所朗读的是0-9的十个数字中的哪一个的唇形特征的第二分类器。
步骤S12
如上所述,在步骤S12中基于预形成的样本唇形集确定所采集的唇形特征的语义。在本申请的一个实施方式中,可使用上述的第一和第二分类器来确定所采集的唇形特征的语义。
图5示出了根据本申请该实施方式的使用分类器来确定所采集的唇形特征的语义的方法流程图。如图5所示,在步骤S121中,使用第一分类器对采集到的唇形特征进行分类。在步骤S122中,判断对象的唇形特征对应的语义是数字还是非数字。如果在步骤S122中判断出对象的唇形特征对应的语义是数字,则在步骤S123中,使用第二分类器对该唇形特征进行分类,以确定该唇形特征对应的语义是0-9的十个数字中的哪一个。如果在步骤S122中判断出对象的唇形特征对应的语义不是数字,则在步骤S124中判断出对象为非活体。
S13
如上所述,在步骤S13中判断所确定的语义是否与指定读音相符以确定朗读所述指定读音的对象是否是活体。首先,判断步骤S121中确定的数字与步骤S11中的指定数字是否相符,从而判断对象是否是活体。例如,当第二分类器的输出是0-9十个数字中的一个时,如果步骤S122的输出与指定数字相同,则判定出对象为活体。在另一种示例性实施方式中,当第二分类器的输出是十个概率值,即所输入的唇形特征对应的语义分别是0-9中的每个数字的概率时,当第二分类器输出的十个概率值中最大值大于预定临界值时,判断该最大概率值所对应的数字是否与指定数字相同,若相同则判定对象为活体。其中,该预定临界值可以是经验阈值。
由于本申请采用了第一分类器和第二分类器来进行二次判定,活体判断步骤的效率得以提高,并且判断结果的精度也得到了提升。
图6示出了根据本申请一个实施方式的基于唇形特征的活体判断设备2000。如图6所示,设备2000可包括采集装置201、语义确定装置202和判断装置203。采集装置201配置为采集对象朗读所述指定读音时的唇形特征。语义确定装置202与采集装置电通信并被配置为基于预形成的样本唇形集确定所采集的唇形特征的语义。判断装置203电耦合于上述语义确定装置202并被配置为判断所确定的语义是否与指定读音相符以确定朗读所述指定读音的对象是否是活体。关于采集装置201、语义确定装置202和判断装置203的具体操作分别与上述步骤S11~13相同,因此省略其详细描述。
根据本申请的一个实施方式,活体判断设备200还可包括预采集装置204,配置为预采集具有对应语义的多个活体朗读多个读音时的唇形特征以形成样本唇形集。虽然在图6中示出了活体判断设备200包括预采集装置204的实施方式,但是本领域技术人员应该理解,预采集装置204可单独的设备或者独立设立在其它系统或装置中,只要其能够与活体判断设备200进行数据通信和数据交换即可。
图7示意性地示出了根据本申请一个实施方式的采集装置201的框图。如图7所示,采集装置201可包括视-音频获取单元2011、发音时间点分析单元2012和图像帧确定单元2013,其中,视-音频获取单元2011配置为获取所示对象和/或所述多个活体朗读所述指定读音和/或多个读音时的视-音频;发音时间点分析单元2012配置为分析所述视-音频的音频分量以确定所述对象和/或所述多个活体的发音时间点;而图像帧确定单元2013,配置为确定所述视-音频的视频分量中对应于所述时间点的图像帧。
此外,如图所示,采集装置201还可包括嘴部特征提取单元2014和唇形特征获取单元2015。嘴部特征提取单元2014配置为从所确定的图像帧及其前后各多个帧中的每个图像帧中提取嘴部特征。在一个示例中,嘴部特征提取单元2014可被配置为从所述每个图像帧中提取脸部区域,对所提取的脸部区域标记多个特征点以归一化所述脸部区域,基于归一化后的脸部区域获得嘴部位置;以及根据所述嘴部位置从所述脸部区域中提取所述嘴部特征。唇形特征获取单元2015配置为连接从所述每个图像帧中所提取的嘴部特征以获取所述对象的唇形特征。在一种实施方式中,可以通过将从每个图像帧中所提取的嘴部特征直接排列在一起来形成对象的唇形特征。
此外,活体判断设备还包括配置为对所述对象唇形特征降维以减少计算量的降维装置(未示出)。
语义确定装置202可例如是通过训练所述样本唇形集以形成的输出所述唇形特征的对应语义的分类器。由于分类器对于本领域技术人员来说是公知的,因此在此省略其详细描述。
下面参考图8,其示出了适于用来实现本申请实施例的计算机系统800的结构示意图。
如图8所示,计算机系统800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括摄像头、麦克风、键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本申请的实施例,上文参考流程图1-2和4-5描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,所述计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元和装置可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的装置和单元也可以设置在处理器中。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中所述装置中所包含的计算机可读存储介质;也可以是单独存在,未装配入终端中的计算机可读存储介质。所述计算机可读存储介质存储有一个或者一个以上程序,所述程序被一个或者一个以上的处理器用来执行描述于本申请的判断活体的方法。
与单一生物特征或单一文字密码的现有技术相比,本申请通过将视频音频特征结合提高了活体验证的可靠性和精确性。此外,本申请提供的活体验证方法和设备不需要对语音进行语义识别,从而降低了实施的复杂度。
以上参照附图对本申请的示例性的实施方案进行了描述。本领域技术人员应该理解,上述实施方案仅仅是为了说明的目的而所举的示例,而不是用来进行限制。凡在本申请的教导和权利要求保护范围下所作的任何修改、等同替换等,均应包含在本申请要求保护的范围内。

Claims (12)

1.一种基于唇形特征的活体判断方法,包括:
采集对象朗读所述指定读音时的唇形特征;
基于预形成的样本唇形集确定所采集的唇形特征的语义;以及
判断所确定的语义是否与指定读音相符以确定朗读所述指定读音的对象是否是活体。
2.根据权利要求1所述的活体判断方法,其中通过预采集具有对应语义的多个活体朗读多个读音时的唇形特征来形成样本唇形集。
3.根据权利要求1或2所述的活体判断方法,其中所述采集和/或预采集的步骤包括:
获取所述对象和/或所述多个活体朗读所述指定读音和/或所述多个读音时的视-音频;
分析所述视-音频的音频分量以确定所述对象和/或所述多个活体的发音时间点;
确定所述视-音频的视频分量中对应于所述时间点的图像帧;
从所确定的图像帧及其前后各多个帧中的每个图像帧中提取嘴部特征;以及
连接从所述每个图像帧中所提取的嘴部特征以得到所述对象的唇形特征。
4.根据权利要求3所述的活体判断方法,其中从所述每个图像帧中提取嘴部特征包括:
从所述每个图像帧中提取脸部区域;
对所提取的脸部区域标记多个特征点以归一化所述脸部区域;
基于归一化后的脸部区域获得嘴部位置;以及
根据所述嘴部位置从所述脸部区域中提取所述嘴部特征。
5.根据权利要求3所述的活体判断方法,所述连接的步骤中还包括:对所述对象唇形特征降维。
6.根据权利要求1所述的活体判断方法,其中基于预形成的样本唇形集确定所采集的唇形特征的语义包括:
训练所述样本唇形集以形成输出所述唇形特征的对应语义的分类器;以及
使用所述分类器来确定所采集的唇形特征的语义。
7.一种基于唇形特征的活体判断设备,包括:
采集装置,配置为采集对象朗读所述指定读音时的唇形特征;
确定装置,配置为基于预形成的样本唇形集确定所采集的唇形特征的语义;以及
判断装置,配置为判断所确定的语义是否与指定读音相符以确定朗读所述指定读音的对象是否是活体。
8.根据权利要求7所述的活体判断设备,还包括预采集装置,配置为预采集具有对应语义的多个活体朗读多个读音时的唇形特征以形成样本唇形集。
9.根据权利要求7或8所述的活体判断设备,其中所述采集装置和所述预采集装置中的任意之一包括:
视-音频获取单元,配置为获取所示对象和/或所述多个活体朗读所述指定读音和/或多个读音时的视-音频;
发音时间点分析单元,配置为分析所述视-音频的音频分量以确定所述对象和/或所述多个活体的发音时间点;
图像帧确定单元,配置为确定所述视-音频的视频分量中对应于所述时间点的图像帧;
嘴部特征提取单元,配置为从所确定的图像帧及其前后各多个帧中的每个图像帧中提取嘴部特征;以及
唇形特征获取单元,配置为连接从所述每个图像帧中所提取的嘴部特征以获取所述对象的唇形特征。
10.根据权利要求9所述的活体判断设备,其中所述嘴部特征提取单元被配置为:
从所述每个图像帧中提取脸部区域;
对所提取的脸部区域标记多个特征点以归一化所述脸部区域;
基于归一化后的脸部区域获得嘴部位置;以及
根据所述嘴部位置从所述脸部区域中提取所述嘴部特征。
11.根据权利要求9所述的活体判断设备,还包括降维装置,配置为对所述对象唇形特征降维。
12.根据权利要求7所述的活体判断设备,其中所述确定装置是通过训练所述样本唇形集以形成的输出所述唇形特征的对应语义的分类器。
CN201510683059.XA 2015-10-20 2015-10-20 基于唇形特征的活体判断方法及设备 Pending CN106599764A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510683059.XA CN106599764A (zh) 2015-10-20 2015-10-20 基于唇形特征的活体判断方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510683059.XA CN106599764A (zh) 2015-10-20 2015-10-20 基于唇形特征的活体判断方法及设备

Publications (1)

Publication Number Publication Date
CN106599764A true CN106599764A (zh) 2017-04-26

Family

ID=58555063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510683059.XA Pending CN106599764A (zh) 2015-10-20 2015-10-20 基于唇形特征的活体判断方法及设备

Country Status (1)

Country Link
CN (1) CN106599764A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832714A (zh) * 2017-11-14 2018-03-23 腾讯科技(上海)有限公司 活体鉴别方法、装置及存储设备
CN109840406A (zh) * 2017-11-29 2019-06-04 百度在线网络技术(北京)有限公司 活体验证方法、装置和计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110071830A1 (en) * 2009-09-22 2011-03-24 Hyundai Motor Company Combined lip reading and voice recognition multimodal interface system
CN104376250A (zh) * 2014-12-03 2015-02-25 优化科技(苏州)有限公司 基于音型像特征的真人活体身份验证方法
CN104834900A (zh) * 2015-04-15 2015-08-12 常州飞寻视讯信息科技有限公司 一种联合声像信号进行活体检测的方法和系统
CN104966086A (zh) * 2014-11-14 2015-10-07 深圳市腾讯计算机系统有限公司 活体鉴别方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110071830A1 (en) * 2009-09-22 2011-03-24 Hyundai Motor Company Combined lip reading and voice recognition multimodal interface system
CN104966086A (zh) * 2014-11-14 2015-10-07 深圳市腾讯计算机系统有限公司 活体鉴别方法及装置
CN104376250A (zh) * 2014-12-03 2015-02-25 优化科技(苏州)有限公司 基于音型像特征的真人活体身份验证方法
CN104834900A (zh) * 2015-04-15 2015-08-12 常州飞寻视讯信息科技有限公司 一种联合声像信号进行活体检测的方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
S. ALIZADEH 等: "Lip feature extraction and reduction for HMM-based visual speech recognition systems", 《2008 9TH INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832714A (zh) * 2017-11-14 2018-03-23 腾讯科技(上海)有限公司 活体鉴别方法、装置及存储设备
CN107832714B (zh) * 2017-11-14 2020-07-07 腾讯科技(上海)有限公司 活体鉴别方法、装置及存储设备
CN109840406A (zh) * 2017-11-29 2019-06-04 百度在线网络技术(北京)有限公司 活体验证方法、装置和计算机设备
CN109840406B (zh) * 2017-11-29 2022-05-17 百度在线网络技术(北京)有限公司 活体验证方法、装置和计算机设备

Similar Documents

Publication Publication Date Title
CN104361276B (zh) 一种多模态生物特征身份认证方法及系统
CN109766872B (zh) 图像识别方法和装置
WO2020151489A1 (zh) 基于面部识别的活体检测的方法、电子设备和存储介质
CN109409204B (zh) 防伪检测方法和装置、电子设备、存储介质
CN108182409B (zh) 活体检测方法、装置、设备及存储介质
WO2018086543A1 (zh) 活体判别方法、身份认证方法、终端、服务器和存储介质
CN112328999B (zh) 双录质检方法、装置、服务器及存储介质
CN105160318B (zh) 基于面部表情的测谎方法及系统
CN102945366B (zh) 一种人脸识别的方法及装置
CN108305615A (zh) 一种对象识别方法及其设备、存储介质、终端
CN105844206A (zh) 身份认证方法及设备
CN106557723A (zh) 一种带交互式活体检测的人脸身份认证系统及其方法
CN110991346A (zh) 一种疑似吸毒人员识别的方法、装置及存储介质
US20230410221A1 (en) Information processing apparatus, control method, and program
RU2316051C2 (ru) Способ и система автоматической проверки присутствия лица живого человека в биометрических системах безопасности
US20190122020A1 (en) Latent fingerprint pattern estimation
CN106599764A (zh) 基于唇形特征的活体判断方法及设备
JP4708835B2 (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
KR20220017329A (ko) 녹음 녹화 프로그램이 구비된 응시자 단말의 정면 카메라와 보조 카메라를 사용하여 부정행위를 방지하는 안면윤곽선 인식 인공지능을 사용한 온라인 시험 시스템 및 그 방법
CN108197593B (zh) 基于三点定位方法的多尺寸人脸表情识别方法及装置
CN106599765A (zh) 基于对象连续发音的视-音频判断活体的方法及系统
TWI667054B (zh) 飛行器飛行控制方法、裝置、飛行器及系統
JP2012033054A (ja) 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム
KR20220016529A (ko) 응시자 단말의 정면 카메라와 보조 카메라를 사용하여 부정행위를 방지하는 안면윤곽선 인식 인공지능을 사용한 온라인 시험 시스템 및 그 방법
KR102616230B1 (ko) 사용자 이미지에 기반하여 사용자의 집중력을 판단하는방법 및 이를 수행하는 운영 서버

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170426