CN114696988A - 活体检测方法、装置、设备及系统 - Google Patents

活体检测方法、装置、设备及系统 Download PDF

Info

Publication number
CN114696988A
CN114696988A CN202210241977.7A CN202210241977A CN114696988A CN 114696988 A CN114696988 A CN 114696988A CN 202210241977 A CN202210241977 A CN 202210241977A CN 114696988 A CN114696988 A CN 114696988A
Authority
CN
China
Prior art keywords
detected
data
video data
video
passwords
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210241977.7A
Other languages
English (en)
Inventor
李宇明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202210241977.7A priority Critical patent/CN114696988A/zh
Publication of CN114696988A publication Critical patent/CN114696988A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/002Countermeasures against attacks on cryptographic mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0861Generation of secret information including derivation or calculation of cryptographic keys or passwords
    • H04L9/0869Generation of secret information including derivation or calculation of cryptographic keys or passwords involving random numbers or seeds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • H04L9/3231Biological data, e.g. fingerprint, voice or retina

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本说明书提供一种活体检测方法、装置、设备及系统,利用语音和视频两种模态的信息,从语音信息中提取出声纹数据,从视频图像中利用唇语识别技术提取出待检测验证密码,同时利用声纹识别和唇语识别技术联合判断待检测对象是否为活体,可以大幅度提升活体检测的精度,同时对高清屏攻击和高精度头模攻击等单帧图像较难处理的攻击,也可以起到良好的防范作用,提升了活体检测的准确性。

Description

活体检测方法、装置、设备及系统
技术领域
本说明书属于计算机技术领域,尤其涉及一种活体检测方法、装置、设备及系统。
背景技术
随着计算机互联网技术的发展,越来越多的产品使用人脸识别、瞳孔识别等生物识别的身份认证技术,但对于这种生物识别技术也存在安全隐患,其中,“活体攻击”就是一种安全隐患,如:攻击者使用照片、屏幕展示、面具等手段达到冒用身份的目的。
目前大多数活体检测系统采用单帧图像(RGB图像、IR图像或者深度图像)作为活体评判的输入,由于单帧图像包含信息有限,对于高清屏幕攻击和高精度头模攻击通常较难防御。
发明内容
本说明书实施例的目的在于提供一种活体检测方法、装置、设备及系统,提升了活体检测的准确性。
第一方面,本说明书实施例提供了一种活体检测方法,所述方法包括:
接收待检测视频信息,其中,所述待检测视频信息包括待检测对象读取客户端显示的随机验证密码的语音信息;
从所述语音信息中提取待检测声纹数据,并利用唇语识别技术从所述待检测视频信息中提取待检测验证密码;
将所述待检测声纹数据与预先存储的目标对象的声纹数据进行比对,并将所述待检测验证密码与所述随机验证密码进行比对,若所述待检测声纹数据与所述目标对象的声纹数据相同,且所述待检测验证密码与所述随机验证密码相同,则确定所述待检测对象的活体检测通过。
第二方面,本说明书提供了一种活体检测方法,所述方法包括:
接收到活体检测请求后,生成并展示随机验证密码;
采集待检测对象读取所述随机验证密码的待检测视频信息,所述待检测视频信息包括所述待检测对象读取客户端显示的随机验证密码的语音信息;
将所述待检测视频信息、所述随机验证密码和所述活体检测请求对应的账户信息发送至服务端,以使得所述服务端利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,结合所述待检测视频信息中的待检测声纹数据验证对所述待检测对象进行活体检测。
第三方面,本说明书提供了一种活体检测装置,包括:
视频信息接收模块,用于接收待检测视频信息,其中,所述待检测视频信息包括待检测对象读取客户端显示的随机验证密码的语音信息;
数据提取模块,用于从所述语音信息中提取待检测声纹数据,并利用唇语识别技术从所述待检测视频信息中提取待检测验证密码;
数据比对模块,用于将所述待检测声纹数据与预先存储的目标对象的声纹数据进行比对,并将所述待检测验证密码与所述随机验证密码进行比对,若所述待检测声纹数据与所述目标对象的声纹数据相同,且所述待检测验证密码与所述随机验证密码相同,则确定所述待检测对象的活体检测通过。
第四方面,本说明书提供了一种活体检测装置,所述装置包括:
随机密码生成模块,用于接收到活体检测请求后,生成并展示随机验证密码;
视频采集模块,用于采集待检测对象读取所述随机验证密码的待检测视频信息,所述待检测视频信息包括所述待检测对象读取客户端显示的随机验证密码的语音信息;
活体检测模块,用于将所述待检测视频信息、所述随机验证密码和所述活体检测请求对应的账户信息发送至服务端,以使得所述服务端利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,结合所述待检测视频信息中的待检测声纹数据验证对所述待检测对象进行活体检测。
第五方面,本说明书实施例提供了一种活体检测设备,包括至少一个处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现上述第一方面或第二方法所述的活体检测方法。
第六方面,本说明书实施例提供了一种活体检测系统,包括:客户端和服务端,其中,所述服务端中包括至少一个处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现第一方面所述的方法,用于基于客户端采集到的待检测视频信息进行活体检测;
所述客户端包括至少一个处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现第二方面所述的方法。
本说明书提供的活体检测方法、装置、设备及系统,利用语音和视频两种模态的信息,从语音信息中提取出声纹数据,从视频图像中利用唇语识别技术提取出待检测验证密码,同时利用声纹识别和唇语识别技术联合判断待检测对象是否为活体,可以大幅度提升活体检测的精度,同时对高清屏攻击和高精度头模攻击等单帧图像较难处理的攻击,也可以起到良好的防范作用,提升了活体检测的准确性。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本说明书实施例提供的活体检测方法实施例的流程示意图;
图2是本说明书一个场景示例中活体检测的客户端界面示意图;
图3是本说明书一个实施例中活体检测算法部署的原理示意图;
图4是本说明书另一些实施例中活体检测方法的流程示意图;
图5是本说明书提供的活体检测装置一个实施例的模块结构示意图;
图6是本说明书提供的活体检测装置又一个实施例的模块结构示意图;
图7是本说明书一个实施例中活体检测服务器的硬件结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
随着计算机技术的发展,人们对互联网等产品的安全性越来越重视,例如:利用人的生物特征进行身份识别的产品越来越多,在身份识别时,可能有些攻击者使用图片或视频等冒充用户,影响身份识别结果的准确性。因此,进行活体检测以确保用户是用户本人是一项重要的工作。
本说明书一些实施例中可以提供活体检测方法,采集用户读取随机验证密码的视频信息,提取其中的声纹数据,并利用唇语识别技术,从视频信息中提取用户唇语读取的信息,结合声纹和唇语技术对用户进行活体检测,确保是用户本人,提升了身份识别、账户识别等的安全性。其中,活体检测可以理解为生物识别中判断用户是否为真人,而非打印照片、面具、头模等攻击的技术。
一般的,静默活体检测方法是基于单张图像进行活体检测,没有交互。此方法可以对一些简单的活体攻击例如手机屏幕、低分辨率屏幕和打印照片等有较好的拦截,对于高清屏幕和高精度头模基本没有拦截作用。基于眨眼、摇头等动作的活体检测方法是基于简单的交互动作来进行活体检测,但是对于眨眼、摇头等简单动作,录制的高清视频可以简单绕过,因此这类方法对于高清视频的防护作用非常有限。
图1是本说明书实施例提供的活体检测方法实施例的流程示意图。虽然本说明书提供了如下述实施例或附图所示的方法操作步骤或装置结构,但基于常规或者无需创造性的劳动在所述方法或装置中可以包括更多或者部分合并后更少的操作步骤或模块单元。在逻辑性上不存在必要因果关系的步骤或结构中,这些步骤的执行顺序或装置的模块结构不限于本说明书实施例或附图所示的执行顺序或模块结构。所述的方法或模块结构的在实际中的装置、服务器或终端产品应用时,可以按照实施例或者附图所示的方法或模块结构进行顺序执行或者并行执行(例如并行处理器或者多线程处理的环境、甚至包括分布式处理、服务器集群的实施环境)。
具体的一个实施例如图1所示,本说明书提供的活体检测方法的一个实施例中,所述方法可以应用在服务器、计算机、平板电脑、服务器、智能手机、智能穿戴设备、车载设备、智能家居设备等终端,所述方法可以包括如下步骤:
步骤102、接收待检测视频信息,其中,所述待检测视频信息包括待检测对象读取客户端显示的随机验证密码的语音信息。
在具体的实施过程中,在一些身份识别或账户登录安全审核的应用场景,常常需要对用户进行活体检测,以确定当前使用的用户是用户本人,避免攻击者利用图片、视频等手段盗用账户的问题。图2是本说明书一个场景示例中活体检测的客户端界面示意图,如图2所示,本说明书实施例中,在用户进行身份识别或账户登录等操作时,可以在客户端中随机生成一个随机验证密码,并显示给用户,提示用户读取当前显示的随机验证密码,客户端可以利用自身的视频录制设备如:摄像头等,录制用户读取随机验证密码的视频,该视频即为待检测视频信息,其中可以包括待检测对象读取客户端显示的随机验证密码的语音信息,当然,还可以包括待检测对象读取随机验证密码时的图像信息。其中,随机验证密码可以是数字和/或文字的组合,本说明书实施例不做具体限定,如图2所示,一个场景示例中随机验证密码可以是4583。
需要说明的是,客户端可以将录制的待检测视频信息发送给服务端,由服务端对待检测视频信息进行活体检测的数据处理,或者,客户端可以自行对录制的待检测视频信息进行活体检测的数据处理,本说明书实施例不做具体限定。
步骤104、从所述语音信息中提取待检测声纹数据,并利用唇语识别技术从所述待检测视频信息中提取待检测验证密码。
在具体的实施过程中,本说明书实施例主要采用声纹识别和唇语识别技术,其中,声纹识别是生物识别技术的一种,也称为说话人识别,包括说话人辨认和说话人确认,声纹识别就是把声信号转换成电信号,再用计算机进行识别。声纹是用电声学仪器显示的携带言语信息的声波频谱。人类语言的产生是人体语言中枢与发音器官之间一个复杂的生理物理过程,人在讲话时使用的发声器官如:舌、牙齿、喉头、肺、鼻腔在尺寸和形态方面每个人的差异很大,所以任何两个人的声纹图谱都有差异。唇语识别可以理解为利用机器视觉技术,从图像中连续识别出人脸,判断其中正在说话的人,提取此人连续的口型变化特征,识别出讲话人口型对应的发音,随后根据识别出的发音,计算出可能性最大的自然语言语句。
本说明书实施例中,可以从待检测视频信息中的语音信息中提取出待检测声纹数据,该待检测声纹数据可以理解为出现在待检测视频信息中的声音的声纹。同时,本说明书实施例中,还可以利用唇语识别技术从待检测视频信息中提取出该视频中用户口型对应的待检测验证密码。
其中,声纹数据和待检测验证密码的提取可以利用智能学习算法,如:预先训练出声纹识别模型以及唇语识别模型,对待检测视频信息中的语音信息以及图像信息进行特征提取,进而获得对应的声纹数据以及待检测验证密码。当然,也可以使用其他的方法提取声纹数据以及待检测验证密码,本说明书实施例不做具体限定。
步骤106、将所述待检测声纹数据与预先存储的目标对象的声纹数据进行比对,并将所述待检测验证密码与所述随机验证密码进行比对,若所述待检测声纹数据与所述目标对象的声纹数据相同,且所述待检测验证密码与所述随机验证密码相同,则确定所述待检测对象的活体检测通过。
在具体的实施过程中,在提取到声纹数据和待检测验证密码后,即可以进行活体检测。可以将提取到的待检测声纹数据与预先存储的目标对象的声纹数据进行比对,其中目标对象可以理解为当前进行活体检测的账户所对应的用户,如:若用户登录账户A,需要对登录用户进行活体检测,则账户A对应的用户即为目标对象。又如:用户使用智能门锁开门时,需要对当前开门的用户进行活体检测,则该智能门锁的标识可以理解为一个账户,该智能门锁绑定的用户即为目标对象。可以将预先录制目标对象的语音信息,提取目标对象的声纹数据,并保存,以备后续活体检测时使用。可以将目标对象的声纹数据存储在客户端和/或服务端,本说明书实施例不做具体限定。此外,还可以将提取到的待检测验证密码与客户端中显示的随机验证密码进行比对,以检测录制的待检测视频信息中用户读取的密码是否与客户端中显示的密码一致。若待检测声纹数据与目标对象的声纹数据相同,且待检测验证密码与客户端显示的随机验证密码相同,则可以认为待检测对象的活体检测通过。基于活体检测结果,可以进行后续的业务流程,如:身份识别、账户登录等。
一般攻击者只有一张用户的静态照片,若攻击者利用特殊的技术生成用户读数的视频,同时攻击者自己读随机密码,若采用唇语识别和语言识别技术结合进行活体检测,这样可以检测到声音和唇语提取到的验证密码,活体检测也是可以通过,但这并不是用户本人,影响活体检测结果的准确性。并且,一般而言,攻击者能拿到用户带有声音的读数视频,同时读的数字又和随机生成验证密码一模一样的概率是很小的。本说明书实施例中,采用随机验证密码,并将声纹识别和唇语识别技术相结合,既可以确保待检测用户口型对应的是随机验证密码,又可以确保是用户本人读取的密码,提升了活体检测的准确性。
此外,待检测声纹数据以及待检测验证密码的比对过程可以在客户端中进行,也可以在服务端中进行,本说明书实施例不做具体限定。例如:客户端可以将录制的待检测视频信息发送给服务端,服务端提取出待检测声纹数据和待检测验证密码后,可以将待检测声纹数据和待检测验证密码返回至客户端,客户端将待检测声纹数据与客户端中存储的目标对象的声纹数据进行比对,并将待检测验证密码与客户端中显示的随机验证密码进行比对。或者,客户端在发送的待检测视频信息时,可以将当前进行活体检测的待检测账户信息以及当前显示的随机验证密码发送给服务端。服务端在提取到待检测声纹数据后,基于待检测账户信息获取目标对象的声纹数据,将待检测声纹数据与预先存储的目标对象的声纹数据进行比对。在提取到待检测验证密码后,可以将待检测验证密码与客户端发送的随机验证密码进行比对。
本说明书实施例提供的活体检测方法,利用语音和视频两种模态的信息,从语音信息中提取出声纹数据,从视频图像中利用唇语识别技术提取出待检测验证密码,同时利用声纹识别和唇语识别技术联合判断待检测对象是否为活体,可以大幅度提升活体检测的精度,同时对高清屏攻击和高精度头模攻击等单帧图像较难处理的攻击,也可以起到良好的防范作用,提升了活体检测的准确性。
本说明书一些实施例中,所述利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,包括:
将所述待检测视频信息中的静默视频信息输入到预先建立的唇语识别模型中,利用所述唇语识别模型从所述静默视频信息中提取出所述待检测验证密码;其中,所述唇语识别模型基于唇语训练样本数据进行模型训练构建获得,所述唇语识别模型的唇语训练样本数据包括:真实训练样本数据和构建训练样本数据;
其中,所述真实训练样本数据的获取方法包括:采集不同用户读取不同的随机验证密码的视频数据;
所述构建训练样本数据的获取方法包括:利用用户读取指定随机验证密码的视频数据,构建不同用户读取不同随机验证密码的视频数据,获得所述构建训练样本数据。
在具体的实施过程中,可以预先训练构建唇语识别模型,如:采集唇语训练样本数据进行模型训练,构建出能够进行唇语识别的智能学习模型。其中,唇语训练样本数据可以理解为用户读取验证密码的视频或图像,对唇语训练样本数据件特征提取和学习,获得唇语识别模型。唇语识别模型采用的具体算法本说明书实施例不做具体限定,如:可以采用神经网络模型、随机森林模型等,本说明书一些实施例中,可以选择STCNN(Spatial-TemporalConvolutional Neural Network,时空卷积神经网络)和GRU(Gated Recurrent Unit)。在利用唇语识别技术从待检测视频信息中提取待检测验证密码时,可以将待检测视频信息中的静默视频信息即不包括语音信息的图像信息输入到预先建立的唇语识别模型中,利用唇语识别模型对图像信息中用户的口型的变化进行特征提取,识别出其中用户口型表示的含义及待检测验证密码。利用唇语识别模型对静默视频信息进行特征提取,获得图像信息中口型表征的含义,进而提取出待检测验证密码,为活体检测提供了准确的数据基础。
唇语识别模型的训练一般需要大量的样本数据,然而真实训练数据通常可能因训练数据集数量不足,无法在短时间内补充大量数据,并且真实数据或人工采集数据无法完全均匀覆盖随机验证密码的表征空间,导致训练样本极度不均匀,有些随机验证密码无有效训练样本。基于此,本说明书实施例中的唇语训练样本数据可以包括:真实训练样本数据和生成训练样本数据,其中,真实训练样本数据可以理解为真实采集用户读取随机验证密码的视频数据,构建训练样本数据可以理解为基于一定的技术生成构建的样本数据。
其中,可以通过采集不同用户读取不同随机验证密码的视频数据作为真实训练样本数据,例如:可以选择一定数量的用户,让这些用户分别读取不同的随机验证密码,并录制用户读取随机验证密码的视频数据,该视频数据可以是唇部视频数据也可以是包括唇部的整个脸部视频数据,本说明书实施例不做具体限定。其中,随机验证密码可以根据实际需要随机生成,如:可以构建验证密码库,随机从库中抽取验证密码作为随机验证密码。随机验证密码可以是文字的组合或数字的组合或文字以及数字的组合,本说明书实施例不做具体限定。
对于构建训练样本数据可以通过采集用户读取指定随机验证密码的视频数据,来构建生成不同用户读取不同随机验证密码的视频数据。如:可以将用户读取指定随机验证密码的视频数据进行拆分、合成等方式生成不同用户读取不同随机验证密码的视频数据。
本说明书一些实施例中,所述利用用户读取指定随机验证密码的视频数据,构建不同用户读取不同随机验证密码的视频数据,获得所述构建训练样本数据,包括:
利用指定用户读取指定随机验证密码的视频数据驱动不同用户的脸部静默图像,生成不同用户读取所述指定随机验证密码的生成视频数据,将所述生成视频数据作为所述构建训练样本数据。
在具体的实施过程中,对于构建训练样本数据可以通过制定用户读取指定的随机验证密码的视频数据驱动不同用户的脸部静默图像,进而生成不同用户读取该指定随机验证密码的生成视频数据。例如:可以选择用户A即指定用户读取不同随机验证密码,并录制视频,如:录制用户A读取1234、1345、3579这三组随机验证密码的视频数据,利用录制的视频驱动不同用户的脸部静默图像。如:使用用户A读取随机验证密码1234的视频数据驱动用户B的脸部静默图像,则可以获得用户B读取随机验证密码1234的生成视频数据。同样的,利用用户A读取随机验证密码1345、3579的视频数据驱动用户B的脸部静默图像,则可以分别获得用户B读取随机验证密码1345、3579的生成视频数据。可以录制用户A或其他指定用户读取不同随机验证密码的视频数据或者可以采用上述获得的真实训练样本数据,驱动不同用户的脸部静默图像,即可以获得不同用户读取不同随机验证密码的生成视频数据即为构建训练样本数据。其中,指定用户的数量不做具体限定。
其中,利用视频驱动静默图像生成视频数据的图像生成算法可以根据实际需要选择,本说明书实施例不做具体限定。
可以看出,生成视频数据实际上不是真实的数据,但可以利用少量真实的数据获得大量的样本数据,结合真实训练样本数据进行唇语识别模型的训练,弥补了样本数据不足的问题,同时,又可以保证模型训练的准确性,进而为后续活体检测奠定了准确的数据基础。
本说明书一些实施例中,所述随机验证密码包括多个子密码,所述子密码为单个文字或单个数字,所述利用指定用户读取指定随机验证密码的视频数据驱动不同用户的脸部静默图像,生成不同用户读取所述指定随机验证密码的生成视频数据,还包括:
利用指定用户依次读取子密码的视频数据驱动不同用户的脸部静默图像,生成不同用户读取子密码的生成视频数据;
将不同用户读取子密码的生成视频数据按照每读取一个子密码切分出一个视频,获得不同用户读取不同子密码的生成子视频数据;
将同一个用户读取不同子密码的生成子视频数据进行随机组合合成,获得的合成视频数据作为所述生成视频数据。
在具体的实施过程中,参见上述实施例的记载,本说明书实施例中的随机验证密码可以包括多个子密码,每个子密码可以是单个文字或单个数字,文字可以是中文或英文,即本说明书实施例中的随机验证密码可以是一段文字或一串数字或文字和数字的组合,具体可以根据实际需要进行设置,本说明书实施例不做具体限定。本说明书实施例中,在构建生成训练样本数据时,还可以录制指定用户依次读取各个子密码的视频数据。可以将所有子密码的组合作为指定随机验证密码,录制指定用户读取所有子密码组合的视频数据。如:若采用0-9的数字组合生成随机验证密码,则可以录制指定用户读取0-9这10个数字的视频数据,利用这个视频数据驱动其他用户的脸部静默图像,可以获得不同用户读取子密码如0-9这10个数字的视频数据。将同一个用户读取子密码的生成视频数据按照每读一个子密码切分出一个视频,获得用户读不同子密码的生成子视频数据。再根据随机验证密码设置规则,将同一个用户读取不同子密码的生成子视频数据进行随机组合合成处理,可以获得合成视频数据即为生成视频数据,进而获得构建训练样本数据。
例如:若随机验证密码是4位数字的组合,则可以录制指定用户A读取0-9这10个数字的视频数据,利用这个视频数据驱动用户B的脸部静默图像,可以获得用户B读取子密码如0-9这10个数字的视频数据。将用户B读取0-9这10个数字的视频数据进行切分,每读一个子密码切分一个子视频数据,获得用户B分别读取0-9这10个数字的10个生成子视频数据。将用户B读取10个子密码的生成子视频数据进行随机组合,每4个生成子视频数据组合合成一个视频数据即为生成视频数据。其中,将生成子视频数据进行随机组合合成时,同一个生成子视频数据可以重复使用,即一个合成视频数据中可以包括相同的生成子视频数据,如:随机验证密码1123中前两个子密码是相同的,那么可以将两个用户B读取1的生成子视频数据与读取2、3的生成子视频数据进行合成获得。
本说明书实施例中,通过指定用户依次读取子密码的视频数据驱动其他用户的脸部静默图像,可以获得其他用户依次读取各个子密码的生成视频数据,获得覆盖了所有子密码的生成视频数据。再对获得的生成视频数据进行切分,就可以获得用户读取各个子密码的生成子视频数据,进而将各个生成子视频数据进行随机组合合成,就可以获得用户读取不同随机验证密码的生成视频数据。通过视频驱动、视频切分、视频合成的方式,可以获得几乎覆盖所有随机验证密码的视频数据,提升了训练数据的均匀性,结合真实训练样本数据,提升了唇语识别模型训练的准确性,进而为后续活体检测奠定了准确的数据基础。
本说明书另一些实施例中,所述随机验证密码包括多个子密码,所述子密码为单个文字或单个数字,所述利用用户读取指定随机验证密码的视频数据,构建不同用户读取不同随机验证密码的视频数据,获得所述构建训练样本数据,包括:
采集不同用户依次读取子密码的视频数据,将不同用户读取子密码的视频数据按照每读取一个子密码切分出一个视频,获得不同用户读取不同子密码的视频数据;
将同一个用户依次读取不同子密码的视频数据进行随机组合合成,获得的合成视频数据作为所述构建训练样本数据。
在具体的实施过程中,可以采用真实训练样本数据和合成视频数据组合的方式训练唇语识别模型,其中,合成视频数据可以理解为将真实视频数据进行拆分后合成的视频数据。其中,真实训练样本数据的获得方式可以参考上述实施例的记载,此处不再赘述。参见上述实施例的记载,本说明书实施例中的随机验证密码可以包括多个子密码,每个子密码可以是单个文字或单个数字,文字可以是中文或英文或其他语言,即本说明书实施例中的随机验证密码可以是一段文字或一串数字或文字和数字的组合。可以将所有子密码的组合作为指定随机验证密码,本说明书实施例可以采集录制不同用户依次读取所有子密码的视频数据,即录制不同用户读取指定随机验证密码的视频数据。再将同一个用户依次读取子密码的视频数据进行切分,获得各个用户读取不同子密码的视频数据,按照随机验证密码的设置规则,将同一个用户读取不同子密码的视频数据进行随机组合合成,就可以获得合成视频数据。
例如:若随机验证密码是4位数字的组合,则可以录制不同用户读取0-9这10个数字的视频数据,将不同用户读取0-9这10个数字的视频数据按照每读取一个子密码进行切分,每读取一个子密码切分出一个视频数据,获得不同用户分别读取0-9这10个数字的10个视频数据。将同一个用户读取10个子密码的视频数据进行随机组合,每4个视频数据组合合成一个视频数据即为合成视频数据。参见上述实施例的记载,将视频数据进行随机组合合成时,同一个视频数据可以重复使用,即一个合成视频数据中可以包括相同的视频数据。
可以看出,合成视频数据也是一种生成的数据,虽然不是真实的验证密码的视频数据,但每个子密码的视频数据是真实的,相对于生成训练样本数据更加准确。并且,将用户读取各个子密码的视频数据进行切分组合,几乎能够覆盖所有的随机验证密码,提升了样本的均匀度。结合真实训练样本数据既可以保障训练样本数据的真实性、准确性,又可以提升样本数量,进而提升唇语识别模型的准确性,为后续活体检测提供了更加准确的数据基础。
图3是本说明书一个实施例中活体检测算法部署的原理示意图,如图3所示,本说明书实施例主要采用唇语识别和声纹识别技术,对于唇语识别模型的训练,可以将真实训练样本数据、生成视频数据以及合成视频数据三者结合的方式获得模型训练的样本数据,其中,生成视频数据和合成视频数据即为上述实施例中的构建训练样本数据。如图3所示,以随机验证密码是0-9的4位数字组合为例,训练样本数据可以包括真实训练样本数据、生成视频数据以及合成视频数据。对于生成视频数据可以利用图像生成算法等方法,用单张人脸静默图像,生成0-9十个数字的读数视频。由于单张人脸静默图像容易获取,因此通过生成的方法,可以生成较多不同人的读不同的指定随机验证密码的生成视频数据。此外,为了解决真实数据和人工采集数据无法完全均匀覆盖4位随机数的表征空间这个问题,本说明书实施例可以采用数据合成方法生成4位随机数的读数视频。针对真实数据,利用语音信号对静默帧进行抑制,同时对单个读数视频进行切分,得到每个数字的读数视频。可以看出,只需要为每个人采集一段0-9的读数视频,然后利用上述方法进行切分,就可以得到真实的用户的单个读数视频。由于得到了单个数字的读数视频,因此可以利用这些视频合成任意4位数的读数视频。
利用上述实施例记载的方法,可以大幅度简化数据采集难度和采集数量,同时结合上述生成的单个读数视频,可以合成大量的训练数据。通过生成视频数据和合成视频数据,可以弥补训练数据不足、覆盖面不均匀不广的问题,结合真实训练样本数据,可以提升样本数据的准确性,进而提升唇语识别模型的准确性。
对于图3中的声纹识别模型的训练构建方法,可以根据实际需要选择合适的方法,本说明书实施例不做具体限定。
参见上述实施例的记载,本说明书实施例中的活体检测可以在客户端中完成,也可以在服务端中完成。本说明书一些实施例中,可以由客户端采集待检测视频信息,利用服务端的强大的计算能力进行活体检测的数据处理和运算。图4是本说明书另一些实施例中活体检测方法的流程示意图,如图4所示,该方法可以应用在客户端中如:智能手机、智能穿戴设备、平板电脑等终端上,所述方法可以包括如下步骤:
步骤402、接收到活体检测请求后,生成并展示随机验证密码。
在具体的实施过程中,如图2所示,在一些实施例中,用户在登录账户或进行身份识别时,会触发客户端活体检测请求,此时客户端可以生成随机验证密码,其中随机验证密码的具体形式可以参考上述实施例的记载,此处不再赘述。如:客户端中可以配置一个验证密码数据库,在需要生成随机验证密码时,可以根据随机验证密码的配置规则,随机从数据库中选择指定数量的密码,即可以构成随机验证密码。或者,利用一些算法等生成随机验证密码,本说明书实施例不做具体限定。如图2所示,客户端可以将生成的随机验证密码展示在客户端的屏幕上,并提示用户按照屏幕上显示的密码进行朗读。
步骤404、采集待检测对象读取所述随机验证密码的待检测视频信息,所述待检测视频信息包括所述待检测对象读取客户端显示的随机验证密码的语音信息。
在具体的实施过程中,用户根据客户端屏幕上的提示,读取客户端上展示的随机验证密码时,客户端可以录制用户读取随机验证密码的视频即待检测视频信息。如上述实施例所述,待检测视频信息包括待检测对象即待检测用户读取客户端显示的随机验证密码的语音信息以及图像信息。
步骤406、将所述待检测视频信息、所述随机验证密码和所述活体检测请求对应的账户信息发送至服务端,以使得所述服务端利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,结合所述待检测视频信息中的待检测声纹数据验证对所述待检测对象进行活体检测。
在具体的实施过程中,客户端采集到待检测对象读取随机验证密码的视频信息后,可以将采集到的视频信息发送至服务端,服务端对客户端采集到的待检测视频信息进行声纹识别和唇语识别,提取出待检测声纹数据和待检测验证密码,进而将待检测声纹数据和待检测验证密码与目标用户的声纹数据和随机验证密码进行比对,以对待检测对象进行活体检测。其中,服务端进行活体检测的过程以及唇语识别模型的创建等参见上述实施例的记载,此处不再赘述。
本说明书实施例提供的活体检测方法,基于声纹识别和唇语识别的联合活体检测方法,采集用户读取客户端屏幕上显示的随机验证密码,通过声纹识别和唇语识别技术,识别出用户的读数是否和显示的随机验证密码一致,并识别声纹是否与目标声纹一致,从而判断是否为真人。在架构层面,本方法利用语音和视频两种模态的信息,同时利用声纹识别和唇语识别技术联合判断刷待检测对象是否为活体,可以大幅度提升活体检测算法的精度,同时对高清屏攻击和高精度头模攻击等单帧图像较难处理的攻击,也可以起到良好的防范作用。
本说明书中上述方法的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参考即可,每个实施例重点说明的都是与其他实施例的不同之处。相关之处参考方法实施例的部分说明即可。
基于上述所述的活体检测方法,本说明书一个或多个实施例还提供一种用于活体检测的系统。所述系统可以包括使用了本说明书实施例所述方法的系统(包括分布式系统)、软件(应用)、模块、组件、服务器、客户端等并结合必要的实施硬件的装置。基于同一创新构思,本说明书实施例提供的一个或多个实施例中的装置如下面的实施例所述。由于装置解决问题的实现方案与方法相似,因此本说明书实施例具体的装置的实施可以参考前述方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
具体地,图5是本说明书提供的活体检测装置一个实施例的模块结构示意图,该装置可以应用在服务端,如图5所示,本说明书中提供的活体检测装置可以包括:
视频信息接收模块51,用于接收待检测视频信息,其中,所述待检测视频信息包括待检测对象读取客户端显示的随机验证密码的语音信息;
数据提取模块52,用于从所述语音信息中提取待检测声纹数据,并利用唇语识别技术从所述待检测视频信息中提取待检测验证密码;
数据比对模块53,用于将所述待检测声纹数据与预先存储的目标对象的声纹数据进行比对,并将所述待检测验证密码与所述随机验证密码进行比对,若所述待检测声纹数据与所述目标对象的声纹数据相同,且所述待检测验证密码与所述随机验证密码相同,则确定所述待检测对象的活体检测通过。
本说明书一些实施例中,所述数据提取模块具体用于:
将所述待检测视频信息中的静默视频信息输入到预先建立的唇语识别模型中,利用所述唇语识别模型从所述静默视频信息中提取出所述待检测验证密码;其中,所述唇语识别模型基于唇语训练样本数据进行模型训练构建获得,所述唇语识别模型的唇语训练样本数据包括:真实训练样本数据和构建训练样本数据;
所述装置还包括训练样本数据生成模块用于:
采集不同用户读取不同的随机验证密码的视频数据获得所述真实训练样本数据;
利用用户读取指定随机验证密码的视频数据,构建不同用户读取不同随机验证密码的视频数据,获得所述构建训练样本数据。
本说明书一些实施例中,所述训练样本数据生成模块具体用于:
利用指定用户读取指定随机验证密码的视频数据驱动不同用户的脸部静默图像,构建不同用户读取所述指定随机验证密码的生成视频数据,将所述生成视频数据作为所述构建训练样本数据。
本说明书一些实施例中,所述随机验证密码包括多个子密码,所述子密码为单个文字或单个数字,所述训练样本数据生成模块还用于:
利用指定用户读取子密码的视频数据驱动不同用户的脸部静默图像,生成不同用户读取子密码的生成视频数据;
将不同用户读取子密码的生成视频数据按照每读取一个子密码切分出一个视频,获得不同用户读取不同子密码的生成视频数据;
将同一个用户读取不同子密码的生成视频数据进行随机组合合成,获得的合成视频数据作为所述生成视频数据。
本说明书实施例中,所述随机验证密码包括多个子密码,所述子密码为单个文字或单个数字;所述训练样本数据生成模块具体用于:
采集不同用户读取子密码的视频数据,将不同用户读取子密码的视频数据进行切分,获得不同用户读取不同子密码的视频数据,将同一个用户读取不同子密码的视频数据进行随机组合合成,获得的合成视频数据作为所述构建训练样本数据。
图6是本说明书提供的活体检测装置又一个实施例的模块结构示意图,如图6所示,该装置可以应用在客户端,本说明书中提供的活体检测装置可以包括:
随机密码生成模块61,用于接收到活体检测请求后,生成并展示随机验证密码;
视频采集模块62,用于采集待检测对象读取所述随机验证密码的待检测视频信息,所述待检测视频信息包括所述待检测对象读取客户端显示的随机验证密码的语音信息;
活体检测模块63,用于将所述待检测视频信息、所述随机验证密码和所述活体检测请求对应的账户信息发送至服务端,以使得所述服务端利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,结合所述待检测视频信息中的待检测声纹数据验证对所述待检测对象进行活体检测。
本说明书实施例提供的活体检测装置,基于声纹识别和唇语识别的联合活体检测方法,采集用户读取客户端屏幕上显示的随机验证密码,通过声纹识别和唇语识别技术,识别出用户的读数是否和显示的随机验证密码一致,并识别声纹是否与目标声纹一致,从而判断是否为真人。在架构层面,本方法利用语音和视频两种模态的信息,同时利用声纹识别和唇语识别技术联合判断刷待检测对象是否为活体,可以大幅度提升活体检测算法的精度,同时对高清屏攻击和高精度头模攻击等单帧图像较难处理的攻击,也可以起到良好的防范作用。
需要说明的,上述所述的装置根据对应方法实施例的描述还可以包括其他的实施方式。具体的实现方式可以参照上述对应的方法实施例的描述,在此不作一一赘述。
本说明书实施例还提供一种活体检测设备,包括:至少一个处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现上述实施例的信息推荐数据处理方法,如:
接收待检测视频信息,其中,所述待检测视频信息包括待检测对象读取客户端显示的随机验证密码的语音信息;
从所述语音信息中提取待检测声纹数据,并利用唇语识别技术从所述待检测视频信息中提取待检测验证密码;
将所述待检测声纹数据与预先存储的目标对象的声纹数据进行比对,并将所述待检测验证密码与所述随机验证密码进行比对,若所述待检测声纹数据与所述目标对象的声纹数据相同,且所述待检测验证密码与所述随机验证密码相同,则确定所述待检测对象的活体检测通过。
或,接收到活体检测请求后,生成并展示随机验证密码;
采集待检测对象读取所述随机验证密码的待检测视频信息,所述待检测视频信息包括所述待检测对象读取客户端显示的随机验证密码的语音信息;
将所述待检测视频信息、所述随机验证密码和所述活体检测请求对应的账户信息发送至服务端,以使得所述服务端利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,结合所述待检测视频信息中的待检测声纹数据验证对所述待检测对象进行活体检测。
本说明书实施例还提供一种活体检测系统,包括:客户端和服务端;其中,所述服务端中包括至少一个处理器以及用于存储处理器可执行指令的存储器,所述处理器执行上述服务端执行的方法,用于基于客户端采集到的待检测视频信息进行活体检测;
所述客户端包括至少一个处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现客户端执行的方法。
需要说明的,上述所述的设备和系统根据方法实施例的描述还可以包括其他的实施方式。具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
本说明书提供的活体检测装置,也可以应用在多种数据分析处理系统中。所述系统或服务器或终端或设备可以为单独的服务器,也可以包括使用了本说明书的一个或多个所述方法或一个或多个实施例系统或服务器或终端或设备的服务器集群、系统(包括分布式系统)、软件(应用)、实际操作装置、逻辑门电路装置、量子计算机等并结合必要的实施硬件的终端装置。所述核对差异数据的检测系统可以包括至少一个处理器以及存储计算机可执行指令的存储器,所述处理器执行所述指令时实现上述任意一个或者多个实施例中所述方法的步骤。
本说明书实施例所提供的方法实施例可以在移动终端、计算机终端、服务器或者类似的运算装置中执行。以运行在服务器上为例,图7是本说明书一个实施例中活体检测服务器的硬件结构框图,该计算机终端可以是上述实施例中的活体检测服务器或活体检测装置。如图7所示服务器10可以包括一个或多个(图中仅示出一个)处理器100(处理器100可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的非易失性存储器200、以及用于通信功能的传输模块300。本领域普通技术人员可以理解,图7所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,服务器10还可包括比图7中所示更多或者更少的组件,例如还可以包括其他的处理硬件,如数据库或多级缓存、GPU,或者具有与图7所示不同的配置。
非易失性存储器200可用于存储应用软件的软件程序以及模块,如本说明书实施例中的活体检测方法对应的程序指令/模块,处理器100通过运行存储在非易失性存储器200内的软件程序以及模块,从而执行各种功能应用以及资源数据更新。非易失性存储器200可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,非易失性存储器200可进一步包括相对于处理器100远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输模块300用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端的通信供应商提供的无线网络。在一个实例中,传输模块300包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输模块300可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书提供的上述实施例所述的方法或装置可以通过计算机程序实现业务逻辑并记录在存储介质上,所述的存储介质可以计算机读取并执行,实现本说明书实施例所描述方案的效果,如:
接收待检测视频信息,其中,所述待检测视频信息包括待检测对象读取客户端显示的随机验证密码的语音信息;
从所述语音信息中提取待检测声纹数据,并利用唇语识别技术从所述待检测视频信息中提取待检测验证密码;
将所述待检测声纹数据与预先存储的目标对象的声纹数据进行比对,并将所述待检测验证密码与所述随机验证密码进行比对,若所述待检测声纹数据与所述目标对象的声纹数据相同,且所述待检测验证密码与所述随机验证密码相同,则确定所述待检测对象的活体检测通过。
或,接收到活体检测请求后,生成并展示随机验证密码;
采集待检测对象读取所述随机验证密码的待检测视频信息,所述待检测视频信息包括所述待检测对象读取客户端显示的随机验证密码的语音信息;
将所述待检测视频信息、所述随机验证密码和所述活体检测请求对应的账户信息发送至服务端,以使得所述服务端利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,结合所述待检测视频信息中的待检测声纹数据验证对所述待检测对象进行活体检测。
本说明书实施例提供的上述活体检测方法或装置可以在计算机中由处理器执行相应的程序指令来实现,如使用windows操作系统的c++语言在PC端实现、linux系统实现,或其他例如使用android、iOS系统程序设计语言在智能终端实现,以及基于量子计算机的处理逻辑实现等。
需要说明的是说明书上述所述的装置、计算机存储介质、系统根据相关方法实施例的描述还可以包括其他的实施方式,具体的实现方式可以参照对应方法实施例的描述,在此不作一一赘述。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参考即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于硬件+程序类实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参考方法实施例的部分说明即可。
本说明书实施例并不局限于必须是符合行业通信标准、标准计算机资源数据更新和数据存储规则或本说明书一个或多个实施例所描述的情况。某些行业标准或者使用自定义方式或实施例描述的实施基础上略加修改后的实施方案也可以实现上述实施例相同、等同或相近、或变形后可预料的实施效果。应用这些修改或变形后的数据获取、存储、判断、处理方式等获取的实施例,仍然可以属于本说明书实施例的可选实施方案范围之内。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、车载人机交互设备、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
虽然本说明书一个或多个实施例提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或终端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式资源数据更新环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书一个或多个时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
本发明是参照根据本发明实施例的方法、装置(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程资源数据更新设备的处理器以产生一个机器,使得通过计算机或其他可编程资源数据更新设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程资源数据更新设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程资源数据更新设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储、石墨烯存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本领域技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参考即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参考方法实施例的部分说明即可。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
以上所述仅为本说明书一个或多个实施例的实施例而已,并不用于限制本说明书一个或多个实施例。对于本领域技术人员来说,本说明书一个或多个实施例可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在权利要求范围之内。

Claims (14)

1.一种活体检测方法,所述方法包括:
接收待检测视频信息,其中,所述待检测视频信息包括待检测对象读取客户端显示的随机验证密码的语音信息;
从所述语音信息中提取待检测声纹数据,并利用唇语识别技术从所述待检测视频信息中提取待检测验证密码;
将所述待检测声纹数据与预先存储的目标对象的声纹数据进行比对,并将所述待检测验证密码与所述随机验证密码进行比对,若所述待检测声纹数据与所述目标对象的声纹数据相同,且所述待检测验证密码与所述随机验证密码相同,则确定所述待检测对象的活体检测通过。
2.如权利要求1所述的方法,所述利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,包括:
将所述待检测视频信息中的静默视频信息输入到预先建立的唇语识别模型中,利用所述唇语识别模型从所述静默视频信息中提取出所述待检测验证密码;其中,所述唇语识别模型基于唇语训练样本数据进行模型训练构建获得,所述唇语识别模型的唇语训练样本数据包括:真实训练样本数据和构建训练样本数据;
其中,所述真实训练样本数据的获取方法包括:采集不同用户读取不同的随机验证密码的视频数据;
所述构建训练样本数据的获取方法包括:利用用户读取指定随机验证密码的视频数据,构建不同用户读取不同随机验证密码的视频数据,获得所述构建训练样本数据。
3.如权利要求2所述的方法,所述利用用户读取指定随机验证密码的视频数据,构建不同用户读取不同随机验证密码的视频数据,获得所述构建训练样本数据,包括:
利用指定用户读取指定随机验证密码的视频数据驱动不同用户的脸部静默图像,生成不同用户读取所述指定随机验证密码的生成视频数据,将所述生成视频数据作为所述构建训练样本数据。
4.如权利要求3所述的方法,所述随机验证密码包括多个子密码,所述子密码为单个文字或单个数字,所述利用指定用户读取指定随机验证密码的视频数据驱动不同用户的脸部静默图像,生成不同用户读取所述指定随机验证密码的生成视频数据,还包括:
利用指定用户依次读取子密码的视频数据驱动不同用户的脸部静默图像,生成不同用户读取子密码的生成视频数据;
将不同用户读取子密码的生成视频数据按照每读取一个子密码切分出一个视频,获得不同用户读取不同子密码的生成子视频数据;
将同一个用户读取不同子密码的生成子视频数据进行随机组合合成,获得的合成视频数据作为所述生成视频数据。
5.如权利要求2所述的方法,所述随机验证密码包括多个子密码,所述子密码为单个文字或单个数字,所述利用用户读取指定随机验证密码的视频数据,构建不同用户读取不同随机验证密码的视频数据,获得所述构建训练样本数据,包括:
采集不同用户依次读取子密码的视频数据,将不同用户依次读取子密码的视频数据按照每读取一个子密码切分出一个视频,获得不同用户读取不同子密码的视频数据;
将同一个用户读取不同子密码的视频数据进行随机组合合成,获得的合成视频数据作为所述构建训练样本数据。
6.一种活体检测方法,所述方法包括:
接收到活体检测请求后,生成并展示随机验证密码;
采集待检测对象读取所述随机验证密码的待检测视频信息,所述待检测视频信息包括所述待检测对象读取客户端显示的随机验证密码的语音信息;
将所述待检测视频信息、所述随机验证密码和所述活体检测请求对应的账户信息发送至服务端,以使得所述服务端利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,结合所述待检测视频信息中的待检测声纹数据验证对所述待检测对象进行活体检测。
7.一种活体检测装置,所述装置包括:
视频信息接收模块,用于接收待检测视频信息,其中,所述待检测视频信息包括待检测对象读取客户端显示的随机验证密码的语音信息;
数据提取模块,用于从所述语音信息中提取待检测声纹数据,并利用唇语识别技术从所述待检测视频信息中提取待检测验证密码;
数据比对模块,用于将所述待检测声纹数据与预先存储的目标对象的声纹数据进行比对,并将所述待检测验证密码与所述随机验证密码进行比对,若所述待检测声纹数据与所述目标对象的声纹数据相同,且所述待检测验证密码与所述随机验证密码相同,则确定所述待检测对象的活体检测通过。
8.如权利要求7所述的装置,所述数据提取模块具体用于:
将所述待检测视频信息中的静默视频信息输入到预先建立的唇语识别模型中,利用所述唇语识别模型从所述静默视频信息中提取出所述待检测验证密码;其中,所述唇语识别模型基于唇语训练样本数据进行模型训练构建获得,所述唇语识别模型的唇语训练样本数据包括:真实训练样本数据和构建训练样本数据;
所述装置还包括训练样本数据生成模块用于:
采集不同用户读取不同的随机验证密码的视频数据获得所述真实训练样本数据;
利用用户读取指定随机验证密码的视频数据,构建不同用户读取不同随机验证密码的视频数据,获得所述构建训练样本数据。
9.如权利要求8所述的装置,所述训练样本数据生成模块具体用于:
利用指定用户读取指定随机验证密码的视频数据驱动不同用户的脸部静默图像,构建不同用户读取所述指定随机验证密码的生成视频数据,将所述生成视频数据作为所述构建训练样本数据。
10.如权利要求9所述的装置,所述随机验证密码包括多个子密码,所述子密码为单个文字或单个数字,所述训练样本数据生成模块还用于:
利用指定用户读取子密码的视频数据驱动不同用户的脸部静默图像,生成不同用户读取子密码的生成视频数据;
将不同用户读取子密码的生成视频数据按照每读取一个子密码切分出一个视频,获得不同用户读取不同子密码的生成视频数据;
将同一个用户读取不同子密码的生成视频数据进行随机组合合成,获得的合成视频数据作为所述生成视频数据。
11.如权利要求8所述的装置,所述随机验证密码包括多个子密码,所述子密码为单个文字或单个数字;所述训练样本数据生成模块具体用于:
采集不同用户读取子密码的视频数据,将不同用户读取子密码的视频数据进行切分,获得不同用户读取不同子密码的视频数据,将同一个用户读取不同子密码的视频数据进行随机组合合成,获得的合成视频数据作为所述构建训练样本数据。
12.一种活体检测装置,所述装置包括:
随机密码生成模块,用于接收到活体检测请求后,生成并展示随机验证密码;
视频采集模块,用于采集待检测对象读取所述随机验证密码的待检测视频信息,所述待检测视频信息包括所述待检测对象读取客户端显示的随机验证密码的语音信息;
活体检测模块,用于将所述待检测视频信息、所述随机验证密码和所述活体检测请求对应的账户信息发送至服务端,以使得所述服务端利用唇语识别技术从所述待检测视频信息中提取待检测验证密码,结合所述待检测视频信息中的待检测声纹数据验证对所述待检测对象进行活体检测。
13.一种活体检测设备,包括:至少一个处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现权利要求1-5或权利要求6任一项所述的方法。
14.一种活体检测系统,包括:客户端和服务端,其中,所述服务端中包括至少一个处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现权利要求1-5任一项所述的方法,用于基于客户端采集到的待检测视频信息进行活体检测;
所述客户端包括至少一个处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现权利要求6所述的方法。
CN202210241977.7A 2022-03-11 2022-03-11 活体检测方法、装置、设备及系统 Pending CN114696988A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210241977.7A CN114696988A (zh) 2022-03-11 2022-03-11 活体检测方法、装置、设备及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210241977.7A CN114696988A (zh) 2022-03-11 2022-03-11 活体检测方法、装置、设备及系统

Publications (1)

Publication Number Publication Date
CN114696988A true CN114696988A (zh) 2022-07-01

Family

ID=82138394

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210241977.7A Pending CN114696988A (zh) 2022-03-11 2022-03-11 活体检测方法、装置、设备及系统

Country Status (1)

Country Link
CN (1) CN114696988A (zh)

Similar Documents

Publication Publication Date Title
CN109726624B (zh) 身份认证方法、终端设备和计算机可读存储介质
CN109359548B (zh) 多人脸识别监控方法及装置、电子设备及存储介质
US10303982B2 (en) Systems and methods for machine learning enhanced by human measurements
US11093772B2 (en) Liveness detection
CN108804884B (zh) 身份认证的方法、装置及计算机存储介质
US20210117529A1 (en) Authenticating an identity of a person
US10275672B2 (en) Method and apparatus for authenticating liveness face, and computer program product thereof
CN106850648B (zh) 身份验证方法、客户端和服务平台
WO2019210796A1 (zh) 语音识别方法、装置、存储介质及电子设备
Xu et al. Security and Usability Challenges of {Moving-Object}{CAPTCHAs}: Decoding Codewords in Motion
Fong et al. A biometric authentication model using hand gesture images
TW201907330A (zh) 身份認證的方法、裝置、設備及資料處理方法
CN111260545A (zh) 生成图像的方法和装置
CN111275784B (zh) 生成图像的方法和装置
CN105354543A (zh) 视频处理方法及装置
CN112148922A (zh) 会议记录方法、装置、数据处理设备及可读存储介质
CN109005104B (zh) 一种即时通信方法、装置、服务器及存储介质
CN111753271A (zh) 基于ai识别的开户身份验证方法、装置、设备及介质
US20190147218A1 (en) User specific classifiers for biometric liveness detection
CN109462603A (zh) 基于盲检测的声纹认证方法、设备、存储介质及装置
CN109635021A (zh) 一种基于人体检测的数据信息录入方法、装置及设备
CN111738199B (zh) 图像信息验证方法、装置、计算装置和介质
Kim et al. Reconstruction of fingerprints from minutiae using conditional adversarial networks
CN113505652A (zh) 活体检测方法、装置、电子设备和存储介质
KR102114273B1 (ko) 퍼스널 이미지 진단 제공방법 및 이를 수행하기 위한 컴퓨팅 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination