CN115601045A - 身份认证方法、装置、设备、介质和程序产品 - Google Patents
身份认证方法、装置、设备、介质和程序产品 Download PDFInfo
- Publication number
- CN115601045A CN115601045A CN202211342362.XA CN202211342362A CN115601045A CN 115601045 A CN115601045 A CN 115601045A CN 202211342362 A CN202211342362 A CN 202211342362A CN 115601045 A CN115601045 A CN 115601045A
- Authority
- CN
- China
- Prior art keywords
- recognition
- voice
- information
- audiovisual
- lip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/10—Payment architectures specially adapted for electronic funds transfer [EFT] systems; specially adapted for home banking systems
- G06Q20/108—Remote banking, e.g. home banking
Landscapes
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Collating Specific Patterns (AREA)
Abstract
本公开提供了一种身份认证方法,可以应用于信息安全技术领域或金融领域。该身份认证方法包括:获取用户人脸影像信息;基于所述用户人脸影像信息进行一重身份认证,其中,所述一重身份认证基于人脸识别技术进行;当一重身份认证通过时,生成视听验证信息;以及基于所述视听验证信息进行二重身份认证,其中,所述二重身份认证利用语音唇语联合识别进行,所述语音唇语联合识别包括基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行视听信息识别。本公开还提供了一种身份认证装置、设备、存储介质和程序产品。
Description
技术领域
本公开涉及信息安全领域,具体地,涉及一种身份认证方法、装置、设备、介质和程序产品。
背景技术
在进行在线业务办理时,通常使用人脸识别来查验用户身份。然而,单纯的人脸影像信息容易被非法分子盗窃。在部分对个人信息安全要求较高的领域,如远程银行的业务办理中,如果识别系统被非法分子盗取的人脸影像信息攻破,从而导致非法分子入侵用户银行账户,可能会给用户带来巨额损失。其他的身份认证方法还包括密码登录,指纹识别,声纹识别,手势密码等,但各种认证方法均具有一定弊端,缺乏一种能充分利用多模态的验证信息的,在保持便利性、普适性的同时,提升身份认证的可靠性、安全性的身份认证方法。
发明内容
鉴于上述问题,本公开的实施例提供了一种再保持提高身份认证便捷性和普适性的同时,提高其可靠性和安全性的身份认证方法、装置、设备、介质和程序产品。
根据本公开的第一个方面,提供了一种身份认证方法,包括:获取用户人脸影像信息;基于所述用户人脸影像信息进行一重身份认证,其中,所述一重身份认证基于人脸识别技术进行;当一重身份认证通过时,生成视听验证信息;以及基于所述视听验证信息进行二重身份认证,其中,所述二重身份认证利用语音唇语联合识别进行,所述语音唇语联合识别包括基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行视听信息识别。
根据本公开的实施例,基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行所述视听信息识别包括:基于语音捕获信号中的非人声语音信号强度和/或多人声语音重叠信号强度筛选语音识别或唇语识别中的一种进行所述视听信息识别。
根据本公开的实施例,基于所述视听验证信息进行二重身份认证包括:获取语音捕获信号;基于语音活动检测模型识别所述语音捕获信号中的非人声语音信号和人声语音信号;统计所述非人声语音信号的信号强度;以及当所述非人声语音信号的信号强度大于第一阈值时,基于唇语识别进行所述视听信息识别;将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
根据本公开的实施例,当所述非人声语音信号的信号强度小于或等于第一阈值时,所述方法还包括:利用语音重叠检测模型检测所述人声语音信号中的多人声语音重叠信号强度是否大于第二阈值;当所述多人声语音重叠信号强度大于第二阈值时,基于唇语识别进行所述视听信息识别;将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
根据本公开的实施例,当所述多人声语音重叠信号强度小于或等于第二阈值时,基于语音识别进行所述视听信息识别;以及将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
根据本公开的实施例,基于唇语识别进行所述视听信息识别包括:获取待识别用户视听信息读取视频;以及利用唇语识别模型对所述待识别用户视听信息读取视频进行唇语识别,获取与所述待识别用户视听信息读取视频对应的视听关键词。
根据本公开的实施例,当二重身份认证通过时,所述方法还包括:执行三重身份认证,所述三重身份认证基于语音嘴唇同步性判别进行,其中,所述语音嘴唇同步性判别包括:获取待识别用户视听信息读取视频;基于所述待识别用户视听信息读取视频提取用户唇形信息,所述用户唇形信息基于唇语识别进行;利用语音嘴唇同步性判别模型判断所述用户唇形信息和所述视听信息识别结果是否匹配。
根据本公开的实施例,所述视听验证信息包括随机生成的关键词。
本公开的第二方面提供了一种身份认证装置,包括:第一获取模块,配置为获取用户人脸影像信息;第一认证模块,配置为基于所述用户人脸影像信息进行一重身份认证,其中,所述一重身份认证基于人脸识别技术进行;生成模块,配置为当一重身份认证通过时,生成视听验证信息;以及第二认证模块,配置为基于所述视听验证信息用于进行二重身份认证,其中,所述二重身份认证利用语音唇语联合识别模型进行,所述语音唇语联合识别包括基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行所述视听信息识别。
根据本公开的实施例,第二认证模块至少可以包括捕获子模块,第一识别子模块,统计子模块,第一判断子模块,第二识别子模块和比对子模块。其中,捕获子模块被配置为获取语音捕获信号。第一识别子模块被配置为基于语音活动检测模型识别所述语音捕获信号中的非人声语音信号和人声语音信号。统计子模块被配置为统计所述非人声语音信号的信号强度。第一判断子模块被配置为判断所述非人声语音信号的信号强度是否大于第一阈值。第二识别子模块被配置为当非人声语音信号的信号强度大于第一阈值时,基于唇语识别进行所述视听信息识别。比对子模块被配置为将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
根据本公开的实施例,第二认证模块还可以包括第二判断子模块和第三识别子模块。其中,第二判断子模块被配置为当所述非人声语音信号的信号强度小于或等于第一阈值时,利用语音重叠检测模型检测所述人声语音信号中的多人声语音重叠信号强度是否大于第二阈值。第三识别子模块被配置为当所述多人声语音重叠信号强度大于第二阈值时,基于唇语识别进行所述视听信息识别。
根据本公开的实施例,第二认证模块还可以包括第四识别子模块15409。第四识别子模块被配置为当所述多人声语音重叠信号强度小于或等于第二阈值时,基于语音识别进行所述视听信息识别。
根据本公开的实施例,身份认证装置还可以包括第三认证模块。其中,第三认证模块被配置为当二重身份认证通过时,执行三重身份认证,所述三重身份认证基于语音嘴唇同步性判别进行。所述语音嘴唇同步性判别包括:获取待识别用户视听信息读取视频;基于所述待识别用户视听信息读取视频提取用户唇形信息,所述用户唇形信息基于唇语识别进行;利用语音嘴唇同步性判别模型判断所述用户唇形信息和所述视听信息识别结果是否匹配。
本公开的第三方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述身份认证方法。
本公开的第四方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述身份认证方法。
本公开的第五方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述身份认证方法。
本公开的实施例提供的方法,综合利用人脸影像和语音、验证码等多个模态的信息,在保持便利性、普适性的同时,提升身份认证的可靠性、安全性。在人脸识别后,对视听信息进行语音唇语联合识别,可以杜绝通过提前录制的视频攻破身份认证系统。通过利用语音捕获信号自适应筛选语音识别或唇语识别中的一种进行视听信息识别,可以有效提升本公开的实施例的身份认证方法在不同场景下的适应性,鲁棒性和风险识别能力。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的身份认证方法、装置、设备、介质和程序产品的应用场景图。
图2示意性示出了根据本公开实施例的身份认证方法的流程图。
图3示意性示出了根据本公开一些实施例的基于所述视听验证信息进行二重身份认证的方法的流程图。
图4示意性示出了根据本公开的实施例的训练得到语音活动检测模型的方法的流程图。
图5示意性示出了根据本公开实施例的基于唇语识别进行所述视听信息识别的方法的流程图。
图6示意性示出了唇部截取图像的示意图。
图7示意性示出了唇语识别模型训练方法的示意图。
图8示意性示出了根据本公开另一些实施例的基于所述视听验证信息进行二重身份认证的方法的流程图。
图9示意性示出了根据本公开再一些实施例的基于所述视听验证信息进行二重身份认证的方法的流程图。
图10示意性示出了根据本公开实施例的二重身份认证的方法的流程图。
图11示意性示出了根据本公开实施例的包含三重身份认证的身份认证方法的流程图。
图12示意性示出了根据本公开实施例的语音嘴唇同步性判别的方法的流程图。
图13示意性示出了根据本公开实施例的语音嘴唇同步性判别模型的示意图。
图14示意性示出了语音嘴唇同步性判别模型的识别效果的示意图。
图15示意性示出了根据本公开实施例的身份认证装置的结构框图。
图16示意性示出了根据本公开实施例的第二认证模块的结构框图。
图17示意性示出了根据本公开另一些实施例的第二认证模块的结构框图。
图18示意性示出了根据本公开另一些实施例的第二认证模块的结构框图。
图19示意性示出了根据本公开另一些实施例的身份认证装置的结构框图。
图20示意性示出了根据本公开实施例的适于实现身份认证方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在进行在线业务办理时,通常需要进行身份认证来查验用户身份。现有远程身份认证的方案主要包括以下几种:1、通过指纹识别的方式;2、通过输入密码的方式;3、通过人脸识别;4、通过人脸识别和声纹两者融合的方式;5、通过手势密码等方式。其中,通过密码的方式,用户容易遗忘导致办理业务出现困难;通过指纹识别的方式,由于并非所有的手机都有指纹模块,该方法存在一定的非普适性;单纯通过人脸识别的方法,用户人脸影响信息容易被非法分子盗窃并被伪造;而在加入声纹识别后,通过融合声纹的方式需要注册声纹,且随着时间的推移,声纹容易识别率降低;通过手势密码等方式,由于手势密码极易被盗取,也存在较大的风险隐患。在部分对个人信息安全要求较高的领域,如远程银行的业务办理中,如果识别系统被非法分子盗取或攻破,可导致非法分子入侵用户银行账户,进而可能会给用户带来巨额损失。亟需一种可以在保持便利性、普适性的同时,提升身份认证的可靠性、安全性的身份认证方法。
针对现有技术中存在的上述问题,本公开的实施例提供了一种身份认证方法,包括:获取用户人脸影像信息;基于所述用户人脸影像信息进行一重身份认证,其中,所述一重身份认证基于人脸识别技术进行;当一重身份认证通过时,生成视听验证信息;以及基于所述视听验证信息进行二重身份认证,其中,所述二重身份认证利用语音唇语联合识别进行,所述语音唇语联合识别包括基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行视听信息识别。
本公开的实施例提供的身份认证方法,综合利用人脸影像和语音、验证码等多个模态的信息,能够在保持便利性、普适性的同时,提升身份认证的可靠性、安全性。在人脸识别后,对视听信息进行语音唇语联合识别,可以杜绝通过提前录制的视频攻破身份认证系统。通过利用语音捕获信号自适应筛选语音识别或唇语识别中的一种进行视听信息识别,可以有效提升本公开的实施例的身份认证方法在不同环境下的适应性和鲁棒性。
需要说明的是,在本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
需要说明的是,在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
需要说明的是,本公开实施例提供的身份认证方法、装置、设备、介质和程序产品可用于信息安全技术在身份认证相关方面,也可用于除信息安全技术之外的多种领域,如金融领域等。本公开实施例提供的身份认证方法、装置、设备、介质和程序产品的应用领域不做限定。
以下将结合附图及其说明文字围绕实现本公开的至少一个目的的上述操作进行阐述。
图1示意性示出了根据本公开实施例的身份认证方法、装置、设备、介质和程序产品的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以包含图像提取装置和语音提取装置,例如摄像头和麦克风。由此,用户可以通过终端设备101、102、103录入人脸影像信息以及视听信息。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的身份认证方法一般可以由服务器105执行。相应地,本公开实施例所提供的身份认证装置一般可以设置于服务器105中。本公开实施例所提供的身份认证方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的身份认证装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
以下将基于图1描述的场景,通过图2~图14对公开实施例的身份认证方法进行详细描述。
图2示意性示出了根据本公开实施例的身份认证方法的流程图。
如图2所示,该实施例的身份认证方法可以包括操作S210~操作S250,该身份认证方法可以由处理器执行,也可以由包括处理器的任何电子设备执行。
在操作S210,获取用户人脸影像信息。
在操作S220,基于所述用户人脸影像信息进行一重身份认证。
根据本公开的实施例,用户人脸影像信息可以通过终端设备摄像头获取。本公开的实施例中的一重身份认证可以基于人脸识别技术进行。通过系统内置的人脸识别模块可以将所提取的用户人脸影像信息和数据库中预留存的人脸图像进行比对。在一些实施例中,可以在人脸识别前由用户登录身份认证系统。典型的用户登录身份认证系统的方式可以包括用户名/密码登录,手机号结合验证码登录等。在另一些实施例中,也可以在用户点击登录用户远程在线服务后自动触发身份认证系统启动,在用户登录身份认证系统或触发身份认证系统启动后,可以将采集的用户人脸影像信息和数据库中预留存的目标用户人脸图像信息比对,以判断用户是否为目标用户。当比对一致时,通过一重身份认证。
在操作S230,判断一重身份认证是否通过。
当一重身份认证通过时,执行操作S240。
在操作S240,生成视听验证信息。
在操作S250,基于所述视听验证信息进行二重身份认证。
根据本公开的实施例,视听验证信息用于获取用户的多模态特征信息。例如包括用户声纹信息和/或用户唇形信息。其中,声纹信息是生物识别特征的一种,是在说话人发声提出来的,可以作为说话人表征和标识,能与其他人相互区别的语音特征。唇形信息可以是连续的口型变化特征。通过识别唇形信息可以基于唇语识别模型识别与讲话人口型对应的发音,并基于识别的发音,计算出可能性最大的自然语言语句。在生成视听验证信息后,用户可以基于系统提供的视听验证信息提供与视听验证信息相配合的视听信息。从而可以通过比对视听验证信息和视听信息的相似度和一致性来进行二重身份认证。在本公开的实施例中,为提高身份认证方法在不同环境和场景下的适应性,增强鲁棒性,二重身份认证可以利用语音唇语联合识别进行。其中,语音唇语联合识别包括基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行视听信息识别。其中,语音捕获信号可以是在生成视听验证信息后,在预设的时间范围内捕获的语音信号。可以理解,语音捕获信息应主要包含用户提供的视听信息。在不同场景下,语音捕获信号还可能包含环境噪音,例如非人声,非目标人声等信息。在本公开的实施例中,可以通过自动识别环境噪音的不同类型自动筛选语音识别或唇语识别进行视听信息识别。由此,可以提高身份认证方法在不同噪声场景下鲁棒性,进而提高风险识别度。
在一些实施例中,视听验证信息包括随机生成的关键词,例如自然语言词汇。相应的,语音捕获信号可以主要包含用户基于视听验证信息发声的视频和音频,例如用户念出验证码的音视频。本公开的实施例中的关键词可以为一定长度的特定词汇,相较连续时长的所有词汇,一定长度的特定词汇有利于提高识别准确率。
在本公开的实施例中,为保障识别的稳定性,当一重身份认证未通过时,可以执行操作S260。
在操作S260,基于预设时间阈值判断是否处理超时。
在未超时的情况下,重复执行操作S210,以获取用户人脸影像信息。
若已处理超时,可以执行操作S270。
在操作S270,终止身份认证。
在本公开的实施例中,在获取用户的信息之前,可以获得用户的同意或授权。例如,在操作S210之前,可以向用户发出获取用户人脸影像信息的请求。在用户同意或授权可以获取用户信息的情况下,执行所述操作S210。
根据本公开的实施例,所述基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行所述视听信息识别包括:基于语音捕获信号中的非人声语音信号强度和/或多人声语音重叠信号强度筛选语音识别或唇语识别中的一种进行所述视听信息识别。非人声语音信号强度和多人声语音重叠信号强度可能对视听信息识别效果有较大的影响。例如,在非人声语音信号强度和/或多人声语音信号强度较高时,可能影响语音识别效果,此时使用唇语识别可能提高风险识别的准确度。
图3示意性示出了根据本公开一些实施例的基于所述视听验证信息进行二重身份认证的方法的流程图。
如图3所示,该实施例的基于所述视听验证信息进行二重身份认证的方法包括操作S310~操作S360。
在操作S310,获取语音捕获信号。
在操作S320,基于语音活动检测模型识别所述语音捕获信号中的非人声语音信号和人声语音信号。语音活动检测模型利用算法区分某个语音片段是人声还是背景噪声。语音活动检测分为传统方案和深度学习方案。其中,传统方案主要利用人声的稀疏性、过零率、能量分布等传统特征特性进行分析。深度学习方案则通过人声标注数据(标注某个语音帧是人声还是噪声)和噪声数据联合训练分类网络,使得网络可以区分人声和噪声。
在本公开的实施例中,可以基于图4所示的方法训练得到语音活动检测模型。
如图4所示,该实施例的语音活动监测模型的训练方法包括操作S410~S420。
在操作S410,获取训练数据。所述训练数据包括人声标签数据和背景噪音数据。
其中,人声标签数据包括从录影棚或者安静会议室录制的语音数据中抽取的人声语音片段。所述人声语音片段基于声波幅度筛选得到。所述背景噪音数据获取自噪声数据集。例如,可以从噪声数据集中随机抽取噪声数据作为背景噪声数据。
在操作S420,将所述训练数据输入至待训练网络,迭代训练至达到预设的训练截止条件,获得语音活动检测模型。
其中,待训练网络可以为纯卷积分类网络。预设的训练截止条件可以包含达到预设的精度,准确度,迭代次数等。在训练截止后,即可得到本公开的实施例所需的语音活动检测模型。语音活动检测模型可以识别语音捕获信号中包含和不包含人声的的语音片段,以获得非人声语音信号和人声语音信号。
在操作S330,统计所述非人声语音信号的信号强度。
例如,可以通过计算非人声语音信号的声波幅度大小获取非人声语音信号的信号强度。
在操作S340,判断所述非人声语音信号的信号强度是否大于第一阈值。
当所述非人声语音信号的信号强度大于第一阈值时,执行操作S350。
在操作S350,基于唇语识别进行所述视听信息识别。
典型的,图5示意性示出了根据本公开实施例的基于唇语识别进行所述视听信息识别的方法的流程图。
如图5所示,该实施例的基于唇语识别进行所述视听信息识别的方法包括操作S510~操作S520。
在操作S510,获取待识别用户视听信息读取视频。
在操作S520,利用唇语识别模型对所述待识别用户视听信息读取视频进行唇语识别,获取与所述待识别用户视听信息读取视频对应的视听关键词。其中,视听关键词可以为视听验证信息中的自然语言词汇。
根据本公开的实施例,唇语识别是利用分类网络判断嘴唇运动视频片段说明的内容。在一个示例中,可以选取2s时长的唇语视频片段作为输入。然后,选取20个自然语言词汇,例如“茄子”、“财富”等关键词。每个词汇找一定数量的用户录像,做成2s嘴唇视频片段训练数据集。利用该数据集训练唇语分类网络,即可知道某个2s的嘴唇运动片段属于哪个词。同时,寻找大量的非目标词汇的其他嘴唇视频片段作为other分类,从而降低误闯率。
图6示意性示出了唇部截取图像的示意图。如图6所示,以人脸唇部三维图像的数据作为输入。可以利用现有的API接口截取嘴唇的关键点框住的区域。进一步,图7示意性示出了唇语识别模型训练方法的示意图。首先构建特征向量,如[B,T,H,L]。其中,B是Batch也就是每次训练的视频数量,T是视频的帧数,例如2s的视频片段有60帧,H,L分别是图片的长宽。经过N个重复的2维卷积之后会变成[B,T,F],其中F是特征维度。再经过Transfomer网络做时间维度的关联计算后,通过Maxpooling网络将时间维度压缩到1,最终的输出[B,1,F]。进一步,经过全连接网络投影成[B,21],其中,21是20个词汇+1个other的分类。模型再利用CE Loss进行准确率计算来训练网络即可。
根据本公开的实施例,当非人声语音信号的信号强度大于第一阈值时,认为是嘈杂场景,此时,唇语识别相较语音识别具有更高的准确度。根据本公开的实施例,在噪声场景下,唇语识别准确度可以达到95%的水平;而相应的噪声场景下,语音识别准确度可能退化到85%左右。由此,可以将第一阈值作为是否直接启用唇语识别的判据。其中,第一阈值可以基于专家经验设定。
在操作S360,将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
应理解,正常情况下,视听信息识别结果包含基于目标用户唇形识别出的自然语言。当视听信息识别结果与所述视听验证信息比对一致时,说明目标用户正确地读出了视听验证信息所包含的自然语言。由此,可以判定用户通过了二重身份认证。
图8示意性示出了根据本公开另一些实施例的基于所述视听验证信息进行二重身份认证的方法的流程图。
如图8所示,该另一些实施例的基于所述视听验证信息进行二重身份认证的方法除包括操作S310~操作S340后,还可以包括操作S370~操作S390。
其中,操作S310~操作S340如图3所示,在此不再赘述。
当所述非人声语音信号的信号强度小于或等于第一阈值时,执行操作S370。
在操作S370,利用语音重叠检测模型检测所述人声语音信号中的多人声语音重叠信号强度是否大于第二阈值。
当所述多人声语音重叠信号强度大于第二阈值时,执行操作S380。
在操作S380,基于唇语识别进行所述视听信息识别。
在操作S390,将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
根据本公开的实施例,当背景环境很安静,但是旁边有其他人在说话的时候,也会干扰语音识别的准确率。在本公开的另一些实施例中,如果发现周围有多个人声,且多人声语音重叠信号强度超过第二阈值的时候也需要使用唇语识别进行视听信息识别。在进行多人声语音重叠信号强度识别时,可以利用语音重叠检测模型进行检测。其中,语音重叠检测模型的训练方法与语音活动检测模型的训练方法类似,主要不同在于数据集构造有区别。在构造语音重叠检测模型的数据集时,可以首先获取从录影棚或者安静会议室录制的人声数据,利用语音活动检测模型获取人声片段。可以理解,这些人声片段都是单人说话的人声片段。进一步的,可以混合不同说话人的人声片段得到语音重叠的数据集,并以单独说话人的人声片段作为语音不重叠的数据集。类似的,在模型训练过程中,可以利用纯卷积的分类网络作为待训练网络。模型训练完成之后即可判断某个语音片段是否重叠了多个人说话。在本公开的实施例中,可以通过语音重叠检测模型检测人声语音信号中多人声语音重叠信号强度,即重叠多个说话人的语音片段占比是否超过了第二阈值。当超过第二阈值时,则可以选取唇语识别进行视听信息识别。类似的,将唇语识别到的视听信息识别结果与所述视听验证信息进行比对,比对一致时即为通过了二重身份认证。
图9示意性示出了根据本公开再一些实施例的基于所述视听验证信息进行二重身份认证的方法的流程图。
如图9所示,该再一些实施例的基于所述视听验证信息进行二重身份认证的方法除包括操作S310~操作S340,以及操作S370,还可以包括操作S311~操作S312。
其中,当所述多人声语音重叠信号强度小于或等于第二阈值时,执行操作S311。
在操作S311,基于语音识别进行所述视听信息识别。根据本公开的实施例,当多人声语音重叠信号强度小于或等于第二阈值时,可以获得较好的语音识别效果。
在操作S312,将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。可以理解,在操作S312中,在正常情况下,视听信息识别结果包括基于语音识别获取的用户提供的与视听验证信息匹配的自然语言。
图10示意性示出了根据本公开实施例的二重身份认证的方法的流程图。
如图10所示,本公开的实施例提供的二重身份认证的方法可以包含图3,图8和图9中的不同情形,在此不再赘述。本公开的实施例,通过在不同的环境噪音场景下选取相适应的识别方法,能够有效减少数据处理量,并提升识别准确度。从而增强本公开的身份认证方法在各种环境下的鲁棒性。
在本公开的一些优选的实施例中,当基于语音识别实现二重身份认证时,还可以进一步包含三重身份认证。
图11示意性示出了根据本公开实施例的包含三重身份认证的身份认证方法的流程图。
如图11所示,该实施例的包含三重身份认证的身份认证方法还包括操作S1110。
在操作S1110,执行三重身份认证,所述三重身份认证基于语音嘴唇同步性判别进行。
图12示意性示出了根据本公开实施例的语音嘴唇同步性判别的方法的流程图。
如图12所示,该实施例的语音嘴唇同步性判别的方法包括操作S1210~S1230。
在操作S1210,获取待识别用户视听信息读取视频。
在操作S1220,基于所述待识别用户视听信息读取视频提取用户唇形信息,所述用户唇形信息基于唇语识别进行。
在操作S1230,利用语音嘴唇同步性判别模型判断所述用户唇形信息和所述视听信息识别结果是否匹配。
根据本公开的实施例,在一些特殊情况下,当以语音识别作为视听信息识别的方法时,仍可能存在漏洞。例如,非法分子盗取了包含目标用户的人脸影像信息的视频。并利用所盗取的人脸影响信息通过了一重身份认证。进一步,在安静的环境下,基于自适应筛选的语音识别方法通过了二重身份认证。此时,虽然已通过了二重身份认证,但通过认证的用户事实上并非真正的目标用户。在此情况下,若通过身份认证,会给用户造成损失。为避免上述情况发生,本公开的实施例进一步引入三重身份认证。其中,三重身份认证基于语音嘴唇同步性判别模型进行。在语音识别通过后,仍需取待识别用户视听信息读取视频,并基于唇语识别提取用户唇形信息。进一步可以基于用户唇形信息识别与唇形信息匹配的自然语言并判断该自然语言与基于语音识别得到的视听信息识别结果是否一致。若一致,证明语音识别结果为当前用户读取。由此,可以规避前述漏洞的发生,进一步提高风险识别度。
图13示意性示出了根据本公开实施例的语音嘴唇同步性判别模型的示意图。
如图13所示,语音嘴唇同步性判别模型基于深度学习构建。模型分成两个神经网络分支,左边的分支抽取嘴唇运动信息,右边抽取声音信息,通过相关同步数据和非同步数据完成模型训练,可使精度达到95%以上。且无需注册即可确保安全性。其中,嘴唇部分的信息抽取可以通过面部关键点等现有技术中的方法完成。
语音嘴唇同步性判别的本质是判断音频和唇形在某个共同参数空间下的相似性,即嘴唇的闭合幅度变化跟语音信号的幅度频率变化是否对应的。在模型训练过程中,将音频和唇形者两个模态信号的特征投影到一个公共空间后,再利用对比损失来判断是否匹配。在一个示例中,在获取输入视频流后,对输入视频进行逐帧做人脸检测预处理,得到脸部灰度图,并截取嘴部区域。时间方向上,以25fps帧率取了连续的5帧,等效于200ms时长,将5帧叠放在单独的通道做为时间轴得到120×120×5的输入(即通道是5)。音频方面用到13维的MFCC特征,以100Hz进行采样。为了和视频对齐,音频取20帧,得到13×20×1(通道是1)的输入。这样经过预处理的视频和音频输入均为二维N通道的“图片”,每一个″样本″覆盖200ms的时间窗口。在模型训练时,正样例为音视频对齐的输入对,负样例是音视频错位或者无关的输入对。其中,正例可以用大量网上录制好的时频通过筛选获取。反例则可以通过随机插入其他音频获取。经过大量的正反例训练,所得到的语音嘴唇同步性判别模型就可以识别语音片段和唇形片段是否匹配。
图14示意性示出了语音嘴唇同步性判别模型的识别效果的示意图。
如图14所示,当用户唇形信息和所述视听信息识别结果项匹配时,语音片段和唇形片段具有较高的重合度。而当二者不匹配时,语音片段和唇形片段重合度较低。
基于上述身份认证方法,本公开还提供了一种身份认证装置。以下将结合图15对该装置进行详细描述。
图15示意性示出了根据本公开实施例的身份认证装置的结构框图。
如图15所示,该实施例的身份认证装置1500包括第一获取模块1510、第一认证模块1520,生成模块1530和第二认证模块1540。
其中,第一获取模块1510被配置为获取用户人脸影像信息。
第一认证模块1520被配置为基于所述用户人脸影像信息进行一重身份认证,其中,所述一重身份认证基于人脸识别技术进行。
生成模块1530被配置为当一重身份认证通过时,生成视听验证信息。
第二认证模块1540被配置为基于所述视听验证信息用于进行二重身份认证,其中,所述二重身份认证利用语音唇语联合识别模型进行,所述语音唇语联合识别包括基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行所述视听信息识别。
根据本公开的实施例,第二认证模块可以包括多个子模块。例如,第二认证模块至少可以包括捕获子模块,第一识别子模块,统计子模块,第一判断子模块,第二识别子模块和比对子模块。
图16示意性示出了根据本公开实施例的第二认证模块的结构框图。
如图16所示,该实施例的第二认证模块1540至少可以包括捕获子模块15401,第一识别子模块15402,统计子模块15403,第一判断子模块15404,第二识别子模块15405,比对子模块15406。
其中,捕获子模块15401被配置为获取语音捕获信号。
第一识别子模块15402被配置为基于语音活动检测模型识别所述语音捕获信号中的非人声语音信号和人声语音信号。
统计子模块15403被配置为统计所述非人声语音信号的信号强度。
第一判断子模块15404被配置为判断所述非人声语音信号的信号强度是否大于第一阈值。
第二识别子模块15405被配置为当非人声语音信号的信号强度大于第一阈值时,基于唇语识别进行所述视听信息识别。
比对子模块15406被配置为将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
图17示意性示出了根据本公开另一些实施例的第二认证模块的结构框图。
如图17所示,该实施例的第二认证模块1540除可以包括捕获子模块15401,第一识别子模块15402,统计子模块15403,第一判断子模块15404,比对子模块15406外,还可以包括第二判断子模块15407和第三识别子模块15408。
其中,捕获子模块15401,第一识别子模块15402,统计子模块15403,第一判断子模块15404的功能可以与图15中的第二认证模块的各子模块功能相同,在此不再赘述。
第二判断子模块15407被配置为当所述非人声语音信号的信号强度小于或等于第一阈值时,利用语音重叠检测模型检测所述人声语音信号中的多人声语音重叠信号强度是否大于第二阈值。
第三识别子模块15408被配置为当所述多人声语音重叠信号强度大于第二阈值时,基于唇语识别进行所述视听信息识别。
应理解,在图17的第二认证模块中,比对子模块15406的比对基于第三识别子模块的识别结果进行。
图18示意性示出了根据本公开另一些实施例的第二认证模块的结构框图。
如图18所示,该实施例的第二认证模块1540除可以包括捕获子模块15401,第一识别子模块15402,统计子模块15403,第一判断子模块15404,比对子模块15406,第二判断子模块15407外,还可以包括第四识别子模块15409。
其中,捕获子模块15401,第一识别子模块15402,统计子模块15403,第一判断子模块15404,第二判断子模块15407的功能可以与图16中的第二认证模块的各子模块功能相同,在此不再赘述。
第四识别子模块15409被配置为当所述多人声语音重叠信号强度小于或等于第二阈值时,基于语音识别进行所述视听信息识别。
应理解,在图18的第二认证模块中,比对子模块15406的比对基于第四识别子模块的识别结果进行。
图19示意性示出了根据本公开另一些实施例的身份认证装置的结构框图。
如图19所示,该实施例的身份认证装置1500除包括第一获取模块1510、第一认证模块1520,生成模块1530和第二认证模块1540外,还可以包括第三认证模块1550。
其中,第一获取模块1510、第一认证模块1520,生成模块1530和第二认证模块1540的功能可以与图15~图18中任一实施例的身份认证装置的功能相同,在此不再赘述。
第三认证模块1550被配置为当二重身份认证通过时,执行三重身份认证,所述三重身份认证基于语音嘴唇同步性判别进行。所述语音嘴唇同步性判别包括:获取待识别用户视听信息读取视频;基于所述待识别用户视听信息读取视频提取用户唇形信息,所述用户唇形信息基于唇语识别进行;利用语音嘴唇同步性判别模型判断所述用户唇形信息和所述视听信息识别结果是否匹配。
根据本公开的实施例,第一获取模块1510、第一认证模块1520,生成模块1530,第二认证模块1540,捕获子模块15401,第一识别子模块15402,统计子模块15403,第一判断子模块15404,第二识别子模块15405,比对子模块15406,第二判断子模块15407,第三识别子模块15408,第四识别子模块15409和第三认证模块1550中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,第一获取模块1510、第一认证模块1520,生成模块1530,第二认证模块1540,捕获子模块15401,第一识别子模块15402,统计子模块15403,第一判断子模块15404,第二识别子模块15405,比对子模块15406,第二判断子模块15407,第三识别子模块15408,第四识别子模块15409和第三认证模块1550中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一获取模块1510、第一认证模块1520,生成模块1530,第二认证模块1540,捕获子模块15401,第一识别子模块15402,统计子模块15403,第一判断子模块15404,第二识别子模块15405,比对子模块15406,第二判断子模块15407,第三识别子模块15408,第四识别子模块15409和第三认证模块1550中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图20示意性示出了根据本公开实施例的适于实现身份认证方法的电子设备的方框图。
如图20所示,根据本公开实施例的电子设备900包括处理器901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。处理器901例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器901还可以包括用于缓存用途的板载存储器。处理器901可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 903中,存储有电子设备900操作所需的各种程序和数据。处理器901、ROM902以及RAM 903通过总线904彼此相连。处理器901通过执行ROM 902和/或RAM 903中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 902和RAM 903以外的一个或多个存储器中。处理器901也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备900还可以包括输入/输出(I/O)接口905,输入/输出(I/O)接口905也连接至总线904。电子设备900还可以包括连接至I/O接口905的以下部件中的一项或多项:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 902和/或RAM 903和/或ROM 902和RAM 903以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的方法。
在该计算机程序被处理器901执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分909被下载和安装,和/或从可拆卸介质911被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被处理器901执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (12)
1.一种身份认证方法,其特征在于,包括:
获取用户人脸影像信息;
基于所述用户人脸影像信息进行一重身份认证,其中,所述一重身份认证基于人脸识别技术进行;
当一重身份认证通过时,生成视听验证信息;以及
基于所述视听验证信息进行二重身份认证,其中,所述二重身份认证利用语音唇语联合识别进行,所述语音唇语联合识别包括基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行视听信息识别。
2.根据权利要求1所述的方法,其中,所述基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行所述视听信息识别包括:
基于语音捕获信号中的非人声语音信号强度和/或多人声语音重叠信号强度筛选语音识别或唇语识别中的一种进行所述视听信息识别。
3.根据权利要求1所述的方法,其中,所述基于所述视听验证信息进行二重身份认证包括:
获取语音捕获信号;
基于语音活动检测模型识别所述语音捕获信号中的非人声语音信号和人声语音信号;
统计所述非人声语音信号的信号强度;以及
当所述非人声语音信号的信号强度大于第一阈值时,基于唇语识别进行所述视听信息识别;
将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
4.根据权利要求3所述的方法,其中,当所述非人声语音信号的信号强度小于或等于第一阈值时,所述方法还包括:
利用语音重叠检测模型检测所述人声语音信号中的多人声语音重叠信号强度是否大于第二阈值;
当所述多人声语音重叠信号强度大于第二阈值时,基于唇语识别进行所述视听信息识别;
将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
5.根据权利要求4所述的方法,其中,当所述多人声语音重叠信号强度小于或等于第二阈值时,基于语音识别进行所述视听信息识别;以及
将视听信息识别结果与所述视听验证信息进行比对,比对一致时通过所述二重身份认证。
6.根据权利要求3或4所述的方法,其中,所述基于唇语识别进行所述视听信息识别包括:
获取待识别用户视听信息读取视频;以及
利用唇语识别模型对所述待识别用户视听信息读取视频进行唇语识别,获取与所述待识别用户视听信息读取视频对应的视听关键词。
7.根据权利要求5所述的方法,其中,当二重身份认证通过时,所述方法还包括:
执行三重身份认证,所述三重身份认证基于语音嘴唇同步性判别进行,
其中,所述语音嘴唇同步性判别包括:
获取待识别用户视听信息读取视频;
基于所述待识别用户视听信息读取视频提取用户唇形信息,所述用户唇形信息基于唇语识别进行;
利用语音嘴唇同步性判别模型判断所述用户唇形信息和所述视听信息识别结果是否匹配。
8.根据权利要求4所述的方法,其中,所述视听验证信息包括随机生成的关键词。
9.一种身份认证装置,其特征在于,包括:
第一获取模块,配置为获取用户人脸影像信息;
第一认证模块,配置为基于所述用户人脸影像信息进行一重身份认证,其中,所述一重身份认证基于人脸识别技术进行;
生成模块,配置为当一重身份认证通过时,生成视听验证信息;以及
第二认证模块,配置为基于所述视听验证信息用于进行二重身份认证,其中,所述二重身份认证利用语音唇语联合识别模型进行,所述语音唇语联合识别包括基于语音捕获信号自适应筛选语音识别或唇语识别中的一种进行所述视听信息识别。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~8中任一项所述的方法。
11.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~8中任一项所述的方法。
12.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1~8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211342362.XA CN115601045A (zh) | 2022-10-28 | 2022-10-28 | 身份认证方法、装置、设备、介质和程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211342362.XA CN115601045A (zh) | 2022-10-28 | 2022-10-28 | 身份认证方法、装置、设备、介质和程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115601045A true CN115601045A (zh) | 2023-01-13 |
Family
ID=84850992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211342362.XA Pending CN115601045A (zh) | 2022-10-28 | 2022-10-28 | 身份认证方法、装置、设备、介质和程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115601045A (zh) |
-
2022
- 2022-10-28 CN CN202211342362.XA patent/CN115601045A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10789343B2 (en) | Identity authentication method and apparatus | |
CN109726624B (zh) | 身份认证方法、终端设备和计算机可读存储介质 | |
CN106599772B (zh) | 活体验证方法和装置及身份认证方法和装置 | |
US20190013026A1 (en) | System and method for efficient liveness detection | |
US20180240028A1 (en) | Conversation and context aware fraud and abuse prevention agent | |
WO2018166187A1 (zh) | 服务器、身份验证方法、系统及计算机可读存储介质 | |
WO2020119448A1 (zh) | 语音信息验证 | |
CN109660509A (zh) | 基于人脸识别的登录方法、装置、系统和存储介质 | |
KR20160011709A (ko) | 지불 확인을 위한 방법, 장치 및 시스템 | |
CN112200697B (zh) | 远程视频看房方法、装置、设备以及计算机存储介质 | |
CN109871834A (zh) | 信息处理方法和装置 | |
Tan et al. | A survey on presentation attack detection for automatic speaker verification systems: State-of-the-art, taxonomy, issues and future direction | |
US20220318349A1 (en) | Liveness detection using audio-visual inconsistencies | |
Boutellaa et al. | Audiovisual synchrony assessment for replay attack detection in talking face biometrics | |
CN115376559A (zh) | 基于音视频的情绪识别方法、装置及设备 | |
Chou | Presentation attack detection based on score level fusion and challenge-response technique | |
CN111684444A (zh) | 一种身份验证方法、终端设备、存储介质 | |
CN116883900A (zh) | 一种基于多维生物特征的视频真伪鉴别方法和系统 | |
CN116452886A (zh) | 图像识别方法、装置、设备及存储介质 | |
KR20180014317A (ko) | 눈동자 추적 기반의 하르유사특징을 이용한 얼굴인증 방법 | |
Mubeen et al. | Detection of impostor and tampered segments in audio by using an intelligent system | |
CN115601045A (zh) | 身份认证方法、装置、设备、介质和程序产品 | |
TW201944320A (zh) | 支付認證方法、裝置、設備及存儲介質 | |
CN112949363A (zh) | 一种人脸活体识别方法及装置 | |
CN110891049A (zh) | 基于视频的账户登录方法、装置、介质、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |