CN113901418A - 基于视频的身份验证方法、装置、计算机设备及存储介质 - Google Patents
基于视频的身份验证方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113901418A CN113901418A CN202111216925.6A CN202111216925A CN113901418A CN 113901418 A CN113901418 A CN 113901418A CN 202111216925 A CN202111216925 A CN 202111216925A CN 113901418 A CN113901418 A CN 113901418A
- Authority
- CN
- China
- Prior art keywords
- eyeball
- face
- video
- authentication
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/44—Program or device authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术领域,本发明公开了一种基于视频的身份验证方法、装置、设备及介质,所述方法包括:通过获取业务请求中的第一身份验证视频;运用人脸识别和眼球校准技术,进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据;在检测到第一验证结果为通过时,获取第二身份验证视频;运用人脸识别、声纹比对和眼球追踪技术,进行人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果;确定用户的身份验证结果。因此,本发明实现了结合人脸、声纹和眼球追踪进行用户的验证,避免仿造用户,提高了用户的验证真实性和正确性。本发明适用于人工智能领域,可进一步推动智慧城市的建设。
Description
技术领域
本发明涉及人工智能的活体检测技术领域,尤其涉及一种基于视频的身份验证方法、装置、计算机设备及存储介质。
背景技术
随着互联网的发展与智能手机等终端的普及,很多业务由线下办理转移为线上办理,例如,以往用户需要前往保险公司、银行柜台才能办理保险、金融相关业务,现在通过手机App(Application,应用程序)就能办理其中的大部分业务,非常便捷。然而,对于负责业务处理的机构来说,线上业务存在一定的安全风险,例如,通过年龄变化、环境灯光、面部遮挡及双胞胎等因素影响,难以保证用户的身份真实有效,导致无法甄别出业务欺诈的情况,容易给机构或者用户本人造成损失。
发明内容
本发明提供一种基于视频的身份验证方法、装置、计算机设备及存储介质,实现了自动结合人脸、声纹和眼球追踪等维度进行用户的验证,避免仿造用户的情况,提高了用户的验证真实性和正确性,保证了用户的验证安全性和用户信息的保密性,本发明适用于人工智能领域,可进一步推动智慧城市的建设。
一种基于视频的身份验证方法,包括:
接收用户的业务请求,获取所述业务请求中的第一身份验证视频;
运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据;
在检测到所述第一验证结果为通过时,获取第二身份验证视频;其中,所述第二身份验证视频为采集的基于与所述业务请求对应的对话数据的人机对话视频;
运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果;
根据所述第一验证结果和所述第二验证结果,确定与所述用户对应的身份验证结果。
一种基于视频的身份验证装置,包括:
接收模块,用于接收用户的业务请求,获取所述业务请求中的第一身份验证视频;
第一识别模块,用于运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据;
获取模块,用于在检测到所述第一验证结果为通过时,获取第二身份验证视频;其中,所述第二身份验证视频为采集的基于与所述业务请求对应的对话数据的人机对话视频;
第二识别模块,用于运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果;
确定模块,用于根据所述第一验证结果和所述第二验证结果,确定与所述用户对应的身份验证结果。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于视频的身份验证方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于视频的身份验证方法的步骤。
本发明提供的基于视频的身份验证方法、装置、计算机设备及存储介质,该方法通过接收用户的业务请求,获取所述业务请求中的第一身份验证视频;运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据;在检测到所述第一验证结果为通过时,获取第二身份验证视频;其中,所述第二身份验证视频为采集的基于与所述业务请求对应的对话数据的人机对话视频;运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果;根据所述第一验证结果和所述第二验证结果,确定与所述用户对应的身份验证结果,如此,能够在进入人机对话之前进行人脸识别用户,并运用眼球校准技术进行眼球定位,构建眼球空间坐标数据,在进入人机对话过程中,通过用户的对话的音频进行声纹识别,并比对验证,以及运用人脸识别和眼球追踪技术,对人机对话中的用户进行验证,最终结合人脸、声纹和眼球追踪等维度进行用户的验证,避免仿造用户的情况,提高了用户的验证真实性和正确性,保证了用户的验证安全性和用户信息的保密性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于视频的身份验证方法的应用环境示意图;
图2是本发明一实施例中基于视频的身份验证方法的流程图;
图3是本发明一实施例中基于视频的身份验证方法的步骤S20的流程图;
图4是本发明一实施例中基于视频的身份验证方法的步骤S40的流程图;
图5是本发明一实施例中基于视频的身份验证装置的原理框图;
图6是本发明一实施例中计算机设备的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的基于视频的身份验证方法,可应用在如图1的应用环境中,其中,客户端(计算机设备或终端)通过网络与服务器进行通信。其中,客户端(计算机设备或终端)包括但不限于为各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
在一实施例中,如图2所示,提供一种基于视频的身份验证方法,其技术方案主要包括以下步骤S10-S50:
S10,接收用户的业务请求,获取所述业务请求中的第一身份验证视频。
可理解地,所述用户为需要办理业务的申请者,所述业务请求为所述用户需要进行办理业务而触发的请求,所述第一身份验证视频为办理业务第一阶段供人脸认证以判断是否为所述用户和采集所述用户使用的显示屏幕与眼球之间相关的数据所拍摄或者采集的视频。
S20,运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据。
可理解地,所述人脸识别技术为通过提取输入的图像中的人脸特征,根据提取的人脸特征识别出输入的图像中的人脸是否已认证的用户的人脸的目标识别技术,所述眼球校准技术为通过在显示界面上显示与校准坐标信息对应的光标,并对输入的采集的图像进行眼球定位,定位出四个眼球根据光标运动的四个眼角膜位置信息,从而可以将校准坐标信息和眼角膜位置信息建立映射的坐标关系的校准技术,所述眼球定位的过程为可以为依次发送四个校准坐标信息,并运用眼球追踪技术,采集眼球移动的图像,以及基于该图像确定出与各所述校准坐标信息对应的眼角膜位置信息;基于所有所述校准坐标信息和所有所述眼角膜位置信息,构建显示界面与眼角膜之间的眼球空间坐标数据的过程,所述眼球空间坐标数据为体现了眼角膜聚焦在显示界面上的点之间的空间坐标轴的映射关系的数据集合,所述第一验证结果体现了当前验证的用户是否与需要办理业务的申请者一致,所述第一验证结果表明了所述用户是否通过人脸和眼球的身份验证。
在一实施例中,所述步骤S20之前,即所述对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据之前,包括:
获取登录信息采集视频。
可理解地,所述登录信息采集视频为用户在注册或者首次登录时采集到含有用户人脸的视频。
对所述登录信息采集视频进行图像抽取,得到多个用户图像。
可理解地,所述图像抽取为从所述登录信息采集视频中识别出包含有人脸特征的图像,将包含有人脸特征的图像从中抽取出的过程,将抽取出的包含有人脸特征的图像记录为所述用户图像,所述人脸特征为与人脸中的口、鼻子、眼睛、眉毛和脸等相关的特征。
将所有所述用户图像输入人脸识别模型中,并通过所述人脸识别模型对所有所述用户图像进行机器学习,得到训练完成的人脸识别模型。
可理解地,所述人脸识别模型为学习提取输入的图像中的不同人的人脸特征的神经网络模型,将所有所述用户图像输入该人脸识别模型中,所述人脸识别模型会从所有所述用户图像中学习该用户的人脸特征,并与该用户进行关联,将学习完成的人脸识别模型记录为训练完成的人脸识别模型,所述机器学习为运用概率论知识,统计学知识,近似理论知识和复杂算法知识,使用计算机作为工具并致力于真实实时的模拟人类学习方式,并将现有内容进行知识结构划分来有效提高学习效率的方法。
通过眼球识别模型对所有所述用户图像进行眼角膜定位及眼球周边特征提取,得到与所述用户对应的眼球特征数据。
可理解地,所述眼球识别模型为训练完成的用于识别含有人脸图像中的眼角膜位置以及与眼球相关的位置信息的模型,所述眼角膜定位的方法为通过训练完成的眼球识别模型对包含有人脸的图像中的眼角膜进行识别,并定位出该眼角膜在输入的用户图像中的位置信息的方法,一个用户图像对应一个眼角膜的位置信息,所述眼球周边特征提取为基于用户图像所对应的眼角膜的位置信息进行周边区域范围内的图像进行截取,并将截取出的区域进行特征提取,提取出该用户所对应的所述眼球特征数据,所述眼球特征数据包括两眼角膜之间的距离、眼角膜距离眉毛的距离、眼角膜和眼白之间的比例等等与眼角膜相关的特征数据,所述眼球特征数据还包括对截取出的区域进行卷积提取出该用户图像中的用户的眼球特征向量。
本发明实现了通过获取登录信息采集视频;对所述登录信息采集视频进行图像抽取,得到多个用户图像;将所有所述用户图像输入人脸识别模型中,并通过所述人脸识别模型对所有所述用户图像进行机器学习,得到训练完成的人脸识别模型;通过眼球识别模型对所有所述用户图像进行眼角膜定位及眼球周边特征提取,得到与所述用户对应的眼球特征数据,如此,能够在用户注册或者首次登录的情况下采集视频,并将采集的视频中的含人脸的用户图像输入人脸识别模型中机器学习,以及通过眼球识别模型提取出该用户所对应的眼球特征数据,为后续的用户的身份验证提供数据基准。
在一实施例中,如图3所示,所述步骤S20中,即所述运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据,包括:
S201,对所述第一身份验证视频进行人脸图像提取,得到多个人脸图像。
可理解地,所述人脸图像提取的过程为从所述第一身份验证视频中识别出第一次出现人脸的时间帧所对应的图像和最后一次出现人脸的时间帧所对应的图像,并以第一次出现人脸的时间帧为起点和最后一次出现人脸的时间帧为终点,在该时间段内每间隔预设帧提取一帧的图像的过程,从而得到多帧的图像,将该图像确定为所述人脸图像,所述人脸图像体现了图像中包含有待验证用户的人脸。
S202,通过训练完成的所述人脸识别模型对所有所述人脸图像进行人脸特征提取,并根据提取的人脸特征进行人脸识别,得到识别结果。
可理解地,所述人脸识别为根据提取的人脸特征进行分类,分类出与该人脸特征匹配的用户的过程,所述识别结果体现了综合所有输入的人脸图像属于哪一位用户的结果。
S203,通过所述眼球识别模型对所有所述人脸图像进行眼角膜定位及眼球周边特征提取,得到待验证特征数据。
可理解地,所述眼角膜定位的方法为通过训练完成的眼球识别模型对包含有人脸的图像中的眼角膜进行识别,并定位出该眼角膜在输入的用户图像中的位置信息的方法,一个用户图像对应一个眼角膜的位置信息,所述眼球周边特征提取为基于用户图像所对应的眼角膜的位置信息进行周边区域范围内的图像进行截取,并将截取出的区域进行特征提取,提取出该用户所对应的所述眼球特征数据,所述眼球特征数据包括两眼角膜之间的距离、眼角膜距离眉毛的距离、眼角膜和眼白之间的比例等等与眼角膜相关的特征数据,所述眼球特征数据还包括对截取出的区域进行卷积提取出该用户图像中的用户的眼球特征向量,从而对每一个所述人脸图像进行所述眼角膜定位和所述眼球周边特征提取,得到该用户的待验证特征数据,所述待验证特征数据体现了与输入的所有所述人脸图像中的眼角膜相关的特征数据或/和眼球特征向量的结果。
在一实例中,所述步骤S203中,即所述通过所述眼球识别模型对所有所述人脸图像进行所述眼角膜定位及所述眼球周边特征提取,得到待验证特征数据,包括:
通过所述眼球识别模型对所有所述人脸图像进行眼角膜定位和眉毛识别,得到眼球定位信息和眉毛定位信息。
可理解地,所述眼角膜定位为定位出图像中眼角膜的技术,所述眼角膜定位的处理过程为提取人脸中的具有眼角膜特征的眼角膜区域,并定位出该眼角膜区域在人脸中的相对位置的处理过程,所述眉毛识别为识别出图像中人脸眉毛的过程,所述眉毛识别为提取人脸中具有眉毛特征的眉毛区域,并定为出眉毛区域在人脸中的相对位置的处理过程。
通过所述眼球识别模型根据所述眼球定位信息和所述眉毛定位信息,从各所述人脸图像中提取出与各所述人脸图像对应的眼区域图像。
可理解地,所述眉毛定位信息为眉毛在人脸的位置信息,所述眼球定位信息为眼球在人脸的位置信息,提取出与各所述人脸图像对应的眼区域图像的过程为截取包含眉毛和眼球的区域的图像的过程,即提取出预设尺寸范围内的区域,使该区域包含眉毛和眼球。
通过所述眼球识别模型对所有所述眼区域图像进行所述眼球周边特征提取,得到所述待验证特征数据。
可理解地,对各所述眼区域图像进行所述眼球周边特征的提取,根据提取的所述眼球周边特征确定出与各所述眼区域图像一一对应的特征数据,对所有所述特征数据进行均值提取,得到所述待验证特征数据,所述待验证特征数据中各项数据与所述眼球特征数据中的各项一一对应。
本发明实现了通过所述眼球识别模型对所有所述人脸图像进行眼角膜定位和眉毛识别,得到眼球定位信息和眉毛定位信息;根据所述眼球定位信息和所述眉毛定位信息,从各所述人脸图像中提取出与各所述人脸图像对应的眼区域图像;对所有所述眼区域图像进行所述眼球周边特征提取,得到所述待验证特征数据,如此,能够自动提取眼区域图像,并自动提取眼球周边特征,自动输出当前用户的眼角膜相关的特征数据或/和眼球特征向量的结果,为后续的身份验证提供待比对的数据。
S204,将所述待验证特征数据和与所述用户对应的所述眼球特征数据进行比对,得到比对结果。
可理解地,将所述待验证特征数据与所述用户所对应的所述眼球特征数据进行各项的比对,根据比对的偏差比例,确定出比对后各维度差异的结果,将各项的差异经过加权方式进行汇总,得到所述比对结果。
S205,根据所述识别结果和所述比对结果,确定所述第一验证结果。
可理解地,在所述识别结果和所述比对结果均通过的情况下,确认所述第一验证结果通过,在所述识别结果和所述比对结果中存在任一不通过的情况下,确认所述第一验证结果不通过。
S206,依次发送各校准坐标信息,并运用眼球追踪技术,采集眼球移动图像,以及根据所有所述眼球移动图像,确定出与各所述校准坐标信息对应的眼角膜位置信息;其中,所述眼球移动图像为所述用户的眼球根据各所述校准坐标信息所对应的光标而移动的图像。
可理解地,所述校准坐标信息为在显示界面上显示的校准光标的信息,可以根据需求设定校准坐标信息的个数,优选为4个校准坐标信息,依次在显示界面上显示校准光标,运用眼球追踪技术,依次采集眼球移动图像,所述眼球移动图像为所述用户的眼球根据各所述校准坐标信息所对应的光标而移动的图像,也即在显示校准光标后至显示下一个校准光标之间采集到用户的关注显示着的校准光标的图像,根据所有所述眼球移动图像,可以确定眼角膜在眼球中的轻微滑动或者移动的轨迹,从而确定出与各所述校准坐标信息对应的眼角膜位置信息,所述眼角膜位置信息为相对于眼球的位置。
其中,所述眼球追踪技术为也称为平滑追踪眼动(Smooth Pursuit EyeMovements,SPEM)技术,为了使视线保持在运动的物体上,而产生的较慢的眼睛的转动,从而表现出眼角膜专注的物体位移的技术,通过所述眼球追踪技术能够体现用户的专注在显示界面上的点。
S207,基于所有所述校准坐标信息和所有所述眼角膜位置信息,构建显示界面与眼角膜之间的所述眼球空间坐标数据。
可理解地,通过所有所述校准坐标信息和所有所述眼角膜位置信息的对应关系,构建显示界面与眼角膜移动的映射关系,从而构建出所述眼球空间坐标数据,即眼角膜的移动路径能够自动在眼球空间坐标数据中映射出显示界面上聚焦的专注点移动的路径。
本发明实现了通过对所述第一身份验证视频进行人脸图像提取,得到多个人脸图像;通过训练完成的所述人脸识别模型对所有所述人脸图像进行人脸特征提取,并根据提取的人脸特征进行人脸识别,得到识别结果;通过所述眼球识别模型对所有所述人脸图像进行所述眼角膜定位及所述眼球周边特征提取,得到待验证特征数据;将所述待验证特征数据和与所述用户对应的所述眼球特征数据进行比对,得到比对结果;根据所述识别结果和所述比对结果,确定所述第一验证结果;依次发送各校准坐标信息,并运用眼球追踪技术,采集眼球移动图像,以及根据所有所述眼球移动图像,确定出与各所述校准坐标信息对应的眼角膜位置信息;基于所有所述校准坐标信息和所有所述眼角膜位置信息,构建显示界面与眼角膜之间的所述眼球空间坐标数据,如此,能够运用人脸识别技术自动识别第一身份验证视频中的用户是否正确,以及运用眼球追踪技术,建立眼球空间坐标数据,便于后续的眼球追踪,为后续的身份验证提供了正确的数据基准,提高了身份验证的准确性。
S30,在检测到所述第一验证结果为通过时,获取第二身份验证视频;其中,所述第二身份验证视频为采集的基于与所述业务请求对应的对话数据的人机对话视频。
可理解地,在获得所述第一验证结果和所述眼球空间坐标数据之后,并检测到所述第一验证结果为通过时,进入办理业务的第二阶段,该阶段需要与所述用户进行人机对话,还需要所述用户复述内容进行进一步地身份验证操作,不同的业务请求对应不同的对话内容,针对不同的对话内容设定了不同的对话数据,所述对话数据包括用户复述时间段和复述内容,所述第二身份验证视频为采集的基于与所述业务请求对应的对话数据的人机对话视频,也即所述第二身份验证视频为所述用户针对所述对话数据进行人机对话而拍摄或者采集的视频。
在一实施例中,在检测到所述第一验证结果为不通过时,确认所述用户的身份验证结果为不通过,退出身份验证流程。
S40,运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果。
可理解地,所述声纹比对技术为提取输入的视频中的声纹特征,将提取的声纹特征进行与历史采集的声纹特征进行比对是否相匹配的技术,所述眼球追踪技术为追踪眼球中眼角膜的移动相对于在显示界面上观察点移动的技术,所述声纹验证为运用声纹比对技术进行认证的过程,所述眼球移动验证的过程为在建立的眼球空间坐标数据中根据显示界面上依次显示的不同位置的文字,采集到眼球依次移动的位置从而确定出相应的显示界面上的聚焦位置,从而判断显示文字的坐标信息与聚焦位置的匹配情况的验证过程,所述第二验证结果结合了人脸、声纹和眼球移动等维度的验证结果,从而增强了验证的安全性和准确性。
在一实施例中,所述步骤S40之前,即所述对所述第二身份验证视频进行所述人脸认证和声纹验证之前,包括:
获取所述用户的基于训练词句的音频文件。
可理解地,通过音频采集设备采集所述用户在看到或听完所述训练词句后发出所述训练词句的内容的音频文件,获取该音频文件。
运用语音识别技术,对所述音频文件进行文本识别,得到文本结果。
可理解地,所述语音识别技术(Automatic Speech Recognition,ASR,是一种将人的语音转换为文本的技术)进行转换,从而识别出所述音频文件中的文本内容,得到所述文本结果。
运用文本比对算法,比对所述训练词句和所述文本结果,得到比对结果。
可理解地,所述文本比对算法为计算两个文本内容之间的相似度的算法,所述文本比对算法可以为余弦相似度算法,所述余弦相似度算法为将两个文本进行词嵌入向量转换,得到两组词嵌入向量转换后的文本,再计算转换后的两组词嵌入向量后的文本之间的余弦值,从而通过余弦值衡量出两个文本之间的相似度的算法,从而能够比对出所述训练词句和所述文本结果之间的相似度,在该相似度大于预设阈值时,确定所述比对结果为通过,否则为不通过,所述比对结果体现了所述训练词句和所述文本结果之间是否一致的结果。
在检测到所述比对结果为通过时,对所述音频文件进行声纹特征提取,得到与所述用户对应的声纹特征向量。
可理解地,在检测到所述比对结果为通过时,说明所述用户按照所述训练词句一一发声,就需要对所述音频文件进行所述声纹特征提取,所述声纹特征为具有携带言语信息的声波频谱的特征,根据提取的声纹特征能够确定出与梅尔倒谱系数(MFCC)相关的所述声纹特征向量。
本发明实现了通过获取所述用户的基于训练词句的音频文件;运用语音识别技术,对所述音频文件进行文本识别,得到文本结果;运用文本比对算法,比对所述训练词句和所述文本结果,得到比对结果;在检测到所述比对结果为通过时,对所述音频文件进行声纹特征提取,得到与所述用户对应的声纹特征向量,如此,能够在身份验证之前,采集用户的音频文件,并自动提取出准确的声纹特征,从而自动输出用户所对应的声纹特征向量。
在一实施例中,如图4所示,所述步骤S40中,即所述运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果,包括:
S401,获取用户复述时间段和复述内容,以及与所述复述内容对应的显示坐标集,所述对话数据包括所述用户复述时间段和所述复述内容。
可理解地,获取所述对话数据中的所述用户复述时间段和所述复述内容,所述用户复述时间段为提供给用户进行复述的时间段范围,所述复述内容为需要用户复述的文本内容,所述复述内容中的每一个文字均对应一个显示文字坐标,即该文字在显示界面上显示的坐标,所以一条复述内容对应包含有多个显示文字坐标的所述显示坐标集。
S402,基于所述用户复述时间段,从所述第二身份验证视频中截取出复述视频。
可理解地,根据所述用户复述时间段所对应的时间点,从所述第二身份验证视频中截取出所述复述视频。
S403,运用语音识别技术,对所述复述视频进行文本识别以及声纹特征提取,得到复述识别结果和待比对声纹特征向量。
可理解地,对所述复述视频图音分离,分离出该复述视频中的音频内容,运用所述语音识别技术,对所述复述视频中的音频内容进行文本识别,识别出该音频内容中的文本内容,即所述复述识别结果,并对所述复述视频中的音频内容进行所述声纹特征提取,从而提取出该复述视频中的音频内容的具有梅尔倒谱系数(MFCC)的所述待比对声纹特征向量,所述待比对声纹特征向量与所述声纹特征向量的维度一一对应。
S404,将所述复述内容和所述复述识别结果进行比对,以及运用声纹比对技术,将所述声纹特征向量和所述待比对声纹特征向量进行比对,得到复述比对结果。
可理解地,运用文本比对算法,比对所述复述内容和所述复述识别结果,得到第一比对结果,并运用所述声纹比对技术,比对所述声纹特征向量和所述待比对声纹特征向量,得到第二比对结果,根据所述第一比对结果和所述第二比对结果,确定出所述复述比对结果,即在所述第一比对结果和所述第二比对结果均为合格时,确定所述复述比对结果为通过,所述第一比对结果和所述第二比对结果任一不合格时,确定所述复述比对结果为不通过,所述复述比对结果体现了所述用户在所述第二身份验证视频中复述的内容及当前用户的声纹是否正确的结果。
S405,基于所述复述时间段,从所述复述视频中确定出与所述显示坐标集对应的多个待认证人脸图像,并运用所述人脸识别和所述眼球追踪技术,对各所述待认证人脸图像进行所述人脸认证和所述眼球移动验证,得到复述人脸结果和眼球追踪结果。
可理解地,所述显示坐标集中的一个所述显示文字坐标对应的显示时间点,通过该显示时间点可以从所述复述视频中标识为待认证人脸图像,通过所述待认证人脸图像中的眼球移动的轨迹是否与所述显示坐标集中的显示文字坐标的轨迹一一映射对应,从而确定出眼球移动验证是否通过,得到所述眼球追踪结果,并通过对待认证人脸图像进行人脸认证,得到所述复述人脸结果。
在一实施例中,所述步骤S405中,即所述基于所述复述时间段,从所述复述视频中确定出与所述显示坐标集对应的多个待认证人脸图像,并运用所述人脸识别和所述眼球追踪技术,对各所述待认证人脸图像进行所述人脸认证和所述眼球移动验证,得到复述人脸结果和眼球追踪结果,包括:
从所述复述时间段中确定出各所述显示坐标集中的显示文字坐标所对应的显示时间段;
可理解地,在所述复述时间段中,所述显示界面上按照所述显示坐标集中文本内容的顺序顺次在每个字所对应的所述显示文字坐标上显示该字,每一个所述显示文字坐标对应一个所述显示时间段,所述显示时间段体现了该显示文字坐标在显示界面停留的时间段。
基于所有所述显示时间段,从所述复述视频中提取出与各所述显示文字坐标对应的待认证人脸图像;
可理解地,根据每一个所述显示时间段,从所述复述视频中提取出与各所述显示时间段,在每个所述显示时间段的中间值中提取所述复述视频中的图像,将提取的图像确定为与该显示时间段对应的所述待认证人脸图像,即与各所述显示文字坐标对应的所述待认证人脸图像。
运用所述人脸识别,对所有所述待认证人脸图像进行人脸认证,得到所述复述人脸结果;
可理解地,对各所述待认证人脸图像进行所述人脸认证的识别,识别出各所述待认证人脸图像的结果,各所述待认证人脸图像的结果体现了是否为需验证的用户的置信度,对所有所述置信度求均值,根据该均值确定出所述复述人脸结果是否通过。
运用眼球追踪技术,对各所述待认证人脸图像进行眼角膜定位,得到各所述待认证人脸图像所对应的基于眼球空间坐标数据的聚焦位置;
可理解地,通过对各个所述待认证人脸图像中的眼角膜的定位,可以追踪计算出眼角膜相对于眼球的移动路径,通过该移动路径可以在所述眼球空间坐标数据中一一映射,得到与各所述待认证人脸图像对应的聚焦位置,所述聚焦位置体现了所述用户聚焦在显示界面上的点的位置。
其中,所述眼球追踪技术为也称为平滑追踪眼动(Smooth Pursuit EyeMovements,SPEM)技术,为了使视线保持在运动的物体上,而产生的较慢的眼睛的转动,从而表现出眼角膜专注的物体位移的技术,通过所述眼球追踪技术能够体现用户的专注在显示界面上的点。
根据各所述显示文字坐标和与其相应的各所述聚焦位置,确定出所述眼球追踪结果。
可理解地,运用欧式距离算法,计算与相同所述待认证人脸图像对应的所述显示文字坐标和所述聚焦位置之间的偏移距离,从而计算得出与各所述待认证人脸图像一一对应的所述显示文字坐标和所述聚焦位置之间的偏移距离,计算所有所述偏移距离的公差,判断该公差是否小于预设公差阈值,根据判断结果确定所述眼球追踪结果是否通过。
本发明实现了通过从所述复述时间段中确定出各所述显示坐标集中的显示文字坐标所对应的显示时间段;基于所有所述显示时间段,从所述复述视频中提取出与各所述显示文字坐标对应的待认证人脸图像;运用所述人脸识别,对所有所述待认证人脸图像进行人脸认证,得到所述复述人脸结果;运用眼球追踪技术,对各所述待认证人脸图像进行眼角膜定位,得到各所述待认证人脸图像所对应的基于眼球空间坐标数据的聚焦位置;根据各所述显示文字坐标和与其相应的各所述聚焦位置,确定出所述眼球追踪结果,如此,能够提取出待认证人脸图像,运用人脸识别和眼球追踪技术,自动对用户进行两个维度的验证,判断用户是否有按照显示文字坐标的显示轨迹而移动相应的轨迹,确保是真实的用户在进行办理业务,避免了伪造用户的情况出现。
S406,根据所述复述比对结果、所述复述人脸结果和所述眼球追踪结果,得到所述第二验证结果。
可理解地,在所述复述比对结果、所述复述人脸结果和所述眼球追踪结果均通过的情况下,确定所述第二验证结果为通过,只要所述复述比对结果、所述复述人脸结果和所述眼球追踪结果中任一个不通过,确定所述第二验证结果为不通过,确认身份验证结果为不通过或失败,退出身份验证流程。
S50,根据所述第一验证结果和所述第二验证结果,确定与所述用户对应的身份验证结果。
可理解地,基于第一阶段的所述第一验证结果和第二阶段的所述第二验证结果,确定该用户的身份验证结果是否为通过,只有两者均通过的情况下确定所述身份验证结果为通过。
本发明实现了通过接收用户的业务请求,获取所述业务请求中的第一身份验证视频;运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据;在检测到所述第一验证结果为通过时,获取第二身份验证视频;其中,所述第二身份验证视频为采集的基于与所述业务请求对应的对话数据的人机对话视频;运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果;根据所述第一验证结果和所述第二验证结果,确定与所述用户对应的身份验证结果,如此,能够在进入人机对话之前进行人脸识别用户,并运用眼球校准技术进行眼球定位,构建眼球空间坐标数据,在进入人机对话过程中,通过用户的对话的音频进行声纹识别,并比对验证,以及运用人脸识别和眼球追踪技术,对人机对话中的用户进行验证,最终结合人脸、声纹和眼球追踪等维度进行用户的验证,避免仿造用户的情况,提高了用户的验证真实性和正确性,保证了用户的验证安全性和用户信息的保密性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于视频的身份验证装置,该基于视频的身份验证装置与上述实施例中基于视频的身份验证方法一一对应。如图5所示,该基于视频的身份验证装置包括接收模块11、第一识别模块12、获取模块13、第二识别模块14和确定模块15。各功能模块详细说明如下:
接收模块11,用于接收用户的业务请求,获取所述业务请求中的第一身份验证视频;
第一识别模块12,用于运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据;
获取模块13,用于在检测到所述第一验证结果为通过时,获取第二身份验证视频;其中,所述第二身份验证视频为采集的基于与所述业务请求对应的对话数据的人机对话视频;
第二识别模块14,用于运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果;
确定模块15,用于根据所述第一验证结果和所述第二验证结果,确定与所述用户对应的身份验证结果。
关于基于视频的身份验证装置的具体限定可以参见上文中对于基于视频的身份验证方法的限定,在此不再赘述。上述基于视频的身份验证装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是客户端或者服务端,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括可读存储介质、内存储器。该可读存储介质存储有操作系统、计算机程序和数据库。该内存储器为可读存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于视频的身份验证方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于视频的身份验证方法。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中基于视频的身份验证方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于视频的身份验证方法,其特征在于,包括:
接收用户的业务请求,获取所述业务请求中的第一身份验证视频;
运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据;
在检测到所述第一验证结果为通过时,获取第二身份验证视频;其中,所述第二身份验证视频为采集的基于与所述业务请求对应的对话数据的人机对话视频;
运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果;
根据所述第一验证结果和所述第二验证结果,确定与所述用户对应的身份验证结果。
2.如权利要求1所述的基于视频的身份验证方法,其特征在于,所述对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据之前,包括:
获取登录信息采集视频;
对所述登录信息采集视频进行图像抽取,得到多个用户图像;
将所有所述用户图像输入人脸识别模型中,并通过所述人脸识别模型对所有所述用户图像进行机器学习,得到训练完成的人脸识别模型;
通过眼球识别模型对所有所述用户图像进行眼角膜定位及眼球周边特征提取,得到与所述用户对应的眼球特征数据。
3.如权利要求1所述的基于视频的身份验证方法,其特征在于,所述运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据,包括:
对所述第一身份验证视频进行人脸图像提取,得到多个人脸图像;
通过训练完成的所述人脸识别模型对所有所述人脸图像进行人脸特征提取,并根据提取的人脸特征进行人脸识别,得到识别结果;
通过所述眼球识别模型对所有所述人脸图像进行眼角膜定位及眼球周边特征提取,得到待验证特征数据;
将所述待验证特征数据和与所述用户对应的所述眼球特征数据进行比对,得到比对结果;
根据所述识别结果和所述比对结果,确定所述第一验证结果;
依次发送各校准坐标信息,并运用眼球追踪技术,采集眼球移动图像,以及根据所有所述眼球移动图像,确定出与各所述校准坐标信息对应的眼角膜位置信息;其中,所述眼球移动图像为所述用户的眼球根据各所述校准坐标信息所对应的光标而移动的图像;
基于所有所述校准坐标信息和所有所述眼角膜位置信息,构建显示界面与眼角膜之间的所述眼球空间坐标数据。
4.如权利要求3所述的基于视频的身份验证方法,其特征在于,所述通过所述眼球识别模型对所有所述人脸图像进行所述眼角膜定位及所述眼球周边特征提取,得到待验证特征数据,包括:
通过所述眼球识别模型对所有所述人脸图像进行眼角膜定位和眉毛识别,得到眼球定位信息和眉毛定位信息;
通过所述眼球识别模型根据所述眼球定位信息和所述眉毛定位信息,从各所述人脸图像中提取出与各所述人脸图像对应的眼区域图像;
通过所述眼球识别模型对所有所述眼区域图像进行所述眼球周边特征提取,得到所述待验证特征数据。
5.如权利要求1所述的基于视频的身份验证方法,其特征在于,所述对所述第二身份验证视频进行所述人脸认证和声纹验证之前,包括:
获取所述用户的基于训练词句的音频文件;
运用语音识别技术,对所述音频文件进行文本识别,得到文本结果;
运用文本比对算法,比对所述训练词句和所述文本结果,得到比对结果;
在检测到所述比对结果为通过时,对所述音频文件进行声纹特征提取,得到与所述用户对应的声纹特征向量。
6.如权利要求1所述的基于视频的身份验证方法,其特征在于,所述运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果,包括:
获取用户复述时间段和复述内容,以及与所述复述内容对应的显示坐标集,所述对话数据包括所述用户复述时间段和所述复述内容;
基于所述用户复述时间段,从所述第二身份验证视频中截取出复述视频;
运用语音识别技术,对所述复述视频进行文本识别以及声纹特征提取,得到复述识别结果和待比对声纹特征向量;
将所述复述内容和所述复述识别结果进行比对,以及运用声纹比对技术,将所述声纹特征向量和所述待比对声纹特征向量进行比对,得到复述比对结果;
基于所述复述时间段,从所述复述视频中确定出与所述显示坐标集对应的多个待认证人脸图像,并运用所述人脸识别和所述眼球追踪技术,对各所述待认证人脸图像进行所述人脸认证和所述眼球移动验证,得到复述人脸结果和眼球追踪结果;
根据所述复述比对结果、所述复述人脸结果和所述眼球追踪结果,得到所述第二验证结果。
7.如权利要求6所述的基于视频的身份验证方法,其特征在于,所述基于所述复述时间段,从所述复述视频中确定出与所述显示坐标集对应的多个待认证人脸图像,并运用所述人脸识别和所述眼球追踪技术,对各所述待认证人脸图像进行所述人脸认证和所述眼球移动验证,得到复述人脸结果和眼球追踪结果,包括:
从所述复述时间段中确定出各所述显示坐标集中的显示文字坐标所对应的显示时间段;
基于所有所述显示时间段,从所述复述视频中提取出与各所述显示文字坐标对应的待认证人脸图像;
运用所述人脸识别,对所有所述待认证人脸图像进行人脸认证,得到所述复述人脸结果;
运用眼球追踪技术,对各所述待认证人脸图像进行眼角膜定位,得到各所述待认证人脸图像所对应的基于眼球空间坐标数据的聚焦位置;
根据各所述显示文字坐标和与其相应的各所述聚焦位置,确定出所述眼球追踪结果。
8.一种基于视频的身份验证装置,其特征在于,包括:
接收模块,用于接收用户的业务请求,获取所述业务请求中的第一身份验证视频;
第一识别模块,用于运用人脸识别和眼球校准技术,对所述第一身份验证视频进行人脸认证和眼球定位,得到第一验证结果和眼球空间坐标数据;
获取模块,用于在检测到所述第一验证结果为通过时,获取第二身份验证视频;其中,所述第二身份验证视频为采集的基于与所述业务请求对应的对话数据的人机对话视频;
第二识别模块,用于运用所述人脸识别、声纹比对和眼球追踪技术,对所述第二身份验证视频进行所述人脸认证和声纹验证,以及基于眼球空间坐标数据的眼球移动验证,得到第二验证结果;
确定模块,用于根据所述第一验证结果和所述第二验证结果,确定与所述用户对应的身份验证结果。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述基于视频的身份验证方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于视频的身份验证方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111216925.6A CN113901418A (zh) | 2021-10-19 | 2021-10-19 | 基于视频的身份验证方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111216925.6A CN113901418A (zh) | 2021-10-19 | 2021-10-19 | 基于视频的身份验证方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113901418A true CN113901418A (zh) | 2022-01-07 |
Family
ID=79192976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111216925.6A Pending CN113901418A (zh) | 2021-10-19 | 2021-10-19 | 基于视频的身份验证方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113901418A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116975830A (zh) * | 2023-09-25 | 2023-10-31 | 中建八局第三建设有限公司 | 架桥机操作人员身份验证方法、系统及计算机可读介质 |
-
2021
- 2021-10-19 CN CN202111216925.6A patent/CN113901418A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116975830A (zh) * | 2023-09-25 | 2023-10-31 | 中建八局第三建设有限公司 | 架桥机操作人员身份验证方法、系统及计算机可读介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3477519B1 (en) | Identity authentication method, terminal device, and computer-readable storage medium | |
CN108765131B (zh) | 基于微表情的信贷审核方法、装置、终端及可读存储介质 | |
CN109902630B (zh) | 一种注意力判断方法、装置、系统、设备和存储介质 | |
US10776470B2 (en) | Verifying identity based on facial dynamics | |
CN112528259B (zh) | 身份验证方法、装置、计算机设备和存储介质 | |
CN109767321A (zh) | 问答过程优化方法、装置、计算机设备和存储介质 | |
EP3373202A1 (en) | Verification method and system | |
CN112395979B (zh) | 基于图像的健康状态识别方法、装置、设备及存储介质 | |
CN111079791A (zh) | 人脸识别方法、设备及计算机可读存储介质 | |
Faundez-Zanuy et al. | Efficient on-line signature recognition based on multi-section vector quantization | |
CN110688499A (zh) | 数据处理方法、装置、计算机设备和存储介质 | |
CN110505504B (zh) | 视频节目处理方法、装置、计算机设备及存储介质 | |
JP7412496B2 (ja) | 生体(liveness)検出検証方法、生体検出検証システム、記録媒体、及び生体検出検証システムの訓練方法 | |
CN111611383A (zh) | 用户意图的识别方法、装置、计算机设备及存储介质 | |
CN107491757A (zh) | 一种基于活体特征的防欺诈系统及控制方法 | |
CN111383138B (zh) | 餐饮数据处理方法、装置、计算机设备和存储介质 | |
US10630680B2 (en) | System and method for optimizing matched voice biometric passphrases | |
CN113901418A (zh) | 基于视频的身份验证方法、装置、计算机设备及存储介质 | |
CN114493902A (zh) | 多模态信息异常监控方法、装置、计算机设备及存储介质 | |
CN113343898A (zh) | 基于知识蒸馏网络的口罩遮挡人脸识别方法、装置及设备 | |
CN114398487A (zh) | 线上会话的参考信息输出方法、装置、设备及存储介质 | |
CN114399827A (zh) | 基于面部微表情的高校毕业生职业性格测试方法及系统 | |
CN112992155A (zh) | 一种基于残差神经网络的远场语音说话人识别方法及装置 | |
Kang et al. | Visual Recognition of Artificial Intelligence Open Source Comparison Study: Focusing on the Situation of People | |
Maheswari et al. | An ARM based Door Phone Embedded System for Voice and Face Identification and Verification by Open CV and Qt GUI Framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |