CN115690922A - 生物识别方法、装置、计算机设备、存储介质和程序产品 - Google Patents
生物识别方法、装置、计算机设备、存储介质和程序产品 Download PDFInfo
- Publication number
- CN115690922A CN115690922A CN202211088546.8A CN202211088546A CN115690922A CN 115690922 A CN115690922 A CN 115690922A CN 202211088546 A CN202211088546 A CN 202211088546A CN 115690922 A CN115690922 A CN 115690922A
- Authority
- CN
- China
- Prior art keywords
- scene
- user
- score
- biometric
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
Abstract
本申请涉及一种生物识别方法、生物识别装置、计算机设备、存储介质和计算机程序产品。所述生物识别方法包括:获取对当前场景内的用户进行拍摄所形成的音视频;基于音视频,确定用户多个维度的生物特征和用户在当前场景下的场景信息;确定各维度的生物特征在场景信息下的识别权重值,以及确定场景信息的场景分值;场景分值用于表征当前场景的场景信息相较于预设的最优场景信息的得分;将场景分值和生物特征分值进行融合,基于融合结果确定用户的识别结果;生物特征分值由各维度的生物特征与对应维度的识别权重值所确定。采用本方法能够在对用户进行用户识别时,增强用户识别的准确性和安全性。
Description
技术领域
本申请涉及生物识别技术领域,特别是涉及一种生物识别方法、生物识别装置、计算机设备、存储介质和计算机程序产品。
背景技术
生物识别技术是通过计算机与光学、声学、生物传感器和生物统计学原理等高科技手段密切结合,利用人体固有的生理特性(如指纹、人脸、虹膜等)和行为特征来进行个人身份的鉴定。目前的生物特征识别技术已经在人口管理、安全反恐、机场安检、出入境边检、门禁与安全系统、金融防伪、电子商务等领域发挥重要作用。
以人脸识别技术和指纹识别技术为例,人脸/指纹识别主要包括生物特征的注册和验证/识别两部分。注册过程预先进行的注册用户,采集得到用户的人脸/指纹模板并存储。一次注册后,即可以多次进行验证/识别。识别过程采集用户的人脸/指纹图像,并与人脸/指纹模板进行比对,比对通过则人脸/指纹识别成功。
然而,目前的人脸/指纹识别方式的识别率容易受到用户的特殊场景影响(如,皮肤烧伤的用户其人脸/指纹识别的识别率可能低于正常的用户),进而导致对用户进行生物识别的准确率不高。
发明内容
本公开提供一种生物识别方法、生物识别装置、计算机设备、存储介质和计算机程序产品,以至少解决相关技术中进行生物识别的准确性和安全性不高的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种生物识别方法,包括:
获取对当前场景内的用户进行拍摄所形成的音视频;
基于所述音视频,确定所述用户多个维度的生物特征和所述用户在所述当前场景下的场景信息;所述多个维度的生物特征包括所述用户的人脸特征、虹膜特征、声音特征和指纹特征中的至少两种;
确定各所述维度的生物特征在所述场景信息下的识别权重值,以及确定所述场景信息的场景分值;所述场景分值用于表征所述当前场景的场景信息相较于预设的最优场景信息的得分;
将所述场景分值和生物特征分值进行融合,基于融合结果确定所述用户的识别结果;所述生物特征分值由各所述维度的生物特征与对应维度的识别权重值所确定。
在一示例性实施例中,所述基于所述音视频,确定所述用户多个维度的生物特征,包括:
解析所述音视频,得到所述用户的图像数据和音频数据;
基于所述图像数据和所述音频数据,提取所述多个维度的生物特征。
在一示例性实施例中,基于所述音视频,确定所述用户在所述当前场景下的场景信息,包括:
基于所述图像数据和所述音频数据,确定至少一种类别的场景因子,以及各类别所述场景因子的因子分值;所述因子分值用于表征所述当前场景下的场景因子相较于预设的最优场景因子的得分;
聚合所述至少一种类别的场景因子和各类别所述场景因子的因子分值,得到所述当前场景下的场景信息。
在一示例性实施例中,所述场景因子的类别包括在拍摄所述用户时的业务形式类别、业务进程类别、用户环境类别、用户生理类别、用户行为类别和用户情绪类别中至少一种;
所述确定各所述维度的生物特征在所述场景信息下的识别权重值,包括:
获取每一种类别的场景因子和各所述维度的生物特征的相关度;所述相关度用于表征在利用各所述维度的生物特征进行用户识别时,各种类别的所述场景因子对所述用户识别的结果的影响程度;
基于所述每一种类别的场景因子的因子分值和各类别所述场景因子对应维度的生物特征的相关度,确定各所述维度的生物特征的识别权重值。
在一示例性实施例中,所述确定所述场景信息的场景分值,包括:
获取每一种类别的场景因子的均值和方差值;
利用所述至少一种类别的场景因子的因子分值和每一种类别的场景因子的均值和方差值,计算所述场景信息的概率密度,确定所述场景分值。
在一示例性实施例中,所述基于所述音视频,确定所述用户多个维度的生物特征之后,还包括:
基于所述图像数据和/或所述音频数据,计算每一维度的生物特征对应的活检值,作为第一类特征分值;以及
基于所述图像数据和/或所述音频数据,计算每一维度的生物特征对应的特征相似度,作为第二类特征分值;所述特征相似度用于表征所述用户的生物特征与预设的模板特征之间的相似程度;
所述确定各所述维度的生物特征在所述场景信息下的识别权重值之后,还包括:
基于每一维度的生物特征对应的第一类特征分值和第二类特征分值,以及所述每一维度的生物特征在所述场景信息下的识别权重值,确定所述生物特征分值。
在一示例性实施例中,所述基于融合结果确定所述用户的识别结果,包括:
若所述融合结果对应的分数小于预设的融合分数,则所述用户的识别结果为识别失败;
若所述融合结果对应的分数大于或等于预设的融合分数,则所述用户的识别结果为识别成功。
在一示例性实施例中,在所述基于融合结果确定所述用户的识别结果之后,还包括:
若所述识别结果为识别失败,则发出调整提示,以使所述用户按照所述调整提示调整所述用户的当前场景;
基于调整后的当前场景对所述用户重新进行生物识别,得到所述用户新的识别结果。
根据本公开实施例的第二方面,提供一种生物识别装置,包括:
图像获取单元,被配置为执行获取对当前场景内的用户进行拍摄所形成的图像;
第一处理单元,被配置为执行基于所述音视频,确定所述用户多个维度的生物特征和所述用户在所述当前场景下的场景信息;所述多个维度的生物特征包括所述用户的人脸特征、虹膜特征、声音特征和指纹特征中的至少两种;
第二处理单元,被配置为执行确定各所述维度的生物特征在所述场景信息下的识别权重值,以及确定所述场景信息的场景分值;所述场景分值用于表征所述当前场景的场景信息相较于预设的最优场景信息的得分;
融合识别单元,被配置为执行将所述场景分值和生物特征分值进行融合,基于融合结果确定所述用户的识别结果;所述生物特征分值由各所述维度的生物特征与对应维度的识别权重值所确定。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为执行所述可执行指令,以实现如上述任一项所述的生物识别方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质中包括程序数据,当所述程序数据由电子设备的处理器执行时,使得所述电子设备能够执行如上述任一项所述的生物识别方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,所述计算机程序产品中包括程序指令,所述程序指令被电子设备的处理器执行时,使得所述电子设备能够执行如上述任一项所述的生物识别方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
首先,通过获取对当前场景内的用户进行拍摄所形成的音视频;然后,再基于音视频,确定出用户多个维度的生物特征和用户在当前场景下的场景信息;其中,多个维度的生物特征包括用户的人脸特征、虹膜特征、声音特征和指纹特征中的至少两种;然后,再确定各维度的生物特征在场景信息下的识别权重值,以及确定场景信息的场景分值;其中,场景分值用于表征当前场景的场景信息相较于预设的最优场景信息的得分;最后,再将场景分值和生物特征分值进行融合,基于融合结果确定用户的识别结果;其中,生物特征分值由各维度的生物特征与对应维度的识别权重值所确定。这样,一方面,利用用户所在的动态场景对应的场景信息对用户进行识别,能够提升对用户进行生物识别的准确性和优化用户识别体验;另一方面,根据用户的多种维度特征以融合对应场景下的特征权重进行用户识别,能够提高对用户进行生物识别的安全性和可靠性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种生物识别方法的应用环境图。
图2是根据一示例性实施例示出的一种生物识别方法的流程图。
图3是根据一示例性实施例示出的一种确定多个维度的生物特征步骤的流程图。
图4是根据一示例性实施例示出的一种确定当前场景下的场景信息步骤的流程图。
图5是根据一示例性实施例示出的一种确定各生物特征的识别权重值步骤的流程图。
图6是根据一示例性实施例示出的一种确定场景信息的场景分值步骤的流程图。
图7是根据一示例性实施例示出的一种对用户重新进行生物识别步骤的流程图。
图8为根据另一示例性实施例示出的一种生物识别方法的流程图。
图9为根据另一示例性实施例示出的一种生物识别方法的模块图。
图10是根据一示例性实施例示出的一种生物识别装置框图。
图11是根据一示例性实施例示出的一种用于生物识别的电子设备的框图。
图12是根据一示例性实施例示出的一种用于生物识别的计算机可读存储介质的框图。
图13是根据一示例性实施例示出的一种用于生物识别的计算机程序产品的框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,尽管多次采用术语“第一”、“第二”等来描述各种操作(或各种阈值或各种应用或各种指令或各种元件)等,不过这些操作(或阈值或应用或指令或元件)不应受这些术语的限制。这些术语只是用于区分一个操作(或阈值或应用或指令或元件)和另一个操作(或阈值或应用或指令或元件)。例如,第一融合分数可以被称为第二融合分数,第二融合分数也可以被称为第一融合分数,而不脱离本申请的范围,第一融合分数和第二融合分数都是对相应生物特征的得分数进行融合后的生物特征的得分数,只是二者并不是相同的生物特征的得分数。
需要说明的是,在本申请技术方案中若涉及用户的个人信息,则在应用本申请技术方案对应的产品在处理用户的个人信息前,应当已明确告知用户关于个人信息的处理规则,并取得用户自主同意。若本申请技术方案涉及用户的敏感个人信息,则在应用本申请技术方案对应的产品在处理用户的敏感个人信息前,应当已取得用户的个人单独同意,并且同时满足“明示同意”的要求。例如,在摄像头等用户的个人信息采集装置处,设置明确显著的标识,并告知用户已进入个人信息的采集范围,在该范围内将会对用户的个人信息进行采集,若用户自愿进入采集范围即视为同意对其个人信息进行采集;或者在个人信息处理的装置上,利用明显的标识/信息告知个人信息处理规则的情况下,通过弹窗信息或请个人自行上传其个人信息等方式获得用户的个人授权。其中,个人信息处理规则可包括个人信息处理者、个人信息处理目的、处理方式以及处理的个人信息种类等信息。
本申请实施例提供的生物识别方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。数据存储系统可以存储服务器104需要处理的数据。数据存储系统可以集成在服务器104上,也可以放在云上或其他网络服务器上。
在一实施例中,参考图1,服务器104首先获取对当前场景内的用户进行拍摄所形成的音视频;然后,服务器104基于所述音视频,确定所述用户多个维度的生物特征和所述用户在所述当前场景下的场景信息;其中,所述多个维度的生物特征包括所述用户的人脸特征、虹膜特征、声音特征和指纹特征中的至少两种;然后,服务器104再确定各所述维度的生物特征在所述场景信息下的识别权重值,以及确定所述场景信息的场景分值;其中,所述场景分值用于表征所述当前场景的场景信息相较于预设的最优场景信息的得分;最后,服务器104将所述场景分值和生物特征分值进行融合,基于融合结果确定所述用户的识别结果;其中,所述生物特征分值由各所述维度的生物特征与对应维度的识别权重值所确定。
在一些实施例中,终端102(如移动终端、固定终端)可以以各种形式来实施。其中,终端102可为包括诸如移动电话、智能电话、笔记本电脑、便携式手持式设备、个人数字助理(PDA,Personal Digital Assistant)、平板电脑(PAD)等等的可以拍摄包括用户在当前场景内的图像,以及利用该图像对用户进行生物识别的移动终端,终端102也可以是自动柜员机(Automated Teller Machine,ATM)、门禁一体机、数字TV、台式计算机、固式计算机等等的可以可以拍摄包括用户在当前场景内的图像,以及利用该图像对用户进行生物识别的固定终端。下面,假设终端102是固定终端。然而,本领域技术人员将理解的是,若有特别用于移动目的的操作或者元件,根据本申请公开的实施方式的构造也能够应用于移动类型的终端102。
在某些实施例中,服务器104运行的图像处理组件和数据处理组件可以加载正在被执行的可以包括各种附加服务器应用和/或中间层应用中的任何一种,如包括HTTP(超文本传输协议)、FTP(文件传输协议)、CGI(通用网关界面)、RDBMS(关系型数据库管理系统)等。
在一些实施例中,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。服务器104可以适于运行提供前述公开中描述的终端102的一个或多个应用服务或软件组件。
在一些实施例中,应用服务可以包括例如用于对当前场景内的用户进行拍摄的摄影服务,以及在生物识别通过之后,为用户提供的后续服务等等。软件组件可以包括例如具有生物识别功能的APP或者客户端。
在一些实施例中,具有生物识别功能的APP或者客户端包括一个在前台向用户提供一对一应用服务的门户端口和多个位于后台进行数据处理的业务系统,以将生物识别功能的应用扩展到APP或者客户端,从而用户能够在任何时间任何地点进行生物识别功能的使用和访问。
在某些实施例中,APP或者客户端的生物识别功能可为运行在用户模式以完成某项或多项特定工作的计算机程序,其可以与用户进行交互,且具有可视的用户界面。其中,APP或者客户端可以包括两部分:图形用户接口(GUI)和引擎(engine),利用这两者能够以用户界面的形式向用户提供多种应用服务的数字化客户系统。
在某些实施例中,用户可以通过输入装置向APP或者客户端输入相应的代码数据或者控制参数,以执行计算机程序的应用服务,以及显示用户界面中的应用服务。例如,需要对用户的当前场景进行拍摄,则用户通过输入装置进行操作以及通过用户界面进行显示。可选地,输入装置可为触屏输入、按键输入、语音输入或瞳孔聚焦输入等等。
在某些实施例中,APP或者客户端运行的操作系统可以包括各种版本的MicrosoftApple和/或Linux操作系统、各种商用或类操作系统(包括但不限于各种GNU/Linux操作系统、GoogleOS等)和/或移动操作系统,诸如 Phone、OS、OS、OS操作系统,以及其它在线操作系统或者离线操作系统。
在一个实施例中,如图2所示,提供了一种生物识别方法,以该方法应用于图1中的服务器104为例进行说明,该方法包括以下步骤:
步骤S11,获取对当前场景内的用户进行拍摄所形成的音视频。
在一实施例中,用户通过终端中的摄像装置实时拍摄用户在当前场景内的音视频,然后,终端再将拍摄的音视频发送至服务器进行后续数据处理。
其中,摄像装置可包括人脸相机、虹膜相机、指纹仪、录音器等,以使得经过摄像装置拍摄的音视频中可包括用户所处的环境、用户人脸、用户虹膜和记录的用户声音、用户指纹等。
在一些实施例中,音视频中的用户环境、用户人脸、用户虹膜和用户指纹可以以图片和/或视频的方式搭载。
其中,图片可以包括位图、JPEG图片、PNG图片(便携式网络图形)、GIF图片、JPG图片、PDF图片或者深度图等,视频可以包括微软视频、Real Player、MPEG视频、手机视频或Apple视频等。
作为示例,摄像装置拍摄用户的人脸和虹膜的音视频可以利用人脸相机先对用户X的人脸进行和定位并采集用户人脸图像,然后通过聚焦方式对用户X的眼睛进行定位并采集用户虹膜图像,在采集用户人脸图像和用户虹膜图像的同时,摄像装置利用录音器同步采集场景中的声音(包括用户声音和环境声音),以及在进行音视频的采集的任意时刻,服务器向用户发出采集指纹信息的操作指令,用户按照操作指令进行操作,摄像装置利用指纹仪以记录用户的指纹信息。
步骤S12,基于音视频,确定用户多个维度的生物特征和用户在当前场景下的场景信息。
在一实施例中,多个维度的生物特征包括用户的人脸特征、虹膜特征、声音特征和指纹特征中的至少两种。
在一些实施例中,用户的指纹特征可以是手指纹特征和指静脉特征,虹膜特征可以是左眼虹膜特征和右眼虹膜特征等。
在一些实施例中,生物特征的获取方法,以人脸特征和虹膜特征为例,可以通过人脸相机和虹膜相机采集音视频中的人脸图像和虹膜图像进行特征提取,得到人脸特征和虹膜特征。在采集时,可以采集单幅图像,也可以是采集视频,并从视频中得到多帧图像。
在一些实施例中,生物特征的提取方式,例如可以通过卷积神经网络(Convolutional Neural Networks,CNN)等方式自动提取特征。
在一实施例中,用户在当前场景下的场景信息可以包括用户应用终端的应用类型信息(包括用户近距离线下应用终端和远程在线应用终端)、环境信息(包括环境的光照强度、光源位置、噪音等)、使用终端的业务类型信息、用户的生理信息、用户的行为信息、用户的情绪信息等。
步骤S13,确定各维度的生物特征在场景信息下的识别权重值,以及确定场景信息的场景分值。
在一实施例中,各维度的生物特征的识别权重值是指在进行用户的识别时,服务器基于当前的场景信息,分配给用户的人脸特征、虹膜特征、声音特征和指纹特征各自的识别结果对应的参考权重值。其中,各个权重值的和为1。
在一实施例中,场景分值用于表征当前场景的场景信息相较于预设的最优场景信息的得分。
其中,最优场景信息是指在该场景信息对应的场景中,服务器进行生物识别的成功率最高,以及得到的识别结果的准确率最高。其中,不同的场景信息对应场景的识别成功率不同,识别结果的准确率也不同。
在一实施例中,服务器通过比较当前场景的场景信息与预设的最优场景信息的差异程度,以得到当前场景的场景信息的得分。若差异程度越大,则场景分值越低,若差异程度越小,则场景分值越高。
步骤S14,将场景分值和生物特征分值进行融合,基于融合结果确定用户的识别结果。
在一实施例中,服务器可以将场景分值和生物特征分值输入预先设置的融合模型中进行融合,以得到融合结果。其中,融合模型可以为预先设置的计算模型,也可以为预先训练得到的神经网络。
在一实施例中,生物特征分值由各维度的生物特征与对应维度的识别权重值所确定。
在一实施例中,生物特征分值用于表征各个维度的生物特征在当前场景下,生物特征被服务器识别,得到的识别结果和对应维度的识别权重值融合后的分数值。其中,若融合后的分数值越高,则对应维度的生物特征的识别成功率越高,若融合后的分数值越低,则对应维度的生物特征的识别成功率越低。
作为一示例,服务器计算得到用户的人脸特征识别结果的分数值为A、虹膜特征识别结果的分数值为B、声音特征识别结果的分数值为C和指纹特征识别结果的分数值为D,服务器基于当前的场景信息计算得到用户的人脸特征的权重值为X1、虹膜特征的权重值为X2、声音特征的权重值为X3和指纹特征的权重值为X4,则服务器在计算得到用户的人脸特征的生物特征分值为A×X1、虹膜特征的生物特征分值为B×X2、声音特征的生物特征分值为C×X3和指纹特征的生物特征分值为D×X4。
上述生物识别方法中,首先,通过获取对当前场景内的用户进行拍摄所形成的音视频;然后,再基于音视频,确定出用户多个维度的生物特征和用户在当前场景下的场景信息;其中,多个维度的生物特征包括用户的人脸特征、虹膜特征、声音特征和指纹特征中的至少两种;然后,再确定各维度的生物特征在场景信息下的识别权重值,以及确定场景信息的场景分值;其中,场景分值用于表征当前场景的场景信息相较于预设的最优场景信息的得分;最后,再将场景分值和生物特征分值进行融合,基于融合结果确定用户的识别结果;其中,生物特征分值由各维度的生物特征与对应维度的识别权重值所确定。这样,一方面,利用用户所在的动态场景对应的场景信息对用户进行识别,能够提升对用户进行生物识别的准确性和优化用户识别体验;另一方面,根据用户的多种维度特征以融合对应场景下的特征权重进行用户识别,能够提高对用户进行生物识别的安全性和可靠性。
本领域技术人员可以理解地,在具体实施方式的上述方法中,所揭露的方法可以通过更为具体的方式以实现。例如,上述的生物识别过程的实施方式仅仅是一种示意性的描述。
示例性地,服务器基于音视频,确定用户多个维度的生物特征和用户在当前场景下的场景信息的过程;或者终端对当前场景内的用户进行拍摄以形成音视频的过程等等,其仅仅为一种集合的方式,实际实现时可以有另外的划分方式,例如服务器确定各维度的生物特征在场景信息下的识别权重值,以及确定场景信息的场景分值的方法可以结合或者可以集合到另一个系统中,或一些特征可以忽略,或不执行。
在一示例性实施例中,参阅图3,图3为本申请中确定多个维度的生物特征一实施例的流程示意图。在步骤S12中,服务器基于音视频,确定用户多个维度的生物特征的过程,具体可以通过以下方式实现:
步骤S121,解析音视频,得到用户的图像数据和音频数据。
在一实施例中,用户的音频数据可以为服务器对音视频中的音频流进行单独提取出得到,也可以为服务器控制录音器单独收取的音频流作为音视频中的一种得到。用户的图像数据可以为服务器对音视频中的视频流进行单独提取出得到,也可以为服务器控制摄影机单独拍摄的图像流作为音视频中的一种得到。
在一实施例中,图像数据可以包括如位图、JPEG图片、PNG图片(便携式网络图形)、GIF图片、JPG图片、PDF图片或者深度图等格式的图片数据,也可以包括如微软视频、RealPlayer、MPEG视频、手机视频或Apple视频等格式的视频数据。
步骤S122,基于图像数据和音频数据,提取多个维度的生物特征。
在一些实施例中,服务器在提取多个维度的生物特征之前,需要对图像数据先进行预处理。其中,预处理包括定位、归一化和图像增强三部分组成。
作为一示例,对人脸图像数据的定位采用的是基于Haar特征与Adaboost相结合的算法,对人脸图像数据的归一化采用平移、旋转和缩放等措施,对人脸图像数据的增强采用直方图均衡化。对虹膜图像数据的定位采用霍夫变换(Hough)和边缘检测相结合的算法,对虹膜图像数据的归一化采用的是极坐标变换,对虹膜图像数据的增强采用直方图均衡化。
在一些实施例中,生物特征的获取方法,继续以人脸特征和虹膜特征为例,可以通过人脸相机和虹膜相机采集音视频中的人脸图像和虹膜图像进行特征提取,得到人脸特征和虹膜特征。在采集时,可以采集单幅图像,也可以是采集视频,并从视频中得到多帧图像。
在一些实施例中,生物特征的提取方式,例如可以通过卷积神经网络(Convolutional Neural Networks,CNN)等方式自动提取特征。
在一示例性实施例中,参阅图4,图4为本申请中确定当前场景下的场景信息一实施例的流程示意图。在步骤S12中,服务器基于音视频,确定用户在当前场景下的场景信息的过程,具体可以通过以下方式实现:
步骤S123,基于图像数据和音频数据,确定至少一种类别的场景因子,以及各类别场景因子的因子分值。
在一实施例中,服务器从包括用户的当前场景的图像数据和音频数据中,提取出多种场景因子,并根据用户的当前场景为每一种场景因子计算出对应的因子分值。
在一些实施例中,服务器从当前场景中提取出的场景因子可以包括:用户应用终端的应用类型信息(包括用户是近距离线下应用终端、远程在线应用终端)、用户所在的环境信息(包括环境的光照强度、光源位置、噪音等)、用户使用终端的业务类型信息(包括用户是否在进行动账交易、登录、身份识别、金融欺诈等操作)、用户的生理信息(包括用户的性别、年龄、人种类型、身高体重等)、用户的行为信息(包括用户是否化妆、是否闭眼、是否鬼脸、是否佩戴美瞳、是否佩戴眼镜、是否佩戴口罩、是否佩戴帽子等)、用户的情绪信息(包括用户的喜怒哀乐等表情)。
在一实施例中,因子分值用于表征当前场景下的场景因子相较于预设的最优场景因子的得分。
作为一示例,服务器从当前场景中提取出的场景因子包括有:用户为远程在线应用终端、用户所在环境的光照强度为A、所在环境的噪音强度为B、用户使用终端的业务类型为身份识别、用户佩戴有眼镜、美瞳和帽子。服务器对应预设的最优场景为用户近距离线下应用终端、用户所在环境的光照强度为A0、所在环境的噪音强度为B0、用户使用终端的业务类型为登录、用户未佩戴有眼镜、美瞳和帽子。因此,服务器基于预设的距离计算规则,得出用户应用终端的应用类型的因子分值为X1、用户所在的环境的因子分值为X2、用户使用终端的业务类型的因子分值为X3、用户的生理信息的因子分值为X4、用户的行为信息的因子分值为X5和用户的情绪信息的因子分值为X6。
步骤S124,聚合至少一种类别的场景因子和各类别场景因子的因子分值,得到当前场景下的场景信息。
在一实施例中,服务器将从音视频中提取出的所有场景因子及其对应的因子分值聚合在一起,以形成一个场景组合。其中,该场景组合为用户在当前场景下的场景组合,随着场景变量的变化,聚合得到的场景组合可以自适应的产生变化,以得到适用于用户当前场景下的场景组合形式。
作为一示例,服务器得出用户应用终端的应用类型的因子分值为X1、用户所在的环境的因子分值为X2、用户使用终端的业务类型的因子分值为X3、用户的生理信息的因子分值为X4、用户的行为信息的因子分值为X5和用户的情绪信息的因子分值为X6。则服务器将上述六种场景因子聚合为一个行列表达式X,其中,X=【X1,X2,X3,X4,X5,X6】。
在一示例性实施例中,参阅图5,图5为本申请中确定各生物特征的识别权重值一实施例的流程示意图。在步骤S13中,服务器确定各维度的生物特征在场景信息下的识别权重值的过程,具体可以通过以下方式实现:
步骤S131,获取每一种类别的场景因子和各维度的生物特征的相关度。
在一实施例中,相关度用于表征在利用各维度的生物特征进行用户识别时,各种类别的场景因子对用户识别的结果的影响程度。
在一实施例中,每一种类别的场景因子和各维度的生物特征的相关度由开发工程师预先在服务器中设置完成且存储在一存储介质中的计算机程序自动计算得到。
作为一示例,开发工程师可以设置用户应用终端的应用类型与人脸特征的相关度为P1、与虹膜特征的相关度为P2、与声音特征的相关度为P3、与指纹特征的相关度为P4;设置用户所在的环境因子与人脸特征的相关度为P5、与虹膜特征的相关度为P6、与声音特征的相关度为P7、与指纹特征的相关度为P8。其中,相关度P1-P8可以有相同的数据也可以有不相同的数值。
步骤S132,基于每一种类别的场景因子的因子分值和各类别场景因子对应维度的生物特征的相关度,确定各维度的生物特征的识别权重值。
在一实施例中,服务器可以通过预先设置的强化学习模型根据场景因子的因子分值和对应维度的生物特征的相关度来确定各维度的生物特征的识别权重值。
在某些实施例中,强化学习模型通过学习大量的、历史上的各种类别的场景因子的因子分值和对应维度的生物特征的相关度,以得到对应的多种各维度的生物特征的累积反馈值(即大量的各维度的生物特征的识别权重值),进而得到不同的行动策略在每个初始状态值(即输入的因子分值和生物特征相关度)下最优的反馈值范围(即各维度的生物特征最优的识别权重值范围)。
作为一示例,强化学习模型设置每一生物特征对应的所有初始入参值为sp=(x1n,x2n,....,xnn)×(y1n,y2n,....,ynn),其中,sp为生物特征的识别权重值,xnn为一个因子分值的初始入参值,ynn为一个生物特征的相关度的初始入参值,xi/yi∈[li,hi]是第i个因子分值的初始入参值,总共需要学习的初始入参值有n∈N个。强化学习模型采取不同行动策略下最优的反馈值范围为rt=score(st+1)-score(st),其中,不同行动策略设定每次调参的步长为1,即a=(±1,±1,.......,±1,),score为当前行动策略下根据工程师认定的综合最优的反馈值范围(即各维度的生物特征最优的识别权重值范围)。
在一示例性实施例中,参阅图6,图6为本申请中确定场景信息的场景分值一实施例的流程示意图。在步骤S13中,服务器确定场景信息的场景分值的过程,具体可以通过以下方式实现:
步骤S133,获取每一种类别的场景因子的因子分值的均值和方差值。
在一实施例中,服务器可以通过大量的历史数据计算得到每一种类别的场景因子的均值和方差值。
作为一示例,服务器得出用户在当前场景下的场景因子的聚合表达式X为:X=【X1,X2,X3,X4,X5,X6】。然后,服务器再从数据库中获取到由大量历史数据计算出的对应各种类别的场景因子的因子分值的均值表达式P:P=【P1,P2,P3,P4,P5,P6】,以及对应各种类别的场景因子的因子分值的方差值表达式б:б=【б1,б2,б3,б4,б5,б6】。
步骤S134,利用至少一种类别的场景因子的因子分值和每一种类别的场景因子的均值和方差值,计算场景信息的概率密度,确定场景分值。
在一实施例中,服务器可以通过大量的历史数据计算得到每一种类别的场景因子的均值和方差值。
在一实施例中,场景因子的聚合表达式X服从一个N(P,б2)的正态分布N(x)(Normal Distribution(x),N(x)),其中,正态分布N(x)的数据分布可以通过一个n维的列向量描述,其余各个维度的均值P和方差б分别可以为P1、P2、P3、P4、P5、P6和б1、б2、б3、б4、б5、б6。
进一步地,服务器将各种类别的场景因子的因子分值和每一种类别的场景因子的均值和方差值输入到正态分布N(x)中进行概率密度的计算,最终服务器将正态分布N(x)输出的概率密度的值作为用户当前的场景信息下的场景分值。
在一实施例中,服务器在基于音视频,确定出用户多个维度的生物特征之后,还需要基于图像数据和/或音频数据,计算每一维度的生物特征对应的活检值,作为第一类特征分值。
具体地,服务器可以使用若干种活检算法对用户的每一维度的生物特征进行活体校验,以得到对应的各个维度的生物特征的活检值εi,服务器将各个活检值εi作为生物特征的第一类特征分值。
在另一实施例中,服务器在基于音视频,确定出用户多个维度的生物特征之后,还需要基于图像数据和/或音频数据,计算每一维度的生物特征对应的特征相似度,作为第二类特征分值。
具体地,服务器可以使用若干种相似度算法对用户的每一维度的生物特征进行相似度对比,以得到对应的各个维度的生物特征的特征相似度θi,服务器将各个特征相似度θi作为生物特征的第二类特征分值。
其中,特征相似度用于表征用户的生物特征与预设的模板特征之间的相似程度。
在一实施例中,服务器在基于音视频,确定出用户多个维度的生物特征之后,还需要基于每一维度的生物特征对应的第一类特征分值和第二类特征分值,以及每一维度的生物特征在场景信息下的识别权重值,确定生物特征分值。
作为一示例,假设生物特征对应的第一类特征分值为[ε1、ε2、ε3…εn]T,生物特征对应的第一类特征分值为[θ1、θ2、θ3…θn]T,每一维度的生物特征在场景信息下的识别权重值为[P1、P2、P3…Pn]T。然后,服务器将第一类特征分值与识别权重值融合,得到第一融合分数值L(x)(即LiveValu(x)),其中,L(x)=[ε1、ε2、ε3…εn]T×[P1、P2、P3…Pn]T。服务器将第二类特征分值与识别权重值,得到第二融合分数值F(x)(即Feature(x)),其中,L(x)=[θ1、θ2、θ3…θn]T×[P1、P2、P3…Pn]T。最后,服务器再为第一融合分数值L(x)引入一个预设的误差参数α,和为第二融合分数值F(x)引入一个预设的误差参数β,最后再将引入误差参数后第一融合分数值和第二融合分数值进行融合,得到生物特征分值P(x),即P(x)=α×L(x)+β×F(x)。
在一实施例中,服务器将场景分值和生物特征分值进行融合包括:将场景分值N(x)与生物特征分值P(x)相加得到融合优化分数R(x)。
在一实施例中,服务器基于融合结果确定用户的识别结果,包括:若融合结果对应的分数小于预设的融合分数,则用户的识别结果为识别失败;或者若融合结果对应的分数大于或等于预设的融合分数,则用户的识别结果为识别成功。
作为一示例,若融合结果对应的融合优化分数R(x)小于预设的融合分数Sp,则用户的识别结果为识别失败;或者若融合结果对应的融合优化分数R(x)大于或等于预设的融合分数Sp,则用户的识别结果为识别成功。
在一示例性实施例中,参阅图7,图7为本申请中对用户重新进行生物识别一实施例的流程示意图。在步骤S14服务器基于融合结果确定用户的识别结果之后,还有可以服务器需要对用户重新进行生物识别的过程,具体可以通过以下方式实现:
步骤a1,若识别结果为识别失败,则发出调整提示,以使用户按照调整提示调整用户的当前场景。
在一实施例中,服务器发出的调整提示用于提示用户调整自身所处的场景因子及其因子分值。该调整提示可以为语音提示、视频提示或者协助呼叫工作人员的提示。
步骤a2,基于调整后的当前场景对用户重新进行生物识别,得到用户新的识别结果。
在一实施例中,在客户按照调整提示调整自身所处的场景因子及其因子分值之后,则服务器在基于如上述实施例中的方法重新获取对当前场景内的用户进行拍摄所形成的音视频,以及进行后续的生物识别的过程。其中,若重新进行的生物识别仍不成功,则继续识别,直到用户的场景因子及其因子分值达到可识别成功。
为了更清晰阐明本公开实施例提供的生物识别方法,以下以一个具体的实施例对该生物识别方法进行具体说明。在一示例性实施例中,参考图8和图9,图8为根据另一示例性实施例示出的一种生物识别方法的流程图,图9为根据另一示例性实施例示出的一种生物识别方法的模块图,该生物识别方法用于服务器104中,具体包括如下内容:
步骤21:通过信息采集模块001使用音视频采集仪对活体人员进行生物特征信息的采集。
其中,采集的生物特征信息包括人脸信息、虹膜信息和声纹信息。
步骤22:通过数据构建模块002对采集的生物特征信息进行特征提取和特征识别,生成音形象多维特征信息。
其中,音形象多维特征信息包括:人脸特征信息、虹膜特征信息、声纹特征信息。
步骤23:通过自适应场景模块003根据用户的场景信息来自适应的调整场景因子,以模拟出在当前场景下的各个场景因子的分值,以确定出场景组合式X。
其中,常用的场景信息包括:
业务场景信息:现场识别还是远程识别;
用户环境信息:光照强度,光源位置等;
业务进程信息:是否是动账交易,登录、身份识别、金融欺诈等;
用户生理信息:性别、年龄、人种类型、身高体重等;
用户行为信息:是否化妆,是否闭眼,是否鬼脸,佩戴美瞳、眼镜、口罩、帽子等;
用户情绪信息:喜怒哀乐。
其中,自适应场景模块003通过对当前场景的模拟来自适应的调整场景因子Xi的分值,每一个Xi的分值代表上述1-6个场景,例如,可根据光照强度的不同得到为0-9分的分值,以得到场景组合X。
其中,场景组合式X的表达式为:x=[x1,x2,...,xn]T。
步骤24:通过模态选择模块004利用场景组合X,计算出对每种生物特征进行识别的权重比例,和场景组合X的场景分值。
其中,模态选择模块004将场景组合X输入权重因子Param(w)函数中进行计算,然后权重因子Param(w)函数输出人脸识别、声纹识别、虹膜识别这三种识别方式的权重比例。
例如,在远程身份识别中可以降低虹膜的权重,增大声纹的权重,每种生物特征的权重比例可设为声纹:人脸:虹膜=7:2:1;在近距离(通常为40CM,市面主流虹膜识别设备的最大工作距离)现场身份识别中增大虹膜的权重,降低人脸的权重,每种生物特征的权重比例可设为声纹:人脸:虹膜=2:2:6。
其中,模态选择模块004将场景组合X输入场景自适应函数N(x)中进行计算,然后场景自适应函数N(x)输出在这种场景组合下的场景分值。
其中,场景组合X服从N(μ,σ2)的正态分布,场景组合X的数据分布可以通过一个n维的列向量描述,其中各个类型的场景因子Xi的均值和方差分别可以以μ1,μ2,...,μn和σ1,σ2,...,σn来表示。
其中,将场景组合X输入场景自适应函数N(x)中进行计算,然后场景自适应函数N(x)输出在这种场景组合下的场景分值。
步骤25:通过模态融合模块005将各个单模态生物特征的活检值和特征相似度分别与每种生物特征对应的识别权重比例进行融合,得到活检融合分数值和相似度融合分数值。
其中,服务器在前端对实时采集的生物特征信息进行识别,计算得出各个单模态生物特征εi的活检值。然后,将各个单模态生物特征εi的活检值与权重因子Param(w)函数输出的权重比例相融合,得到融合后的活检融合分数值L(x);
其中,服务器在后端对获取的多维特征信息进行特征对比,计算得出得出各个单模态生物特征εi的特征相似度。然后,将各个单模态生物特征εi的特征相似度与权重因子Param(w)函数输出的权重比例相融合,得到融合后的相似度融合分数值F(x)。
其中,活检融合分数值L(x)含义为:在x场景因子下的活检计算融合值。活检融合分数值L(x)计算函数如下:
L(x)=[L1,L2,...,Ln]T=[ε1,ε2,...,εn]×ParasL(w)
ParasL(w)=[w1,w2,...,wk]T
其中,在实际应用计算中,需保证n=k,即需要做填充1的行列变换。
其中,相似度融合分数值F(x)含义为:在x场景因子下的特征计算融合值。相似度融合分数值F(x)计算函数如下:
F(x)=[F1,F2,...,Fn]T=[θ1,θ2,...,θn]×ParasF(w)
ParasF(w)=[w1,w2,...,wk]T
步骤26:通过模型优化模块006将误差参数α和β分别引入活检融合分数值L(x)和相似度融合分数值F(x),得到融合分数值P(x),再对融合分数值P(x)加上对自适应场景函数N(x)的映射,得到最终的优化分数R(x)。
其中,误差参数α和β具有对L(x)和F(x)的映射关系。
其中,融合分数值P(x)计算函数如下:
P(x)=α×L(x)+β×F(x)
其中,最终的优化分数R(x)计算函数如下:
步骤27:通过结果返回模块007,根据优化分数R(x)输出融合分数值P(x)对应的分数值(准确率),和场景自适应函数N(x)对应的场景分值。
作为示例,用户在场景组合X下,得到最终的识别分数P(X)=0.965,以及场景组合X的场景分数N(x)=0.924。
应该理解的是,虽然图2-图9的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-图9中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
可以理解的是,本说明书中上述方法的各个实施例之间相同/相似的部分可互相参见,每个实施例重点说明的是与其他实施例的不同之处,相关之处参见其他方法实施例的说明即可。
图10是根据一示例性实施例示出的一种生物识别方法装置框图。参照图10,该装置10包括图像获取单元11、第一处理单元12、第二处理单元13和融合识别单元14。
该图像获取单元11被配置为执行获取对当前场景内的用户进行拍摄所形成的图像。
该第一处理单元12被配置为执行基于所述音视频,确定所述用户多个维度的生物特征和所述用户在所述当前场景下的场景信息;所述多个维度的生物特征包括所述用户的人脸特征、虹膜特征、声音特征和指纹特征中的至少两种。
该第二处理单元13被配置为执行确定各所述维度的生物特征在所述场景信息下的识别权重值,以及确定所述场景信息的场景分值;所述场景分值用于表征所述当前场景的场景信息相较于预设的最优场景信息的得分。
该融合识别单元14被配置为执行将所述场景分值和生物特征分值进行融合,基于融合结果确定所述用户的识别结果;所述生物特征分值由各所述维度的生物特征与对应维度的识别权重值所确定。
在一示例性实施例中,所述第一处理单元12,还被配置为执行解析所述音视频,得到所述用户的图像数据和音频数据;
基于所述图像数据和所述音频数据,提取所述多个维度的生物特征。
在一示例性实施例中,所述第一处理单元12,还被配置为执行基于所述图像数据和所述音频数据,确定至少一种类别的场景因子,以及各类别所述场景因子的因子分值;所述因子分值用于表征所述当前场景下的场景因子相较于预设的最优场景因子的得分;
聚合所述至少一种类别的场景因子和各类别所述场景因子的因子分值,得到所述当前场景下的场景信息。
在一示例性实施例中,所述第二处理单元13,还被配置为执行所述确定各所述维度的生物特征在所述场景信息下的识别权重值,包括:
获取每一种类别的场景因子和各所述维度的生物特征的相关度;所述相关度用于表征在利用各所述维度的生物特征进行用户识别时,各种类别的所述场景因子对所述用户识别的结果的影响程度;
基于所述每一种类别的场景因子的因子分值和各类别所述场景因子对应维度的生物特征的相关度,确定各所述维度的生物特征的识别权重值。
其中,所述场景因子的类别包括在拍摄所述用户时的业务形式类别、业务进程类别、用户环境类别、用户生理类别、用户行为类别和用户情绪类别中至少一种。
在一示例性实施例中,所述第二处理单元13,还被配置为执行获取每一种类别的场景因子的均值和方差值;
利用所述至少一种类别的场景因子的因子分值和每一种类别的场景因子的均值和方差值,计算所述场景信息的概率密度,确定所述场景分值。
在一示例性实施例中,所述融合识别单元14,还被配置为执行基于所述图像数据和/或所述音频数据,计算每一维度的生物特征对应的活检值,作为第一类特征分值;以及
基于所述图像数据和/或所述音频数据,计算每一维度的生物特征对应的特征相似度,作为第二类特征分值;所述特征相似度用于表征所述用户的生物特征与预设的模板特征之间的相似程度。
在一示例性实施例中,所述融合识别单元14,还被配置为执行基于每一维度的生物特征对应的第一类特征分值和第二类特征分值,以及所述每一维度的生物特征在所述场景信息下的识别权重值,确定所述生物特征分值。
在一示例性实施例中,所述融合识别单元14,还被配置为执行若所述融合结果对应的分数小于预设的融合分数,则所述用户的识别结果为识别失败;
若所述融合结果对应的分数大于或等于预设的融合分数,则所述用户的识别结果为识别成功。
在一示例性实施例中,所述融合识别单元14,还被配置为执行若所述识别结果为识别失败,则发出调整提示,以使所述用户按照所述调整提示调整所述用户的当前场景;
基于调整后的当前场景对所述用户重新进行生物识别,得到所述用户新的识别结果。。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图11是根据一示例性实施例示出的一种用于对生物进行身份识别的电子设备20的框图。例如,电子设备20可以为服务器。参照图11,电子设备20包括处理组件21,其进一步包括一个或多个处理器,以及由存储器22所代表的存储器资源,用于存储可由处理组件21的执行的可执行指令,例如应用程序。存储器22中存储的应用程序可以包括一个或一个以上的每一个对应于一组可执行指令的模块。此外,处理组件21被配置为执行可执行指令,以执行上述方法。
在一实施例中,电子设备20为服务器,该服务器中的计算系统可以运行一个或多个操作系统,包括以上讨论的任何操作系统以及任何商用的服务器操作系统。该服务器还可以运行各种附加服务器应用和/或中间层应用中的任何一种,包括HTTP(超文本传输协议)服务器、FTP(文件传输协议)服务器、CGI(通用网关界面)服务器、服务器、数据库服务器等。示例性数据库服务器包括但不限于可从(国际商业机器)等商购获得的数据库服务器。
在一实施例中,处理组件21通常控制电子设备20的整体操作,诸如与显示、数据处理、数据通信和记录操作相关联的操作。处理组件21可以包括一个或多个处理器来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件21可以包括一个或多个模块,便于处理组件21和其他组件之间的交互。例如,处理组件21可以包括多媒体模块,以方便利用多媒体组件控制用户终端和处理组件21之间的交互。
在一实施例中,处理组件21中的处理器还可以称为CPU(Central ProcessingUnit,中央处理单元)。处理器可能是一种电子芯片,具有信号的处理能力。处理器还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器可以由集成电路芯片共同实现。
在一实施例中,存储器22被配置为存储各种类型的数据以支持在电子设备20的操作。这些数据的示例包括用于在电子设备20上操作的任何应用程序或方法的指令、采集数据、消息、图片、视频等。存储器22可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器、磁盘、光盘或石墨烯存储器。
在一实施例中,存储器22可以为内存条、TF卡等,可以存储电子设备20中的全部信息,包括输入的原始数据、计算机程序、中间运行结果和最终运行结果都保存在在一实施例中,存储器22中。它根据处理器指定的位置存入和取出信息。有了在一实施例中,存储器22,电子设备20才有记忆功能,才能保证正常工作。电子设备20的在一实施例中,存储器22按用途可分为主存储器(内存)和辅助存储器(外存),也有分为外部存储器和内部存储器的分类方法。外存通常是磁性介质或光盘等,能长期保存信息。内存指主板上的存储部件,用来存放当前正在执行的数据和程序,但仅用于暂时存放程序和数据,关闭电源或断电,数据会丢失。
电子设备20还可以包括:电源组件23被配置为执行电子设备20的电源管理,有线或无线网络接口24被配置为将电子设备20连接到网络,和输入输出(I/O)接口25。电子设备20可以操作基于存储在存储器22的操作系统,例如Windows Server,Mac OS X,Unix,Linux,FreeBSD或类似。
在一实施例中,电源组件23为电子设备20的各种组件提供电力。电源组件23可以包括电源管理系统,一个或多个电源,及其他与为电子设备20生成、管理和分配电力相关联的组件。
在一实施例中,有线或无线网络接口24被配置为便于电子设备20和其他设备之间有线或无线方式的通信。电子设备20可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。
在一个示例性实施例中,有线或无线网络接口24经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,有线或无线网络接口24还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在一实施例中,输入输出(I/O)接口25为处理组件21和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
图12是根据一示例性实施例示出的一种用于对生物进行身份识别的计算机可读存储介质30的框图。该计算机可读存储介质30中存储有能够实现上述方法的程序数据31。
在本申请各个实施例中的各功能单元集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在计算机可读存储介质30中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机可读存储介质30在一个程序数据31中,包括若干指令用以使得一台计算机设备(可以是个人计算机,系统服务器,或者网络设备等)、电子设备(例如MP3、MP4等,也可以是手机、平板电脑、可穿戴设备等智能终端,也可以是台式电脑等)或者处理器(processor)以执行本申请各个实施方式方法的全部或部分步骤。
图13是根据一示例性实施例示出的一种用于对生物进行身份识别的计算机程序产品40的框图。该计算机程序产品40中包括程序指令41,上述程序数据可由电子设备20的处理器执行以完成上述方法。
本领域内的技术人员应明白,本申请的实施例可提供为对生物进行身份识别方法、电子资源的校验装置10、电子设备20、计算机可读存储介质30或计算机程序产品40。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机程序指令41(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品40的形式。
本申请是参照根据本申请实施例中对生物进行身份识别方法、电子资源的校验装置10、电子设备20、计算机可读存储介质30或计算机程序产品40的流程图和/或方框图来描述的。应理解可由计算机程序产品40实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序产品40到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的程序指令41产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序产品40也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机程序产品40中的程序指令41产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些程序指令41也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的程序指令41提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
需要说明的,上述的各种方法、装置、电子设备、计算机可读存储介质、计算机程序产品等根据方法实施例的描述还可以包括其他的实施方式,具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (12)
1.一种生物识别方法,其特征在于,所述方法包括:
获取对当前场景内的用户进行拍摄所形成的音视频;
基于所述音视频,确定所述用户多个维度的生物特征和所述用户在所述当前场景下的场景信息;所述多个维度的生物特征包括所述用户的人脸特征、虹膜特征、声音特征和指纹特征中的至少两种;
确定各所述维度的生物特征在所述场景信息下的识别权重值,以及确定所述场景信息的场景分值;所述场景分值用于表征所述当前场景的场景信息相较于预设的最优场景信息的得分;
将所述场景分值和生物特征分值进行融合,基于融合结果确定所述用户的识别结果;所述生物特征分值由各所述维度的生物特征与对应维度的识别权重值所确定。
2.根据权利要求1所述的方法,其特征在于,所述基于所述音视频,确定所述用户多个维度的生物特征,包括:
解析所述音视频,得到所述用户的图像数据和音频数据;
基于所述图像数据和所述音频数据,提取所述多个维度的生物特征。
3.根据权利要求2所述的方法,其特征在于,基于所述音视频,确定所述用户在所述当前场景下的场景信息,包括:
基于所述图像数据和所述音频数据,确定至少一种类别的场景因子,以及各类别所述场景因子的因子分值;所述因子分值用于表征所述当前场景下的场景因子相较于预设的最优场景因子的得分;
聚合所述至少一种类别的场景因子和各类别所述场景因子的因子分值,得到所述当前场景下的场景信息。
4.根据权利要求3所述的方法,其特征在于,所述场景因子的类别包括在拍摄所述用户时的业务形式类别、业务进程类别、用户环境类别、用户生理类别、用户行为类别和用户情绪类别中至少一种;
所述确定各所述维度的生物特征在所述场景信息下的识别权重值,包括:
获取每一种类别的场景因子和各所述维度的生物特征的相关度;所述相关度用于表征在利用各所述维度的生物特征进行用户识别时,各种类别的所述场景因子对所述用户识别的结果的影响程度;
基于所述每一种类别的场景因子的因子分值和各类别所述场景因子对应维度的生物特征的相关度,确定各所述维度的生物特征的识别权重值。
5.根据权利要求3所述的方法,其特征在于,所述确定所述场景信息的场景分值,包括:
获取每一种类别的场景因子的因子分值的均值和方差值;
利用所述至少一种类别的场景因子的因子分值和每一种类别的场景因子的均值和方差值,计算所述场景信息的概率密度,确定所述场景分值。
6.根据权利要求2所述的方法,其特征在于,所述基于所述音视频,确定所述用户多个维度的生物特征之后,还包括:
基于所述图像数据和/或所述音频数据,计算每一维度的生物特征对应的活检值,作为第一类特征分值;以及
基于所述图像数据和/或所述音频数据,计算每一维度的生物特征对应的特征相似度,作为第二类特征分值;所述特征相似度用于表征所述用户的生物特征与预设的模板特征之间的相似程度;
所述确定各所述维度的生物特征在所述场景信息下的识别权重值之后,还包括:
基于每一维度的生物特征对应的第一类特征分值和第二类特征分值,以及所述每一维度的生物特征在所述场景信息下的识别权重值,确定所述生物特征分值。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述基于融合结果确定所述用户的识别结果,包括:
若所述融合结果对应的分数小于预设的融合分数,则所述用户的识别结果为识别失败;
若所述融合结果对应的分数大于或等于预设的融合分数,则所述用户的识别结果为识别成功。
8.根据权利要求7所述的方法,其特征在于,在所述基于融合结果确定所述用户的识别结果之后,还包括:
若所述识别结果为识别失败,则发出调整提示,以使所述用户按照所述调整提示调整所述用户的当前场景;
基于调整后的当前场景对所述用户重新进行生物识别,得到所述用户新的识别结果。
9.一种生物识别装置,其特征在于,包括:
图像获取单元,被配置为执行获取对当前场景内的用户进行拍摄所形成的图像;
第一处理单元,被配置为执行基于所述音视频,确定所述用户多个维度的生物特征和所述用户在所述当前场景下的场景信息;所述多个维度的生物特征包括所述用户的人脸特征、虹膜特征、声音特征和指纹特征中的至少两种;
第二处理单元,被配置为执行确定各所述维度的生物特征在所述场景信息下的识别权重值,以及确定所述场景信息的场景分值;所述场景分值用于表征所述当前场景的场景信息相较于预设的最优场景信息的得分;
融合识别单元,被配置为执行将所述场景分值和生物特征分值进行融合,基于融合结果确定所述用户的识别结果;所述生物特征分值由各所述维度的生物特征与对应维度的识别权重值所确定。
10.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为执行所述可执行指令,以实现如权利要求1至8中任一项所述的生物识别方法。
11.一种计算机可读存储介质,所述计算机可读存储介质中包括程序数据,其特征在于,当所述程序数据由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至8中任一项所述的生物识别方法。
12.一种计算机程序产品,所述计算机程序产品中包括程序指令,其特征在于,在所述程序指令被电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至8中任一项所述的生物识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211088546.8A CN115690922A (zh) | 2022-09-07 | 2022-09-07 | 生物识别方法、装置、计算机设备、存储介质和程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211088546.8A CN115690922A (zh) | 2022-09-07 | 2022-09-07 | 生物识别方法、装置、计算机设备、存储介质和程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115690922A true CN115690922A (zh) | 2023-02-03 |
Family
ID=85061058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211088546.8A Pending CN115690922A (zh) | 2022-09-07 | 2022-09-07 | 生物识别方法、装置、计算机设备、存储介质和程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115690922A (zh) |
-
2022
- 2022-09-07 CN CN202211088546.8A patent/CN115690922A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109359548B (zh) | 多人脸识别监控方法及装置、电子设备及存储介质 | |
Fu et al. | Learning race from face: A survey | |
US20190251571A1 (en) | Transaction verification system | |
Choi et al. | Realtime training on mobile devices for face recognition applications | |
CN104933344A (zh) | 基于多生物特征模态的移动终端用户身份认证装置及方法 | |
US11126827B2 (en) | Method and system for image identification | |
US20230087657A1 (en) | Assessing face image quality for application of facial recognition | |
CN104143086A (zh) | 人像比对在移动终端操作系统上的应用技术 | |
WO2022188697A1 (zh) | 提取生物特征的方法、装置、设备、介质及程序产品 | |
US10997609B1 (en) | Biometric based user identity verification | |
Ahmed et al. | Evaluation of accurate iris center and eye corner localization method in a facial image for gaze estimation | |
Kumar et al. | Face Recognition Attendance System Using Local Binary Pattern Algorithm | |
Tistarelli et al. | Biometrics in ambient intelligence | |
JP2023530893A (ja) | データ処理および取引決定システム | |
Shashikala et al. | Attendance Monitoring System Using Face Recognition | |
Kakani et al. | Segmentation-based ID preserving iris synthesis using generative adversarial networks | |
WO2022222735A1 (zh) | 信息处理方法、装置、计算机设备和存储介质 | |
KR102594093B1 (ko) | 딥러닝 기술을 활용한 피부과 시술 추천 시스템 및 방법 | |
CN115690922A (zh) | 生物识别方法、装置、计算机设备、存储介质和程序产品 | |
Florea et al. | Recognition of the gaze direction: Anchoring with the eyebrows | |
CN113723310B (zh) | 基于神经网络的图像识别方法及相关装置 | |
WO2022000334A1 (zh) | 生物特征识别方法、装置、设备及存储介质 | |
CN114299569A (zh) | 一种基于眼球运动的安全人脸认证方法 | |
Rahouma et al. | Applying mobile intelligent API vision kit and normalized features for face recognition using live cameras | |
Nabatchian | Human face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |