发明内容
本申请实施例的目的是提供一种基于眼纹特征进行验证的方法及装置,用以实现对眼纹活体的验证。
为解决上述技术问题,本申请实施例是这样实现的:
一方面,本申请实施例提供一种基于眼纹特征进行验证的方法,包括:
根据接收到的基于眼纹特征的验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令;
获取所述待验证方的眼纹数据以及针对所述验证屏幕的眼部动作数据,所述眼部动作数据包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项;
将所述眼纹数据与所述待验证方对应的基准眼纹数据进行匹配,以及,将所述眼部动作数据与所述眼部动作口令进行匹配;
根据匹配结果对所述待验证方进行验证。
可选地,所述眼部动作数据包括所述眼部注视点位置信息;
所述获取所述待验证方的眼纹数据以及针对所述验证屏幕的眼部动作数据,包括:
当监测到所述待验证方在所述验证屏幕上的注视点时,确定所述注视点在所述验证屏幕上的坐标信息;
根据所述坐标信息确定所述眼部注视点位置信息。
可选地,所述眼部动作口令包括位置标识;
根据匹配结果对所述待验证方进行验证,包括:
当所述眼纹数据与所述待验证方对应的基准眼纹数据相匹配、且所述眼部注视点位置信息与所述验证屏幕上的位置标识所指的位置相匹配时,确定所述待验证方通过安全验证。
可选地,所述位置标识包括多个,所述眼部动作口令还包括所述多个位置标识在所述验证屏幕上的显示顺序;
根据匹配结果对所述待验证方进行验证,还包括:
判断所述眼部注视点移动顺序与所述多个位置标识在所述验证屏幕上的显示顺序是否相一致;
当所述眼纹数据与所述待验证方对应的基准眼纹数据相匹配、所述眼部注视点位置信息与所述验证屏幕上的位置标识所指的位置相匹配、且所述眼部注视点移动顺序与所述多个位置标识在所述验证屏幕上的显示顺序相一致时,确定所述待验证方通过安全验证。
可选地,根据匹配结果对所述待验证方进行验证,包括:
当所述眼纹数据与所述待验证方对应的基准眼纹数据相匹配、且所述眼部动作数据与所述眼部动作口令相匹配时,获取预先训练的眼纹识别模型,所述眼纹识别模型是根据多个样本眼部动作数据学习、训练得到,所述眼纹识别模型包括活体眼部动作特征以及非活体眼部动作特征;
将所述眼部动作数据与所述眼纹识别模型进行匹配,根据该匹配结果确定所述待验证方是否通过安全验证。
可选地,所述眼部动作数据包括所述眼部注视点移动顺序以及所述眼部注视点移动方向;所述活体眼部动作特征包括活体眼部动作轨迹,所述非活体眼部动作特征包括非活体眼部动作轨迹;
将所述眼部动作数据与所述眼纹识别模型进行匹配,根据该匹配结果确定所述待验证方是否通过安全验证,包括:
根据所述眼部注视点移动顺序以及所述眼部注视点移动方向确定眼部动作轨迹;
将所述眼部动作轨迹与所述眼纹识别模型进行匹配;
当所述眼部动作轨迹与所述活体眼部动作轨迹相匹配时,确定所述待验证方通过安全验证;当所述眼部动作轨迹与所述非活体眼部动作轨迹相匹配时,确定所述待验证方未通过安全验证。
可选地,所述眼部动作数据包括多个所述眼部注视点位置信息;所述活体眼部动作特征包括活体眼部动作线段集,所述非活体眼部动作特征包括非活体眼部动作线段集;
将所述眼部动作数据与所述眼纹识别模型进行匹配,根据该匹配结果确定所述待验证方是否通过安全验证,包括:
根据多个所述眼部注视点位置信息确定每相邻两个注视点之间的线段,得到至少一条待验证线段;
根据所述至少一条待验证线段确定待验证线段集,并将所述待验证线段集与所述眼纹识别模型进行匹配;
当所述待验证线段集与所述活体眼部动作线段集相匹配时,确定所述待验证方通过安全验证;当所述待验证线段集与所述非活体眼部动作线段集相匹配时,确定所述待验证方未通过安全验证。
可选地,所述活体眼部动作特征和所述非活体眼部动作特征分别对应各自的权重;
将所述眼部动作数据与所述眼纹识别模型进行匹配,根据该匹配结果确定所述待验证方是否通过安全验证,包括:
分别计算所述眼部动作数据与所述活体眼部动作特征之间的第一匹配度,以及所述眼部动作数据与所述非活体眼部动作特征之间的第二匹配度;
根据所述第一匹配度、所述第二匹配度以及所述权重,计算所述眼部动作数据基于所述眼部识别模型的总匹配度;
根据所述总匹配度确定所述待验证方是否通过安全验证。
可选地,所述方法还包括:按照以下步骤预先训练所述眼纹识别模型:
获取多个样本眼部动作数据,每个所述样本眼部动作数据包括各自对应的样本眼部动作特征,所述样本眼部动作数据包括样本活体眼部动作数据以及样本非活体眼部动作数据;
分别学习各所述样本眼部动作数据对应的所述样本眼部动作特征,得到所述样本活体眼部动作数据对应的活体眼部动作特征以及所述样本非活体眼部动作数据对应的非活体眼部动作特征;
利用所述样本活体眼部动作数据对应的活体眼部动作特征以及所述样本非活体眼部动作数据对应的非活体眼部动作特征进行模型训练,得到所述眼纹识别模型。
可选地,所述方法还包括:
输出用于标识所述待验证方是否通过安全验证的验证结果;
或者,
输出所述眼部动作数据基于所述眼部识别模型的总匹配度以及用于标识通过安全验证时至少应达到的预设匹配度,以使所述待验证方根据所述总匹配度以及所述预设匹配度确定是否通过安全验证。
另一方面,本申请实施例提供一种基于眼纹特征进行验证的装置,包括:
生成模块,根据接收到的基于眼纹特征的验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令;
获取模块,获取所述待验证方的眼纹数据以及针对所述验证屏幕的眼部动作数据,所述眼部动作数据包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项;
匹配模块,将所述眼纹数据与所述待验证方对应的基准眼纹数据进行匹配,以及,将所述眼部动作数据与所述眼部动作口令进行匹配;
验证模块,根据匹配结果对所述待验证方进行验证。
可选地,所述眼部动作数据包括所述眼部注视点位置信息;所述获取模块包括:
第一确定单元,当监测到所述待验证方在所述验证屏幕上的注视点时,确定所述注视点在所述验证屏幕上的坐标信息;
第二确定单元,根据所述坐标信息确定所述眼部注视点位置信息。
可选地,所述眼部动作口令包括位置标识;所述验证模块,当所述眼纹数据与所述待验证方对应的基准眼纹数据相匹配、且所述眼部注视点位置信息与所述验证屏幕上的位置标识所指的位置相匹配时,确定所述待验证方通过安全验证。
可选地,所述位置标识包括多个,所述眼部动作口令还包括所述多个位置标识在所述验证屏幕上的显示顺序;
所述验证模块,判断所述眼部注视点移动顺序与所述多个位置标识在所述验证屏幕上的显示顺序是否相一致;当所述眼纹数据与所述待验证方对应的基准眼纹数据相匹配、所述眼部注视点位置信息与所述验证屏幕上的位置标识所指的位置相匹配、且所述眼部注视点移动顺序与所述多个位置标识在所述验证屏幕上的显示顺序相一致时,确定所述待验证方通过安全验证。
可选地,所述验证模块包括:
第一获取单元,当所述眼纹数据与所述待验证方对应的基准眼纹数据相匹配、且所述眼部动作数据与所述眼部动作口令相匹配时,获取预先训练的眼纹识别模型,所述眼纹识别模型是根据多个样本眼部动作数据学习、训练得到,所述眼纹识别模型包括活体眼部动作特征以及非活体眼部动作特征;
匹配单元,将所述眼部动作数据与所述眼纹识别模型进行匹配,根据该匹配结果确定所述待验证方是否通过安全验证。
可选地,所述眼部动作数据包括所述眼部注视点移动顺序以及所述眼部注视点移动方向;所述活体眼部动作特征包括活体眼部动作轨迹,所述非活体眼部动作特征包括非活体眼部动作轨迹;
所述匹配单元,根据所述眼部注视点移动顺序以及所述眼部注视点移动方向确定眼部动作轨迹;将所述眼部动作轨迹与所述眼纹识别模型进行匹配;当所述眼部动作轨迹与所述活体眼部动作轨迹相匹配时,确定所述待验证方通过安全验证;当所述眼部动作轨迹与所述非活体眼部动作轨迹相匹配时,确定所述待验证方未通过安全验证。
可选地,所述眼部动作数据包括多个所述眼部注视点位置信息;所述活体眼部动作特征包括活体眼部动作线段集,所述非活体眼部动作特征包括非活体眼部动作线段集;
所述匹配单元,根据多个所述眼部注视点位置信息确定每相邻两个注视点之间的线段,得到至少一条待验证线段;根据所述至少一条待验证线段确定待验证线段集,并将所述待验证线段集与所述眼纹识别模型进行匹配;当所述待验证线段集与所述活体眼部动作线段集相匹配时,确定所述待验证方通过安全验证;当所述待验证线段集与所述非活体眼部动作线段集相匹配时,确定所述待验证方未通过安全验证。
可选地,所述活体眼部动作特征和所述非活体眼部动作特征分别对应各自的权重;
所述匹配单元,分别计算所述眼部动作数据与所述活体眼部动作特征之间的第一匹配度,以及所述眼部动作数据与所述非活体眼部动作特征之间的第二匹配度;根据所述第一匹配度、所述第二匹配度以及所述权重,计算所述眼部动作数据基于所述眼部识别模型的总匹配度;根据所述总匹配度确定所述待验证方是否通过安全验证。
可选地,所述装置还包括训练模块;所述训练模块包括:
第二获取单元,获取多个样本眼部动作数据,每个所述样本眼部动作数据包括各自对应的样本眼部动作特征,所述样本眼部动作数据包括样本活体眼部动作数据以及样本非活体眼部动作数据;
学习单元,分别学习各所述样本眼部动作数据对应的所述样本眼部动作特征,得到所述样本活体眼部动作数据对应的活体眼部动作特征以及所述样本非活体眼部动作数据对应的非活体眼部动作特征;
训练单元,利用所述样本活体眼部动作数据对应的活体眼部动作特征以及所述样本非活体眼部动作数据对应的非活体眼部动作特征进行模型训练,得到所述眼纹识别模型。
可选地,所述装置还包括:
第一输出模块,输出用于标识所述待验证方是否通过安全验证的验证结果;
或者,
第二输出模块,输出所述眼部动作数据基于所述眼部识别模型的总匹配度以及用于标识通过安全验证时至少应达到的预设匹配度,以使所述待验证方根据所述总匹配度以及所述预设匹配度确定是否通过安全验证。
再一方面,本申请实施例提供一种基于眼纹特征进行验证的装置,其特征在于,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
根据接收到的基于眼纹特征的安全验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令;
获取所述待验证方的眼纹数据以及针对所述验证屏幕的眼部动作数据,所述眼部动作数据包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项;
将所述眼纹数据与所述待验证方对应的基准眼纹数据进行匹配,以及,将所述眼部动作数据与所述眼部动作口令进行匹配;
根据匹配结果对所述待验证方进行验证。
采用本发明实施例的技术方案,能够在接收到基于眼纹特征的验证请求时,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令,并获取待验证方的眼纹数据以及针对验证屏幕的眼部动作数据,进而将眼纹数据与待验证方对应的基准眼纹数据进行匹配,以及,将眼部动作数据与眼部动作口令进行匹配,根据匹配结果对待验证方进行验证。因此,该技术方案通过结合对眼纹数据以及眼部动作数据的共同验证,相较于现有技术中仅对眼纹数据进行验证的方法而言,很大程度上提高了基于眼纹特征进行验证的准确率。并且,由于眼部动作数据中包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项,因此该技术方案在提高眼纹特征验证准确率的同时,还能避免一些用户采用包含人眼的高清视频进行验证,实现了对眼纹活体的验证。
具体实施方式
本申请实施例提供一种基于眼纹特征进行验证的方法及装置,用以实现对眼纹活体的验证。
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
图1是根据本发明一实施例的一种基于眼纹特征进行验证的方法的示意性流程图,如图1所示,该方法包括:
步骤S102,根据接收到的基于眼纹特征的验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令。
步骤S104,获取待验证方的眼纹数据以及针对验证屏幕的眼部动作数据,眼部动作数据包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项。
其中,眼纹数据指通过摄像头采集到的人眼中的眼静脉纹路。
步骤S106,将眼纹数据与待验证方对应的基准眼纹数据进行匹配,以及,将眼部动作数据与眼部动作口令进行匹配。
其中,基准眼纹数据指用户预先在服务器端留存的具有唯一标识性作用的、正确的眼纹数据。该步骤中,针对眼纹数据和眼部动作数据的匹配操作的执行顺序不受限定,即,可先匹配眼纹数据,然后再匹配眼部动作数据;或者,先匹配眼部动作数据,然后再匹配眼纹数据。当然,也可同时针对眼纹数据和眼部动作数据进行匹配。
步骤S108,根据匹配结果对待验证方进行验证。
采用本发明实施例的技术方案,能够在接收到基于眼纹特征的验证请求时,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令,并获取待验证方的眼纹数据以及针对验证屏幕的眼部动作数据,进而将眼纹数据与待验证方对应的基准眼纹数据进行匹配,以及,将眼部动作数据与眼部动作口令进行匹配,根据匹配结果对待验证方进行验证。因此,该技术方案通过结合对眼纹数据以及眼部动作数据的共同验证,相较于现有技术中仅对眼纹数据进行验证的方法而言,很大程度上提高了基于眼纹特征进行验证的准确率。并且,由于眼部动作数据中包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项,因此该技术方案在提高眼纹特征验证准确率的同时,还能避免一些用户采用包含人眼的高清视频进行验证,实现了对眼纹活体的验证。
以下对上述方法进行详细说明。
在一个实施例中,眼部动作数据包括眼部注视点位置信息,眼部动作口令包括位置标识。图2是根据本实施例的一种基于眼纹特征进行验证的方法的示意性流程图,如图2所示,该方法包括以下步骤S201-S206:
步骤S201,根据接收到的基于眼纹特征的验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令。其中,眼部动作口令包括位置标识。
步骤S202,获取待验证方的眼纹数据以及针对验证屏幕的眼部动作数据。其中,眼部动作数据包括眼部注视点位置信息。
该步骤中,可按照如下方式获取待验证方针对验证屏幕的眼部动作数据:当监测到待验证方在验证屏幕上的注视点时,确定注视点在验证屏幕上的坐标信息,进而根据坐标信息确定眼部注视点位置信息。可采用坐标数值的方式表征注视点在验证屏幕上的坐标信息,即,在验证屏幕上预先设有坐标轴,因此,注视点在验证屏幕上的坐标信息即指注视点在验证屏幕上的坐标轴上的横坐标和纵坐标。此外,还可采用坐标比例的方式表征注视点在验证屏幕上的坐标信息,即,以验证屏幕的尺寸大小为基准,确定注视点在验证屏幕上的位置相对于验证屏幕的各个边缘的相对距离,进而根据该相对距离确定出注视点在验证屏幕上的相对坐标。
步骤S203,将眼纹数据与待验证方对应的基准眼纹数据进行匹配,以及,将眼部注视点位置信息与眼部动作口令中的位置标识进行匹配。该步骤中,眼纹数据以及眼部注视点位置的匹配操作的执行顺序不受限定。
步骤S204,判断眼纹数据与待验证方对应的基准眼纹数据、以及眼部注视点位置信息与验证屏幕上的位置标识所指的位置是否均匹配;若是,则执行步骤S205;若否,则执行步骤S206。
步骤S205,确定待验证方通过安全验证。
步骤S206,确定待验证方未通过安全验证。
该实施例中,仅在眼纹数据与待验证方对应的基准眼纹数据相匹配、且眼部注视点位置信息与验证屏幕上的位置标识所指的位置相匹配时,才可确定待验证方通过安全验证。否则,存在任一种信息不匹配时均可确定待验证方未通过安全验证。例如,眼纹数据与待验证方对应的基准眼纹数据相匹配、而眼部注视点位置信息与验证屏幕上的位置标识所指的位置不相匹配;或者,眼部注视点位置信息与验证屏幕上的位置标识所指的位置相匹配、而眼纹数据与待验证方对应的基准眼纹数据不相匹配;这两种情况下,待验证方均未通过安全验证。可见,本实施例通过同时验证眼纹数据和眼部注视点位置信息,极大地提高了基于眼纹特征进行验证的准确率。
在上述实施例中,当眼部动作口令中的位置标识包括多个时,眼部动作口令中还可包括多个位置标识在验证屏幕上的显示顺序。此时,在执行完步骤S202之后,步骤S203可执行为:将眼纹数据与待验证方对应的基准眼纹数据进行匹配,以及,将眼部注视点位置信息与眼部动作口令中的位置标识进行匹配,以及,将眼部注视点移动顺序与眼部动作口令中的多个位置标识在验证屏幕上的显示顺序进行匹配。其中,针对眼纹数据、眼部注视点位置信息以及眼部注视点移动顺序的匹配操作的执行顺序不受限定。相应地,步骤S204可执行为:判断眼纹数据与待验证方对应的基准眼纹数据、以及眼部注视点位置信息与验证屏幕上的位置标识所指的位置是否均匹配,以及判断眼部注视点移动顺序与多个位置标识在所述验证屏幕上的显示顺序是否相一致。并且,仅在眼纹数据与待验证方对应的基准眼纹数据、以及眼部注视点位置信息与验证屏幕上的位置标识所指的位置均匹配,且眼部注视点移动顺序与多个位置标识在验证屏幕上的显示顺序相一致时,才可确定待验证方通过安全验证。存在其中任一种信息不相匹配、或者不相一致时,均可确定待验证方未通过安全验证。可见,本实施例通过同时验证眼纹数据、眼部注视点位置信息以及眼部注视点移动顺序,更加提高了基于眼纹特征进行验证的准确率。
基于上述实施例,以下通过具体的验证场景说明如何对用户进行验证。
在一具体验证场景中,生成的眼部动作口令为九宫格的形式,在九宫格中,以数字1-9标识九宫格中的九个格子,且不同的格子可用于标识眼部动作口令中的不同位置,如图3所示。眼部动作口令中的位置标识和/或位置标识的显示顺序可随机生成,生成的眼部动作口令中的位置标识在九宫格中对应的格子可显示出数字,其他数据则可隐藏显示。
假设当接收到基于眼纹特征的验证请求时,生成如图4所示的眼部动作口令。在图4中,九宫格中显示出了数字5,说明本次生成的眼部动作口令中包含一个位置标识“5”。此时,待验证方需注视位置标识“5”所在的位置,终端采集待验证方的眼纹数据以及眼部注视点位置信息。其中,眼部注视点位置信息可通过待验证方在验证屏幕上的注视点的坐标信息来确定。本实施例中,可将注视点的坐标信息(如坐标(X,Y))上传至服务器端,由服务器端根据该坐标信息中的横纵坐标确定待验证方的眼部注视点位置信息;或者,还可在注视点的坐标信息中携带注视点对应的九宫格中的数字标识(如坐标(X,Y,5))上传至服务器端,由服务器端根据该坐标信息中的横纵坐标以及对应于九宫格中的数字标识共同确定待验证方的眼部注视点位置信息。然后,将眼纹数据与该待验证方对应的基准眼纹数据进行匹配,以及将该待验证方的眼部注视点位置信息与位置标识“5”所在的位置进行匹配。当眼纹数据与该待验证方对应的基准眼纹数据相匹配、且眼部注视点位置信息与位置标识“5”所在的位置相匹配时,确定该待验证方通过安全验证。例如,假设眼部注视点位置信息对应的坐标为(X,Y,5),则眼部注视点位置信息与位置标识“5”所在的位置相匹配;假设眼部注视点位置信息对应的坐标为(X,Y,4),则眼部注视点位置信息与位置标识“5”所在的位置不相匹配。
又,假设当接收到基于眼纹特征的验证请求时,生成如图5所示的眼部动作口令。在图5中,九宫格中显示出了1、5、9三个数字,且在1至5、5至9之间显示有箭头,该箭头表示位置标识1、5、9的显示顺序。在其他实施例中,九宫格中也可不显示箭头,而是依次显示出各位置标识,即在不同时间点显示各位置标识以表示各位置标识的显示顺序。在本实施例中,待验证方需依次注视位置标识1、5、9所在的位置,终端采集待验证方的眼纹数据、眼部注视点位置信息以及眼部注视点移动顺序。其中,眼部注视点位置信息可通过待验证方在验证屏幕上的注视点的坐标信息来确定(与上述实施方式相同)。具体的,眼部注视点移动顺序可根据终端确定出的注视点的坐标信息的顺序来确定。例如,待验证方首先注视位置标识“1”所在的位置,可确定眼部注视点位置信息对应的坐标为(X1,Y1,1);然后移动至位置标识“5”所在的位置注视,可确定眼部注视点位置信息对应的坐标为(X2,Y2,5);然后移动至位置标识“9”所在的位置注视,可确定眼部注视点位置信息对应的坐标为(X3,Y3,9)。这样,根据依次得到的眼部注视点位置信息对应的坐标(X1,Y1,1)、(X2,Y2,5)、(X3,Y3,9),可确定眼部注视点移动顺序为由位置标识“1”所在的位置移动至位置标识“5”所在的位置,再移动至位置标识“9”所在的位置。进而,将眼纹数据与该待验证方对应的基准眼纹数据进行匹配,以及将该待验证方的眼部注视点位置信息与位置标识1、5、9所在的位置进行匹配,以及,将眼部注视点移动顺序与位置标识1、5、9的显示顺序进行匹配。当眼纹数据与该待验证方对应的基准眼纹数据相匹配、眼部注视点位置信息与位置标识1、5、9所在的位置相匹配、且眼部注视点移动顺序与位置标识1、5、9的显示顺序相一致时,确定该待验证方通过安全验证。
需要说明的是,眼部动作口令除上述列举的九宫格之外,还可以是其他任一种至少具有多种位置信息的口令形式,例如,验证屏幕上不同位置处的格子、图案标识等,这里所说的“不同位置”可在验证屏幕上有规律(如九宫格)或者无规律地排列,“格子”或“图案”的形状也可以是圆形、方形、菱形等任一种形状。
在一个实施例中,为增强基于眼部特征进行验证的准确度,当眼纹数据与待验证方对应的基准眼纹数据相匹配、且眼部动作数据与眼部动作口令相匹配时,还可利用预先训练的眼纹识别模型进行进一步验证,以保证最大程度上避免一些用户采用包含人眼的高清视频进行验证。眼纹识别模型是根据多个样本眼部动作数据学习、训练得到的,其中包括活体眼部动作特征以及非活体眼部动作特征。其中,活体主要体现在正常自然人的行为上,例如眨眼、摇头等。
图6是根据本发明一实施例的一种基于眼纹特征进行验证的方法的示意性流程图,如图6所示,该方法包括以下步骤S601-S608:
步骤S601,根据接收到的基于眼纹特征的验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令。
步骤S602,获取待验证方的眼纹数据以及针对验证屏幕的眼部动作数据。
步骤S603,将眼纹数据与待验证方对应的基准眼纹数据进行匹配,以及,将眼部动作数据与眼部动作口令进行匹配。
步骤S604,判断眼纹数据与待验证方对应的基准眼纹数据、以及眼部动作数据与眼部动作口令是否均匹配;若是,则执行步骤S605;若否,则执行步骤S608。
步骤S605,获取预先训练的眼纹识别模型,将眼部动作数据与眼纹识别模型进行匹配。
步骤S606,判断眼部动作数据与眼纹识别模型是否相匹配;若是,则执行步骤S607;若否,则执行步骤S608。
步骤S607,确定待验证方通过安全验证。
步骤S608,确定待验证方未通过安全验证。
该实施例中,通过结合眼纹数据、眼部注视点数据以及能够区分活体眼部动作特征和非活体眼部动作特征的眼纹识别模型进行综合验证,很大程度上增强了基于眼部特征进行验证的准确度,避免了一些用户采用包含人眼的高清视频进行验证。
首先详述眼纹识别模型的训练过程,包括以下步骤:
步骤一、获取多个样本眼部动作数据,每个样本眼部动作数据包括各自对应的样本眼部动作特征,样本眼部动作数据包括样本活体眼部动作数据以及样本非活体眼部动作数据。
步骤二、分别学习各样本眼部动作数据对应的样本眼部动作特征,得到样本活体眼部动作数据对应的活体眼部动作特征以及样本非活体眼部动作数据对应的非活体眼部动作特征。
对于活体眼部动作特征和非活体眼部动作特征而言,二者的差异主要在于是否为正常自然人的行为。举例而言,正常自然人在根据眼部动作口令移动注视点时,移动轨迹通常为接近直线的轨迹;而非正常自然人(例如视频中包括人的影像)在移动眼部时的轨迹通常是杂乱无章的。根据二者之间的差异进行模型训练,即可训练得到眼纹识别模型。
步骤三、利用样本活体眼部动作数据对应的活体眼部动作特征以及样本非活体眼部动作数据对应的非活体眼部动作特征进行模型训练,得到眼纹识别模型。
在进行模型训练时,可采用Adaboost(一种迭代算法)分类器或其他分类器进行训练。例如,将获取得到的样本活体眼部动作数据以及样本非活体眼部动作数据输入Adaboost分类器,由Adaboost分类器分别针对样本活体眼部动作数据以及样本非活体眼部动作数据进行学习、训练,最终得到训练后的眼纹识别模型。由于Adaboost分类器的迭代过程属于现有技术,因此不再赘述。此外,可通过多种不同的训练方式进行训练。这里主要说明两种训练方式。
方式一、活体眼部动作特征包括活体眼部动作轨迹,非活体眼部动作特征包括非活体眼部动作轨迹。该方式中,可首先根据多个样本活体眼部动作数据确定各样本活体眼部动作数据对应的样本活体眼部动作轨迹,例如,样本活体眼部动作轨迹为直线、圆滑的弧线等较为简单的轨迹。同时,根据多个样本非活体眼部动作数据确定各样本非活体眼部动作数据对应的样本非活体眼部动作轨迹,例如,样本非活体眼部动作轨迹为杂乱无章的、方向感不明确的较为复杂的轨迹。然后将多个样本活体眼部动作轨迹以及多个样本非活体眼部动作轨迹输入Adaboost分类器,由Adaboost分类器分别针对样本活体眼部动作轨迹以及样本非活体眼部动作轨迹进行学习、训练,最终得到训练后的眼纹识别模型。
图7示出了一种活体眼部动作轨迹以及非活体眼部动作轨迹的示意性对比图。由图7可看出,活体眼部动作轨迹为直线这类较为简单的轨迹,而非活体眼部动作轨迹为杂乱无章的、方向感不明确的轨迹。
方式二、活体眼部动作特征包括活体眼部动作线段集,非活体眼部动作特征包括非活体眼部动作线段集。该方式中,可首先根据多个样本活体眼部动作数据确定各样本活体眼部动作数据对应的样本活体眼部动作线段集,样本活体眼部动作线段集中包括至少一个线段,两个相邻注视点之间的连线即构成一个线段。例如,某一样本活体眼部动作数据中,眼部注视点移动顺序为从九宫格的位置标识1所在的位置移动至位置标识5所在的位置,再移动至位置标识9所在的位置,那么,该样本活体眼部动作数据对应的样本活体眼部动作线段集中包括2条线段(位置标识1所在的位置与位置标识5所在的位置之间的连线、以及位置标识5所在的位置与位置标识9所在的位置之间的连线)。由此可知,样本活体眼部动作线段集通常是由多条线段所组成的线段集,且该多条线段的方向变化较为简单。
同时,根据多个样本非活体眼部动作数据确定各样本非活体眼部动作数据对应的样本非活体眼部动作线段集,由于非正常自然人在移动眼部时的注视点移动顺序通常是杂乱无章的,因此非正常自然人在屏幕上的注视点通常也是无规律的,那么,当注视点包括多个时,每相邻两个注视点之间连接为一个线段之后,组成的线段集必然是杂乱无章的、较为复杂的。
然后将多个样本活体眼部动作线段集以及多个样本非活体眼部动作线段集输入Adaboost分类器,由Adaboost分类器分别针对样本活体眼部动作线段集以及样本非活体眼部动作线段集进行学习、训练,最终得到训练后的眼纹识别模型。
图8示出了一种活体眼部动作线段集以及非活体眼部动作线段集的示意性对比图。由图8可看出,活体眼部动作线段集由方向变化较为简单的多条线段组成,而非活体眼部动作线段集由杂乱无章的、较为复杂的多条线段组成。
基于上述实施方式得到眼纹识别模型后,即可利用眼纹识别模型进行验证。采用方式一训练得到的眼纹识别模型和方式二训练得到的眼纹识别模型分别进行验证时,具体的验证方式略有不同,具体如下:
基于方式一训练得到的眼纹识别模型,在当眼纹数据与待验证方对应的基准眼纹数据相匹配、且眼部动作数据与眼部动作口令相匹配时,可通过以下方式对待验证方进行进一步验证:
首先,根据眼部动作数据中的眼部注视点移动顺序以及眼部注视点移动方向确定眼部动作轨迹。
其次,将确定的眼部动作轨迹与眼纹识别模型进行匹配;若眼部动作轨迹与活体眼部动作轨迹相匹配,则确定待验证方通过安全验证;若眼部动作轨迹与非活体眼部动作轨迹相匹配(或眼部动作轨迹与活体眼部动作轨迹不相匹配),则确定待验证方未通过安全验证。
基于方式二训练得到的眼纹识别模型,在当眼纹数据与待验证方对应的基准眼纹数据相匹配、且眼部动作数据与眼部动作口令相匹配时,可通过以下方式对待验证方进行进一步验证:
首先,根据眼部动作数据中的多个眼部注视点位置信息确定每相邻两个注视点之间的线段,得到至少一条待验证线段。
其次,根据至少一条待验证线段确定待验证线段集,并将待验证线段集与眼纹识别模型进行匹配;其中,将至少一条待验证线段依次连接在一起,即可得到待验证线段集。若待验证线段集与活体眼部动作线段集相匹配,则确定待验证方通过安全验证;若待验证线段集与非活体眼部动作线段集相匹配(或待验证线段集与活体眼部动作线段集不相匹配),则确定待验证方未通过安全验证。
在一个实施例中,活体眼部动作特征和非活体眼部动作特征分别对应各自的权重。因此,在判断眼部动作数据与眼纹识别模型是否相匹配时,还可按照以下方式进行判断:
首先,分别计算眼部动作数据与活体眼部动作特征之间的第一匹配度,以及眼部动作数据与非活体眼部动作特征之间的第二匹配度;
其次,根据第一匹配度、第二匹配度以及活体眼部动作特征和非活体眼部动作特征分别对应的权重,计算眼部动作数据基于眼部识别模型的总匹配度。
例如,眼部动作数据与活体眼部动作特征之间的第一匹配度为80%,眼部动作数据与非活体眼部动作特征之间的第二匹配度为70%,活体眼部动作特征对应的权重为70%,非活体眼部动作特征对应的权重为30%,那么眼部动作数据基于眼部识别模型的总匹配度:80%*70%+70%*30%=77%。
再次,根据总匹配度确定待验证方是否通过安全验证。具体的,可设定预设阈值,若总匹配度达到预设阈值,则可确定待验证方通过安全验证,否则,若总匹配度未达到预设阈值,则可确定待验证方未通过安全验证。
在一个实施例中,在对待验证方进行验证之后,还可输出用于标识待验证方是否通过安全验证的验证结果。验证结果可在验证屏幕中输出或者在验证屏幕上方弹出的浮层窗口中输出。例如,在验证屏幕上弹出一浮层窗口,并在该窗口上输出文字内容“验证通过”或者“验证未通过”。
在一个实施例中,若基于眼纹识别模型对待验证进行了进一步验证,则可输出眼部动作数据基于眼部识别模型的总匹配度以及用于标识通过安全验证时至少应达到的预设匹配度,以使待验证方根据总匹配度以及预设匹配度确定是否通过安全验证。
沿用上述举例,假设眼部动作数据基于眼部识别模型的总匹配度为77%,预设匹配度为88%,则将总匹配度77%与预设匹配度88%输出在验证屏幕上,以使用户根据这两个数据获知是否通过安全验证。
此外,若眼部动作口令为图4所示的九宫格形式,则可在确定验证结果之后可直接将验证结果输出在九宫格的对应位置,如图9所示。在图9中,九宫格的下方显示有用于标识待验证方通过安全验证的标识“√”,还可以采用文字标识“通过”标识待验证方通过安全验证,等等。
上述列举了几种输出验证结果的方式,本发明实施例并不限定于上述几种方式,还可采用其他各类能够标识输出结果的方式进行输出。例如,假设待验证方需要按照如图4所示的眼部动作口令输入眼部动作数据,则在确定验证通过之后,可高亮显示待验证方的与眼部动作口令相匹配的眼部动作轨迹。或者,还可采用不同颜色显示眼部动作轨迹的方式来区分不同的验证结果,例如,若将眼部动作轨迹显示为绿色,则表示待验证方通过验证,若将眼部动作轨迹显示为红色,则表示待验证方未通过验证;等等。
由上述输出验证结果的几种方式可知,本实施例能够采用多种简洁、灵活的方式为用户输出验证结果,相较于现有技术中仅能使用单独弹出的界面输出验证结果的方式而言,本实施例的输出验证结果的方式很大程度上提升了用户的体验度。
综上,已经对本主题的特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作可以按照不同的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序,以实现期望的结果。在某些实施方式中,多任务处理和并行处理可以是有利的。
以上为本申请实施例提供的基于眼纹特征进行验证的方法,基于同样的思路,本申请实施例还提供一种于眼纹特征进行验证的装置。
图10是根据本发明一实施例的一种基于眼纹特征进行验证的装置的示意性框图,如图10所示,该装置包括:
生成模块1010,根据接收到的基于眼纹特征的验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令;
获取模块1020,获取待验证方的眼纹数据以及针对验证屏幕的眼部动作数据,眼部动作数据包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项;
匹配模块1030,将眼纹数据与待验证方对应的基准眼纹数据进行匹配,以及,将眼部动作数据与眼部动作口令进行匹配;
验证模块1040,根据匹配结果对待验证方进行验证。
可选地,眼部动作数据包括眼部注视点位置信息;获取模块1020包括:
第一确定单元,当监测到待验证方在验证屏幕上的注视点时,确定注视点在验证屏幕上的坐标信息;
第二确定单元,根据坐标信息确定眼部注视点位置信息。
可选地,眼部动作口令包括位置标识;验证模块1040,当眼纹数据与待验证方对应的基准眼纹数据相匹配、且眼部注视点位置信息与验证屏幕上的位置标识所指的位置相匹配时,确定待验证方通过安全验证。
可选地,位置标识包括多个,眼部动作口令还包括多个位置标识在验证屏幕上的显示顺序;
验证模块1040,判断眼部注视点移动顺序与多个位置标识在验证屏幕上的显示顺序是否相一致;当眼纹数据与待验证方对应的基准眼纹数据相匹配、眼部注视点位置信息与验证屏幕上的位置标识所指的位置相匹配、且眼部注视点移动顺序与多个位置标识在验证屏幕上的显示顺序相一致时,确定待验证方通过安全验证。
可选地,验证模块1040包括:
第一获取单元,当眼纹数据与待验证方对应的基准眼纹数据相匹配、且眼部动作数据与眼部动作口令相匹配时,获取预先训练的眼纹识别模型,眼纹识别模型是根据多个样本眼部动作数据学习、训练得到,眼纹识别模型包括活体眼部动作特征以及非活体眼部动作特征;
匹配单元,将眼部动作数据与眼纹识别模型进行匹配,根据该匹配结果确定待验证方是否通过安全验证。
可选地,眼部动作数据包括眼部注视点移动顺序以及眼部注视点移动方向;活体眼部动作特征包括活体眼部动作轨迹,非活体眼部动作特征包括非活体眼部动作轨迹;
匹配单元,根据眼部注视点移动顺序以及眼部注视点移动方向确定眼部动作轨迹;将眼部动作轨迹与眼纹识别模型进行匹配;当眼部动作轨迹与活体眼部动作轨迹相匹配时,确定待验证方通过安全验证;当眼部动作轨迹与非活体眼部动作轨迹相匹配时,确定待验证方未通过安全验证。
可选地,眼部动作数据包括多个眼部注视点位置信息;活体眼部动作特征包括活体眼部动作线段集,非活体眼部动作特征包括非活体眼部动作线段集;
匹配单元,根据多个眼部注视点位置信息确定每相邻两个注视点之间的线段,得到至少一条待验证线段;根据至少一条待验证线段确定待验证线段集,并将待验证线段集与眼纹识别模型进行匹配;当待验证线段集与活体眼部动作线段集相匹配时,确定待验证方通过安全验证;当待验证线段集与非活体眼部动作线段集相匹配时,确定待验证方未通过安全验证。
可选地,活体眼部动作特征和非活体眼部动作特征分别对应各自的权重;
匹配单元,分别计算眼部动作数据与活体眼部动作特征之间的第一匹配度,以及眼部动作数据与非活体眼部动作特征之间的第二匹配度;根据第一匹配度、第二匹配度以及权重,计算眼部动作数据基于眼部识别模型的总匹配度;根据总匹配度确定待验证方是否通过安全验证。
可选地,上述装置还包括训练模块;训练模块包括:
第二获取单元,获取多个样本眼部动作数据,每个样本眼部动作数据包括各自对应的样本眼部动作特征,样本眼部动作数据包括样本活体眼部动作数据以及样本非活体眼部动作数据;
学习单元,分别学习各样本眼部动作数据对应的样本眼部动作特征,得到样本活体眼部动作数据对应的活体眼部动作特征以及样本非活体眼部动作数据对应的非活体眼部动作特征;
训练单元,利用样本活体眼部动作数据对应的活体眼部动作特征以及样本非活体眼部动作数据对应的非活体眼部动作特征进行模型训练,得到眼纹识别模型。
可选地,上述装置还包括:
第一输出模块,输出用于标识待验证方是否通过安全验证的验证结果;
或者,
第二输出模块,输出眼部动作数据基于眼部识别模型的总匹配度以及用于标识通过安全验证时至少应达到的预设匹配度,以使待验证方根据总匹配度以及预设匹配度确定是否通过安全验证。
采用本发明实施例的装置,能够在接收到基于眼纹特征的验证请求时,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令,并获取待验证方的眼纹数据以及针对验证屏幕的眼部动作数据,进而将眼纹数据与待验证方对应的基准眼纹数据进行匹配,以及,将眼部动作数据与眼部动作口令进行匹配,根据匹配结果对待验证方进行验证。因此,该技术方案通过结合对眼纹数据以及眼部动作数据的共同验证,相较于现有技术中仅对眼纹数据进行验证的方法而言,很大程度上提高了基于眼纹特征进行验证的准确率。并且,由于眼部动作数据中包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项,因此该技术方案在提高眼纹特征验证准确率的同时,还能避免一些用户采用包含人眼的高清视频进行验证,实现了对眼纹活体的验证。
再一方面,本申请实施例提供一种基于眼纹特征进行验证的装置,其特征在于,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,可执行指令在被执行时使处理器:
根据接收到的基于眼纹特征的安全验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令;
获取待验证方的眼纹数据以及针对验证屏幕的眼部动作数据,眼部动作数据包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项;
将眼纹数据与待验证方对应的基准眼纹数据进行匹配,以及,将眼部动作数据与眼部动作口令进行匹配;
根据匹配结果对待验证方进行验证。
本领域的技术人员应可理解,图10中的基于眼纹特征进行验证的装置能够用来实现前文所述的基于眼纹特征进行验证的方法,其中的细节描述应与前文方法部分描述类似,为避免繁琐,此处不另赘述。
基于同样的思路,本申请实施例还提供一种基于眼纹特征进行验证的装置,如图11所示。基于眼纹特征进行验证的装置可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器1101和存储器1102,存储器1102中可以存储有一个或一个以上存储应用程序或数据。其中,存储器1102可以是短暂存储或持久存储。存储在存储器1102的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对基于眼纹特征进行验证的装置中的一系列计算机可执行指令。更进一步地,处理器1101可以设置为与存储器1102通信,在基于眼纹特征进行验证的装置上执行存储器1102中的一系列计算机可执行指令。基于眼纹特征进行验证的装置还可以包括一个或一个以上电源1103,一个或一个以上有线或无线网络接口1104,一个或一个以上输入输出接口1105,一个或一个以上键盘1106。
具体在本实施例中,基于眼纹特征进行验证的装置包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对基于眼纹特征进行验证的装置中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
根据接收到的基于眼纹特征的验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令;
获取所述待验证方的眼纹数据以及针对所述验证屏幕的眼部动作数据,所述眼部动作数据包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项;
将所述眼纹数据与所述待验证方对应的基准眼纹数据进行匹配,以及,将所述眼部动作数据与所述眼部动作口令进行匹配;
根据匹配结果对所述待验证方进行验证。
本申请实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的电子设备执行时,能够使该电子设备执行上述基于眼纹特征进行验证的方法,并具体用于执行:
根据接收到的基于眼纹特征的验证请求,生成用于指示待验证方针对验证屏幕进行眼部动作的眼部动作口令;
获取所述待验证方的眼纹数据以及针对所述验证屏幕的眼部动作数据,所述眼部动作数据包括眼部注视点位置信息、眼部注视点移动顺序、眼部注视点移动方向中的至少一项;
将所述眼纹数据与所述待验证方对应的基准眼纹数据进行匹配,以及,将所述眼部动作数据与所述眼部动作口令进行匹配;
根据匹配结果对所述待验证方进行验证。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。