CN110163094A - 基于手势动作的活体检测方法、装置、设备及存储介质 - Google Patents
基于手势动作的活体检测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN110163094A CN110163094A CN201910300448.8A CN201910300448A CN110163094A CN 110163094 A CN110163094 A CN 110163094A CN 201910300448 A CN201910300448 A CN 201910300448A CN 110163094 A CN110163094 A CN 110163094A
- Authority
- CN
- China
- Prior art keywords
- verifying
- identified
- user
- gesture motion
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Abstract
本发明公开了一种基于手势动作的活体检测方法、装置、计算机设备及存储介质,所述方法包括:按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作;对验证动作按照预设的组合方式进行组合,得到验证动作的组合序列,并向客户端发送提示信息,其中,提示信息用于提示用户按照组合序列的顺序完成验证动作;从客户端获取用户完成验证动作的视频,并对视频进行分帧处理,将处理后的待识别图片与验证动作的标准图片进行相似度比较,并根据相似度的比较结果对用户是否为活体进行判断。本发明的技术方案解决在活体检测过程中,对视频攻击防范性不足,安全性低的问题。
Description
技术领域
本发明涉及信息处理领域,尤其涉及基于手势动作的活体检测方法、装置、计算机设备及存储介质。
背景技术
随着科技的发展和进步,在身份认证的应用场景中逐渐出现了新的安全认证方式。例如,在银行APP的应用中,为了验证如转账汇款等关键操作是真实的用户所为,而非木马或病毒操作所为,在对用户进行常规的身份认证的同时,还加入了活体检测的步骤,即提示用户做出一些表情动作,以此来判定是否是真人。
目前,活体检测的方法主要是针对人的脸部动作特征进行检测。然而,由于能检测的人脸部动作太少,用户可以使用照片、预先录制的视频、3D人脸模型或面具等方式对活体检测过程进行视频攻击,进而有概率性的绕过安全检测,给身份认证的整个环节带来安全风险。
发明内容
本发明实施例提供一种基于手势动作的活体检测方法、装置、计算机设备及存储介质,以解决在活体检测过程中,对视频攻击防范性不足,安全性低的问题。
一种基于手势动作的活体检测方法,包括:
按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作;
对所述验证动作按照预设的组合方式进行组合,得到所述验证动作的组合序列,并向客户端发送提示信息,其中,所述提示信息用于提示用户按照所述组合序列的顺序完成所述验证动作;
从所述客户端获取所述用户完成所述验证动作的视频,并对所述视频进行分帧处理,得到待识别图片;
将所述待识别图片与所述验证动作的标准图片进行相似度比较,得到所述待识别图片与所述验证动作的标准图片之间的相似度值;
若所述相似度值超过预设阈值,则确定所述用户通过活体检测;
若所述相似度值未超过所述预设阈值,则确定所述用户未通过活体检测。
一种基于手势动作的活体检测装置,包括:
动作选取模块,用于按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作;
组合模块,用于对所述验证动作按照预设的组合方式进行组合,得到所述验证动作的组合序列,并向客户端发送提示信息,其中,所述提示信息用于提示用户按照所述组合序列的顺序完成所述验证动作;
视频处理模块,用于从所述客户端获取所述用户完成所述验证动作的视频,并对所述视频进行分帧处理,得到待识别图片;
相似度计算模块,用于将所述待识别图片与所述验证动作的标准图片进行相似度比较,得到所述待识别图片与所述验证动作的标准图片之间的相似度值;
检测成功模块,用于若所述相似度值超过预设阈值,则确定所述用户通过活体检测;
检测失败模块,用于若所述相似度值未超过所述预设阈值,则确定所述用户未通过活体检测。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于手势动作的活体检测方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于手势动作的活体检测方法。
上述基于手势动作的活体检测方法、装置、计算机设备及存储介质,按照预设的第一选取方式从预设动作库中获取第一预设数量的手势动作作为验证动作,并按照预设的组合方式对验证动作进行组合,得到验证动作的组合序列;对用户按照验证动作的组合序列的顺序完成的验证动作的视频进行分帧处理,得到待识别图片,并将待识别图片与验证动作的标准图片进行相似度比较,然后根据相似度的比较结果确定用户是否通过活体检测。即在常规活体检测的过程中,增加了对手势动作内容的检测,提高了活体检测内容的复杂程度;并且,按照预设的组合方式对手势动作进行组合,增加了组合数量,不易被攻击者猜解,从而降低用户提前录制视频以进行视频攻击的可能性,提升了整个活体检测过程的安全性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于手势动作的活体检测方法的一应用环境示意图;
图2是本发明一实施例中基于手势动作的活体检测方法的流程图;
图3是本发明一实施例中基于手势动作的活体检测方法中步骤S4的流程图;
图4是本发明一实施例中基于手势动作的活体检测方法的另一流程图;
图5是本发明一实施例中基于手势动作的活体检测装置的示意图;
图6是本发明一实施例中计算机设备的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的基于手势动作的活体检测方法,可应用在如图1的应用环境中,其中,服务端是提供基于手势动作的活体检测服务的计算机设备,服务端可以是服务器或服务器集群;客户端是用户进行基于手势动作的活体检测而使用的计算机终端设备,包括但不限于平板电脑、PC机、手机APP、或其他智能终端设备等;客户端与服务端之间通过网络连接,网络可以是有线网络或无线网络。本发明实施例提供的基于手势动作的活体检测方法应用于服务端。
在一实施例中,如图2所示,提供了一种基于手势动作的活体检测方法,其具体实现流程包括如下步骤:
S1:按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作。
手势动作即人体的手部动作。例如,数字0至9的手势动作、竖起大拇指的手势动作、或者“石头剪刀布”的手势动作等。
验证动作是服务端提示用户进行操作演示的动作。例如,将数字2的手势动作作为验证动作,即在活体检测过程中,提醒用户在客户端作出“数字2的手势”。
预设动作库是存储包括手势动作在内的各种服务端可识别的肢体动作的数据库。预设动作库可以在服务端本地,或通过网络与服务端相连,具体包括但不限于各种关系型或非关系型数据库,如MS-SQL、Oracle、MySQL、Sybase、DB2、Redis、MongodDB、Hbase等。
预设的第一选取方式是服务端从预设动作库中获取手势动作的具体方式,其可以是随机选取的方式,还可以是循环选取的方式,此处不做限制。例如,服务端可以随机选取第一预设数量的手势动作,其中,第一预设数量可以根据具体实际应用的需要进行调整,如选取1至3个手势动作。
具体地,针对每一次客户端发起的活体检测请求,服务端可以从预设动作库中随机选取1至3个手势动作,作为验证动作,并记录下每个手势动作的id(identification,身份标识信息)号。
举例来说,用户在使用手机APP进行大额汇款时,服务端需要对用户进行活体检测,其中,在发起汇款和确认汇款时,各有一次活体检测。因此,服务端在两次活体检测中分别选取不同的手势动作,两次活体检测中选取的手势动作互不相同。例如,在第一次活体检测中选取数字0和数字9两个手势动作;在第二次活体检测中选取数字5一个手势动作。可以理解地,每次活体检测均可以随机选取,则验证动作组合的可能性更多,安全性更高。
S2:对验证动作按照预设的组合方式进行组合,得到验证动作的组合序列,并向客户端发送提示信息,其中,提示信息用于提示用户按照组合序列的顺序完成验证动作。
预设的组合方式即对选取的验证动作进行排列组合。例如,若验证动作包括3个手势动作,其中,3个手势动作各不相同,则经过排列组合可以得到6种不同的组合序列,验证动作的组合序列即是6种不同的组合序列中的任一一种。因此,在验证动作存在不同组合的可能性的基础上,增加了对验证动作的排列顺序,使得安全性进一步提高。
具体地,服务端对一组验证动作进行排列组合,并可以随机选取排列组合中的一种作为验证动作的组合序列,然后提示用户按照组合序列的顺序完成验证动作。其中,服务端向客户端发送的提示信息中可以包括验证动作的演示图片,并且演示图片按照组合序列的顺序被依次发送到客户端。
S3:从客户端获取用户完成验证动作的视频,并对视频进行分帧处理,得到待识别图片。
在本实施例中,用户根据提示信息开始完成验证动作,客户端将录制的用户完成验证动作的视频上传到服务端。
以手机APP为例,客户端通过手机的内置SDK(software development kit)调用摄像头进行视频录制。若提示用户完成三个手势动作,则用户在一个视频中连续完成三个手势动作。在一个视频中完成多个动作可以防止恶意攻击者提前录制好每个手势的视频。视频的格式可以为3gp,avi,或mp4等,此处不做限制。视频的时长可以限制在预设时间范围内,例如,优选地,视频时长不超过15秒。
服务端获取到验证动作的视频后,对视频进行分帧处理,得到一组待识别图片。
具体地,服务端可以通过调用OpenCV提供的分帧功能库函数进行分帧处理,得到单帧图像。以视频时长为10秒的视频为例,以1秒为间隔进行分帧,则经过分帧处理,可以得到10张待识别图片。其中,OpenCV是一个基于伯克利软件发行版(Berkeley SoftwareDistribution,BSD)许可发行的跨平台计算机视觉库,可以运行在Linux、Windows、Android和Mac OS等操作系统上。
S4:将待识别图片与验证动作的标准图片进行相似度比较,得到待识别图片与验证动作的标准图片之间的相似度值。
验证动作的标准图片是服务端用来对待识别图片进行动作识别的基准图片。例如,若待识别图片中的内容为“数字2”的手势动作,则与之对应的标准图片可以为纯白或纯黑背景的、内容为“数字2”的手势动作的图片,即标准图片中只包含表示标准动作的内容,而无其他背景。
服务端可以通过像素点对比法,或投影对比法等多种方法计算待识别图片与验证动作的标准图片之间的相似度,得到相似度值。
具体地,服务端通过OpenCV先对待识别图片进行边缘检测,即去掉待识别图片中的背景,得到表示待验证动作的像素点;然后将得到的像素点与标准图片中表示标准动作的像素点进行逐一比较;若相等,则相似点数量加一,直到比较完所有像素点;最后将相似点数量除以总像素点数,即得到相似度值。
举例来说,若验证动作的标准图片中有7万个表示标准动作的像素点,而待识别图片中相似点的数量为6万个,则待识别图片与验证动作的标准图片的相似度值为85%。
可以理解地,像素点对比法也可以用于比较用户的张嘴和闭嘴的图片,以识别出用户是否有张嘴/闭嘴的动作。举例来说,若用户在进行张嘴/闭嘴的连贯动作之后,服务端对视频进行分帧处理后得到的图片中包括一张用户张嘴的图片和一张用户闭嘴的图片,用像素点对比法比较两幅图的差异,则应得出只有嘴部的像素点不同。此外,对于眨眼的动作,像素点对比法同样适用。
投影对比法,即分别计算图中行、列的像素值之和,得到行、列两组向量;用同样的方式计算得到另一幅待比较图片的向量,然后对两幅图的向量进行相似度比较,得到相似度值。
例如,若待识别图片A的两组向量分别是X:{10,102,2,10,10,2,2,10,10},Y:{8,8,6,6,6,6,6,6,8,8},两组向量代表了共有9个像素点;验证动作的标准图片B的两组向量分别是X:{10,102,2,9,10,2,2,10,10},Y:{7,8,5,6,6,6,6,6,8,8},其中,X中有一个像素点不相等,Y中有两个像素点不相等,则可以确定待识别图片A和验证动作的标准图片B有2个不相等的像素点,相似度值为7除以9,得到77%。
具体地,以视频时长为10秒的手势动作视频为例,服务端可以先对分帧处理后得到的10张待识别图片分别进行去燥处理,抽取出待识别图片中的手势部分,然后逐张与验证动作的标准图片进行对比,即可得到待识别图片与验证动作的标准图片之间的相似度值。
优选地,服务端还可以通过分块对比法进行相似度比较。分块对比法,即先将图片分割成若干区域,然后对每个区域再具体应用像素点对比法或投影对比法。例如,在对“数字0到9”的手势动作图片与标准图片进行比较时,可以将待识别的手势动作图片平均分割成若干块,并将与手势无关的背景图片块舍去;然后进行相似度比较,得到待识别图片与验证动作的标准图片之间的相似度值。
S5:若相似度值超过预设阈值,则确定用户通过活体检测。
预设阈值是衡量用户是否通过活体检测的相似度临界值。默认地,预设阈值可以设为80%。同时,预设阈值也可以根据实际应用情况进行调整,例如,若待识别图片的背景复杂,则可能引起大的误差,则预设阈值可以降低为70%;若待识别图片的背景简单,则预设阈值可以调高为90%。
具体地,服务端根据待识别图片与验证动作的标准图片之间的相似度值与预设阈值之间的大小关系,确定用户是否通过活体检测。
举例来说,若验证动作的标准图片中有7万个表示标准动作的像素点,而待识别图片中相似点的数量为6万个,待识别图片与验证动作的标准图片的相似度值85%超过预设阈值80%,则可以确定用户通过活体检测。
S6:若相似度值未超过预设阈值,则确定用户未通过活体检测。
具体地,若待识别图片与验证动作的标准图片之间的相似度值小于预设阈值,则确定用户未通过活体检测。
在本实施例中,按照预设的第一选取方式从预设动作库中获取第一预设数量的手势动作作为验证动作,并按照预设的组合方式对验证动作进行组合,得到验证动作的组合序列;对用户按照验证动作的组合序列的顺序完成的验证动作的视频进行分帧处理,得到待识别图片,并将待识别图片与验证动作的标准图片进行相似度比较,然后根据相似度的比较结果确定用户是否通过活体检测。即在常规活体检测的过程中,增加了对手势动作内容的检测,提高了活体检测内容的复杂程度;并且,按照预设的组合方式对手势动作进行组合,增加了组合数量,不易被攻击者猜解,从而降低用户提前录制视频以进行视频攻击的可能性,提升了整个活体检测过程的安全性。
进一步地,在一实施例中,在步骤S1之后,并且在步骤S2之前,即在按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作之后,并且在对验证动作按照预设的组合方式进行组合,得到验证动作的组合序列,并向客户端发送提示信息之前,基于手势动作的活体检测方法还包括步骤:
按照预设的第二选取方式,从预设动作库中获取第二预设数量的脸部动作,并将脸部动作作为验证动作。
具体地,第二预设数量可以与第一预设数量相等或不相等;脸部动作包括张嘴、闭嘴、点头、摇头和眨眼;预设的第二选取方式,即服务端从预设动作库中获取脸部动作的具体方式,例如,可以通过随机选取的方式选取随机数量的脸部动作,作为验证动作。
需要说明的是,预设的第二选取方式和预设的第一选取方式可以相同也可以不相同,具体可以根据实际应用的需要进行设置,此处不做限制。
在本实施例中,服务端按照预设的第二选取方式,选取第二预设数量的脸部动作作为验证动作,使得验证动作的集合中包括脸部动作和手势动作,进一步丰富了验证动作的内容,增加了恶意攻击者猜解验证动作的难度,进一步提高了活体检测的安全性。
进一步地,在一实施例中,如图3所示,针对步骤S4,即将待识别图片与验证动作的标准图片进行相似度比较,得到待识别图片与验证动作的标准图片之间的相似度值,具体可以包括如下步骤:
S41:对待识别图片进行图像骨架特征提取,得到待识别骨架特征向量。
图像骨架特征提取,是图像处理中的特征提取方法,即提取目标在图像上的中心像素点的轮廓。针对手势动作,使用图像骨架特征提取可以消除图像背景的干扰,快速的获取手势的特征,进而方便进行相似度比较。
服务端对待识别图片进行图像骨架特征提取,得到待识别骨架特征向量。
具体地,若服务端在Python环境中进行骨架提取,则可以引用morphology子模块进行图像骨架特征提取处理,得到的待识别骨架特征向量由待识别图片中表示待识别动作的像素点构成。其中,向量中的元素即像素点的信息,包括像素点的RGB值和x,y轴的坐标位置。
S42:对验证动作的标准图片进行图像骨架特征提取,得到目标骨架特征向量。
与步骤S41类似,服务端同样对验证动作的标准图片进行图像骨架特征提取,可以得到目标骨架特征向量,此处不再赘述。
S43:计算待识别骨架特征向量与目标骨架特征向量之间的相似度,得到待识别图片与验证动作的标准图片之间的相似度值。
具体地,服务端可以计算识别骨架特征向量与目标骨架特征向量之间的差值,即向量相减,并以向量中相等分量的数量占分量总数的比例作为相似度值。
在本实施例中,服务端分别对待识别图片和验证动作的标准图片进行图像骨架特征提取,然后对图像骨架特征提取后得到的特征向量进行相似度计算,得到待识别图片与验证动作的标准图片之间的相似度值,其中,骨架特征提取可以消除图像背景的干扰,尤其针对待识别手势动作,可以快速提取手势动作,加快识别速度。
进一步地,在一实施例中,如图4所示,在步骤S1之前,即按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作之前,基于手势动作的活体检测方法还包括如下:
S7:从客户端获取用户的用户特征信息,并将用户特征信息作为目标特征信息保存到预设数据库中。
服务端可以通过预设API(Application Programming Interface,应用程序编程接口)从客户端收集用户特征信息。其中,若客户端是智能终端设备,则在客户端安装带有活体检测功能的APP之后,服务端从APP中的预设API收集用户特征信息;若客户端是PC机,服务端可以通过浏览器插件中的预设API收集用户特征信息;用户特征信息是用以唯一标识一个用户的信息,用户特征信息可以以视频的水印信息的形式附加在视频中。
用户特征信息具体可以包括:用户所在的地理位置信息、客户端的系统时间,以及客户端系统的标识信息等等。
其中,地理位置信息用于标识用户所在的实际位置,如用户的GPS经纬度信息;
客户端的系统时间,用于验证用户上传的视频是否是其他时间预先录制的;
客户端系统的标识信息用于唯一标识用户操作时使用的终端设备。例如,以当前终端设备的IMEI号、IMSI号、当前终端设备的系统版本号、分辨率、CPU信息等作为一个当前设备的标识信息。其中,IMEI,即International Mobile Equipment Identity,国际移动设备识别码,用于在移动电话网络中识别每一部独立的手机等移动通信设备,相当于移动电话的身份证;IMSI,即International Mobile Subscriber Identification Number,国际移动用户识别码,是区别移动用户的标志,储存在SIM卡中,可用于区别移动用户的有效信息。
服务端在获取到的用户特征信息后,存储到预设数据库中,以用于在活体检测过程中进行校验。其中,预设数据库可以在服务端本地或通过网络与服务端相连。
具体地,服务端在保存用户特征信息时,可以以当前系统的设备标识信息作为数据表的主键,数据表中的其他字段还包括但不限于,设备的机型、设备的操作系统、用户所属的运营商等等。
同时,针对步骤S5,即若相似度值超过预设阈值,则确定用户通过活体检测,具体可以包括如下步骤:
S51:若相似度值超过预设阈值,则对视频中的水印信息进行解析,得到待识别用户特征信息。
具体地,视频中的水印信息根据预设的约定格式,由客户端在录制验证动作视频时,将用户特征信息压缩打包后,并附加在视频文件的额外信息字段中。例如,在3GP文件中各数据包的保留字段中添加用户特征信息。其中,预设的约定格式是水印信息中具体用户特征信息的排列顺序,如前4个字节表示客户端的IMEI号;随后的4个字节表示客户端的IMSI号,等等。
因此,服务端可以根据预设的约定格式和水印信息所在视频中的位置,从接收到的视频文件中提取出待识别的用户特征信息。
S52:将待识别用户特征信息与预设数据库中的目标特征信息进行一致性校验。
具体地,一致性校验即比较待识别用户特征信息与目标特征信息是否相同,若待识别用户特征信息与目标特征信息相同,则一致性校验通过,若待识别用户特征信息与目标特征信息不相同,则一致性校验未通过。
服务端将待识别用户特征信息与预设数据库中的目标特征信息进行一致性校验,即对当时采集的目标用户特征信息与在活体检测时的待识别用户特征信息进行比较,以确定是否存在账户被盗的风险。例如,若IMEI号不一致,则代表当初用户安装APP时的终端设备与当前操作的终端设备不同,用户的账户存在被盗用的可能;若IMSI号不一致,则代表用户使用了不同的运营商号码,也可能存在账户被他人使用的可能。
S53:若一致性校验通过,则确定用户通过活体检测。
具体地,若待识别用户特征信息与预设数据库中的目标特征信息相同,即一致性校验通过,则服务端确定用户通过活体检测。
S54:若一致性校验未通过,则确定用户未通过活体检测。
具体地,若一致性校验未通过,服务端确定用户未通过活体检测,并提示用户做下一步处理或进行其他的安全验证。例如,针对IMEI号不一致的情况,服务端可以暂停活体检验的步骤,同时向用户发送短信,等待用户进行验证,以保证账户的安全性。
在本实施例中,服务端先期搜集用户的用户特征信息,并存储到预设数据库中;在活体检测阶段,当相似度值超过预设阈值时,服务端对视频中的水印信息进行解析,得到待识别用户特征信息,并将待识别用户特征信息与预设数据库中的目标特征信息进行一致性校验,然后根据一致性校验结果确定用户是否通过活体检测。由于增加了对客户端的用户特征信息的两次采集,通过对验证动作的识别,以及对用户特征信息的一致性校验,进一步减少了用户在活体检测阶段进行视频攻击的可能,提高了安全性。
进一步地,在一实施例中,针对步骤S43,即计算待识别骨架特征向量与目标骨架特征向量之间的相似度,得到待识别图片与验证动作的标准图片之间的相似度值,具体可以包括如下步骤:
根据如下公式计算待识别骨架特征向量与目标骨架特征向量之间的相似度,得到待识别图片与验证动作的标准图片之间的相似度值:
其中,d为相似度值,xi为待识别骨架特征向量中的第i个分量,yi为目标骨架特征向量中的第i个分量,n为分量总数。
具体地,服务端将待识别骨架特征向量与目标骨架特征向量中的分量代入上述公式中,将待识别骨架特征向量与目标骨架特征向量中每个对应分量的平方差,进行累加求和,并以求和后的倒数作为待识别图片与验证动作的标准图片之间的相似度值。
在本实施例中,服务端根据待识别骨架特征向量与目标骨架特征向量中每个对应分量的平方差,进行累加求和,并以求和后的倒数作为相似度值,可以减小仅通过向量相减作为相似度值的误差,使得相似度值更接近真实情况。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于手势动作的活体检测装置,该基于手势动作的活体检测装置与上述实施例中基于手势动作的活体检测方法一一对应。如图5所示,该基于手势动作的活体检测装置包括第一动作选取模块51、组合模块52、视频处理模块53、相似度计算模块54、检测成功模块55和检测失败模块56。各功能模块详细说明如下:
第一动作选取模块51,用于按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作;
组合模块52,用于对验证动作按照预设的组合方式进行组合,得到验证动作的组合序列,并向客户端发送提示信息,其中,提示信息用于提示用户按照组合序列的顺序完成验证动作;
视频处理模块53,用于从客户端获取用户完成验证动作的视频,并对视频进行分帧处理,得到待识别图片;
相似度计算模块54,用于将待识别图片与验证动作的标准图片进行相似度比较,得到待识别图片与验证动作的标准图片之间的相似度值;
检测成功模块55,用于若相似度值超过预设阈值,则确定用户通过活体检测;
检测失败模块56,用于若相似度值未超过预设阈值,则确定用户未通过活体检测。
进一步地,基于手势动作的活体检测装置,还包括:
第二动作选取模块57,用于按照预设的第二选取方式,从预设动作库中获取第二预设数量的脸部动作,并将脸部动作作为验证动作。
进一步地,相似度计算模块54包括:
待识别骨架特征提取子模块541,用于对待识别图片进行图像骨架特征提取,得到待识别骨架特征向量;
目标骨架特征提取子模块542,用于对验证动作的标准图片进行图像骨架特征提取,得到目标骨架特征向量;
特征匹配子模块543,用于计算待识别骨架特征向量与目标骨架特征向量之间的相似度,得到待识别图片与验证动作的标准图片之间的相似度值。
进一步地,基于手势动作的活体检测,还包括:
特征信息收集模块58,用于从客户端获取用户的用户特征信息,并将用户特征信息作为目标特征信息保存到预设数据库中;
检测成功模块55,包括:
特征提取子模块551,用于若相似度值超过预设阈值,则对视频中的水印信息进行解析,得到待识别用户特征信息;
特征校验子模块552,用于将待识别用户特征信息与预设数据库中的目标特征信息进行一致性校验;
校验成功子模块553,用于若一致性校验通过,则确定用户通过活体检测;
校验失败子模块554,用于若一致性校验未通过,则确定用户未通过活体检测。
进一步地,相似度计算子模块543包括:
距离计算单元5431,用于根据如下公式计算待识别骨架特征向量与目标骨架特征向量之间的相似度,得到待识别图片与验证动作的标准图片之间的相似度值:
其中,d为相似度值,xi为待识别骨架特征向量中的第i个分量,yi为目标骨架特征向量中的第i个分量,n为分量总数。
关于基于手势动作的活体检测装置的具体限定可以参见上文中对于基于手势动作的活体检测方法的限定,在此不再赘述。上述基于手势动作的活体检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于手势动作的活体检测方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于手势动作的活体检测方法的步骤,例如图2所示的步骤S1至步骤S6。或者,处理器执行计算机程序时实现上述实施例中基于手势动作的活体检测装置的各模块/单元的功能,例如图5所示模块51至模块56的功能。为避免重复,这里不再赘述。
在一实施例中,提供一计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例中基于手势动作的活体检测方法,或者,该计算机程序被处理器执行时实现上述装置实施例中基于手势动作的活体检测装置中各模块/单元的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于手势动作的活体检测方法,其特征在于,所述基于手势动作的活体检测方法包括:
按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作;
对所述验证动作按照预设的组合方式进行组合,得到所述验证动作的组合序列,并向客户端发送提示信息,其中,所述提示信息用于提示用户按照所述组合序列的顺序完成所述验证动作;
从所述客户端获取所述用户完成所述验证动作的视频,并对所述视频进行分帧处理,得到待识别图片;
将所述待识别图片与所述验证动作的标准图片进行相似度比较,得到所述待识别图片与所述验证动作的标准图片之间的相似度值;
若所述相似度值超过预设阈值,则确定所述用户通过活体检测;
若所述相似度值未超过所述预设阈值,则确定所述用户未通过活体检测。
2.如权利要求1所述的基于手势动作的活体检测方法,其特征在于,在所述按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作之后,并且在所述对所述验证动作按照预设的组合方式进行组合,得到所述验证动作的组合序列,并向客户端发送提示信息之前,所述基于手势动作的活体检测方法,还包括:
按照预设的第二选取方式,从所述预设动作库中获取第二预设数量的脸部动作,并将所述脸部动作作为所述验证动作。
3.如权利要求1所述的基于手势动作的活体检测方法,其特征在于,所述将所述待识别图片与所述验证动作的标准图片进行相似度比较,得到所述待识别图片与所述验证动作的标准图片之间的相似度值,包括:
对所述待识别图片进行图像骨架特征提取,得到待识别骨架特征向量;
对所述验证动作的标准图片进行图像骨架特征提取,得到目标骨架特征向量;
计算所述待识别骨架特征向量与所述目标骨架特征向量之间的相似度,得到所述待识别图片与所述验证动作的标准图片之间的相似度值。
4.如权利要求1所述的基于手势动作的活体检测方法,其特征在于,所述视频包括水印信息,所述按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作之前,所述基于手势动作的活体检测方法,还包括:
从所述客户端获取所述用户的用户特征信息,并将所述用户特征信息作为目标特征信息保存到预设数据库中;
若所述相似度值超过预设阈值,则确定所述用户通过活体检测,包括:
若所述相似度值超过预设阈值,则对所述视频中的所述水印信息进行解析,得到待识别用户特征信息;
将所述待识别用户特征信息与所述预设数据库中的目标特征信息进行一致性校验;
若所述一致性校验通过,则确定所述用户通过活体检测;
若所述一致性校验未通过,则确定所述用户未通过活体检测。
5.如权利要求3所述的基于手势动作的活体检测方法,其特征在于,所述计算所述待识别骨架特征向量与所述目标骨架特征向量之间的相似度,得到所述待识别图片与所述验证动作的标准图片之间的相似度值,包括:
根据如下公式计算所述待识别骨架特征向量与所述目标骨架特征向量之间的相似度,得到所述待识别图片与所述验证动作的标准图片之间的所述相似度值:
其中,d为所述相似度值,xi为所述待识别骨架特征向量中的第i个分量,yi为所述目标骨架特征向量中的第i个分量,n为分量总数。
6.一种基于手势动作的活体检测装置,其特征在于,所述基于手势动作的活体检测装置,包括:
第一动作选取模块,用于按照预设的第一选取方式,从预设动作库中获取第一预设数量的手势动作作为验证动作;
组合模块,用于对所述验证动作按照预设的组合方式进行组合,得到所述验证动作的组合序列,并向客户端发送提示信息,其中,所述提示信息用于提示用户按照所述组合序列的顺序完成所述验证动作;
视频处理模块,用于从所述客户端获取所述用户完成所述验证动作的视频,并对所述视频进行分帧处理,得到待识别图片;
相似度计算模块,用于将所述待识别图片与所述验证动作的标准图片进行相似度比较,得到所述待识别图片与所述验证动作的标准图片之间的相似度值;
检测成功模块,用于若所述相似度值超过预设阈值,则确定所述用户通过活体检测;
检测失败模块,用于若所述相似度值未超过所述预设阈值,则确定所述用户未通过活体检测。
7.如权利要求6所述的基于手势动作的活体检测装置,其特征在于,所述基于手势动作的活体检测装置还包括:
第二动作选取模块,用于按照预设的第二选取方式,从所述预设动作库中获取第二预设数量的脸部动作,并将所述脸部动作作为所述验证动作。
8.如权利要求6所述的基于手势动作的活体检测装置,其特征在于,所述相似度计算模块,包括:
待识别骨架特征提取子模块,用于对所述待识别图片进行图像骨架特征提取,得到待识别骨架特征向量;
目标骨架特征提取子模块,用于对所述验证动作的标准图片进行图像骨架特征提取,得到目标骨架特征向量;
相似度计算子模块,用于计算所述待识别骨架特征向量与所述目标骨架特征向量之间的相似度,得到所述待识别图片与所述验证动作的标准图片之间的相似度值。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述基于手势动作的活体检测方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述基于手势动作的活体检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910300448.8A CN110163094A (zh) | 2019-04-15 | 2019-04-15 | 基于手势动作的活体检测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910300448.8A CN110163094A (zh) | 2019-04-15 | 2019-04-15 | 基于手势动作的活体检测方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110163094A true CN110163094A (zh) | 2019-08-23 |
Family
ID=67639559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910300448.8A Pending CN110163094A (zh) | 2019-04-15 | 2019-04-15 | 基于手势动作的活体检测方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163094A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046804A (zh) * | 2019-12-13 | 2020-04-21 | 北京旷视科技有限公司 | 活体检测方法、装置、电子设备及可读存储介质 |
CN112749363A (zh) * | 2020-02-27 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 网络广告发布与获取方法、装置、存储介质和计算机设备 |
CN112836627A (zh) * | 2021-01-29 | 2021-05-25 | 支付宝(杭州)信息技术有限公司 | 活体检测方法和装置 |
CN113111939A (zh) * | 2021-04-12 | 2021-07-13 | 中国人民解放军海军航空大学航空作战勤务学院 | 飞行器飞行动作识别方法及装置 |
CN113283503A (zh) * | 2021-05-24 | 2021-08-20 | 平安国际融资租赁有限公司 | 基于特征相似度的设备状态检测方法、装置、设备和介质 |
CN112749363B (zh) * | 2020-02-27 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 网络广告发布与获取方法、装置、存储介质和计算机设备 |
-
2019
- 2019-04-15 CN CN201910300448.8A patent/CN110163094A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046804A (zh) * | 2019-12-13 | 2020-04-21 | 北京旷视科技有限公司 | 活体检测方法、装置、电子设备及可读存储介质 |
CN112749363A (zh) * | 2020-02-27 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 网络广告发布与获取方法、装置、存储介质和计算机设备 |
CN112749363B (zh) * | 2020-02-27 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 网络广告发布与获取方法、装置、存储介质和计算机设备 |
CN112836627A (zh) * | 2021-01-29 | 2021-05-25 | 支付宝(杭州)信息技术有限公司 | 活体检测方法和装置 |
CN113111939A (zh) * | 2021-04-12 | 2021-07-13 | 中国人民解放军海军航空大学航空作战勤务学院 | 飞行器飞行动作识别方法及装置 |
CN113283503A (zh) * | 2021-05-24 | 2021-08-20 | 平安国际融资租赁有限公司 | 基于特征相似度的设备状态检测方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163094A (zh) | 基于手势动作的活体检测方法、装置、设备及存储介质 | |
CN108804884B (zh) | 身份认证的方法、装置及计算机存储介质 | |
CN104205721B (zh) | 情景感知自适应认证方法和装置 | |
CN105407042B (zh) | 一种基于微信公众平台的远程sim卡开通方法及系统 | |
US11263441B1 (en) | Systems and methods for passive-subject liveness verification in digital media | |
CN104834839B (zh) | 一种条码生成方法、基于条码的鉴权方法及相关终端 | |
US11373449B1 (en) | Systems and methods for passive-subject liveness verification in digital media | |
CN106778613A (zh) | 一种基于人脸分割区域匹配的身份验证方法及装置 | |
CN108806041A (zh) | 楼宇门禁控制方法、云服务器及计算机可读存储介质 | |
CN107092821A (zh) | 一种分布式人脸认证信息生成方法、认证方法和装置 | |
CN111753271A (zh) | 基于ai识别的开户身份验证方法、装置、设备及介质 | |
CN109034029A (zh) | 检测活体的人脸识别方法、可读存储介质和电子设备 | |
CN109635021A (zh) | 一种基于人体检测的数据信息录入方法、装置及设备 | |
CN109902611A (zh) | 目标证件的检测方法、装置和终端设备 | |
CN113642639B (zh) | 活体检测方法、装置、设备和存储介质 | |
KR101057720B1 (ko) | 사용자 인증 시스템 및 방법 | |
CN106599841A (zh) | 一种基于全脸匹配的身份验证方法及装置 | |
CN106650657A (zh) | 一种基于全脸二进制匹配的身份验证方法及装置 | |
CN108734099A (zh) | 身份验证方法和装置、电子设备、计算机程序和存储介质 | |
CN109886084A (zh) | 基于陀螺仪的人脸认证方法、电子设备及存储介质 | |
CN109063442B (zh) | 业务实现、相机实现的方法和装置 | |
Yuan et al. | SALM: smartphone-based identity authentication using lip motion characteristics | |
Carta et al. | Video injection attacks on remote digital identity verification solution using face recognition | |
CN115082992A (zh) | 人脸活体检测方法、装置、电子设备及可读存储介质 | |
CN112380577A (zh) | 支持多方的电子合同重复签署方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |