CN106411952A - 一种隔空动态手势用户身份认证方法及装置 - Google Patents
一种隔空动态手势用户身份认证方法及装置 Download PDFInfo
- Publication number
- CN106411952A CN106411952A CN201611087785.6A CN201611087785A CN106411952A CN 106411952 A CN106411952 A CN 106411952A CN 201611087785 A CN201611087785 A CN 201611087785A CN 106411952 A CN106411952 A CN 106411952A
- Authority
- CN
- China
- Prior art keywords
- gesture
- frame
- user
- data
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于隔空动态手势的用户身份认证方法及装置,可用于非接触快捷用户身份认证,属于模式识别与身份认证技术领域。本发明对被认证人员进行单个动态手势的视频采集并预处理;合成超级匹配模板,获得DTW的匹配值;对匹配值进行认证判断,即将采集到的动态手势与所有认证人员之前获取的模板进行比对,若二者偏差值高于标准阈值,提示此用户为未授权用户;若低于标准阈值,将其继续与设定值阈值进行比对,若二者偏差值低于设定阈值,判断用户认证通过;若二者偏差值高于设定阈值时,判断用户认证不通过。本发明提供的是一种非接触隔空的用户认证方式,在安全验证、医学防尘、游戏安全登录等领域中有着广泛的应用前景。
Description
技术领域
本发明属于模式识别与身份认证技术领域,更具体地说,涉及一种基于Kinect传感器的隔空动态手势用户身份认证方法及装置。
背景技术
身份认证是身份安全识别系统确认操作者的真实身份与其声明的身份是否相符的过程。也就是首先事先录入所有合法用户信息。然后进入测试阶段,当一个新用户进入系统时,他需要先声明其身份,然后进行认证匹配,如果匹配结果表明他不属于其声明用户,则提示“该用户为入侵用户”。
目前,身份认证的主要方式分为基于用户名/密码、IC卡认证、动态口令、传统生物特征等。基于用户名/密码方式的身份认证在目前任然大量被使用,它是一种事先给识别装置设置一个密码,当需要进行身份识别时,我们就输入设定的密码即可完成身份的认证,该方式的身份认证主要用在电脑解锁,QQ密码登陆等。但是基于用户名/密码用户身份认证的最大缺点是密码极易丢失,为了密码的安全性,往往会不断的更换密码,对于不同的需要身份认证的情景,我们往往会设置不同的密码,这对于密码的记忆以及维护是十分不便的。常用的基于IC卡的身份识别是给用户一张IC卡,该卡可以用来身份认证以及购物消费,主要使用场所是学校的学生卡,购物卡。该方法最大的缺点是易丢失,与此同时,将会面临着极大地安全隐患。常用的基于动态口令方式的身份认证是一种基于用户名/密码方式的完善,主要目的是增强安全性和帮助记忆,它的工作原理是让用户的密码按照时间或使用次数不断动态变化,每个密码只使用一次的方式进行身份认证,但是如果客户端硬件与服务器端程序的时间或次数不能保持良好的同步,就可能发生合法用户无法登陆的问题,并且用户每次登录时还需要通过键盘输入一长串无规律的密码,一旦看错或输错就要重新来过,用户的使用非常不方便。
基于传统生物特征的方式是一种使用如:人脸、指纹、虹膜等进行身份认证的方式。生物特征是目前最为方便、安全的身份识别技术,它辨识的是人身的固有特征,不需要身外的其他标识物。然而基于这些生物特征的用户身份认证仍存在一些问题:人脸属于一种公开信息,人们很容易获取,加上目前3D人脸制作技术被提出,基于人脸识别的安全问题不断被质疑。指纹识别在手机上大量使用,受到广大用户的青睐,但是由于指纹极易保留在物体表面,窃取指纹信息极其容易,所以安全隐患很大,另外,指纹识别是一个触碰时识别,如果录入指纹的手指皮肤出现破损,识别基本很难实现。虹膜识别是一个安全系数高的身份认证方式,但是繁琐的识别过程限制了该方式的推广,识别时,我们需要将自己的眼睛对着摄像头,让其捕获黑眼珠,捕获黑眼珠是个极其复杂的过程,在一些需要反复进行身份认证的场景下,很显然虹膜识别是不可取的。
用户动态手势包含两种类型的信息:一种是用手势本身所表达的含义(GMI);另一种是隐藏的动态生物特征信息(DBCI)。对于不同的用户,执行同一个手势动作,GMI基本上是相同的,但是DBCI是不同的。使用动态手势中蕴含的独特的、不可模仿的信息来进行身份认证,具有安全,方便,无触碰等优势。考虑到基于传统生物特征进行身份认证所存在的安全隐患和繁琐的识别过程,使用动态手势进行用户身份认证成为了近几年的研究热点。
经检索,中国专利号ZL201310358968.7,专利名称:一种基于动态手势的身份认证方法;该申请案利用智能手机加速度传感器获取手势执行时的动态信息,采用结合放宽端点限制和提前终止的DTW方法对手势动态信息进行匹配认证。解决了手势序列间因端点不对齐而引起的认证失败问题,同时也利用弯折斜率限制和提前终止策略减少了计算量。该申请案的核心思想是使用手机自身携带的传感器获取用户执行时的加速度,通过将预处理的样本输入改善的DTW算法进行匹配并进行身份认证,其认证过程是一个触碰式的过程,旨在使用智能手机手势的加速度动态信息进行身份认证,该申请案的数据采集方式、获取的数据信息和技术实施方案均适用于手机,在安全验证、医学防尘、游戏安全登录等领域中应用有其局限性。
发明内容
1.发明要解决的技术问题
本发明的目的在于克服基于传统生物特征的身份识别技术存在安全隐患和识别繁琐的不足,提供了一种隔空动态手势用户身份认证方法及装置;本发明使用Kinect隔空采集动态手势运动的轨迹信息并完成身份认证,采用合成超级匹配模板和对匹配结果均值化DTW高效算法,首先对测试数据样本进行预处理,对每个动态手势制作3个超级匹配模板,身份匹配时将这3个超级模板同测试样本的DTW匹配结果均值作为该手势最终匹配结果,本发明能够有效的提高身份认证精度,获得理想的身份认证效果。
2.技术方案
为达到上述目的,本发明提供的技术方案为:
本发明的一种隔空动态手势用户身份认证方法,其步骤为:
步骤一、通过训练确定用户动态手势视频的开始帧与结束帧;
步骤二、采集用户动态手势样本,每个手势采集9个样本,对采集样本数据进行预处理,然后,将每个手势的9个样本以3个为一组合成一个超级模板,获得的超级模板构成模板数据库;
步骤三、采集用户测试样本并进行预处理,然后将测试样本同模板数据库中超级模板运用DTW算法进行匹配,依据匹配结果进行用户身份认证。
更进一步地,使用Kinect传感器采集用户动态手势视频数据,捕获用户全身的骨架,并对骨架25个节点进行标号,所述25个节点为:脊底、脊中、脖子、头盖、左肩、左肘、左手腕、左手、右肩、右肘、右手腕、右手、左臀、左膝、左脚踝、左脚、右臀、右膝、右脚踝、右脚、肩膀、左指尖、左拇指、右指尖、右拇指。
更进一步地,步骤一中将采集的动态手势视频以帧为单位将图片和节点位置数据保存起来,分别给左手、右手、双手设置参数,参数设置规则为:如果当前帧为静止,即将该帧标记为“0 0 0”,如果当前帧为左手运动,当前帧被标记为“1 0 0”,如果当前帧为右手运动,当前帧被标记为“0 1 0”,如果当前帧为双手运动,则标记为“1 1 1”,将标记好的样本放入神经网络中进行训练,判断当前帧是运动帧还是静止帧;在此基础上,以前30帧有25帧为静止帧作为运动开始标志,并开始采集数据,同时设置运动过程中出现连续10帧为静止帧作为结束标志。
更进一步地,步骤二和步骤三所述的对采集视频数据进行预处理,包括归一化和平滑去噪;其中,数据归一化的具体处理方法如下:
骨架结构的每个节点都有一个3维位置坐标(x,y,z),设定变量表示某个动态手势g在时间帧为t第i个节点位置的坐标信息,表示如下:
将每个节点的位置数据减去脊椎节点的位置坐标,得到节点相对位置坐标,表示如下:
最后获取脖子到脊椎的距离,用上述所有的节点相对位置除以该脖子到脊椎的距离,作为归一化的样本数据,设变量表示某个动态手势g在时间帧为t第i个节点位置的归一化坐标,表示如下:
更进一步地,数据归一化后,再进行光滑去躁处理,光滑去躁以帧为单位,前2帧和最后2帧的数据保持不变,其他帧的数据作如下处理:
设定变量Pt表示第t帧的归一化数据,从第三帧开始选取连续5帧节点(Pt-2,Pt-1,Pt,Pt+1,Pt+2),得到方差:
δ=max(∑(||pt-1-pt||+||pt-2-pt-1||),∑(||pt+1-pt||+||pt+2-pt+1||))
然后,设定一个变量dt表示第t帧与第t-1帧归一化数据的欧式距离:
接着,引进高斯公式,对dt进行处理,高斯公式如下:
平滑去噪处理公式如下:
更进一步地,合成超级模板的具体过程为:将单个动态手势的其中2个样本模板通过DTW匹配,获取最优路径:
wr=(i,j)
其中,i,j分别表示2个样本模板序列的帧数;
然后将2个样本模板在最优路径上取均值,设变量xi表示其中一个样本模板第i帧的25个节点的位置数据,yj表示另一个样本模板第j帧的25个节点的位置数据,sgr表示超级模板第r帧的25个节点的位置数据:
最后,将合成的sgr数据再和第3个样本模板运用上述方法合成最终的超级模板。
更进一步地,步骤三中将测试样本与单个手势的3个超级模板匹配结果的均值作为该手势的匹配结果,再将所有动态手势匹配结果的最小值作为该测试样本的最终匹配结果D[i];判断D[i]与标准阈值的大小关系,如果D[i]>标准阈值,提示此用户为未授权用户,认证结束;如果D[i]<标准阈值,则判断D[i]与设定阈值的大小关系,如果D[i]<设定阈值,输出认证的用户名,匹配成功,如果D[i]>设定阈值,则认证失败,结束该次认证。
更进一步地,所述的标准阈值,即让所有已注册用户对一个手势做10遍动作,将所有的匹配结果的均值作为已注册用户动态手势的标准阈值。
更进一步地,所述的设定阈值,即对每个注册用户的同一个动态手势采集10个样本数据,并将10个样本数据分别同模板数据库中该手势的3个超级模板进行匹配,取匹配距离的最大值作为该用户动态手势的设定阈值。
本发明的一种隔空动态手势用户身份认证装置,包括采集模块、数据预处理模块、超级模板合成模块和用户身份认证模块,其中:
采集模块,用于采集用户动态手势执行时每一帧全身25个骨节位置数据,将采集数据作为样本数据;
数据预处理模块:用于对采集数据进行预处理,包括归一化和平滑去噪处理;
超级模板合成模块:用于通过超级模板方法将每个动态手势的9个普通模板合成3个超级模板;
用户身份认证模块:将测试样本与超级模板进行DTW匹配,对匹配结果进行认证。
3.有益效果
采用本发明提供的技术方案,与已有的公知技术相比,具有如下显著效果:
(1)本发明一种隔空动态手势用户身份认证方法,使用Kinect隔空采集动态手势执行时全身25个节点的骨架位置的轨迹信息,引进在DTW最小路径的基础上合成超级匹配模板,给每个动态手势生成3个超级匹配模板,最终取3个超级匹配模板的均值作为该手势的最终匹配结果,并进行认证判断,该身份认证方法一方面可以简化认证过程,另一面可以减少污染,甚至降低装置的耗损速度,适用范围广,只需要用一个Kinect即可,成本较低;
(2)本发明一种隔空动态手势用户身份认证方法,使用Kinect获取骨架信息,和用户的穿戴没有任何关系,隔空采集数据并完成身份认证,适用于无法或难于采集到生物特征的场景下,如能满足无菌室中,医护人员穿戴无菌服后的不触碰任何细菌源的使用要求,对日益流行的体感游戏,隔空动态手势身份认证与体感游戏可以无缝连接,在安全验证、医学防尘、游戏安全登录等领域中有着广泛的应用前景;
(3)本发明一种隔空动态手势用户身份认证方法,采集骨架节点数据增加到25个,且每个手势采集9个样本,将每组3个样本数据使用超级模板方法合成一个超级模板,能够精确的描述动态手势的位置信息,不受用户穿戴的干扰,引入均值的方法能够避免极限值的干扰,增强系统的稳定性;
(4)本发明一种隔空动态手势用户身份认证方法,经实验验证,在100个样本以内,左手画“V”,右手画“0”的FAR为0,FRR为3%,系统的认证时间为2S。
附图说明
图1是本发明通过训练确定开始帧与结束帧的流程图;
图2是本发明制作模板数据库的流程图;
图3是本发明中用户身份认证流程图;
图4是本发明中Kinect获取的全身骨架结构图;
图5是本发明中超级模板与普通模板性能对比图;
图6是本发明的隔空动态手势用户身份认证装置的结构框图。
具体实施方式
目前的身份认证主要是基于口令和生物特征的方式,而这些认证过程繁琐,大多数需要在触碰的情况下进行,当出现遮挡会影响认证结果,本发明针对上述问题,提出了一种基于Kinect传感器的隔空动态手势用户身份认证方法及装置,既可以保证认证过程的安全性,而且是在无触碰条件下完成认证,不会受到遮挡等因素的影响。为进一步了解本发明的内容,结合附图和实施例对本发明作详细描述。
实施例1
本实施例进行隔空动态手势用户身份认证的具体过程包括以下步骤:
步骤一、通过训练确定用户动态手势视频的开始帧与结束帧(参看图1),具体为:
1-1、系统显示提示界面,使用Kinect传感器自动采集用户动态手势视频数据用于训练,该Kinect传感器是通过IColorFrameSource传感器获取彩色信息,使用IBodyFrameSource传感器获取骨架信息,并最终获取每个节点的三维位置数据(x,y,z)。Kinect传感器默认的采集频率为每秒30帧。
1-2、运用神经网络确定动态手势开始帧与结束帧的位置,当系统能够精准的区分所有用户的运动帧和静止帧时,训练结束,否则,继续执行步骤1-1。
1-3、在精准区分运动帧与静止帧的基础上,采集某动态手势运动帧与静止帧之间的数据作为该动态手势的样本数据。
首先,使用Kinect捕获用户全身的骨架(如图4所示),将图4所示的25个节点标号为0-24,依次为:脊底、脊中、脖子、头盖、左肩、左肘、左手腕、左手、右肩、右肘、右手腕、右手、左臀、左膝、左脚踝、左脚、右臀、右膝、右脚踝、右脚、肩膀、左指尖、左拇指、右指尖、右拇指。将录制的用户动态手势视频,以帧为单位将图片和节点位置数据都保存起来,分别给左手、右手、双手设置参数,参数设置规则为:如果当前帧为静止,即将该帧标记为“0 0 0”,如果当前帧为左手运动,当前帧被标记为“1 0 0”,如果当前帧为右手运动,当前帧被标记为“0 1 0”,如果当前帧双手运动,则标记为“1 1 1”,将标记好的样本放入神经网络中进行训练,能够判断当前帧是运动帧还是静止帧。在此基础上,以前30帧有25帧为静止帧作为运动开始标志,并开始采集数据,同时设置运动过程中出现连续10帧为静止帧作为结束标志。然后,使用Kinect获取某个动态手势25个节点的轨迹位置数据(即动态手势运动帧与静止帧之间的数据),数据格式为每帧75列的数据,若动态手势的轨迹信息由M帧组成,那么该轨迹信息可以表示为M*75的矩阵,该矩阵数据即为一个样本数据。
步骤二、建立模板数据库(参看图2),具体为:
2-1、系统显示提示界面,自动采集用户单个动态手势样本(每个手势采集9个样本,每3个为一组,共分为3组)。
2-2、对动态手势样本数据进行预处理,包括归一化和平滑去噪。由于每个测试者的体型、所处的位置,做手势的幅度大小的差异,因此需要归一化处理样本数据;又因为样本数据在采集过程中受到抖动和传感器自身精度的影响,不可避免有噪声所以需要平滑去噪解决抖动问题。
数据归一化的具体处理方法如下:
传感器获取的骨架结构是由25个节点组成,每个节点都有一个3维位置坐标(x,y,z),设定一个变量表示某个动态手势g在时间帧为t第i个节点位置的坐标信息,变量表示如公式1:
为了减小不同测试者体型和做动作所处位置的差异对实验结果的干扰,增强数据的鲁棒性,对数据进行归一化处理,将每个节点的位置数据减去脊椎节点的位置坐标,得到的位置坐标称为“节点相对位置”,此时其他节点的位置只是相对于脊椎节点的位置,忽视空间的影响,避免了因做动作所处的位置不同对实验结果的干扰,具体操作如公式2所示:
最后获取脖子到脊椎的距离,用上述所有的节点相对位置除以该脖子到脊椎的距离,作为归一化的样本数据,设变量表示某个动态手势g在时间帧为t第i个节点位置的归一化坐标信息,此时的位置对自身的骨骼长度进行归一化处理,最大程度的减少体型的影响,避免了测试者体型不同对实验结果的干扰。具体操作如公式3所示:
归一化处理后,再对样本数据进行光滑去躁处理,的每一帧数据由25个节点的三维位置坐标组成的,光滑去躁是以帧为单位,对所有的归一化数据进行处理。前2帧和最后2帧的数据保持不变,其他帧的数据作如下处理:
设定变量Pt表示第t帧的归一化数据,从第三帧开始选取连续5帧节点(Pt-2,Pt-1,Pt,Pt+1,Pt+2),得到方差如公式4:
δ=max(∑(||pt-1-pt||+||pt-2-pt-1||),Σ(||pt+1-pt||+||pt+2-pt+1||))(公式4)
然后,设定一个变量dt表示第t帧与第t-1帧的位置数据的欧式距离,如公式5:
接着,引进高斯公式,对数据dt进行处理,高斯公式如公式6所示:
结合公式4、5、6,使用公式7完成平滑去噪处理,公式7如下:
2-3、将步骤2-2处理后的每组3个样本数据合成一个超级模板,每个动态手势制作3个超级模板,获得的超级模板构成模板数据库。模板数据库中的模板数据不是普通的动态手势模板,而是使用超级模板方法合成的超级模板。由于同一个测试者在重复手势时,时间帧可能存在或大或小的改变,如果我们选取的帧数较小或较大的模板作为匹配模板,都会干扰最终的匹配结果。鉴于此,本实施例采用了一种新的超级模板的技术,在最优路径上加长模板长度,合成最佳的超级匹配模板。原理为:
假定模板A含有m帧,模板B含有n帧,现将A作为X轴,B作为Y轴,i表示A的当前帧,j表示B的当前帧。将2个模板进行匹配获取最优路径,即(1,1).......(i,j).........(m,n)表示最优路径,在合成超级模板时,顺序的从(1,1)开始将最优路径上的每一点A和B的均值作为超级模板的帧数据,直至(m,n)结束,此时即获取模板A和B的超级模板。超级模板方法是利用DTW匹配算法得到的最优路径重新合成新的加强模板,增强每个人隐含的独特信息,也使得超级模板的长度得到一定的提高。
本实施例的具体合成过程如下:
首先将步骤2-2处理后的用户单个动态手势的其中2个动态手势序列(即样本数据)通过DTW匹配,获取最优路径并记录,如公式8所示:
wr=(i,j)(公式8)
其中,i,j表示2个动态手势序列的帧数,如Wr=(1,2)表示此处最优路径的位置为样本模板第1帧和另一样本模板第2帧。
然后,将2个动态手势序列在最优路径上取均值,设变量xi表示样本模板第i帧的25个节点的位置数据,yj表示另一样本模板第j帧的25个节点的位置数据,sgr表示超级模板第r帧的25个节点的位置数据,如公式9所示:
最后,将上文合成的sgr数据再和第三个样本模板运用上述方法合成最终的超级模板,在步骤2-1中提到:每个动态手势采集9个样本,每三个为一组,即对每个手势合成3个超级模板。
图5是本实施例的超级模板与普通模板性能对比图,由图5可以看出,三条虚线线段表示普通模板,这些数据长度参差不齐,即使是同一个人做同一个手势,轨迹也有较大的偏差。实线线段是使用超级模板方法合成的超级模板,可以看出:超级模板在3个普通模板轨迹中间穿过,具有普通模板的一般性,而且超级模板的长度比普通模板长,就普通模板而言,提高了用户身份认证率。
步骤三、进行用户身份认证(参看图3),具体为:
3-1、系统显示提示界面,自动采集用户测试样本。
3-2、对用户测试样本进行预处理,所述的预处理包括归一化和光滑去噪,处理过程同上文所述,此处不在赘述。
3-3、对经过步骤3-2预处理的测试样本同模板数据库中超级模板运用DTW算法进行匹配,假定测试样本包含m帧而超级模板数据包含n帧,DTW算法运用DP(动态规划)算法思想,找到从(1,1)至(m,n)的最小路径,将测试样本与模板数据库中所有动态手势的3个超级模板都进行DTW算法匹配一次,将测试样本与某手势3个超级模板的匹配结果的均值作为该手势的匹配结果,再将所有动态手势匹配结果的最小值作为该测试样本的最终匹配结果D[i]。
3-4、判断D[i]与标准阈值的大小关系,如果D[i]>标准阈值,提示此用户为未授权用户,认证结束;如果D[i]<标准阈值,执行步骤3-5。所谓标准阈值,即让所有已注册用户对一个手势做10遍动作,将所有的匹配结果的均值作为已注册用户动态手势的标准阈值。通过比较当前用户动态手势匹配距离与此阈值的大小,以确定当前用户是否属于已注册用户。
3-5、判断D[i]与设定阈值的大小关系,如果D[i]<设定阈值,输出认证的用户名,匹配成功,如果D[i]>设定阈值,则认证失败,结束该次认证。所谓设定阈值,对每个注册用户的同一个动态手势采集10个样本数据,并将这10个样本分别同模板数据库中的该手势的3个超级模板进行匹配,取匹配距离的最大值作为该用户动态手势的设定阈值。通过比较当前动态手势匹配距离与此设定阈值的大小,以排除该用户异常的动态手势动作。
本实施例的进行隔空动态手势用户身份认证的方法,使用Kinect传感器获取数据,相比传统生物特征的身份认证而言,具有以下优势:首先本实施例获取的是全身骨架节点,和人的穿戴,遮挡无关;其次,本实施例在无触碰的情况完成认证,过程方便,减少污染,降低耗材;在安全性上,使用动态手势中隐含的信息进行身份认证,安全高效。尤其在特定的环境下,例如:医学的无菌室的身份验证、半导体生产场地的身份识别以及体感游戏的身份识别等等。在这些环境下,身份识别需要无菌的状态下,显然隔空的方式能够有效地减少细菌污染,体感游戏中主要是动作,所以基于动态手势的身份认证不仅可以快速、安全的验证用户身份,而且可以增加用户的游戏体验。实验证明,在100个样本以内,左手画“V”,右手画“0”的FAR为0,FRR为3%,系统的认证时间为2S。
本实施例进行隔空动态手势用户身份认证装置的结构框图如图6所示,该装置包括以下模块:
采集模块,用于采集用户动态手势执行时每一帧全身25个骨节位置数据,将这个数据作为样本数据;
数据预处理模块:对测试样本进行预处理,包括归一化、平滑去噪处理;
超级模板合成模块:每个手势输入9个普通模板,通过超级模板方法合成一个超级模板并且每个手势最终合成3个超级模板;
用户身份认证模块:将测试样本与超级模板进行DTW匹配,对匹配结果进行认证。
以上示意性的对本发明及其实施方式进行了描述,该描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。所以,如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。
Claims (10)
1.一种隔空动态手势用户身份认证方法,其步骤为:
步骤一、通过训练确定用户动态手势视频的开始帧与结束帧;
步骤二、采集用户动态手势样本,每个手势采集9个样本,对采集样本数据进行预处理,然后,将每个手势的9个样本以3个为一组合成一个超级模板,获得的超级模板构成模板数据库;
步骤三、采集用户测试样本并进行预处理,然后将测试样本同模板数据库中超级模板运用DTW算法进行匹配,依据匹配结果进行用户身份认证。
2.根据权利要求1所述的一种隔空动态手势用户身份认证方法,其特征在于:使用Kinect传感器采集用户动态手势视频数据,捕获用户全身的骨架,并对骨架25个节点进行标号,所述25个节点为:脊底、脊中、脖子、头盖、左肩、左肘、左手腕、左手、右肩、右肘、右手腕、右手、左臀、左膝、左脚踝、左脚、右臀、右膝、右脚踝、右脚、肩膀、左指尖、左拇指、右指尖、右拇指。
3.根据权利要求2所述的一种隔空动态手势用户身份认证方法,其特征在于:步骤一中将采集的动态手势视频以帧为单位将图片和节点位置数据保存起来,分别给左手、右手、双手设置参数,参数设置规则为:如果当前帧为静止,即将该帧标记为“0 0 0”,如果当前帧为左手运动,当前帧被标记为“1 0 0”,如果当前帧为右手运动,当前帧被标记为“0 1 0”,如果当前帧为双手运动,则标记为“1 1 1”,将标记好的样本放入神经网络中进行训练,判断当前帧是运动帧还是静止帧;在此基础上,以前30帧有25帧为静止帧作为运动开始标志,并开始采集数据,同时设置运动过程中出现连续10帧为静止帧作为结束标志。
4.根据权利要求1所述的一种隔空动态手势用户身份认证方法,其特征在于:步骤二和步骤三所述的对采集视频数据进行预处理,包括归一化和平滑去噪;其中,数据归一化的具体处理方法如下:
骨架结构的每个节点都有一个3维位置坐标(x,y,z),设定变量表示某个动态手势g在时间帧为t第i个节点位置的坐标信息,表示如下:
将每个节点的位置数据减去脊椎节点的位置坐标,得到节点相对位置坐标,表示如下:
最后获取脖子到脊椎的距离,用上述所有的节点相对位置除以该脖子到脊椎的距离,作为归一化的样本数据,设变量表示某个动态手势g在时间帧为t第i个节点位置的归一化坐标,表示如下:
5.根据权利要求4所述的一种隔空动态手势用户身份认证方法,其特征在于:数据归一化后,再进行光滑去躁处理,光滑去躁以帧为单位,前2帧和最后2帧的数据保持不变,其他帧的数据作如下处理:
设定变量Pt表示第t帧的归一化数据,从第三帧开始选取连续5帧节点(Pt-2,Pt-1,Pt,Pt+1,Pt+2),得到方差:
δ=max(Σ(||pt-1-pt||+||pt-2-pt-1||),∑(||pt+1-pt||+||pt+2-pt+1||))
然后,设定一个变量dt表示第t帧与第t-1帧归一化数据的欧式距离:
接着,引进高斯公式,对dt进行处理,高斯公式如下:
平滑去噪处理公式如下:
6.根据权利要求1-5任一项所述的一种隔空动态手势用户身份认证方法,其特征在于:合成超级模板的具体过程为:
将单个动态手势的其中2个样本模板通过DTW匹配,获取最优路径:
wr=(i,j)
其中,i,j分别表示2个样本模板序列的帧数;
然后将2个样本模板在最优路径上取均值,设变量xi表示其中一个样本模板第i帧的25个节点的位置数据,yj表示另一个样本模板第j帧的25个节点的位置数据,sgr表示超级模板第r帧的25个节点的位置数据:
最后,将合成的sgr数据再和第3个样本模板运用上述方法合成最终的超级模板。
7.根据权利要求6所述的一种隔空动态手势用户身份认证方法,其特征在于:步骤三中将测试样本与单个手势的3个超级模板匹配结果的均值作为该手势的匹配结果,再将所有动态手势匹配结果的最小值作为该测试样本的最终匹配结果D[i];判断D[i]与标准阈值的大小关系,如果D[i]>标准阈值,提示此用户为未授权用户,认证结束;如果D[i]<标准阈值,则判断D[i]与设定阈值的大小关系,如果D[i]<设定阈值,输出认证的用户名,匹配成功,如果D[i]>设定阈值,则认证失败,结束该次认证。
8.根据权利要求7所述的一种隔空动态手势用户身份认证方法,其特征在于:所述的标准阈值,即让所有已注册用户对一个手势做10遍动作,将所有的匹配结果的均值作为已注册用户动态手势的标准阈值。
9.根据权利要求8所述的一种隔空动态手势用户身份认证方法,其特征在于:所述的设定阈值,即对每个注册用户的同一个动态手势采集10个样本数据,并将10个样本数据分别同模板数据库中该手势的3个超级模板进行匹配,取匹配距离的最大值作为该用户动态手势的设定阈值。
10.一种隔空动态手势用户身份认证装置,其特征在于:包括采集模块、数据预处理模块、超级模板合成模块和用户身份认证模块,其中:
采集模块,用于采集用户动态手势执行时每一帧全身25个骨节位置数据,将采集数据作为样本数据;
数据预处理模块:用于对采集数据进行预处理,包括归一化和平滑去噪处理;
超级模板合成模块:用于通过超级模板方法将每个动态手势的9个普通模板合成3个超级模板;
用户身份认证模块:将测试样本与超级模板进行DTW匹配,对匹配结果进行认证。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611087785.6A CN106411952B (zh) | 2016-12-01 | 2016-12-01 | 一种隔空动态手势用户身份认证方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611087785.6A CN106411952B (zh) | 2016-12-01 | 2016-12-01 | 一种隔空动态手势用户身份认证方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106411952A true CN106411952A (zh) | 2017-02-15 |
CN106411952B CN106411952B (zh) | 2019-07-26 |
Family
ID=58083129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611087785.6A Active CN106411952B (zh) | 2016-12-01 | 2016-12-01 | 一种隔空动态手势用户身份认证方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106411952B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107894834A (zh) * | 2017-11-09 | 2018-04-10 | 上海交通大学 | 增强现实环境下控制手势识别方法与系统 |
CN108960171A (zh) * | 2018-07-12 | 2018-12-07 | 安徽工业大学 | 一种基于特征迁移学习的转换手势识别到身份识别的方法 |
CN109409316A (zh) * | 2018-11-07 | 2019-03-01 | 极鱼(北京)科技有限公司 | 空中签名方法及装置 |
CN110298159A (zh) * | 2019-06-28 | 2019-10-01 | 闽江师范高等专科学校 | 一种智能手机动态手势身份认证方法 |
CN111026453A (zh) * | 2019-11-22 | 2020-04-17 | 甄十信息科技(上海)有限公司 | 执行移动终端应用功能的方法及设备 |
CN114077723A (zh) * | 2020-08-13 | 2022-02-22 | 厦门大学 | 使用柔性传感器进行人体姿势跟踪的用户身份验证方法 |
CN116466828A (zh) * | 2023-06-19 | 2023-07-21 | 无锡车联天下信息技术有限公司 | 一种智能座舱驾驶环境手势智能检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103442114A (zh) * | 2013-08-16 | 2013-12-11 | 中南大学 | 一种基于动态手势的身份认证方法 |
US20150213244A1 (en) * | 2014-01-30 | 2015-07-30 | Microsoft Corporation | User-authentication gestures |
CN105100376A (zh) * | 2014-05-16 | 2015-11-25 | 中国移动通信集团湖南有限公司 | 一种身份认证方法及装置 |
CN105407069A (zh) * | 2014-06-30 | 2016-03-16 | 阿里巴巴集团控股有限公司 | 活体认证方法、装置、客户端设备及服务器 |
CN105912910A (zh) * | 2016-04-21 | 2016-08-31 | 武汉理工大学 | 基于手机传感的在线签名身份认证方法及系统 |
-
2016
- 2016-12-01 CN CN201611087785.6A patent/CN106411952B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103442114A (zh) * | 2013-08-16 | 2013-12-11 | 中南大学 | 一种基于动态手势的身份认证方法 |
CN103442114B (zh) * | 2013-08-16 | 2015-10-21 | 中南大学 | 一种基于动态手势的身份认证方法 |
US20150213244A1 (en) * | 2014-01-30 | 2015-07-30 | Microsoft Corporation | User-authentication gestures |
CN105100376A (zh) * | 2014-05-16 | 2015-11-25 | 中国移动通信集团湖南有限公司 | 一种身份认证方法及装置 |
CN105407069A (zh) * | 2014-06-30 | 2016-03-16 | 阿里巴巴集团控股有限公司 | 活体认证方法、装置、客户端设备及服务器 |
CN105912910A (zh) * | 2016-04-21 | 2016-08-31 | 武汉理工大学 | 基于手机传感的在线签名身份认证方法及系统 |
Non-Patent Citations (5)
Title |
---|
GAN CHUANG: "Dynamic gesture recognition based on 3D kinect", 《ELECTRO-OPTIC TECHNOLOGY APPLICATION》 * |
周治平,苗敏敏: "基于改进DTW及互信息去噪的手势认证研究", 《传感技术学报》 * |
彭淑娟: "基于中心距离特征的人体运动序列关键帧提取", 《系统仿真学报》 * |
李凯,王永雄,孙一品: "一种改进的DTW动态手势识别方法", 《小型微型计算机系统》 * |
石祥滨,刘栓朋,张德园: "基于关键帧的人体动作识别方法", 《系统仿真学报》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107894834A (zh) * | 2017-11-09 | 2018-04-10 | 上海交通大学 | 增强现实环境下控制手势识别方法与系统 |
CN107894834B (zh) * | 2017-11-09 | 2021-04-02 | 上海交通大学 | 增强现实环境下控制手势识别方法与系统 |
CN108960171B (zh) * | 2018-07-12 | 2021-03-02 | 安徽工业大学 | 一种基于特征迁移学习的转换手势识别到身份识别的方法 |
CN108960171A (zh) * | 2018-07-12 | 2018-12-07 | 安徽工业大学 | 一种基于特征迁移学习的转换手势识别到身份识别的方法 |
CN109409316B (zh) * | 2018-11-07 | 2022-04-01 | 极鱼(北京)科技有限公司 | 空中签名方法及装置 |
CN109409316A (zh) * | 2018-11-07 | 2019-03-01 | 极鱼(北京)科技有限公司 | 空中签名方法及装置 |
CN110298159A (zh) * | 2019-06-28 | 2019-10-01 | 闽江师范高等专科学校 | 一种智能手机动态手势身份认证方法 |
CN110298159B (zh) * | 2019-06-28 | 2021-04-20 | 闽江师范高等专科学校 | 一种智能手机动态手势身份认证方法 |
CN111026453A (zh) * | 2019-11-22 | 2020-04-17 | 甄十信息科技(上海)有限公司 | 执行移动终端应用功能的方法及设备 |
CN114077723A (zh) * | 2020-08-13 | 2022-02-22 | 厦门大学 | 使用柔性传感器进行人体姿势跟踪的用户身份验证方法 |
CN114077723B (zh) * | 2020-08-13 | 2024-06-07 | 厦门大学 | 使用柔性传感器进行人体姿势跟踪的用户身份验证方法 |
CN116466828A (zh) * | 2023-06-19 | 2023-07-21 | 无锡车联天下信息技术有限公司 | 一种智能座舱驾驶环境手势智能检测方法 |
CN116466828B (zh) * | 2023-06-19 | 2023-08-18 | 无锡车联天下信息技术有限公司 | 一种智能座舱驾驶环境手势智能检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106411952B (zh) | 2019-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106411952A (zh) | 一种隔空动态手势用户身份认证方法及装置 | |
Tian et al. | KinWrite: Handwriting-Based Authentication Using Kinect. | |
CN107748869A (zh) | 3d人脸身份认证方法与装置 | |
CN107831907A (zh) | 基于步态识别的身份认证方法及装置 | |
CN108629167A (zh) | 一种结合可穿戴设备的多智能设备身份认证方法 | |
CN107633165A (zh) | 3d人脸身份认证方法与装置 | |
CN111178408B (zh) | 基于联邦随机森林学习的健康监护模型构建方法、系统 | |
Blanco‐Gonzalo et al. | Performance evaluation of handwritten signature recognition in mobile environments | |
CN103595538B (zh) | 基于手机加速度传感器的身份认证方法 | |
CN105184254B (zh) | 一种身份认证方法及系统 | |
Zhang et al. | 3D Biometrics | |
CN103886283A (zh) | 用于移动用户的多生物特征图像信息融合方法及其应用 | |
WO2018161893A1 (zh) | 用户身份识别方法及装置 | |
CN109478290A (zh) | 基于指纹扫描来认证或识别用户的方法 | |
CN108960171B (zh) | 一种基于特征迁移学习的转换手势识别到身份识别的方法 | |
CN101681497A (zh) | 静脉图形管理系统、静脉图形注册设备、静脉图形认证设备、静脉图形注册方法、静脉图形认证方法、程序和静脉数据配置 | |
CN103309513A (zh) | 包含手掌侧表面信息的手写笔迹输入设备 | |
CN105893809A (zh) | 使用svm分类器识别智能终端用户身份的方法 | |
CN108846343A (zh) | 基于三维视频的多任务协同分析方法 | |
CN102411712B (zh) | 基于笔迹的身份识别的方法及终端 | |
Li et al. | Handwritten signature authentication using smartwatch motion sensors | |
CN107026928A (zh) | 一种基于手机传感器的行为特征识别认证方法及装置 | |
Alrawili et al. | Comprehensive survey: Biometric user authentication application, evaluation, and discussion | |
Lu et al. | Fmcode: A 3d in-the-air finger motion based user login framework for gesture interface | |
Liu et al. | Reliable Multi-Factor User Authentication With One Single Finger Swipe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |