CN104156650A - 一种基于手部运动的用户身份识别方法 - Google Patents
一种基于手部运动的用户身份识别方法 Download PDFInfo
- Publication number
- CN104156650A CN104156650A CN201410390861.5A CN201410390861A CN104156650A CN 104156650 A CN104156650 A CN 104156650A CN 201410390861 A CN201410390861 A CN 201410390861A CN 104156650 A CN104156650 A CN 104156650A
- Authority
- CN
- China
- Prior art keywords
- hand exercise
- track
- user
- user identity
- movement locus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- General Physics & Mathematics (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于手部运动的用户身份识别方法,利用人的手部运动特点实现身份识别。方法分为离线阶段和在线阶段,在离线阶段,通过深度相机记录所有待识别用户的手部运动轨迹,然后对轨迹进行分割,并对分割后的轨迹提取时空参数作为特征信息,最终通过机器学习的方法训练特征数据得到用户的身份识别模型。在在线阶段,同样地采集用户的手部运动轨迹,并对轨迹进行分割与特征提取。之后使用离线阶段得到的用户身份识别模型进行在线识别。本方法结合深度相机,利用人的手部运动行为来实现身份识别,结合了人的生理特性与行为特性,具有随身性,普遍性,非侵犯性,易接受性等优点。
Description
技术领域
本发明涉及身份识别领域,尤其涉及一种基于手部运动的用户身份识别方法。
背景技术
随着时代与科技的发展,用户识别在人们的生活与工作中的重要性日益显现。用户识别能够有效地保障访问的安全性,是信息安全体系的基础。传统的用户识别方法有密码识别以及智能卡等身份标识物品识别,然而由于其固有的局限性已经远远不能满足要求。密码容易被遗忘,而智能卡等物品可能丢失,一旦它们遗失或者被盗取,其代表的身份就容易被他人冒充。
基于生物特征的身份识别技术是身份识别领域的研究热点。生物特征又分为生理特征与行为特征。生理特征是人生来就具有的,如人脸、指纹、虹膜和DNA等。行为特征是人的后天习惯养成的,如签名笔迹、走路姿态等。
典型的基于生理特征的识别方法有指纹识别,手掌形状及轮廓识别,人脸识别,虹膜识别等。指纹识别是目前应用最广泛的基于生物特征的身份识别方法之一。指纹识别具有技术成熟,成本低廉等优点。其缺点是接触式的,具有侵犯性,存在卫生方面的问题,同时指纹也是易磨损的。Dominik Schmidt等人提出在多点触控交互式平台上利用手掌的轮廓特征的身份识别方法,用户将手掌放在触控表面上,系统捕捉手掌的剪影图像,通过手掌轮廓的匹配进行身份识别。该技术适用于多人交互式平台上,否则需要额外的专用扫描仪来输入手掌轮廓图像。人脸识别技术是近年来非常活跃的一个研究领域,具有直观性好、方便、友好、容易被人接受的优点。人脸识别是非接触式的,被动识别,不需要人的主动配合;但缺点是容易受到光照、视角、遮挡物、环境、表情等的影响,造成识别困难。虹膜特征识别的安全度和精准度非常高,但是特征采集过程非常困难。
基于行为特征的身份识别技术,常见的有步态识别与签名笔迹。步态识别的输入是一段行走的视频图像序列,数据量很大,导致计算复杂性高,处理起来比较困难,而签名笔迹等容易被模仿,防欺骗性差。
除基于生物特征的识别技术外,近年来其他的一些识别技术有:基于特制的笔或特制手套等设备的用户识别方法,基于用户自身携带移动设备的用户识别方法等。一般来说,这类识别方法都需要借助额外的设备,需要用户配合穿戴使用,便捷性不足,有的只适用于特定平台。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于手部运动的用户身份识别方法。
本发明的目的是通过以下技术方案来实现的:一种基于手部运动的用户身份识别方法,包括以下步骤:
(1)在离线阶段,建立用户身份识别模型;具体包括以下子步骤:
(1.1)手部运动轨迹采集:用户站在深度相机正前方,正面朝向深度相机,自然挥动手臂进行轨迹记录;通过深度相机采集用户在前后、左右、上下三个方向挥动手臂动作的连续运动轨迹,运动轨迹以等时间采样点的空间坐标形式保存;
(1.2)轨迹处理与特征定义:对步骤1.1得到的连续运动轨迹进行分割,分割成左右方向,上下方向,前后方向三个方向的完整来回动作轨迹,即“左→右,右→左”,“后→前,前→后”,“下→上,上→下”这样的来回运动轨迹;提取分割后运动轨迹中的时空信息作为特征样本,所述时空信息包括空间包围盒参数与时间参数;空间包围盒参数包括宽度、高度、深度参数;对每一个用户,提取多个特征样本;
(1.3)特征分类:对于步骤1.2得到的所有的用户特征样本,使用机器学习方法训练分类器进行分类,建立用户身份识别模型;
(2)在在线阶段,进行用户身份识别,具体为:使用深度相机采集用户的手部运动轨迹,并对采集的手部运动轨迹进行分割与特征提取;使用离线阶段得到的用户身份识别模型采用机器学习方法进行在线识别。
步骤1.3与步骤2中所述机器学习方法具体为使用支持向量机原理并选用径向基函数作为核函数,基于一对一的多类分类方法对提取到的特征数据进行训练与分类。
本发明的有益效果是:本发明利用人的手部运动特征进行用户身份识别,结合了人的生理特性与行为特性,具有随身性,普遍性,非侵犯性和可接受性等优点,用户只需要自然挥动手臂,没有其他额外要求需要配合。本发明通过深度摄像机采集手部运动的轨迹,设备简易,操作便捷,数据量小。从手部运动轨迹中提取的信息量少且不复杂,计算处理快速。
附图说明
图1是本方法的实施流程;
图2 是手部运动轨迹采集示意图;
图3是一段分割前的左右方向手部运动轨迹采样点正视图;
图4是图3中运动轨迹分割后的从左至右轨迹采样点正视图;
图5是图3中运动轨迹分割后的从右至左轨迹采样点正视图;
图6是一段分割后的左右方向手部运动轨迹正视图;
图7是图6中同一段轨迹的侧视图;
图8是一段轨迹的空间包围盒示意图;
图9是轨迹处理与特征提取(以左右方向为例)的流程图。
具体实施方式
下面结合附图对本发明进行详细的描述。
如图1所示,本发明基于手部运动的用户身份识别方法分为离线阶段与在线阶段。
在离线阶段,建立用户身份识别模型。包括以下子步骤:
1.手部运动轨迹采集:本发明以人的手部运动轨迹为输入,使用深度相机跟踪记录人的手部运动轨迹。用户站在深度相机正前方,正面朝向深度相机,自然挥动手臂进行轨迹记录;通过深度相机采集用户在前后、左右、上下三个方向挥动手臂动作的连续运动轨迹,运动轨迹以等时间采样点的空间坐标形式保存。图2展示了手部运动轨迹输入时的采集环境。深度相机距离地面140cm,用户站在距离相机210cm处的一个60cm*50cm大小的矩形框内,保证用户的手部动作被完整记录。
采集手部运动信息时,用户的操作流程如下:
(1.1).开始时,用户正面朝向深度相机正前方,规律性地挥动手臂,以便让深度相机检测到运动中的手部;
(1.2).当深度相机检测到手掌时,在手掌的位置形成一个跟踪点,此时,用户按照要求自然地在左右方向挥动手臂(或上下方向抬手,前后方向推手);
(1.3).记录该方向的一个完整动作后,放下手臂;
(1.4).等待数秒后,开始第二个该方向上的动作轨迹采集。重复步骤1与步骤2。等待数秒是为了保证每一次采集到的动作与前一次不具有连贯性;
(1.5).按照以上步骤完成三个方向上的运动轨迹采集,每个方向采集10段完整运动轨迹。
2.轨迹处理与特征定义:对步骤1得到的连续运动轨迹进行分割,分割成左右方向,上下方向,前后方向三个方向的完整来回动作轨迹,即“左→右,右→左”,“后→前,前→后”,“下→上,上→下”这样的来回运动轨迹;提取分割后运动轨迹中的时空信息作为特征样本,所述时空信息包括空间包围盒参数与时间参数;空间包围盒参数包括宽度、高度、深度参数;对每一个用户,提取多个特征样本。
轨迹分割与特征提取方法(以左右方向为例):
图3展示了深度相机记录的左右方向的一段手部运动轨迹等时间采样点的正视图,使用计算机对轨迹进行去冗余与分割后,得到一段从左至右与一段从右至左的完整轨迹(图4与图5为分割后的轨迹等时间采样点)。本例采用了《An algorithmic framework for segmenting trajectories based on spatio-temporal criteria》一文中所述的轨迹分割方法进行轨迹分割。对于分割后的两段来回运动轨迹,计算出它们空间包围盒的宽度、高度、深度等参数,如图6-8所示。由于本方法基于等时长进行轨迹采样,时间参数根据该段轨迹采样点的总数量确定。这样提取出的空间参数与时间参数构成了该用户手部在左右方向运动时的运动轨迹特征。
按照同样的方法,输入手部在前后方向与上下方向运动的轨迹,提取出运动轨迹特征。因此,在每个方向上可得到8个特征参数,如左右方向的特征参数可表述为:(t lr ,w lr ,h lr ,d lr ,t rl ,w rl ,h rl ,d rl ),其中t lr 表示从左至右的手部运动轨迹的时间参数,w lr 、h lr 、d lr 分别表示从左至右的手部运动轨迹空间包围盒的宽度,高度与深度参数;t rl 表示从右至左的运动轨迹的时间参数,w rl 、w rl 、d rl 分别表示从右至左的手部运动轨迹空间包围盒的宽度,高度与深度参数。这样,左右、前后、上下三个方向一共可获得24个特征参数,构成一个用户特征样本,用于刻画用户的手部运动。图9表示了左右方向上轨迹分割与特征提取流程。
3.特征分类:对于步骤2得到的用户特征样本,本发明使用支持向量机(Support Vector Machine, SVM)原理对运动轨迹特征进行训练与分类,构造用户识别模型。选用径向基(Radial Basis Function, RBF)核函数基于一对一方法进行多类分类。选用SVM与RBF核函数是因为它们在解决小样本、非线性及高维模式识别中表现出许多特有的优势,能有效防止过度拟合,数据训练时间相对较短,且分类精度较高。
在在线阶段,仍使用深度相机采集用户的手部运动轨迹,并对采集到的运动轨迹进行分割与特征提取。之后根据SVM原理使用离线阶段得到的用户身份识别模型进行在线识别。
Claims (2)
1.一种基于手部运动的用户身份识别方法,其特征在于,包括以下步骤:
(1)在离线阶段,建立用户身份识别模型;具体包括以下子步骤:
(1.1)手部运动轨迹采集:用户站在深度相机正前方,正面朝向深度相机,自然挥动手臂进行轨迹记录;通过深度相机采集用户在前后、左右、上下三个方向挥动手臂动作的连续运动轨迹,运动轨迹以等时间采样点的空间坐标形式保存;
(1.2)轨迹处理与特征定义:对步骤1.1得到的连续运动轨迹进行分割,分割成左右方向,上下方向,前后方向三个方向的完整来回动作轨迹,即“左→右,右→左”,“后→前,前→后”,“下→上,上→下”这样的来回运动轨迹;提取分割后运动轨迹中的时空信息作为特征样本,所述时空信息包括空间包围盒参数与时间参数;空间包围盒参数包括宽度、高度、深度参数;对每一个用户,提取多个特征样本;
(1.3)特征分类:对于步骤1.2得到的所有的用户特征样本,使用机器学习方法训练分类器进行分类,建立用户身份识别模型;
(2)在在线阶段,进行用户身份识别,具体为:使用深度相机采集用户的手部运动轨迹,并对采集的手部运动轨迹进行分割与特征提取;使用离线阶段得到的用户身份识别模型采用机器学习方法进行在线识别。
2.根据权利要求1所述的一种基于手部运动的用户身份识别方法,其特征在于,所述步骤1.3中,所述使用机器学习方法训练分类器进行分类具体为:使用支持向量机原理并选用径向基函数作为核函数,基于一对一的多类分类方法对提取到的用户特征样本进行训练与分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410390861.5A CN104156650A (zh) | 2014-08-08 | 2014-08-08 | 一种基于手部运动的用户身份识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410390861.5A CN104156650A (zh) | 2014-08-08 | 2014-08-08 | 一种基于手部运动的用户身份识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104156650A true CN104156650A (zh) | 2014-11-19 |
Family
ID=51882148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410390861.5A Pending CN104156650A (zh) | 2014-08-08 | 2014-08-08 | 一种基于手部运动的用户身份识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104156650A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845403A (zh) * | 2017-01-20 | 2017-06-13 | 武汉哒呤科技有限公司 | 一种通过用户行为轨迹确定其身份特质的方法 |
CN108520230A (zh) * | 2018-04-04 | 2018-09-11 | 北京天目智联科技有限公司 | 一种3d四维手部图像数据识别方法及设备 |
WO2018228218A1 (zh) * | 2017-06-16 | 2018-12-20 | 腾讯科技(深圳)有限公司 | 身份识别方法、计算设备及存储介质 |
CN109413057A (zh) * | 2018-10-17 | 2019-03-01 | 上海交通大学 | 基于细粒度手指姿态的智能家居连续用户认证方法及系统 |
CN109918883A (zh) * | 2019-02-22 | 2019-06-21 | 袁精侠 | 一种基于手绘轨迹的生物性特征的身份验证方法 |
CN111163425A (zh) * | 2020-01-02 | 2020-05-15 | 中国平安财产保险股份有限公司 | 基于lbs轨迹的身份识别方法、电子装置及可读存储介质 |
CN113837512A (zh) * | 2020-06-23 | 2021-12-24 | 中国移动通信集团辽宁有限公司 | 异常用户的识别方法及装置 |
WO2022038591A1 (en) * | 2020-08-20 | 2022-02-24 | Ramot At Tel-Aviv University Ltd. | Dynamic identity authentication |
-
2014
- 2014-08-08 CN CN201410390861.5A patent/CN104156650A/zh active Pending
Non-Patent Citations (1)
Title |
---|
MAIKE BUCHIN等: "Segmenting trajectories:A framework and algorithms using spatiotemporal criteria", 《JOURNAL OFSPATI ALINFORMATIONSCIENCE》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845403A (zh) * | 2017-01-20 | 2017-06-13 | 武汉哒呤科技有限公司 | 一种通过用户行为轨迹确定其身份特质的方法 |
WO2018228218A1 (zh) * | 2017-06-16 | 2018-12-20 | 腾讯科技(深圳)有限公司 | 身份识别方法、计算设备及存储介质 |
CN108520230A (zh) * | 2018-04-04 | 2018-09-11 | 北京天目智联科技有限公司 | 一种3d四维手部图像数据识别方法及设备 |
CN109413057A (zh) * | 2018-10-17 | 2019-03-01 | 上海交通大学 | 基于细粒度手指姿态的智能家居连续用户认证方法及系统 |
CN109413057B (zh) * | 2018-10-17 | 2020-01-17 | 上海交通大学 | 基于细粒度手指姿态的智能家居连续用户认证方法及系统 |
CN109918883A (zh) * | 2019-02-22 | 2019-06-21 | 袁精侠 | 一种基于手绘轨迹的生物性特征的身份验证方法 |
CN111163425A (zh) * | 2020-01-02 | 2020-05-15 | 中国平安财产保险股份有限公司 | 基于lbs轨迹的身份识别方法、电子装置及可读存储介质 |
CN113837512A (zh) * | 2020-06-23 | 2021-12-24 | 中国移动通信集团辽宁有限公司 | 异常用户的识别方法及装置 |
WO2022038591A1 (en) * | 2020-08-20 | 2022-02-24 | Ramot At Tel-Aviv University Ltd. | Dynamic identity authentication |
KR20230018529A (ko) * | 2020-08-20 | 2023-02-07 | 라모트 앳 텔-아비브 유니버시티 리미티드 | 동적 식별 인증 |
KR102607766B1 (ko) | 2020-08-20 | 2023-11-29 | 라모트 앳 텔-아비브 유니버시티 리미티드 | 동적 식별 인증 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104156650A (zh) | 一种基于手部运动的用户身份识别方法 | |
Bak et al. | Spatio-temporal saliency networks for dynamic saliency prediction | |
Shan et al. | 3D human action segmentation and recognition using pose kinetic energy | |
Jalal et al. | Human daily activity recognition with joints plus body features representation using Kinect sensor | |
Kastaniotis et al. | Gait-based gender recognition using pose information for real time applications | |
CN109191497A (zh) | 一种基于多种信息融合的实时在线多目标跟踪方法 | |
Ahmed et al. | Kinect-based gait recognition using sequences of the most relevant joint relative angles | |
Xu et al. | Movement Human Actions Recognition Based on Machine Learning. | |
CN103605986A (zh) | 一种基于局部特征的人体动作识别方法 | |
CN105893942B (zh) | 一种基于eSC和HOG的自适应HMM的手语识别方法 | |
Vasanth et al. | Facial expression recognition using SVM classifier | |
Sharma et al. | Numeral gesture recognition using leap motion sensor | |
Moussa et al. | Human action recognition utilizing variations in skeleton dimensions | |
CN108614988A (zh) | 一种复杂背景下的运动手势自动识别系统 | |
Pang et al. | Dance video motion recognition based on computer vision and image processing | |
Elakkiya et al. | Intelligent system for human computer interface using hand gesture recognition | |
CN116631068B (zh) | 一种基于深度学习特征融合的掌静脉活体检测方法 | |
Mihail et al. | Static hand gesture recognition with 2 Kinect sensors | |
Munir et al. | Hand Gesture Recognition: A Review | |
Arunnehru et al. | Behavior recognition in surveillance video using temporal features | |
Kshirsagar et al. | Comparing key frame selection for one-two hand gesture recognition using different methods | |
Vo et al. | Automatic hand gesture segmentation for recognition of Vietnamese sign language | |
CN112308041A (zh) | 一种基于视觉的无人平台手势控制方法 | |
Li et al. | Hand shape recognition and estimation for South African sign language | |
Shirbhate et al. | Human body language understanding for action detection using geometric features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20141119 |
|
WD01 | Invention patent application deemed withdrawn after publication |