CN107169334A - 用于手部可穿戴设备的基于直拳动作检测的用户认证方法 - Google Patents
用于手部可穿戴设备的基于直拳动作检测的用户认证方法 Download PDFInfo
- Publication number
- CN107169334A CN107169334A CN201710328296.3A CN201710328296A CN107169334A CN 107169334 A CN107169334 A CN 107169334A CN 201710328296 A CN201710328296 A CN 201710328296A CN 107169334 A CN107169334 A CN 107169334A
- Authority
- CN
- China
- Prior art keywords
- data
- wearable device
- uproar
- user
- making
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
一种用于手部可穿戴设备的基于直拳动作检测的用户认证方法,首先采用离线建立分类器模块通过可穿戴设备收集多组用户佩戴设备时做出的直拳动作产生的传感器数据,对数据进行除噪后提取特征值,将特征值作为特征向量采用一类支持向量机训练得到分类模型,构建分类器;再采用在线识别模块通过可穿戴设备收集穿戴者的传感器数据,根据对除噪后的数据的特征向量,通过离线建立分类器模块构建的分类器进行分类,界定穿戴者是否为拥有者,并将结果输出;本发明相对于大多数厂商已经使用的现有身份识别机制而言,安全性高,不易被窃听,并且挥拳动作简单易于操作,能够在大多数手部可穿戴设备上应用。
Description
技术领域
本发明涉及的是一种身份识别领域的技术,具体是一种用于手部可穿戴设备的基于直拳动作检测的用户认证方法。
背景技术
近年来,由于廉价化和便利性,可穿戴设备在生活中的应用越来越广泛,智能手表、手环等为用户提供了许多实用功能,同时也带来了新的安全问题。由于在这些设备上存储了许多敏感信息,如果没有相应的身份认证机制,这些信息很可能被侵入者窃听。而可穿戴设备的身份识别机制需要应用可穿戴设备上已有的感知设备获得用户的身份信息。大多数设备厂商都使用以下两种认证机制:一是通过输入PIN码的方式验证。但是可穿戴设备由于其特性,触摸屏都较小,甚至没有触摸屏,所以这种方式对应用场景有所限制;并且,这种密码也很容易被窃听。二是通过智能设备配对的方式验证。在用户拥有相同厂商的其它设备(如智能手机)的情况下,将可穿戴设备与手机之间通过蓝牙配对,以手机的安全性保证设备的安全性。但这种机制为配对双方都带来了风险,这类机制简单但是安全性低,设备容易被侵入,侵入者只需要侵入任一设备就可以获得另一设备的访问权限。
目前学界研究者提出的最新方法,可分为以下两种。一是基于步态分析的方法,该方法基于步行时下肢运动表达的生物特征分析。步态分析可以采用图像分析、肌电分析等多种手段应用于身份识别。在可穿戴设备上,由于硬件限制,只能采用运动传感器采集数据进行分析。通过用户佩戴设备时检测步行动作产生的传感器数据,可以获得用户步行的模式。在识别时将采集的数据与合法用户的模式进行匹配可以识别是否为合法用户。但该方法需要较长的数据采集时间才能获得合法用户的步态,并且受用户所在环境条件限制较大,如当用户走在不同平面上会表达不同的特征。
二是通过特殊硬件探测人体相关的生物特征信息。例如通过向人体发射微电流,再接收人体返回的电流的方式,获得人体皮肤表达的生物特征信息;再如,用振动器向人体发送短时间震动,人体会有相应的震动过程返回。利用这些信息能够识别佩戴者的身份。上述两种方法主要受硬件条件限制,在绝大多数设备上并不能应用,并且也与设备的环境因素有关,一般都限制在人体的某个部位才能保证识别准确率。
发明内容
本发明针对现有技术需要预设轨迹、检测时对线性加速工处理的数据量及样本量大等缺陷,提出一种用于手部可穿戴设备的基于直拳动作检测的用户认证方法,基于人的简单手部动作表达的生物特征信息,通过分析手部动作的运动传感器数据,量化动作所表达的生物特征信息,通过机器学习方法构建设备拥有者的模型并储存在可穿戴设备上;如果设备对当前穿戴者的身份未知,则要求做出直拳动作,然后将从传感器中得到的特征信息和存储的模型进行匹配,达到身份识别的目的。
本发明是通过以下技术方案实现的:
本发明首先采用离线建立分类器模块通过可穿戴设备收集多组用户佩戴设备时做出的直拳动作产生的传感器数据,对数据进行除噪后提取特征值,将特征值作为特征向量采用一类支持向量机训练得到分类模型,构建分类器;再采用在线识别模块通过可穿戴设备收集穿戴者的传感器数据,根据对除噪后的数据的特征向量,通过离线建立分类器模块构建的分类器进行分类,界定穿戴者是否为拥有者,并将结果输出。
所述的可穿戴设备包括但不限于:智能手表和智能手环。
所述的除噪为低通滤波除噪。
所述的特征值通过对除噪后的传感器数据计算统计特征的方法提取。
所述的传感器为运动传感器,包括但不限于:重力传感器、方向传感器或陀螺仪。
技术效果
与现有技术相比,本发明对于设备的额外硬件要求只有运动传感器,不需添加任何硬件,对当前市场上的设备都可应用;同时手部动作所表达的生物特征信息无法被偷窃,即使侵入者观察拥有者做动作的方式,也很难模仿相应动作;并且由于系统中提出的特征提取算法的特性,模仿同样的动作得到的特征信息也不同,由此能够保证设备不易被侵入,保证设备的安全性。
附图说明
图1为本发明示意图;
图2为同一用户10组处理后的传感器采样数据比较;
图3为5个不同用户的采样数据比较;
图4为5个不同用户在二维特征向量空间中的分布;
图5为本实施例识别准确率(Accuracy)评估;
图6为本实施例识别误判率(FPR)评估;
图7为本实施例识别等错误率(EER)的CDF(Cumulative distribution Function,累积分布函数)评估。
具体实施方式
如图1所示,本实施例包括以下步骤:
步骤1、采用离线建立分类器模块通过可穿戴设备收集多组用户佩戴设备时做出的直拳动作产生的传感器数据,对数据进行除噪后提取特征值,将特征值作为特征向量采用一类支持向量机训练得到分类模型,建立分类器。
所述的可穿戴设备包括但不限于:智能手表和智能手环。
步骤2、采用在线识别模块通过可穿戴设备收集穿戴者的传感器数据,根据对除噪后的数据的特征向量,通过离线建立分类器模块建立的分类器进行分类,界定穿戴者是否为拥有者,并将结果输出。
不同的人做同一个动作所表达的生物特征信息是不同的。通过分析用户做出直拳动作时设备记录的运动传感器数据,能够量化该动作表达的生物特征信息。以特征信息作为用户的身份签名,在设备穿戴者身份未知的情况下,让穿戴者做出相应动作,并提取特征信息。对比未知用户的特征与存储在设备上的设备拥有者的特征,如果相同则认为穿戴者是设备拥有者。
所述的除噪为低通滤波除噪,用于去除传感器本身带来的噪音。
所述的传感器数据本身带有一定的高频噪音,这些噪音会被引入特征信息的计算,所以系统首先需要对收集的数据进行去噪。因为人的动作的频率远小于传感器数据的采样频率,所以可以使用低通滤波的算法进行。在滤波后通过观察同一用户的一组数据发现,在传感器x轴上的数据具有相似性,有明显的相似特征。但是在y轴和z轴上的数据的随机性较大,不具有相似性。这是由于在用户做出挥拳动作时,设备上的x轴的方向与手的运动方向一致,而y轴和z轴上的数据则大多是由于手的抖动产生的,所以y轴和z轴上的数据会不一致。由此,可以使用x轴上的数据提取特征信息。
所述的提取特征向量包括以下步骤:
S1:根据静止状态下基准水平和动作时的能量水平确定挥拳动作的开始时间和结束时间。
所述的基准水平是指系统开始记录时的100ms内的数据均值。
定义一个时间窗口内的能量水平的计算方式为:其中:E为能量水平,t为时间窗口的开始时间,W为时间窗口长度,n为数据点对应的时间。
由于系统只使用挥拳动作的数据,所以需要先界定动作的开始和结束时间。因为系统首先开始记录传感器数据再提醒用户做出相应动作的时间,在传感器开始记录数据的100ms内,用户的动作还没有开始,所以系统提取开始记录时的100ms内的数据并取均值作为设备静止时的基准水平。
通过计算数据的能量水平并与基准水平进行比较,当能量水平超过基准水平一定阈值时,可以认为动作已经开始,则当前能量水平对应的时间窗口起点就是动作的开始时间。类似的,将系统记录数据的最后100ms内的数据均值作为动作结束后设备静止的基准水平,可以用同样的方法计算动作的结束时间。使用两个不一样的基准水平是因为一个动作开始前和结束后设备的角度可能不一样,即使都是在静止状态下,也会造成x轴方向上的分量不一致。
S2:在获得动作的开始和结束时间之后,分离出动作产生的传感器数据。
如图2所示,将同一用户的多组数据进行比较,发现存在明显的相似性;如图3所示,通过对不同用户的数据进行对比,发现存在较大的差异,说明不同用户的挥拳动作表达了不同的特征信息。
所述的传感器为重力传感器。
S3:通过对除噪后的传感器数据计算统计特征的方法提取特征值,作为一类支持向量机训练的特征向量。
通过对不同用户的多组数据分析得到,传感器x轴上的数据都存在两个波峰peak1,
peak2和一个波谷valley,但其数值分布不同,则提取16个统计特征构成特征向量,如表1所示。
表1 16个统计特征属性
所述的波峰的带宽的计算公式为:其中:为某个时间点t在x轴上的采样值,α为波峰阈值系数,Tυ为波谷对应的时间点,TN为动作结束时间。
以上公式从波峰的峰值采样点向两边搜索,当采样值小于一个阈值时停止搜索,得到的两个边界之间的时间差就是带宽,阈值与波峰的值成正比,参数α与波峰的值成正比。波峰的带宽计算表达了采样值的变化速度。
所述的波谷的带宽的计算与波峰类似,但由于不同的用户得到的数据中波谷的值可能为正值或是负值,所以计算公式有所不同:其中:β为波谷阈值系数,Tρ1和Tρ2分别为peak1和peak2的峰值对应的时间。
同时,这里计算了带宽里的统计指标均值μ与标准差σ作为特征值。在动作开始之前时由于重力因素在三个轴上都会有相应的读数。由于用户手的摆放方式的不同三个分量的大小也不同,accI为在静止状态下某一轴上的重力分量初始值,这三个分量读数也可作为特征信息。accI的计算方式如下:其中:T0为动作开始的时间。在y和z轴上动作产生的数据虽然是随机的,但是在这里计算的初始值却能保持一致。如图4所示,提取了5个不同用户的2个不同的特征值作为示例,对于不同的用户,使用这2个特征值能够有效区分。
所述的分类器通过一类支持向量机构建,这是由于在实际情况下,系统的初始化阶段只能获得可穿戴设备拥有者的数据。一类支持向量机在训练阶段只需要正类的训练数据,在向量空间中构建一个紧靠正类数据的分类边界,即认为在边界之外的所有可能的数据都属于负类。
在本实施例中,分类器构建的阶段只需要收集设备拥有者的若干组动作特征值数据,并通过一类支持向量机训练,得到分类模型。
在分类器构建完成后,系统可以进入实际使用阶段。在设备需要对穿戴者的身份进行识别时,系统要求穿戴者进行挥拳,并收集挥拳时得到的传感器数据,通过前述数据处理方法和特征提取方法得到对应的特征向量。将此特征向量通过已经构建的分类器进行分类,如果为正类则认为穿戴者是设备拥有者,否则认为穿戴者是侵入者,将不给予访问权限。
如图5~7所示,为本实施例的评估结果。本实施例的评估主要针对以下两种场景进行:一是侵入者在不知道拥有者做动作的方式的情况下,尝试以自己的动作方式进行解锁;二是在侵入者通过偷看的方式得知设备拥有者的动作方式情况下,对其进行模仿并侵入设备。
在第一种场景中,本实施例以识别准确率(Accuracy)和误判率(False PositiveRate,FPR)为指标,评估了在不同训练集大小的情况下,各项指标的变化。评估试验共有20个用户,将每个用户获得的数据作为分类器的训练数据的同时,把其它不参与训练的用户的数据作为测试集,由此得到了20个不同的试验组,并针对每个试验组进行相同试验。从图5和图6可以看出,本实施例最多只需要从合法用户获得25组数据,就可以达到最优识别性能。并且从20组试验的评估指标平均值来看,识别的最优准确率能达到94%以上。
在第二种场景中,本实施例主要以等错误率(Equal Error Rate,EER)为指标进行评估。在识别系统中,可以在构建分类器时通过选择参数将分类边界更紧靠正类,这时对于负类的识别会更准确,但是会造成一些正类的数据也被分类为负类,识别正确率(TPR)会降低。也可以选择在选择分类边界时将所有正类训练数据都包括在边界内,这时对于正类的识别会更准确,但是在识别时会将一些负类的数据也包括在边界内,误判率(FPR)会增加。所以需要在这两种策略中进行权衡。EER即两种策略权衡后的结果,即TPR=1-FPR时EER=FPR。在分类系统中EER越小表示系统性能越好。在该场景中,每当一个人的数据被选为设备拥有者,将随机从剩下的人中选择5个人作为侵入者。拥有者的动作将被录制并展示给侵入者,侵入者通过模仿的方式尝试侵入设备。在图7中展示了评估的结果,可以看到,对于20个试验组,EER最大不超过4%。说明本发明提出的识别系统能够有效防止侵入者侵入设备,无论侵入者是否得知拥有者解锁设备的方式。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。
Claims (6)
1.一种用于手部可穿戴设备的基于直拳动作检测的用户认证方法,其特征在于,首先采用离线建立分类器模块通过可穿戴设备收集多组用户佩戴设备时做出的直拳动作产生的传感器数据,对数据进行除噪后提取特征值,将特征值作为特征向量采用一类支持向量机训练得到分类模型,构建分类器;再采用在线识别模块通过可穿戴设备收集穿戴者的传感器数据,根据对除噪后的数据的特征向量,通过离线建立分类器模块构建的分类器进行分类,界定穿戴者是否为拥有者,并将结果输出,其中:提取特征向量包括以下步骤:
S1:根据静止状态下基准水平和动作时的能量水平确定挥拳动作的开始时间和结束时间;
S2:在获得动作的开始和结束时间之后,分离出动作产生的传感器数据;
S3:通过对除噪后的传感器数据计算统计特征的方法提取特征值,作为一类支持向量机训练的特征向量。
2.根据权利要求1所述的用户认证方法,其特征是,所述的除噪为低通滤波除噪。
3.根据权利要求1所述的用户认证方法,其特征是,所述的传感器包括:重力传感器、方向传感器或陀螺仪。
4.根据权利要求1所述的用户认证方法,其特征是,所述的特征值通过对除噪后的传感器数据计算统计特征的方法提取。
5.根据权利要求1所述的用户认证方法,其特征是,所述的基准水平是指系统开始记录时的100ms内的数据均值。
6.根据权利要求1所述的用户认证方法,其特征是,所述的能量水平的计算方式为:其中:E为能量水平,t为时间窗口的开始时间,W为时间窗口长度,n为数据点对应的时间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710328296.3A CN107169334B (zh) | 2017-05-11 | 2017-05-11 | 用于手部可穿戴设备的基于直拳动作检测的用户认证方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710328296.3A CN107169334B (zh) | 2017-05-11 | 2017-05-11 | 用于手部可穿戴设备的基于直拳动作检测的用户认证方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107169334A true CN107169334A (zh) | 2017-09-15 |
CN107169334B CN107169334B (zh) | 2018-05-08 |
Family
ID=59814961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710328296.3A Active CN107169334B (zh) | 2017-05-11 | 2017-05-11 | 用于手部可穿戴设备的基于直拳动作检测的用户认证方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107169334B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629167A (zh) * | 2018-05-09 | 2018-10-09 | 西安交通大学 | 一种结合可穿戴设备的多智能设备身份认证方法 |
CN109413057A (zh) * | 2018-10-17 | 2019-03-01 | 上海交通大学 | 基于细粒度手指姿态的智能家居连续用户认证方法及系统 |
WO2019114337A1 (zh) * | 2017-12-15 | 2019-06-20 | 阿里巴巴集团控股有限公司 | 移动终端的生物特征认证识别检测方法、装置和设备 |
CN112043566A (zh) * | 2020-09-28 | 2020-12-08 | 上海艾匠健康科技有限公司 | 自动按摩设备 |
CN112069483A (zh) * | 2020-09-14 | 2020-12-11 | 中国科学技术大学 | 一种智能可穿戴设备的用户识别认证方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103345627A (zh) * | 2013-07-23 | 2013-10-09 | 清华大学 | 动作识别方法和装置 |
CN104104773A (zh) * | 2013-04-03 | 2014-10-15 | 江南大学 | 利用svm分类器识别手机用户的方法 |
US20150164377A1 (en) * | 2013-03-13 | 2015-06-18 | Vaidhi Nathan | System and method of body motion analytics recognition and alerting |
CN105530095A (zh) * | 2014-09-29 | 2016-04-27 | 中移电子商务有限公司 | 一种用户身份认证的方法及装置 |
CN105809438A (zh) * | 2016-03-17 | 2016-07-27 | 广东乐心医疗电子股份有限公司 | 用于智能可穿戴设备的身份识别方法、支付方法与装置 |
-
2017
- 2017-05-11 CN CN201710328296.3A patent/CN107169334B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150164377A1 (en) * | 2013-03-13 | 2015-06-18 | Vaidhi Nathan | System and method of body motion analytics recognition and alerting |
CN104104773A (zh) * | 2013-04-03 | 2014-10-15 | 江南大学 | 利用svm分类器识别手机用户的方法 |
CN103345627A (zh) * | 2013-07-23 | 2013-10-09 | 清华大学 | 动作识别方法和装置 |
CN105530095A (zh) * | 2014-09-29 | 2016-04-27 | 中移电子商务有限公司 | 一种用户身份认证的方法及装置 |
CN105809438A (zh) * | 2016-03-17 | 2016-07-27 | 广东乐心医疗电子股份有限公司 | 用于智能可穿戴设备的身份识别方法、支付方法与装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019114337A1 (zh) * | 2017-12-15 | 2019-06-20 | 阿里巴巴集团控股有限公司 | 移动终端的生物特征认证识别检测方法、装置和设备 |
US11288348B2 (en) | 2017-12-15 | 2022-03-29 | Advanced New Technologies Co., Ltd. | Biometric authentication, identification and detection method and device for mobile terminal and equipment |
CN108629167A (zh) * | 2018-05-09 | 2018-10-09 | 西安交通大学 | 一种结合可穿戴设备的多智能设备身份认证方法 |
CN109413057A (zh) * | 2018-10-17 | 2019-03-01 | 上海交通大学 | 基于细粒度手指姿态的智能家居连续用户认证方法及系统 |
CN112069483A (zh) * | 2020-09-14 | 2020-12-11 | 中国科学技术大学 | 一种智能可穿戴设备的用户识别认证方法 |
CN112043566A (zh) * | 2020-09-28 | 2020-12-08 | 上海艾匠健康科技有限公司 | 自动按摩设备 |
Also Published As
Publication number | Publication date |
---|---|
CN107169334B (zh) | 2018-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107169334B (zh) | 用于手部可穿戴设备的基于直拳动作检测的用户认证方法 | |
Shen et al. | Performance evaluation of implicit smartphones authentication via sensor-behavior analysis | |
Nickel et al. | Authentication of smartphone users based on the way they walk using k-NN algorithm | |
CN105242779B (zh) | 一种识别用户动作的方法和移动智能终端 | |
CN111178155B (zh) | 基于惯性传感器的步态特征提取和步态识别方法 | |
CN107831907A (zh) | 基于步态识别的身份认证方法及装置 | |
Uddin et al. | Random forests based recognition of human activities and postural transitions on smartphone | |
CN105184325A (zh) | 一种人体动作识别方法和移动智能终端 | |
CN107358248B (zh) | 一种提高跌倒检测系统精度的方法 | |
CN108021888B (zh) | 一种跌倒检测方法 | |
CN107273726B (zh) | 基于加速度周期变化规律的设备机主身份实时识别方法及其装置 | |
JP2010207488A (ja) | 行動解析装置及びプログラム | |
Ferrero et al. | On gait recognition with smartphone accelerometer | |
CN107007263A (zh) | 一种普适化的睡眠质量测评方法和系统 | |
CN108629170A (zh) | 身份识别方法以及相应的装置、移动终端 | |
CN108958482B (zh) | 一种基于卷积神经网络的相似性动作识别装置及方法 | |
Hestbek et al. | Biometric gait recognition for mobile devices using wavelet transform and support vector machines | |
CN111089604A (zh) | 基于可穿戴传感器的健身运动识别方法 | |
Al-Naffakh et al. | Activity recognition using wearable computing | |
CN111371951B (zh) | 基于肌电信号和孪生神经网络的智能手机用户认证方法和系统 | |
CN112043280A (zh) | 基于智能手机步态识别的危险驾驶行为检测方法及系统 | |
CN106971203B (zh) | 基于走路特征数据的身份识别方法 | |
CN107203712B (zh) | 确定解锁方式的方法、装置、存储介质及终端 | |
WO2022100187A1 (zh) | 一种基于移动端对用户的情感进行识别与监测方法 | |
CN115188031A (zh) | 指纹识别方法、计算机程序产品、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |