CN110929243A - 一种基于手机惯性传感器的行人身份识别方法 - Google Patents

一种基于手机惯性传感器的行人身份识别方法 Download PDF

Info

Publication number
CN110929243A
CN110929243A CN201911157462.3A CN201911157462A CN110929243A CN 110929243 A CN110929243 A CN 110929243A CN 201911157462 A CN201911157462 A CN 201911157462A CN 110929243 A CN110929243 A CN 110929243A
Authority
CN
China
Prior art keywords
data
length
inertial sensor
mobile phone
lstm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911157462.3A
Other languages
English (en)
Other versions
CN110929243B (zh
Inventor
苏今腾
郭迟
罗亚荣
余佩林
张沪寅
顾宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201911157462.3A priority Critical patent/CN110929243B/zh
Publication of CN110929243A publication Critical patent/CN110929243A/zh
Application granted granted Critical
Publication of CN110929243B publication Critical patent/CN110929243B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种基于手机惯性传感器的行人身份识别方法。本发明的核心是一个深度神经网络模型,该模型由三个卷积层、两个LSTM单元、一个注意力机制模块及一个全连接层构成,经过学习训练后,该模型能够在智能手机含有的惯性传感器数据中,挖掘出隐藏的生物特征信息,实现对手机携带者的身份验证。本发明方法具有数据量小、计算速度快的优点,再加上传感器等电子元器件近些年来的迅速发展,所需的成本也比较低。

Description

一种基于手机惯性传感器的行人身份识别方法
技术领域
本发明描述了一种基于手机惯性传感器对行人身份验证的深度神经网络方法,属于生物特征识别技术领域。
背景技术
生物特征识别技术是指利用人体固有的生理特性和行为特征,来进行个人身份的验证,此技术具有不易伪造或被盗、安全方便的特点。目前大部分生物特征识别技术都是对人的虹膜、指纹或脸部进行识别,这些现有技术大都是基于图像,运算速度慢。由于传感器成本低、数据量小易于计算,因此基于惯性传感器的生物特征识别方法更具有发展的潜力。然而,现有的基于惯性传感器的识别技术大都使用的是传统的机器学习方法,由于可穿戴传感器的体积、功耗等限制,采集出的数据会有较大的数据噪声,导致传统的方法无法有效地进行数据挖掘,需要人工提取传感器数据序列中的特征,并且这些特征所能表达的信息有限,最终的识别效果很低,往往要加上先验经验来辅助判断。
发明内容
本发明主要提供一个能够基于手机惯性传感器进行生物特征识别的深度学习方法,以对手机携带者的身份进行鉴定。此技术的核心是一个深度神经网络,它经过学习训练后能够有效地挖掘出传感器数据中隐含的信息,并准确地对手机携带者进行身份鉴定。
本发明的目的在于提供一种有效的行人身份识别的深度学习方法,该技术能够快速地对已有数据集进行学习并对模型参数进行训练修正,训练好的模型能够在智能手机含有的惯性传感器数据中,挖掘出隐藏的生物特征信息,实现对手机携带者的身份验证。
步骤1,惯性传感器携带者使用智能设备采集训练样本数据;
步骤2,采用滑动窗口的方法对原始的传感器数据进行切割,生成多个样本,每个样本含n帧数据,且相邻样本有P%的数据重叠,在生成样本的同时,为每个样本做好标签,标签的内容是样本对应的数据采集者的身份编号;
步骤3,构建深度神经网络模型,该模型包括三个卷积层、两个LSTM单元、一个注意力机制模块和一个全连接层,其中,第一个卷积层中含有64个长度为25的一维卷积核,第二、三个卷积层各含有64个长度为21的一维卷积核,两个LSTM单元中的隐含层神经元个数均为128,全连接层的输出层神经元个数等于要识别的行人身份个数;
步骤4,将步骤2生成的样本输入到步骤3构建的深度神经网络模型,设置合适的训练参数,使模型训练至收敛;
步骤5,身份待验证者使用带有惯性传感器的智能设备采集待验证数据;
步骤6,将待验证数据输入到训练好的模型中计算,若得到的概率预测向量中的最大值大于某一阈值,则返回对应的身份编号作为预测结果;反之则返回-1作为结果,即身份待验证者的数据没有在模型中训练过,为非法身份。
进一步的,所述智能设备为智能手机。
进一步的,步骤1中采集训练样本数据时,设置采集频率为50Hz,智能手机置于左裤兜中,屏幕面朝外,手机头部朝下,放置好后正常步行约2到3分钟。
进一步的,步骤2中采用长128、步长64的滑动窗口对原始的传感器数据进行切割,生成的单个样本有128帧数据,每帧数据有6个浮点数,分别对应加速计的x、y、z轴数据和陀螺仪的x、y、z轴数据。
进一步的,步骤3中深度神经网络模型的处理过程如下,
设大小为(128,6)的样本输入到第一个卷积层后,得到大小为(104,6,64)的特征映射FM1,FM1输入到第二个卷积层得到大小为(84,6,64)的特征映射FM2,FM2输入到第三个卷积层得到大小为(64,6,64)的特征映射FM3;之后将FM3降维成大小为(64,6*64)的二维矩阵,即64个长为384的向量,输入到第一个LSTM单元中,产生64次输出,每次的输出向量长度为128,这64个向量会再输入到第二个LSTM单元中,产生64个长度为128的向量,即大小为(64,,128)的二维矩阵,记这个二维矩阵为hlstm,hlstm会被输入到注意力机制模块,进行评分加权求和,计算方法如下所示:
Figure BDA0002285182670000021
Figure BDA0002285182670000022
Figure BDA0002285182670000023
其中,
Figure BDA0002285182670000024
αi为hlstm中第i条向量的分数和权重系数,v是长为80的列向量,W是(80,128)的二维矩阵,b是长为80的列向量,N是hlstm中向量的个数,v、W、b为可学习的网络参数,tanh是双曲正切函数;
注意力机制模块的输出为一个长度为128的向量hattenion,hattenion再被输入到全连接层,经过一个softmax变换,最终得到能够表征识别结果的向量,向量中的每个值对应着对每个行人身份的预测概率。
进一步的,步骤5中采集待验证数据时,身份待验证者的携带智能手机的放置方式、采集频率与步骤1相同。
与现有技术相比,本发明具体如下优点和有益效果:
人行走时的方式是一种复杂的行为特征,具有不容易伪装的优点。而基于惯性传感器对行人进行身份验证,与传统的生物特征识别技术(如对虹膜、脸部或指纹识别)相比,具有数据量小、计算速度快的优点,再加上传感器等电子元器件近些年来的迅速发展,所需的成本也比较低。
附图说明
图1为本发明构建的深度神经网络模型的结构图。
图2为滑动窗口切割生成样本的示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
本发明的技术核心为一个深度神经网络模型,如图1所示,该模型由三个卷积层、两个LSTM单元、一个注意力机制模块和一个全连接层构成。第一个卷积层中含有64个长度为25的一维卷积核,第二、三个卷积层各含有64个长度为21的一维卷积核,两个LSTM单元中的隐含层神经元个数均为128,全连接层的输出层神经元个数等于要识别的行人身份个数。大小为(128,6)的样本输入到第一个卷积层后,得到大小为(104,6,64)的特征映射FM1,FM1输入到第二个卷积层得到大小为(84,6,64)的特征映射FM2,FM2输入到第三个卷积层得到大小为(64,6,64)的特征映射FM3。之后将FM3降维成大小为(64,6*64)的二维矩阵,即64个长为384的向量,输入到第一个LSTM单元中,产生64次输出,每次的输出向量长度为128,这64个向量会再输入到第二个LSTM单元中,产生64个长度为128的向量,即大小为(64,,128)的二维矩阵,记这个二维矩阵为hlstm,hlstm会被输入到注意力机制模块,进行评分加权求和,计算方法如下所示:
Figure BDA0002285182670000031
Figure BDA0002285182670000041
Figure BDA0002285182670000042
其其中,
Figure BDA0002285182670000043
αi为hlstm中第i条向量的分数和权重系数,v是长为80的列向量,W是(80,128)的二维矩阵,b是长为80的列向量,N是hlstm中向量的个数(即64),v、W、b为可学习的网络参数,tanh是双曲正切函数。
注意力机制模块的输出为一个长度为128的向量hattenion,hattenion再被输入到全连接层,经过一个softmax变换,最终得到能够表征识别结果的向量,向量中的每个值对应着对每个行人身份的预测概率。
在使用该模型进行身份识别时,主要分为以下几步。
第一步:手机携带者使用智能手机采集数据以供神经网络训练学习。采集时,设置采集频率为50Hz,智能手机置于左裤兜中,屏幕面朝外,手机头部朝下,放置好后正常步行约2到3分钟。
第二步:用长128、步长64的滑动窗口的方法对原始的传感器数据进行切割,生成多个样本,每个样本含128帧数据,且相邻样本有50%数据重叠。在生成样本的同时,为每个样本做好标签,标签的内容是样本对应的数据采集者的身份编号(若有n个人,则编号为0~n-1)。如图2所示,本实施例中传感器数据序列样本是在50Hz频率下采集得到,单个样本有128帧数据,每帧数据有6个浮点数,即channel1-channel6,分别对应加速计的x、y、z轴数据和陀螺仪的x、y、z轴数据。
第三步:设置好神经网络输出层神经元的个数,它的值等于数据采集者的人数。将第二步中生成的样本集喂给神经网络进行学习训练,设置合适的训练参数(学习率、训练轮数等),使模型训练至收敛。之后将训练好的模型保存至服务器后端,使其能即时对接收到的传感器数据进行计算,完成身份识别。
第四步:身份待验证者使用智能手机采集数据,手机放置方式、采集频率同第一步,采集一段长为2.56s的数据。
第五步:智能手机将数据通过网络发送至服务器并输入到模型中计算,若得到的概率预测向量中的最大值大于0.85(阈值可适当调整),则返回对应的身份编号作为预测结果;反之则返回-1作为结果,即身份待验证者的数据没有在模型中训练过,为非法身份。
为了验证本发明方法的有效性,采用本发明方法与经典的7种机器学习方法进行对比实验,其中表1是示例数据集中各类样本数量,示例数据集中由6个人采集,因此有6类样本,表2是本发明与其它方法识别的精度比较(数据是将示例测试集输入到训练好的模型中后得出,our model对应本发明,其它7个则是经典的机器学习方法)。从表2中可以看出,本发明方法的准确率为99.07%,远高于其他方法的准确率。
表1示例数据集
0 1 2 3 4 5
训练集 2512 494 677 418 502 460
测试集 1076 211 289 179 215 197
表2本发明方法与其他的方法的准确率对比
方法 准确率(%) 方法 准确率(%)
our model 99.07 SVM 84.32
NB 81.74 LDA 79.25
GBDT 83.91 RF 90.96
AdaBoost 66.16 KNN 81.56
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.一种基于手机惯性传感器的行人身份识别方法,其特征在于,包括如下步骤:
步骤1,惯性传感器携带者使用智能设备采集训练样本数据;
步骤2,采用滑动窗口的方法对原始的传感器数据进行切割,生成多个样本,每个样本含n帧数据,且相邻样本有P%的数据重叠,在生成样本的同时,为每个样本做好标签,标签的内容是样本对应的数据采集者的身份编号;
步骤3,构建深度神经网络模型,该模型包括三个卷积层、两个LSTM单元、一个注意力机制模块和一个全连接层,其中,第一个卷积层中含有64个长度为25的一维卷积核,第二、三个卷积层各含有64个长度为21的一维卷积核,两个LSTM单元中的隐含层神经元个数均为128,全连接层的输出层神经元个数等于要识别的行人身份个数;
步骤4,将步骤2生成的样本输入到步骤3构建的深度神经网络模型,设置合适的训练参数,使模型训练至收敛;
步骤5,身份待验证者使用带有惯性传感器的智能设备采集待验证数据;
步骤6,将待验证数据输入到训练好的模型中计算,若得到的概率预测向量中的最大值大于某一阈值,则返回对应的身份编号作为预测结果;反之则返回-1作为结果,即身份待验证者的数据没有在模型中训练过,为非法身份。
2.如权利要求1所述的一种基于手机惯性传感器的行人身份识别方法,其特征在于:所述智能设备为智能手机。
3.如权利要求2所述的一种基于手机惯性传感器的行人身份识别方法,其特征在于:步骤1中采集训练样本数据时,设置采集频率为50Hz,智能手机置于左裤兜中,屏幕面朝外,手机头部朝下,放置好后正常步行约2到3分钟。
4.如权利要求1所述的一种基于手机惯性传感器的行人身份识别方法,其特征在于:步骤2中采用长128、步长64的滑动窗口对原始的传感器数据进行切割,生成的单个样本有128帧数据,每帧数据有6个浮点数,分别对应加速计的x、y、z轴数据和陀螺仪的x、y、z轴数据。
5.如权利要求1所述的一种基于手机惯性传感器的行人身份识别方法,其特征在于:步骤3中深度神经网络模型的处理过程如下,
设大小为(128,6)的样本输入到第一个卷积层后,得到大小为(104,6,64)的特征映射FM1,FM1输入到第二个卷积层得到大小为(84,6,64)的特征映射FM2,FM2输入到第三个卷积层得到大小为(64,6,64)的特征映射FM3;之后将FM3降维成大小为(64,6*64)的二维矩阵,即64个长为384的向量,输入到第一个LSTM单元中,产生64次输出,每次的输出向量长度为128,这64个向量会再输入到第二个LSTM单元中,产生64个长度为128的向量,即大小为(64,,128)的二维矩阵,记这个二维矩阵为hlstm,hlstm会被输入到注意力机制模块,进行评分加权求和,计算方法如下所示:
Figure FDA0002285182660000021
Figure FDA0002285182660000022
Figure FDA0002285182660000023
其中,
Figure FDA0002285182660000024
αi为hlstm中第i条向量的分数和权重系数,v是长为80的列向量,W是(80,128)的二维矩阵,b是长为80的列向量,N是hlstm中向量的个数,v、W、b为可学习的网络参数,tanh是双曲正切函数;
注意力机制模块的输出为一个长度为128的向量hattenion,hattenion再被输入到全连接层,经过一个softmax变换,最终得到能够表征识别结果的向量,向量中的每个值对应着对每个行人身份的预测概率。
6.如权利要求3所述的一种基于手机惯性传感器的行人身份识别方法,其特征在于:步骤5中采集待验证数据时,身份待验证者携带智能手机的放置方式、采集频率与步骤1相同。
CN201911157462.3A 2019-11-22 2019-11-22 一种基于手机惯性传感器的行人身份识别方法 Active CN110929243B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911157462.3A CN110929243B (zh) 2019-11-22 2019-11-22 一种基于手机惯性传感器的行人身份识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911157462.3A CN110929243B (zh) 2019-11-22 2019-11-22 一种基于手机惯性传感器的行人身份识别方法

Publications (2)

Publication Number Publication Date
CN110929243A true CN110929243A (zh) 2020-03-27
CN110929243B CN110929243B (zh) 2022-07-22

Family

ID=69850793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911157462.3A Active CN110929243B (zh) 2019-11-22 2019-11-22 一种基于手机惯性传感器的行人身份识别方法

Country Status (1)

Country Link
CN (1) CN110929243B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668507A (zh) * 2020-12-31 2021-04-16 南京信息工程大学 基于混合神经网络与注意力机制的海杂波预测方法及系统
CN114638285A (zh) * 2022-02-25 2022-06-17 武汉大学 一种对手机惯性传感器数据的多模式识别方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107451607A (zh) * 2017-07-13 2017-12-08 山东中磁视讯股份有限公司 一种基于深度学习的典型人物的身份识别方法
CN108388348A (zh) * 2018-03-19 2018-08-10 浙江大学 一种基于深度学习和注意力机制的肌电信号手势识别方法
CN108805078A (zh) * 2018-06-11 2018-11-13 山东大学 基于行人平均状态的视频行人再识别方法及系统
CN109286499A (zh) * 2018-09-21 2019-01-29 武汉大学 一种基于行为特征的在场认证方法
CN109784280A (zh) * 2019-01-18 2019-05-21 江南大学 基于Bi-LSTM-Attention模型的人体行为识别方法
CN110222730A (zh) * 2019-05-16 2019-09-10 华南理工大学 基于惯性传感器的用户身份识别方法及识别模型构建方法
US20190311099A1 (en) * 2018-04-10 2019-10-10 Assured Information Security, Inc. Behavioral biometric feature extraction and verification

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107451607A (zh) * 2017-07-13 2017-12-08 山东中磁视讯股份有限公司 一种基于深度学习的典型人物的身份识别方法
CN108388348A (zh) * 2018-03-19 2018-08-10 浙江大学 一种基于深度学习和注意力机制的肌电信号手势识别方法
US20190311099A1 (en) * 2018-04-10 2019-10-10 Assured Information Security, Inc. Behavioral biometric feature extraction and verification
CN108805078A (zh) * 2018-06-11 2018-11-13 山东大学 基于行人平均状态的视频行人再识别方法及系统
CN109286499A (zh) * 2018-09-21 2019-01-29 武汉大学 一种基于行为特征的在场认证方法
CN109784280A (zh) * 2019-01-18 2019-05-21 江南大学 基于Bi-LSTM-Attention模型的人体行为识别方法
CN110222730A (zh) * 2019-05-16 2019-09-10 华南理工大学 基于惯性传感器的用户身份识别方法及识别模型构建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WANG, JQ等: "Multi-task Network Learning Representation Features of Attributes and Identity for Person Re-identification", 《13TH CHINESE CONFERENCE ON BIOMETRIC RECOGNITION (CCBR)》 *
汪涛等: "基于卷积神经网络与注意力模型的人体步态识别", 《传感技术学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668507A (zh) * 2020-12-31 2021-04-16 南京信息工程大学 基于混合神经网络与注意力机制的海杂波预测方法及系统
CN114638285A (zh) * 2022-02-25 2022-06-17 武汉大学 一种对手机惯性传感器数据的多模式识别方法
CN114638285B (zh) * 2022-02-25 2024-04-19 武汉大学 一种对手机惯性传感器数据的多模式识别方法

Also Published As

Publication number Publication date
CN110929243B (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
Yuan et al. Fingerprint liveness detection using an improved CNN with image scale equalization
CN107886064B (zh) 一种基于卷积神经网络的人脸识别场景适应的方法
CN106529468B (zh) 一种基于卷积神经网络的手指静脉识别方法及系统
CN107103281A (zh) 基于聚集损失深度度量学习的人脸识别方法
CN108564954A (zh) 深度神经网络模型、电子装置、身份验证方法和存储介质
CN107766787A (zh) 人脸属性识别方法、装置、终端及存储介质
CN108564040B (zh) 一种基于深度卷积特征的指纹活性检测方法
CN104751140A (zh) 一种基于深度学习sdae理论的三维人脸识别算法及其在金融领域应用
CN108564955A (zh) 电子装置、身份验证方法和计算机可读存储介质
CN111079547B (zh) 一种基于手机惯性传感器的行人移动方向识别方法
CN108875907B (zh) 一种基于深度学习的指纹识别方法和装置
CN105609116B (zh) 一种语音情感维度区域的自动识别方法
CN106529377A (zh) 一种基于图像的年龄估计方法、装置及系统
Liu et al. Fingerprint pore matching using deep features
CN110929243B (zh) 一种基于手机惯性传感器的行人身份识别方法
CN103246880B (zh) 基于多阶局部显著模式特征统计的人脸识别方法
CN107944356A (zh) 综合多类型特征的层次主题模型掌纹图像识别的身份认证方法
CN107088069A (zh) 基于人体ppg信号分段的身份识别方法
CN109726619A (zh) 一种基于参数共享的卷积神经网络人脸识别方法及系统
CN107122643A (zh) 基于ppg信号和呼吸信号特征融合的身份识别方法
CN108960171B (zh) 一种基于特征迁移学习的转换手势识别到身份识别的方法
CN106951819A (zh) 基于稀疏概率分布和多阶段类别筛选的单样本人脸识别方法
Yang et al. A novel driver identification method using wearables
CN112733665A (zh) 一种基于轻量化网络结构设计的人脸识别方法及系统
Khan et al. Person identification using spatiotemporal motion characteristics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant