CN112257559A - 一种基于生物个体步态信息的身份识别方法 - Google Patents
一种基于生物个体步态信息的身份识别方法 Download PDFInfo
- Publication number
- CN112257559A CN112257559A CN202011124218.XA CN202011124218A CN112257559A CN 112257559 A CN112257559 A CN 112257559A CN 202011124218 A CN202011124218 A CN 202011124218A CN 112257559 A CN112257559 A CN 112257559A
- Authority
- CN
- China
- Prior art keywords
- training
- gait
- data
- neural network
- gait information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005021 gait Effects 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 51
- 238000013528 artificial neural network Methods 0.000 claims abstract description 29
- 230000033001 locomotion Effects 0.000 claims abstract description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 15
- 230000006399 behavior Effects 0.000 claims description 14
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000036544 posture Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于生物个体步态信息的身份识别方法,首先通过智能手机对步态信息进行采集,所采集的步态信息汇总后传输至服务器端,服务器端对步态的动作特征数据进行分类,并对分类结果进行神经网络训练,以此完成身份识别神经网络的训练和基于神经网络的身份识别模型创建,再根据步态神经网络识别模型对新采集的步态信息进行识别,进一步根据模型的识别结果确定步态的生物个体身份信息,进行身份识别。采用本发明的设计,取代了现有的通过监控摄像头进行数据采集的操作,可显著降低身份识别的成本,同时根据神经网络的识别、训练方法,使其能够保持相当的准确度,富于实用。
Description
技术领域
本发明涉及身份识别技术领域,尤其涉及一种基于生物个体步态信息的身份识别方法。
背景技术
步态识别是近年来计算机视觉和生物特征识别领域的一个备受关注的研究方向,它旨在根据人们走路的姿势进行身份识别。与其他生物特征识别技术(如指纹、人脸)相比,步态识别的优势在于非接触性、非侵犯性、易于感知、难于隐藏、难于伪装。
现有技术首先由监控摄像机采集人的步态,通过检测与跟踪获得步态的视频序列。然后经过预处理分析提取该人的步态特征。即对图像序列中的步态运动进行包括运动检测、运动分割、特征提取步态识别前期的关键处理。其次,再经过进一步处理,使其成为与己存贮在数据库中的步态之同样的模式;最后,将新采集的步态特征与步态信息库的步态特征进行比对识别,有匹配的即进行预报和预警。
中国科学院自动化所在2017年公布的步态识别技术,是一种在超高清摄像头下,进行步态识别的方案。该方案依赖CASIA步态数据库中的三个数据集,即Dataset A(小规模库),Dataset B(多视角库)和Dataset C(红外库),识别时无需识别对象主动配合,待识别人员在几十米外带面具背对普通监控摄像头随意走动,步态识别算法也可对其进行身份判断。该技术可广泛应用于安防、公共交通、商业场景。
目前的步态识别需要有监控摄像机进行采集信息,这在一方面增加了成本,而在另一方面,这种监控摄像机的安装角度、地理位置这些环境因素影响着数据信息的精确性。同时,当下布置的监控摄像机的图像清晰度严重依赖摄像机本身的摄影效果,对于远处的人物的动作信息捕捉仍有一定的不足。而在算法处理过程中,技术较为复杂,需要先减除背景因素,然后来提取人的空间轮廓,然后再对定位好的人员进行动作的捕捉。这一系列复杂过程增加了数据提取的误差,因此在实用性上面仍有较大的发展空间。
发明内容
本发明的目的:解决现有的步态识别技术需要借助监控摄像头,占用空间大且成本高,且监控摄像机的安装角度、地理位置这些环境因素影响着数据信息的精确性问题,提供一种取代监控摄像头,并降低身份识别成本的基于生物个体步态信息的身份识别方法。
本发明的技术方案:
一种基于生物个体步态信息的身份识别方法,包括以下步骤:
1)随机建立坐标原点,以人的前进后退方向建立x轴,左右平移方向建立y轴,垂直水平的高低方向为z轴建立完整的坐标系;
2)通过智能手机对不同个体产生的若干个步态信息进行采集,在进行步态信息的采集时,智能手机处于正在使用、依据使用习惯放于手中或置于口袋中;
3)采集的步态信息汇总后传输至服务器端,服务器端对步态的动作行为特征数据进行分类,针对不同类型的行走姿态数据分别进行神经网络训练,以此完成身份识别神经网络的训练和基于神经网络的身份识别模型创建;
4)再根据基于神经网络的身份识别模型对新采集的步态信息进行识别,进一步根据模型的识别结果确定步态的生物个体身份信息,进行身份识别。
进一步的,所述步骤2)中,利用带有加速度传感器的可携带的智能手机对已有标记值的人进行步态信息采集,其采集的步态信息为该人的步态在x轴、y轴、z轴方向的加速度信息;采集的步态信息越多,构建的神经网络越完善,后续身份识别的精确度越高。
进一步的,所述步骤3)中,对步态的动作行为特征数据进行归类的方法为k-近邻(K Nearest Neighbors,KNN)算法;智能手机将采集的步态信息进行初始化并上传至服务器端,同时服务器端实时地接收数据,显示数据发送成功、接收成功、启动和关闭连接的提示,接收到的数据包含捕获数据的时间,以及加速度传感器分别在x轴、y轴、z轴上采集的步态信息;所述动作行为特征数据进行分类结果包括:走路、慢跑、上下楼、坐和站。
进一步的,所述步骤3)中,所述的身份识别神经网络采用两层1维卷积层和一层1维最大池化层以及一层全连接层组成卷积神经网络,即CNN模型;将服务器中获取到的70%的步态信息进行身份识别神经网络的训练,得到构架的身份识别神经网络;将服务器中获取到的30%的步态信息进行身份识别神经网络的测试。
进一步的,所述步骤3)中,神经网络的训练分为15个时期,每个训练时期内,在训练集上根据L2损失计算模型的均方差,用于估计模型的损失;用预测的类别与真实类别的比值评估模型训练结果的准确性,之后对所有测试数据进行训练,在训练结束时,模型将对测试集采用KNN聚类算法进行分类,针对分类结果进一步根据模型的输出结果计算其准确性,每一次的训练周期都将完善训练模型,该结果的好坏以Training Loss和TrainingAccuracy为标准,模型越好,其对应的Training Loss和Training Accuracy数值都将减小。
进一步的,在完成生物个体动作行为的姿态分类基础上根据步态信息进行行为人个体身份识别,因此先从数据集中按各种不同的动作行为对步态信息进行姿态分类;当在所使用的数据集中,将动作行为数据经姿态分类之后,显示有如下编号的行为人执行了行走的动作,此时将这些行为人的行走数据从数据集中提取出来,然后依照其ID编号产生各个数据文件,然后对这些数据文件按照所提出的神经网络模型进行训练就能得到完善后的卷积神经网络CNN;训练之前,待训练的数据需要经过一定的处理,使其仅保留x轴的数据信息。训练时,随机取出其中4个编号的行走数据进行训练。
进一步的,用混淆矩阵来可视化地评估监督学习算法的性能。
本发明的有益效果:本发明从每个人都能携带的智能手机设备考虑,利用三轴加速度传感器这类感应装置,旨在提升数据信息提取的便捷性和准确性,同时也为了降低使用成本,而提出了一种基于智能手机的步态识别系统。
附图说明
图1为本发明的基于生物个体步态信息的身份识别方法流程图;
图2为本发明服务器端界面的示意图;
图3为本发明智能手机和服务器端进行数据传输的示意图;
图4为本发明智能手机进行数据采集的流程图;
图5为本发明针对站状态对应的时间序列信息波形示意图;
图6为本发明针对慢跑状态对应的时间序列信息波形示意图;
图7为本发明针对走路状态对应的时间序列信息波形示意图;
图8为本发明针对坐状态对应的时间序列信息波形示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本实施例提供一种基于生物个体步态信息的身份识别方法,如图1所述的该识别方法流程图,包括如下步骤:
步骤1:利用带有加速度传感器的可携带的智能手机对已有标记值的人进行步态信息采集,其采集的步态信息为该人的步态在x轴、y轴、z轴方向的加速度信息。其中,x轴为人的前进后退方向,y轴为人的左右平移方向,z轴为垂直水平的高低方向。为了使速度信息采集更便利,以及确保信息采集的实时性,所述的智能设备优选使用带有加速度传感器的智能手机进行信息采集,信息采集时,智能手机的状态可以是正在使用、或依据使用习惯放于手中或置于口袋中或其他非使用状态。
步骤2:智能手机将采集的步态信息进行初始化并上传至服务器端,同时服务器端实时地接收数据,显示数据发送、接收成功并显示启动和关闭连接的提示。接收到的数据包含捕获数据的时间,以及加速度传感器分别在x轴、y轴、z轴上采集的步态信息。
步骤3:采用两层1维卷积层和一层1维最大池化层以及一层全连接层组成卷积神经网络,即CNN模型,如图2所示。为了更好地对卷积神经网络进行训练,采用福特汉姆大学的WISDM实验室提供的数据集进行训练和测试。数据集中的不同动作对应的时间序列信息包含走路、慢跑、上下楼、坐和站几类动作。
对数据集中的数据进行读取,选取数据集中一部分数据(7/10的数据)进行训练,生成具有动作识别的卷积神经网络,然后使用另一部分数据(3/10的数据)对该神经网络进行测试。在此,该网络共有10个训练时期,即7个训练时期和3个测试时期。在每个时期,我们将在训练集上计算模型的损失和准确性。在训练结束时,模型将对测试集实例进行分类,并输出模型的准确性。经过10次训练,测试结果的准确性是比较理想的,其准确度最终达到0.77左右,高于初次的0.74,表明该神经网络具有一定的动作识别功能。
混淆矩阵是一个误差矩阵,常用来可视化地评估监督学习算法的性能,它通常是一个两行两列的表格矩阵,这个矩阵的每一行表示真实类中的实例,而每一列表示预测类中的实例。这些都能直观的表明这个动作识别模块对一些动作有着较好的判别功能,具有一定的实用性。
步骤4:再采集任意生物个体的步态信息,并借助步骤3所形成的CNN模型进行训练和识别,进一步完成生物个体识别身份。
在完成动作分类基础上根据步态信息进行行为人个体身份识别,因此我们在实验中先从数据集中按各种不同的动作行为对步态信息进行分类。例如,在我们所使用的数据集中,将行走数据经分类之后,显示有如下编号的行为人执行了行走的动作。
此时可以将这些行为人的行走数据从数据集中提取出来,然后依照其ID编号产生各个数据文件,然后对这些文件按照所提出的神经网络模型进行训练就能得到较为完善的卷积神经网络CNN。由于提取所有编号的行走数据工作量巨大、消耗时间较长,因此随机取出其中4个编号的行走数据进行训练,同时,这些待训练的数据需要经过一定的处理,使其仅保留x轴的数据信息。由前面所述可知,在已经分类好的行为数据中对行为人进行身份识别已经降低了一定的难度,因为此时已经可以保证在这种情况下,不同行为人的向前或向后的数据信息具有一定的差异性。
通过对经过训练的神经网络按每个时期进行测试,测试情况如下。
结果显示,经过15个时期的训练,神经网络中的loss损失函数的值一直呈下降趋势,同时精度也在不断的提升中,由于本节参与训练和测试的数据集样本数量较少,因此可以很快的完成测试,同时识别准确率经15次训练之后已经达到了1。以上实验表明本系统所采用的用于行为人个体识别的CNN模型具有一定的识别功能,具有一定的实用性。
综上所述,本系统所实现的数据采集和传输、动作识别和行为人个体识别功能是可靠的,而且本系统所使用的设备是日常人们常用的智能手机,这些都显著地增加了本系统的实用性。
采集端即智能手机设备上的运行界面,在该应用上可输入需发送至服务器的地址,并可指定端口号。数据发送完毕后,可显示“发送成功”的提示。
服务器端,此时可以实时地接收数据,并显示启动和关闭连接的提示。接收到的数据包含捕获数据的时间,以及三轴加速度传感器各x轴、y轴、z轴所采集的步态信息。
Claims (7)
1.一种基于生物个体步态信息的身份识别方法,其特征在于,包括以下步骤:
1)随机建立坐标原点,以人的前进后退方向建立x轴,左右平移方向建立y轴,垂直水平的高低方向为z轴建立完整的坐标系;
2)通过智能手机对不同个体产生的若干个步态信息进行采集,在进行步态信息的采集时,智能手机处于正在使用、依据使用习惯放于手中或置于口袋中;
3)采集的步态信息汇总后传输至服务器端,服务器端对步态的动作行为特征数据进行分类,针对不同类型的行走姿态数据分别进行神经网络训练,以此完成身份识别神经网络的训练和基于神经网络的身份识别模型创建;
4)再根据基于神经网络的身份识别模型对新采集的步态信息进行识别,进一步根据模型的识别结果确定步态的生物个体身份信息,进行身份识别。
2.根据权利要求1所述的基于生物个体步态信息的身份识别方法,其特征在于:所述步骤2)中,利用带有加速度传感器的可携带的智能手机对已有标记值的人进行步态信息采集,其采集的步态信息为该人的步态在x轴、y轴、z轴方向的加速度信息;采集的步态信息越多,构建的神经网络越完善,后续身份识别的精确度越高。
3.根据权利要求1所述的基于生物个体步态信息的身份识别方法,其特征在于:所述步骤3)中,对步态的动作行为特征数据进行归类的方法为k-近邻算法;智能手机将采集的步态信息进行初始化并上传至服务器端,同时服务器端实时地接收数据,显示数据发送成功、接收成功、启动和关闭连接的提示,接收到的数据包含捕获数据的时间,以及加速度传感器分别在x轴、y轴、z轴上采集的步态信息;所述动作行为特征数据进行分类结果包括:走路、慢跑、上下楼、坐和站。
4.根据权利要求1所述的基于生物个体步态信息的身份识别方法,其特征在于:所述步骤3)中,所述的身份识别神经网络采用两层1维卷积层和一层1维最大池化层以及一层全连接层组成卷积神经网络,即CNN模型;将服务器中获取到的70%的步态信息进行身份识别神经网络的训练,得到构架的身份识别神经网络;将服务器中获取到的30%的步态信息进行身份识别神经网络的测试。
5.根据权利要求4所述的基于生物个体步态信息的身份识别方法,其特征在于:所述步骤3)中,神经网络的训练分为15个时期,每个训练时期内,在训练集上根据L2损失计算模型的均方差,用于估计模型的损失;用预测的类别与真实类别的比值评估模型训练结果的准确性,之后对所有测试数据进行训练,在训练结束时,模型将对测试集采用KNN聚类算法进行分类,针对分类结果进一步根据模型的输出结果计算其准确性,每一次的训练周期都将完善训练模型,该结果的好坏以Training Loss和Training Accuracy为标准,模型越好,其对应的Training Loss和Training Accuracy数值都将减小。
6.根据权利要求1所述的基于生物个体步态信息的身份识别方法,其特征在于:在完成生物个体动作行为的姿态分类基础上根据步态信息进行行为人个体身份识别,因此先从数据集中按各种不同的动作行为对步态信息进行姿态分类;当在所使用的数据集中,将动作行为数据经姿态分类之后,显示有如下编号的行为人执行了行走的动作,此时将这些行为人的行走数据从数据集中提取出来,然后依照其ID编号产生各个数据文件,然后对这些数据文件按照所提出的神经网络模型进行训练就能得到完善后的卷积神经网络CNN;训练之前,待训练的数据需要经过一定的处理,使其仅保留x轴的数据信息;训练时,随机取出其中4个编号的行走数据进行训练。
7.根据权利要求1所述的基于生物个体步态信息的身份识别方法,其特征在于:用混淆矩阵来可视化地评估监督学习算法的性能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011124218.XA CN112257559A (zh) | 2020-10-20 | 2020-10-20 | 一种基于生物个体步态信息的身份识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011124218.XA CN112257559A (zh) | 2020-10-20 | 2020-10-20 | 一种基于生物个体步态信息的身份识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112257559A true CN112257559A (zh) | 2021-01-22 |
Family
ID=74245101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011124218.XA Pending CN112257559A (zh) | 2020-10-20 | 2020-10-20 | 一种基于生物个体步态信息的身份识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112257559A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114222170A (zh) * | 2021-12-06 | 2022-03-22 | 深圳Tcl新技术有限公司 | 电视节目推荐方法、装置、计算机设备及存储介质 |
CN114394063A (zh) * | 2022-01-18 | 2022-04-26 | 北京邮电大学 | 一种基于步态分析的汽车无钥匙进入安全防护系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016346A (zh) * | 2017-03-09 | 2017-08-04 | 中国科学院计算技术研究所 | 步态身份识别方法及系统 |
US20170243058A1 (en) * | 2014-10-28 | 2017-08-24 | Watrix Technology | Gait recognition method based on deep learning |
CN110555463A (zh) * | 2019-08-05 | 2019-12-10 | 西北工业大学 | 一种基于步态特征的身份识别方法 |
-
2020
- 2020-10-20 CN CN202011124218.XA patent/CN112257559A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170243058A1 (en) * | 2014-10-28 | 2017-08-24 | Watrix Technology | Gait recognition method based on deep learning |
CN107016346A (zh) * | 2017-03-09 | 2017-08-04 | 中国科学院计算技术研究所 | 步态身份识别方法及系统 |
CN110555463A (zh) * | 2019-08-05 | 2019-12-10 | 西北工业大学 | 一种基于步态特征的身份识别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114222170A (zh) * | 2021-12-06 | 2022-03-22 | 深圳Tcl新技术有限公司 | 电视节目推荐方法、装置、计算机设备及存储介质 |
CN114394063A (zh) * | 2022-01-18 | 2022-04-26 | 北京邮电大学 | 一种基于步态分析的汽车无钥匙进入安全防护系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zou et al. | Deep learning-based gait recognition using smartphones in the wild | |
CN109934176B (zh) | 行人识别系统、识别方法及计算机可读存储介质 | |
Subetha et al. | A survey on human activity recognition from videos | |
CN106295568B (zh) | 基于表情和行为双模态结合的人类自然状态情感识别方法 | |
CN108764059A (zh) | 一种基于神经网络的人体行为识别方法及系统 | |
JP2006293644A (ja) | 情報処理装置、情報処理方法 | |
Giorgi et al. | Try walking in my shoes, if you can: Accurate gait recognition through deep learning | |
CN113378649A (zh) | 身份、位置和动作识别方法、系统、电子设备及存储介质 | |
CN110929687A (zh) | 一种基于关键点检测的多人行为识别系统及工作方法 | |
Mian | Online learning from local features for video-based face recognition | |
CN112257559A (zh) | 一种基于生物个体步态信息的身份识别方法 | |
CN114255508A (zh) | 一种基于OpenPose的学生体态检测分析及效率评估方法 | |
CN109145704B (zh) | 一种基于人脸属性的人脸画像识别方法 | |
Linda et al. | Color-mapped contour gait image for cross-view gait recognition using deep convolutional neural network | |
Aung et al. | Gait biometric-based human recognition system using deep convolutional neural network in surveillance system | |
Badave et al. | Evaluation of person recognition accuracy based on openpose parameters | |
CN115188031A (zh) | 指纹识别方法、计算机程序产品、存储介质及电子设备 | |
Vishwakarma et al. | Three‐dimensional human activity recognition by forming a movement polygon using posture skeletal data from depth sensor | |
Li et al. | Dynamic long short-term memory network for skeleton-based gait recognition | |
Ngxande et al. | Detecting inter-sectional accuracy differences in driver drowsiness detection algorithms | |
KR20190050551A (ko) | 깊이 맵 정보 기반의 인체 행위 인지 방법 및 그 장치 | |
Alimuin et al. | Deep hypersphere embedding for real-time face recognition | |
Abedi et al. | Modification of deep learning technique for face expressions and body postures recognitions | |
Al-Shakarchy et al. | Detecting abnormal movement of driver's head based on spatial-temporal features of video using deep neural network DNN | |
CN113378691A (zh) | 基于实时用户行为分析的智能家居管理系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |