CN111079547B - 一种基于手机惯性传感器的行人移动方向识别方法 - Google Patents
一种基于手机惯性传感器的行人移动方向识别方法 Download PDFInfo
- Publication number
- CN111079547B CN111079547B CN201911157461.9A CN201911157461A CN111079547B CN 111079547 B CN111079547 B CN 111079547B CN 201911157461 A CN201911157461 A CN 201911157461A CN 111079547 B CN111079547 B CN 111079547B
- Authority
- CN
- China
- Prior art keywords
- data
- moving
- moving direction
- lstm
- length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 13
- 230000007246 mechanism Effects 0.000 claims abstract description 10
- 238000003062 neural network model Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 35
- 238000012360 testing method Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000006399 behavior Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 210000002569 neuron Anatomy 0.000 claims description 6
- 238000007667 floating Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Telephone Function (AREA)
Abstract
本发明提供一种基于手机惯性传感器的行人移动方向识别方法,即对行人前进、后退、左移、右移四种状态进行识别。本发明的核心是一个深度神经网络模型,该模型由三个卷积层、两个LSTM单元、一个注意力机制模块及一个全连接层构成,经过学习训练后,该模型能够有效地挖掘出传感器数据中隐含的信息,并准确地判断出行人的移动方向。本发明方法具有运算速度快、识别准确率高、不易受环境影响的优点,所需成本也较低。
Description
技术领域
本发明描述了一种基于手机惯性传感器对行人移动方向(前进、后退、左移、右移)进行识别的深度神经网络方法,属于人体行为识别领域。
背景技术
随着科技的发展,人体行为识别技术在科学研究、生产经济及生活服务中带来越来越多的效益,同时受到了越来越多的科学家、学者们的重视。目前的人体行为识别技术主要分为基于视频图像和基于惯性传感器两种。由于传感器成本低、数据量小易于计算,因此基于惯性传感器的人体行为识别方法有着很好的应用前景。然而,现有的基于惯性传感器的识别技术大都使用的是传统的机器学习方法,由于可穿戴传感器的体积、功耗等限制,采集出的数据会有较大的数据噪声,导致传统的方法无法有效地进行数据挖掘,需要人工提取传感器数据序列中的特征,并且这些特征所能表达的信息有限,最终的识别效果很低,往往要加上先验经验来辅助判断。
发明内容
本发明主要提供一个能够基于手机惯性传感器进对行人移动方向(前进、后退、左移、右移)进行识别的深度学习方法。此技术的核心是一个深度神经网络,它经过学习训练后能够有效地挖掘出传感器数据中隐含的信息,对输入的传感器数据能够准确地判定出手机携带者的步态方向。
本发明的目的在于提供一种有效的行人移动方向识别的深度学习方法,该技术能够有效地对已有数据集进行学习并对模型参数进行训练修正,训练好的模型能够在智能手机含有的惯性传感器数据中,挖掘出隐藏的特征信息,实现对手机携带者的移动方向识别。
步骤1,惯性传感器携带者使用智能设备采集训练样本数据,分别采集前进、后退、左移、右移四种行为对应的传感器数据;
步骤2,采用滑动窗口的方法对原始的传感器数据进行切割,生成多个样本,每个样本含n帧数据,且相邻样本有P%数据重叠,在生成样本的同时,为每个样本做好标签,标签的内容是样本对应的移动方向的编号,前进、后退、左移、右移分别对应0、1、2、3;
步骤3,构建深度神经网络模型,该模型包括三个卷积层、两个LSTM单元、一个注意力机制模块和一个全连接层,其中,第一、二、三个卷积层上各含有64个一维卷积核,卷积核的长度分别为25、21、21,两个LSTM单元中的隐含层神经元个数均为128,全连接层的输出层神经元个数为4,即对应四种移动方向;
步骤4,将步骤2生成的样本输入到步骤3构建的深度神经网络模型,设置合适的训练参数,使模型训练至收敛;
步骤5,测试用户使用带有惯性传感器的智能设备采集测试数据;
步骤6,将测试数据输入到训练好的模型中计算,得到移动方向识别结果。
进一步的,所述智能设备为智能手机。
进一步的,步骤1中采集训练样本数据时,设置采集频率为50Hz,智能手机置于左裤兜中,屏幕面朝外,手机头部朝下。
进一步的,步骤2中采用长128、步长64的滑动窗口对原始的传感器数据进行切割,生成的单个样本有128帧数据,每帧数据有6个浮点数,分别对应加速计的x、y、z轴数据和陀螺仪的x、y、z轴数据。
进一步的,步骤3中深度神经网络模型的处理过程如下,
设大小为(128,6)的样本输入到第一个卷积层后,得到大小为(104,6,64)的特征映射FM1,FM1输入到第二个卷积层得到大小为(84,6,64)的特征映射FM2,FM2输入到第三个卷积层得到大小为(64,6,64)的特征映射FM3;之后将FM3降维成大小为(64,6*64)的二维矩阵,即64个长为384的向量,输入到第一个LSTM单元中,产生64次输出,每次的输出向量长度为128,这64个向量会再输入到第二个LSTM单元中,产生64个长度为128的向量,即大小为(64,128)的二维矩阵,记这个二维矩阵为hlstm,hlstm被输入到注意力机制模块,进行评分加权求和,计算过程如下所示:
其中,αi为hlstm中第i条向量的分数和权重系数,v是长为80的列向量,W是(80,128)的二维矩阵,b是长为80的列向量,N是hlstm中向量的个数,v、W、b为网络参数,tanh是双曲正切函数;
注意力机制模块的输出为一个长度为128的向量hattenion,hattenion再被输入到全连接层,经过一个softmax变换,最终得到能够表征识别结果的向量,向量中的每个值对应着对前进、后退、左移、右移这四种移动方向的预测概率。
进一步的,步骤5中采集测试数据时,测试用户携带智能手机的放置方式、采集频率与步骤1相同。
与现有技术相比,本发明具体如下优点和有益效果:
本技术利用深度学习的方法完成了对后退、左移、右移等复杂行为的识别,不仅有利于人体行为识别技术的发展,同时还能辅助室内导航定位、人的航迹推算使其更加精准。该技术与现有的技术相比,具有运算速度快、识别准确率高、不易受环境影响的优点,所需成本也较低。
附图说明
图1为本发明构建的深度神经网络模型的结构图。
图2为滑动窗口切割生成样本的示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
本发明的技术核心为一个深度神经网络模型,如图1所示,该模型由三个卷积层、两个LSTM单元、一个注意力机制模块和一个全连接层构成。第一、二、三个卷积层上各含有64个一维卷积核,卷积核的长度分别为25、21、21,两个LSTM单元中的隐含层神经元个数均为128,全连接层的输出层神经元个数为4,即对应四种移动方向。大小为(128,6)的样本输入到第一个卷积层后,得到大小为(104,6,64)的特征映射FM1,FM1输入到第二个卷积层得到大小为(84,6,64)的特征映射FM2,FM2输入到第三个卷积层得到大小为(64,6,64)的特征映射FM3。之后将FM3降维成大小为(64,6*64)的二维矩阵,即64个长为384的向量,输入到第一个LSTM单元中,产生64次输出,每次的输出向量长度为128,这64个向量会再输入到第二个LSTM单元中,产生64个长度为128的向量,即大小为(64,128)的二维矩阵,记这个二维矩阵为hlstm,hlstm会被输入到注意力机制模块,进行评分加权求和,计算过程如下所示:
其中,αi为hlstm中第i条向量的分数和权重系数,v是长为80的列向量,W是(80,128)的二维矩阵,b是长为80的列向量,N是hlstm中向量的个数(即64),v、W、b为可学习的网络参数,tanh是双曲正切函数。
注意力机制模块的输出为一个长度为128的向量hattenion,hattenion再被输入到全连接层,经过一个softmax变换,最终得到能够表征识别结果的向量,向量中的每个值对应着对四种移动方向(前进、后退、左移、右移)的预测概率。
在使用该模型进行移动方向识别时,主要分为以下几步。
第一步:手机携带者使用智能手机采集数据以供神经网络训练学习。采集时,设置采集频率为50Hz,智能手机置于左裤兜中,屏幕面朝外,手机头部朝下,放置好后分别采集前进、后退、左移、右移四种行为对应的数据。
第二步:用长128、步长64的滑动窗口的方法对原始的传感器数据进行切割,生成多个样本,每个样本含128帧数据,且相邻样本有50%数据重叠。在生成样本的同时,为每个样本做好标签,标签的内容是样本对应的移动方向的编号(0前进、1后退、2左移、3右移)。如图2所示,本实施例中传感器数据序列样本是在50Hz频率下采集得到,单个样本有128帧数据,每帧数据有6个浮点数,即channel1-channel6,分别对应加速计的x、y、z轴数据和陀螺仪的x、y、z轴数据。
第三步:将第二步中生成的样本集喂给神经网络进行学习训练,设置合适的训练参数(学习率、训练轮数等),使模型训练至收敛。之后将训练好的模型保存至服务器后端,使其能即时对接收到的传感器数据进行计算,完成移动方向识别。
第四步:测试用户使用智能手机采集数据,手机放置方式、采集频率同第一步,采集一段长为2.56s的数据。
第五步:智能手机将数据通过网络发送至服务器并输入到模型中计算,并接受返回的移动方向识别结果。
为了验证本发明方法的有效性,采用本发明方法与现有的7种经典的机器学习方法进行对比实验,其中表1是数据集中四类样本的数量,表2是本发明与其它方法识别的精度比较(数据是将测试集输入到训练好的模型中后得出,our model对应本发明,其它7个则是经典的机器学习方法)。从表中可以看出,本发明方法的准确率远高于其他方法。
表1数据集
0(前进) | 1(后退) | 2(左移) | 3(右移) | |
训练集 | 4543 | 5314 | 4182 | 3757 |
测试集 | 1063 | 1531 | 1455 | 1390 |
表2本发明方法与其它方法的准确率对比
方法 | 准确率(%) | 方法 | 准确率(%) |
our model | 99.72 | SVM | 36.25 |
NB | 37.13 | LDA | 32.16 |
GBDT | 59.31 | RF | 94.10 |
AdaBoost | 31.40 | KNN | 89.30 |
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (4)
1.一种基于手机惯性传感器的行人移动方向识别方法,其特征在于,包括如下步骤:
步骤1,惯性传感器携带者使用智能设备采集训练样本数据,分别采集前进、后退、左移、右移四种行为对应的传感器数据;
步骤2,采用滑动窗口的方法对原始的传感器数据进行切割,生成多个样本,每个样本含n帧数据,且相邻样本有P%数据重叠,在生成样本的同时,为每个样本做好标签,标签的内容是样本对应的移动方向的编号,前进、后退、左移、右移分别对应0、1、2、3;
步骤2中采用长128、步长64的滑动窗口对原始的传感器数据进行切割,生成的单个样本有128帧数据,每帧数据有6个浮点数,分别对应加速计的x、y、z轴数据和陀螺仪的x、y、z轴数据;
步骤3,构建深度神经网络模型,该模型包括三个卷积层、两个LSTM单元、一个注意力机制模块和一个全连接层,其中,第一、二、三个卷积层上各含有64个一维卷积核,卷积核的长度分别为25、21、21,两个LSTM单元中的隐含层神经元个数均为128,全连接层的输出层神经元个数为4,即对应四种移动方向;
步骤3中深度神经网络模型的处理过程如下,
设置大小为(128,6)的样本输入到第一个卷积层后,得到大小为(104,6,64)的特征映射FM1,FM1输入到第二个卷积层得到大小为(84,6,64)的特征映射FM2,FM2输入到第三个卷积层得到大小为(64,6,64)的特征映射FM3;之后将FM3降维成大小为(64,6*64)的二维矩阵,即64个长为384的向量,输入到第一个LSTM单元中,产生64次输出,每次的输出向量长度为128,这64个向量会再输入到第二个LSTM单元中,产生64个长度为128的向量,即大小为(64,128)的二维矩阵,记这个二维矩阵为hlstm,hlstm被输入到注意力机制模块,进行评分加权求和,计算过程如下所示:
其中,αi为hlstm中第i条向量的分数和权重系数,v是长为80的列向量,W是(80,128)的二维矩阵,b是长为80的列向量,N是hlstm中向量的个数,v、W、b为网络参数,tanh是双曲正切函数;
注意力机制模块的输出为一个长度为128的向量hattenion,hattenion再被输入到全连接层,经过一个softmax变换,最终得到能够表征识别结果的向量,向量中的每个值对应着对前进、后退、左移、右移这四种移动方向的预测概率;
步骤4,将步骤2生成的样本输入到步骤3构建的深度神经网络模型,设置合适的训练参数,使模型训练至收敛;
步骤5,测试用户使用带有惯性传感器的智能设备采集测试数据;
步骤6,将测试数据输入到训练好的模型中计算,得到移动方向识别结果。
2.如权利要求1所述的一种基于手机惯性传感器的行人移动方向识别方法,其特征在于:所述智能设备为智能手机。
3.如权利要求2所述的一种基于手机惯性传感器的行人移动方向识别方法,其特征在于:步骤1中采集训练样本数据时,设置采集频率为50Hz,智能手机置于左裤兜中,屏幕面朝外,手机头部朝下。
4.如权利要求3所述的一种基于手机惯性传感器的行人移动方向识别方法,其特征在于:步骤5中采集测试数据时,测试用户携带智能手机的放置方式、采集频率与步骤1相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911157461.9A CN111079547B (zh) | 2019-11-22 | 2019-11-22 | 一种基于手机惯性传感器的行人移动方向识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911157461.9A CN111079547B (zh) | 2019-11-22 | 2019-11-22 | 一种基于手机惯性传感器的行人移动方向识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111079547A CN111079547A (zh) | 2020-04-28 |
CN111079547B true CN111079547B (zh) | 2022-07-19 |
Family
ID=70311400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911157461.9A Active CN111079547B (zh) | 2019-11-22 | 2019-11-22 | 一种基于手机惯性传感器的行人移动方向识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111079547B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111623797B (zh) * | 2020-06-10 | 2022-05-20 | 电子科技大学 | 一种基于深度学习的步数测量方法 |
CN113286311B (zh) * | 2021-04-29 | 2024-04-12 | 沈阳工业大学 | 基于多传感器融合的分布式周界安防环境感知系统 |
CN113984078B (zh) * | 2021-10-26 | 2024-03-08 | 上海瑾盛通信科技有限公司 | 到站提醒方法、装置、终端及存储介质 |
CN114638285B (zh) * | 2022-02-25 | 2024-04-19 | 武汉大学 | 一种对手机惯性传感器数据的多模式识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103345752A (zh) * | 2013-06-17 | 2013-10-09 | 中国人民解放军总参谋部第六十一研究所 | 一种机器人与手机协作跟踪行人的方法 |
CN104268577A (zh) * | 2014-06-27 | 2015-01-07 | 大连理工大学 | 一种基于惯性传感器的人体行为识别方法 |
CN108345846A (zh) * | 2018-01-29 | 2018-07-31 | 华东师范大学 | 一种基于卷积神经网络的人体行为识别方法及识别系统 |
CN109784280A (zh) * | 2019-01-18 | 2019-05-21 | 江南大学 | 基于Bi-LSTM-Attention模型的人体行为识别方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9373059B1 (en) * | 2014-05-05 | 2016-06-21 | Atomwise Inc. | Systems and methods for applying a convolutional network to spatial data |
CN109740419B (zh) * | 2018-11-22 | 2021-03-02 | 东南大学 | 一种基于Attention-LSTM网络的视频行为识别方法 |
CN109740148B (zh) * | 2018-12-16 | 2023-12-22 | 北京工业大学 | 一种BiLSTM结合Attention机制的文本情感分析方法 |
CN110083705B (zh) * | 2019-05-06 | 2021-11-02 | 电子科技大学 | 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端 |
CN110196946B (zh) * | 2019-05-29 | 2021-03-30 | 华南理工大学 | 一种基于深度学习的个性化推荐方法 |
CN110287320B (zh) * | 2019-06-25 | 2021-03-16 | 北京工业大学 | 一种结合注意力机制的深度学习多分类情感分析模型 |
-
2019
- 2019-11-22 CN CN201911157461.9A patent/CN111079547B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103345752A (zh) * | 2013-06-17 | 2013-10-09 | 中国人民解放军总参谋部第六十一研究所 | 一种机器人与手机协作跟踪行人的方法 |
CN104268577A (zh) * | 2014-06-27 | 2015-01-07 | 大连理工大学 | 一种基于惯性传感器的人体行为识别方法 |
CN108345846A (zh) * | 2018-01-29 | 2018-07-31 | 华东师范大学 | 一种基于卷积神经网络的人体行为识别方法及识别系统 |
CN109784280A (zh) * | 2019-01-18 | 2019-05-21 | 江南大学 | 基于Bi-LSTM-Attention模型的人体行为识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111079547A (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111079547B (zh) | 一种基于手机惯性传感器的行人移动方向识别方法 | |
Wu et al. | Cgnet: A light-weight context guided network for semantic segmentation | |
Kong et al. | Sound event detection of weakly labelled data with cnn-transformer and automatic threshold optimization | |
Cai et al. | Pedestrian motion trajectory prediction in intelligent driving from far shot first-person perspective video | |
Fang et al. | Learning transportation modes from smartphone sensors based on deep neural network | |
Zhang et al. | Carrying out CNN channel pruning in a white box | |
CN107766787A (zh) | 人脸属性识别方法、装置、终端及存储介质 | |
CN108846350A (zh) | 容忍年龄变化的人脸识别方法 | |
CN108399435B (zh) | 一种基于动静特征的视频分类方法 | |
CN106909938B (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
Wang et al. | Gan-knowledge distillation for one-stage object detection | |
CN110363077A (zh) | 手语识别方法、装置、计算机装置及存储介质 | |
CN113032613B (zh) | 一种基于交互注意力卷积神经网络的三维模型检索方法 | |
CN105956517A (zh) | 一种基于密集轨迹的动作识别方法 | |
CN106503616A (zh) | 一种基于分层超限学习机的运动想象脑电信号分类方法 | |
CN112258557B (zh) | 一种基于空间注意力特征聚合的视觉跟踪方法 | |
CN110929243B (zh) | 一种基于手机惯性传感器的行人身份识别方法 | |
CN110110663A (zh) | 一种基于人脸属性的年龄识别方法及系统 | |
CN105609116A (zh) | 一种语音情感维度区域的自动识别方法 | |
CN110189362A (zh) | 基于多分支自编码对抗网络的高效目标跟踪方法 | |
CN110990678B (zh) | 基于增强型循环神经网络的轨迹相似性计算方法 | |
Zhao et al. | Cbph-net: A small object detector for behavior recognition in classroom scenarios | |
CN113705598A (zh) | 数据分类方法、装置及电子设备 | |
CN110084834B (zh) | 一种基于快速张量奇异值分解特征降维的目标跟踪方法 | |
CN110188791B (zh) | 基于自动估计的视觉情感标签分布预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |